Adobe versucht, Kreativsoftware eher wie einen Agenten agieren zu lassen
Adobe hat einen neuen Firefly AI Assistant angekündigt, mit dem Nutzer gewünschte Änderungen in natürlicher Sprache beschreiben können, anstatt sich manuell durch bestimmte Creative-Cloud-Tools zu arbeiten, wie aus dem bereitgestellten Verge-Bericht hervorgeht. Das Unternehmen beschreibt den Schritt als grundlegenden Wandel in der Art, wie kreative Arbeit erledigt wird. Ob sich das im großen Maßstab bestätigt oder nicht, die Richtung ist klar: Adobe will konversationelle KI zur Eingangstür seines Kreativ-Software-Ökosystems machen.
Der Assistent soll über die Firefly-AI-studio-Plattform verfügbar sein, ein genaues Veröffentlichungsdatum wurde im Quelltext jedoch nicht genannt, außer „bald verfügbar“. Adobe sagt, die Oberfläche baue auf Project Moonlight auf, einem Experiment, das auf der Max-Konferenz im Vorjahr vorgestellt wurde. Der Assistent soll komplexe, mehrstufige Workflows automatisch mit Tools aus Firefly, Photoshop, Premiere, Lightroom, Express, Illustrator und anderen Apps im Namen des Nutzers ausführen.
Das ist ein deutlicher Schritt über Generative Fill oder promptbasierte Bilderzeugung hinaus. Statt nur ein Feature in einer einzelnen Anwendung zu sein, präsentiert Adobe KI als Orchestrator, der eine Absicht wie „bearbeite dieses Bild“ oder „skaliere das für Social Media“ in eine Abfolge von Aktionen übersetzen kann. Das Unternehmen fügt nicht einfach nur mehr KI-Tools hinzu. Es versucht, die Hürde zu senken, dass Nutzer überhaupt erst wissen müssen, welches Tool sie öffnen sollen.
Die eigentliche Veränderung betrifft die Oberfläche, nicht nur die Automatisierung
Creative Software belohnt seit Langem Expertise in Menüs, Fachbegriffen, Ebenen, Formaten und Workflow-Logik. Adobes Argument ist, dass konversationelle Steuerung diese Hürde senken kann, ohne die Wahlfreiheit der Nutzer zu nehmen. Im Quelltext bietet der Assistent eine Auswahl an Bearbeitungen an und zeigt die Werkzeuge oder Regler, die für das Feintuning nötig sind. Anschließend können Nutzer das Ergebnis in einer Creative-Cloud-App für detailliertere Anpassungen öffnen.
Das ist eine wichtige Designentscheidung, weil sie zeigt, dass Adobe Vereinfachung und professionelle Kontrolle ausbalancieren will. Das Unternehmen behauptet nicht, dass Kreative seine Apps nicht mehr brauchen werden. Stattdessen sagt es, der Weg in diese Apps könne natürlicher sprachgesteuert und weniger von technischem Vokabular abhängig werden. Für neue Nutzer könnte das Adobes Software weniger einschüchternd machen. Für erfahrene Nutzer könnte es wiederholte Vorarbeit reduzieren und gängige Aufgaben beschleunigen.
Die strategische Logik ist einfach. Wenn Nutzer zunehmend erwarten, dass Software auf Absichten statt auf Befehle reagiert, gewinnt das Unternehmen, das die Workflow-Ebene kontrolliert. Adobe kontrolliert bereits einen großen Teil des professionellen Kreativ-Stacks. Ein KI-Assistent, der diesen Stack koordinieren kann, könnte die Bindung an das Ökosystem stärken und es zugleich für weniger spezialisierte Nutzer zugänglicher wirken lassen.







