Premiere Pro und After Effects definieren das kreative Arbeiten neu
Stellen wir uns vor: Sundance Film Festival 2025. Die Berge von Utah im Hintergrund, unendliche Schneemassen, dazu das übliche Getöse der Filmbranche, das jedes Jahr irgendwie noch lauter wird. Hier werden Visionen geboren – oder zerlegt. Und mittendrin, fast unscheinbar, aber irgendwie überall: Adobe. Mit ihrem neuesten Update für Premiere Pro (Beta), After Effects (Beta) und Frame.io zünden sie pünktlich zur Festival-Saison eine technische Rakete, die Cutter:innen, Motion-Designer:innen und Content-Creator:innen den Workflow erleichtern will. Die Frage ist: Was steckt wirklich dahinter?
Premiere Pro Beta bringt ein neues Suchpanel mit, das fast schon unheimlich clever wirkt. Hier reden wir nicht mehr über ein stumpfes Keyword-Matching, bei dem du „Sonnenuntergang“ eintippst und nur Clips mit genau diesem Begriff bekommst. Nein, Adobes neue KI geht tiefer – viel tiefer. Sie versteht Kontext. Du kannst jetzt zum Beispiel „Weite Landschaft mit ruhigem Himmel“ eingeben, und die KI erkennt auf Basis des Videomaterials, welche Clips in deiner Sammlung diesem Mood entsprechen könnten. Das Ganze läuft lokal. Keine Cloud, keine Server irgendwo in Kalifornien oder Singapur, die heimlich deine Daten durchsuchen. Alles bleibt auf deinem Rechner – eine klare Ansage von Adobe, die zeigen will: Datenschutz kann auch im kreativen Bereich ein Standard sein.
Die neue Untertitel-Funktion ist ein weiteres Highlight, das weit über ein simples „Auto-Transcribe“ hinausgeht. Die KI in Premiere Pro ist jetzt in der Lage, Untertitel direkt in bis zu 17 Sprachen zu übersetzen. Aber das ist noch nicht alles: Das System kann spezifische Sprachmuster und Dialekte erkennen und dabei sogar den kulturellen Kontext berücksichtigen. Eine Szene mit Berliner Schnauze wird also nicht mehr in einer drögen, wortwörtlichen Übersetzung in Englisch erscheinen, sondern in einer Version, die auch das Gefühl der Originalsprache transportiert. Das spart nicht nur Zeit, sondern macht die gesamte Produktion deutlich internationaler. Ideal für Filmemacher:innen, die ihre Werke global verbreiten wollen.
After Effects – die Bastion für alle, die sich mit Motion Graphics und VFX beschäftigen – hat in der Beta-Version ebenfalls massive Updates erhalten. Das neue Caching-System ist dabei wohl die wichtigste Neuerung. Die Idee dahinter? Kein nerviges Rendering mehr bei jedem kleinen Änderungsschritt. After Effects speichert jetzt Frames und Zwischenergebnisse in einem persistenten Cache. Das bedeutet: Selbst wenn dein Projekt aus hunderten Ebenen, Effekten und 3D-Elementen besteht, kannst du sofort sehen, was du gerade geändert hast. Die Renderzeiten sind damit laut Adobe um bis zu 50 % reduziert – was bei großen Projekten Wochen an Zeit sparen kann. Besonders spannend: Das Caching-System ist hardware-unabhängig optimiert, sprich, es funktioniert auf einem High-End-PC mit RTX 4090 genauso wie auf einem älteren Laptop.
Und dann wäre da noch Frame.io, Adobes Plattform für kollaboratives Arbeiten. Die neue Beta integriert sich jetzt noch nahtloser in Premiere Pro und After Effects, was bedeutet: Du kannst Feedback von deinem Team direkt in der Timeline sehen, ohne ständig zwischen Anwendungen wechseln zu müssen. Das System erlaubt es, Frame-genaue Kommentare und Anmerkungen hinzuzufügen. Besonders beeindruckend ist die neue Funktion für Cloud-basierte Proxy-Dateien. Das heißt, 8K-Rohmaterial kann automatisch in kleinere Proxy-Dateien umgewandelt und in Echtzeit mit Teammitgliedern geteilt werden – ohne dabei die volle Kontrolle über das Original zu verlieren.
Eine kleine technische Raffinesse gibt es auch noch in der Audio-Sektion. Premiere Pro hat eine verbesserte Remix-Funktion erhalten, die Musiktracks jetzt automatisch auf die Länge des Videos anpasst – aber nicht einfach durch stumpfes Kürzen oder Loopen. Die KI analysiert den Rhythmus, die Struktur und die Melodie des Tracks und schneidet ihn so, dass er wie ein Original klingt. Besonders nützlich für Cutter:innen, die oft das Problem haben, dass ein Track entweder zu kurz oder zu lang ist und nicht sauber endet.
Ein weiteres Detail, das zeigt, wie Adobe sich um die kleinen, aber wichtigen Dinge kümmert: Die Integration von Adobe Firefly, der generativen KI, die hinter vielen dieser Funktionen steckt, basiert vollständig auf lizenziertem Material. Adobe betont, dass Firefly nur mit Content trainiert wurde, für den sie die Rechte besitzen – beispielsweise aus Adobe Stock oder gemeinfreien Inhalten. Das sorgt nicht nur für rechtliche Sicherheit, sondern gibt Nutzer:innen auch das gute Gefühl, dass hier keine Urheberrechtsverletzungen mitschwingen.
Und während sich Cutter:innen und Designer:innen in den nächsten Wochen mit den neuen Funktionen auseinandersetzen, stellt sich eine größere Frage: Was bedeutet das für die Zukunft des kreativen Prozesses? Die Antwort ist komplex. Einerseits nimmt die Automatisierung viele repetitive, zeitraubende Aufgaben ab. Andererseits wirft sie auch ethische Fragen auf: Wie viel kreativer Input kommt noch von den Menschen, wenn immer mehr Prozesse von Algorithmen übernommen werden? Vielleicht ist genau das die Diskussion, die Adobe beim Sundance Film Festival anstoßen wollte. In jedem Fall sind sie mit diesen Updates gut aufgestellt, um nicht nur die Gegenwart, sondern auch die Zukunft des Filmemachens mitzugestalten.