Google hat Veo 3.1 angekündigt, die neue Version seines KI-basierten Videoerstellungsmodells. Dieses Update verbessert die Fähigkeit des Modells, Textbefehle zu verstehen und umzusetzen, erheblich. Veo 3.1 kann nun schriftliche Anweisungen wesentlich präziser befolgen und Videos erstellen, die den gewünschten Ergebnissen näherkommen. Diese Entwicklung bedeutet eine präzisere Steuerung für Content-Ersteller, die mit künstlicher Intelligenz arbeiten.
Veo 3.1 unterstützt wie sein Konkurrent Sora die Audioerzeugung
Eine der bemerkenswertesten Neuerungen der neuen Version ist die Integration der Audioerzeugung in den Prozess der Umwandlung von Bildern in Videos. Dank dieser Funktion, die in der Vorgängerversion Veo 3 nicht vorhanden war, können Nutzer nun aus hochgeladenen Bildern gleichzeitig sowohl bewegte Bilder als auch den passenden Ton erzeugen. Diese Fähigkeit wurde auch im Videobearbeitungstool Flow zur Verfügung gestellt.
Auch Googles Videobearbeitungsprogramm Flow erhält mit dem Veo 3.1-Update neue Funktionen. Mit einem neuen Werkzeug namens „Frame to Video“ können Nutzer den Anfangs- und Endframe eines Videos festlegen und die gesamte dazwischenliegende Szene von der KI generieren lassen. Während dieses Prozesses wird ebenfalls synchron Audio erzeugt. Darüber hinaus wurden erweiterte Steuerungsoptionen wie die Funktion „Szenenerweiterung“ zum Hinzufügen von Inhalten zu bestehenden Videos und die Bearbeitung von Beleuchtung und Schatten in den Flow-Editor integriert.
Nach Angaben des Unternehmens können Flow-Nutzer bald jedes beliebige Objekt aus ihren Videos vollständig entfernen. Die KI wird die Lücke des entfernten Objekts füllen, indem sie den Hintergrund rekonstruiert und es so aussehen lässt, als wäre das Objekt nie da gewesen. Veo 3.1, das auf dem bei der Google I/O 2024 vorgestellten Veo 3 aufbaut, ist derzeit für Entwickler über die Gemini API zugänglich und auch in der Gemini-Anwendung aktiviert.





