OpenAI stellt das Videogenerierungsmodell „Sora“ mit künstlicher Intelligenz vor

Das nordamerikanische Forschungsunternehmen für künstliche Intelligenz OpenAI hat das Videogenerierungsmodell „Sora“ angekündigt.

Laut der offiziellen OpenAI-Website kann dieses Modell verwendet werden, um aus Text ein einminütiges Video zu erstellen. Ein Video kann komplexe Szenen wie mehrere Charaktere, bestimmte Bewegungsarten, bestimmte Themen und Hintergrunddetails enthalten.

Das Unternehmen sagte, es habe das Modell entwickelt, um künstlicher Intelligenz beizubringen, die physische Welt zu verstehen und zu simulieren und Menschen bei der Lösung von Problemen zu helfen, die eine Interaktion in der realen Welt erfordern.

CNN zitierte Hayden, einen leitenden Analysten des Marktforschungsunternehmens API Research, mit den Worten, dass „Sora“ erhebliche Auswirkungen auf den digitalen Unterhaltungsmarkt haben könnte, da sich neue personalisierte Inhalte über mehrere Kanäle verbreiten.

In der „Sora“-Einleitung wies OpenAI auch auf Schwächen des aktuellen Modells hin. Es kann schwierig sein, die physikalische Leistung komplexer Szenarien genau zu simulieren, und es ist möglicherweise nicht möglich, bestimmte Ursache-Wirkungs-Phänomene zu verstehen. Wenn beispielsweise eine Person in einen Keks beißt, erscheint ein Video, das zeigt, dass auf dem Keks keine Bissspuren zu sehen sind.

Gleichzeitig kann das Modell auch räumliche Details wie links und rechts verwechseln.

OpenAI sagte, es plane, mit einem Expertenteam zusammenzuarbeiten, um die neuesten Modelle zu testen und in mehreren Bereichen wachsam zu sein, darunter Fehlinformationen, hasserfüllte Inhalte und Voreingenommenheit.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert