2 minutes de lecture

Sora 2 : l'AGI attendra, le video slop c'est mieux (non?)

Sommaire

OpenAI vient de lancer Sora 2, la nouvelle version de son modèle de génération vidéo par IA, accompagnée d’une app iOS. La prouesse technique est folle quand on repense aux premières vidéos IA de Will Smith qui mangeait des pâtes

Au moins au niveau de VEO-3 de Google si ce n’est meilleure, Sora 2 apporte tout l’arsenal pour devenir une usine à deepfake parfaite :

  • Respect de la consistence dans les visages
  • Audio synchronisé Le modèle génère désormais de l’audio qui correspond à la vidéo, incluant dialogues et effets sonores
  • Physique réaliste : les mouvements de corps, l’eau, on y croit

L’app Sora : TikTok version IA slop

Et c’est là que ça coince, OpenAI ne s’est pas contenté de sortir un nouveau modèle. Une app “tiktok like” va avec, avec scroll infini et alimentée par les vidéos des utilisateurs. Un vrai piège à attention avec des fonctions clairement taillées pour le jeune public :

  • Remix : Possibilité de remixer les créations des autres
  • Cameo : insérer son visage directement dans n’importe quelle scène

Alors évidemment (heureusement?) ça gueule un peu. Déjà qu’on se posait la question si les LLM “textuels” allaient nous rendre débiles.

Parce qu’ils poussent le curseur un peu loin avec l’app et le public visé, et que j’ai un doute sur la nécessité d’utiliser les milliards à leur disposition pour ÇA.

L’IA devait piquer nos jobs, révolutionner la médecine et la physique mais non : les GPU brûlent pour des vidéos de merde oubliées aussi vite qu’un scroll tiktok

👆 mon tweet le soir du lancement

Est-ce que dans quelques mois tout le monde va se lasser ? Ou à l’inverse nos flux vont se remplir de vidéo slop ? Time will tell.