Sora 2 est arrivée sur Android aux États‑Unis (et bientôt en Europe), suscitant des doutes sur l’éthique, sur le droit d’auteur et sur les contours juridiques de l’IA. Et l’Italie se met en ordre.
La deuxième version de Sora, lancée par OpenAI, quelques jours seulement après son arrivée sur les appareils Android en Amérique du Nord, bat tous les records : plus d’un million de téléchargements en cinq jours. L’application, qui était jusqu’à peu disponible sur invitation uniquement pour iOS (Apple) aux États‑Unis et au Canada, permet de créer des vidéos hyperréalistes de dix secondes à partir de simples descriptions textuelles.
En pratique, il suffit de taper une phrase comme « un chien court dans Central Park » et, en quelques instants, le logiciel génère une séquence qui semble sortir d’un film. Le succès a été immédiat, aidé par la possibilité de partager facilement les vidéos sur les réseaux sociaux, mais l’ascension de Sora a déjà alimenté des débats vifs sur la possibilité de recréer des visages, des lieux et des personnages réels, y compris décédés, nourrissant le débat sur l’éthique, le droit d’auteur et les limites de l’IA générative.
Vidéos impossibles.Sora 2 marque un net bond qualitatif par rapport au premier modèle, déjà impressionnant à l’époque. Outre une amélioration de la restitution visuelle, l’IA est intégrée à un système qui reconnaît le langage naturel avec encore plus de précision et reproduit les mouvements de caméra, l’éclairage et les textures avec une fidélité impressionnante. Les résultats sont souvent indiscernables des films réels et ont inondé les réseaux sociaux en quelques heures.
Certaines vidéos montrent des reconstitutions de scènes avec des personnalités célèbres, dont des chanteurs et des acteurs décédés, à tel point que la fille de Robin Williams a publiquement demandé d’arrêter de partager des versions « virtuelles » de son père. Dans d’autres cas, toutefois, les utilisateurs ont poussé la créativité au-delà des limites légales : un deepfake viral montrait le PDG d’OpenAI, Sam Altman, dialoguant avec des personnages des Pokémon, ironisant sur les risques de violation du droit d’auteur. Étonnée par l’emballement des derniers jours, la même société a reconnu chercher encore un équilibre entre liberté créative et respect des droits des personnes représentées.
Questions épineuses. L’application Sora 2 soulève une autre question cruciale : à qui revient la responsabilité des contenus générés ? Selon OpenAI, la plateforme est protégée par un système de modération et des filtres qui limitent les abus, mais les cas de deepfake montrent que, très probablement, ces limitations ne suffisent pas. Les modèles vidéo, comme les modèles textuels, apprennent à partir d’énormes quantités de données, et distinguer l’usage légitime de l’exploitation illicite reste complexe.
Altman a déclaré que l’entreprise introduirait « un contrôle plus granulaire », c’est-à-dire la possibilité pour les détenteurs des droits de décider de manière détaillée comment, où et par qui leurs personnages ou contenus protégés pourraient être utilisés.
Par ailleurs, le PDG a évoqué l’introduction prochaine d’un mécanisme de partage des revenus (« revenue sharing ») qui permettrait de redistribuer une partie des gains générés à ceux qui souhaitent autoriser l’usage de leurs personnages ou œuvres protégés. En attendant, le succès virulent de Sora 2 met aussi à mal les serveurs d’OpenAI, inondés par les requêtes des utilisateurs, avec des ralentissements évidents dans la production des résultats.
Primauté italienne. Alors que Sora 2 se déploie sur Android – avec un déploiement prévu prochainement hors Amérique du Nord également – l’Italie agit déjà pour réguler le phénomène. Depuis le 10 octobre, une nouvelle loi sur l’intelligence artificielle est en vigueur qui instaure pour la première fois le délit de deepfake : quiconque diffuse, sans consentement, des vidéos, des audios ou des images falsifiés qui portent atteinte à la personne risquent entre un et cinq ans d’emprisonnement.
Cette norme, première du genre en Europe, comble un vide juridique à une époque où des outils comme Sora et Sora 2 rendent la manipulation visuelle accessible à tous. La mesure vise à protéger non seulement la réputation individuelle, mais aussi la créativité humaine, menacée par des algorithmes de plus en plus puissants, au point que dans quelques années une vidéo générée artificiellement pourrait ne plus être distinguable d’une vidéo réelle, au moins à l’œil nu.