14 dollars: le prix payé par une entreprise d’intelligence artificielle pour des vidéos de pieds humains qui marchent dans la rue; 50 centimes la minute, la rémunération proposée par Neon Mobile à ceux qui vendent leurs propres appels téléphoniques. Avant de nous retirer définitivement le travail, l’intelligence artificielle nous le donne: dans le monde entier des milliers de personnes entraînent les modèles d’IA pour quelques dizaines ou centaines de dollars, vendant leur image, leurs conversations et leurs vidéos privées.
De l’Inde aux États-Unis : la cartographie des nouveaux travailleurs de l’IA
Afrique du Sud, Inde, États-Unis: les formateurs d’IA interrogés par le Guardian vivent aux quatre coins du globe, surtout dans les pays les moins développés où une rémunération de quelques dollars peut couvrir les courses d’une semaine.
En gagnant plus de 100 dollars par mois en chargeant des échantillons audio de leur propre voix et en donnant accès à Silencio (une appli qui collecte des données audio pour entraîner l’IA) au microphone de leur smartphone pour enregistrer les sons ambiants, le jeune Indien Sahil Tigga, âgé de vingt-deux ans, peut se payer un mois de nourriture. Ramelio Hill, dix-huit ans, de Chicago, a quant à lui vendu pour quelques centaines de dollars des heures de conversations privées avec des proches et des amis à Neon Mobile.
Mais quel est le prix caché de ces petits boulots « pour arrondir les fins de mois » ?
Le visage et la voix en otage des bots
Il faut d’abord comprendre que le métier d’entraîneur n’est qu’un travail à court – très court – terme, sans aucune perspective d’avenir: il naît en réponse à une pénurie momentanée de données, comme le qualifie le Guardian, et prendra fin dès que le système sera réhydraté. Toutefois, les conséquences pour les entraîneurs pourraient être beaucoup plus durables.
Sur certaines plateformes les contrats sont irrévocables et ne prévoient pas de royalties: un audio de 20 minutes peut alimenter un bot pendant des années sans que l’entraîneur ne soit payé un centime de plus; son visage pourrait figurer dans une base de données de reconnaissance faciale ou dans une publicité à l’autre bout du monde.
Selon Jennifer King, experte en protection des données à l’Institut Stanford pour l’Intelligence Artificielle centrée sur l’Humain, ce qui inquiète est que les plateformes n’expliquent pas comment et où les données des utilisateurs seront utilisées: « les consommateurs risquent que leurs données soient réutilisées de manières qu’ils n’approuvent pas, qu’ils n’ont pas comprises ou auxquelles ils ne s’attendaient pas ».
Au-delà des clauses : le deepfake « hors de contrôle »
Même lorsque l’on parvient à obtenir des protections plus importantes, le risque est toujours là. C’est l’exemple emblématique d’un acteur de New York, Adam Coy, qui en 2024 avait vendu son image pour 1 000 dollars à Captions, un éditeur vidéo basé sur l’IA: le contrat garantissait que son identité ne serait pas utilisée à des fins politiques, pour faire la publicité d’alcool, de tabac ou de pornographie, et que la licence expirerait après un an.
Toutes les conditions étaient respectées: dommage que peu de temps après, ses amis commencèrent à lui envoyer des reels Instagram dans lesquels son deepfake promouvait des compléments médicaux non vérifiés destinés aux femmes enceintes et en post-partum. Depuis lors, Coy n’a plus vendu son image, mais il ne l’exclurait pas si une rémunération très élevée lui était proposée. Et vous, venderiez-vous votre identité au meilleur offerant ?