La joie et la peur des générateurs d’images AI sans limites

Les générateurs d’images comme Stable Diffusion peuvent créer ce qui ressemble à de vraies photographies ou à des illustrations faites à la main représentant à peu près tout ce qu’une personne peut imaginer. Ceci est possible grâce à des algorithmes qui apprennent à associer les propriétés d’une vaste collection d’images extraites du Web et de bases de données d’images avec leurs étiquettes de texte associées. Les algorithmes apprennent à rendre de nouvelles images pour correspondre à une invite de texte dans un processus qui implique l’ajout et la suppression de bruit aléatoire à une image.

Parce que des outils comme Stable Diffusion utilisent des images extraites du Web, leurs données de formation incluent souvent des images pornographiques, ce qui rend le logiciel capable de générer de nouvelles images sexuellement explicites. Une autre préoccupation est que ces outils pourraient être utilisés pour créer des images qui semblent montrer une personne réelle faisant quelque chose de compromettant, quelque chose qui pourrait répandre de fausses informations.

La qualité des images générées par l’IA a grimpé en flèche au cours de la dernière année et demie, à commencer par l’annonce en janvier 2021 d’un système appelé DALL-E par la société de recherche sur l’IA OpenAI. Il a popularisé le modèle de génération d’images à partir d’invites de texte et a été suivi en avril 2022 par un successeur plus puissant, DALL-E 2, désormais disponible en tant que service commercial.

Dès le départ, OpenAI a limité l’accès à ses générateurs d’images, en ne fournissant l’accès que via une invite qui filtre ce qui peut être demandé. Il en va de même pour un service concurrent appelé À mi-parcourssorti en juillet de cette année, qui a contribué à populariser l’art créé par l’IA en étant largement accessible.

Stable Diffusion n’est pas le premier générateur d’art IA open source. Peu de temps après la sortie du DALL-E original, un développeur a construit un clone appelé DALL-E Mini qui a été mis à la disposition de tous et est rapidement devenu un phénomène de création de mèmes. DALL-E Mini, rebaptisé plus tard comme Craiyon, comprend toujours des garde-corps similaires à ceux des versions officielles de DALL-E. Clément Delangue, PDG de ÉtreindreVisageune entreprise qui héberge de nombreux projets d’IA open source, dont Stable Diffusion et Craiyon, affirme qu’il serait problématique que la technologie ne soit contrôlée que par quelques grandes entreprises.

“Si vous regardez le développement à long terme de la technologie, la rendre plus ouverte, plus collaborative et plus inclusive est en fait meilleure du point de vue de la sécurité”, dit-il. La technologie fermée est plus difficile à comprendre pour les experts extérieurs et le public, dit-il, et il est préférable que des étrangers puissent évaluer des modèles pour des problèmes tels que les préjugés liés à la race, au sexe ou à l’âge ; en outre, d’autres ne peuvent pas s’appuyer sur une technologie fermée. Dans l’ensemble, dit-il, les avantages de l’open source de la technologie l’emportent sur les risques.

Delangue souligne que les entreprises de médias sociaux pourraient utiliser Stable Diffusion pour créer leurs propres outils permettant de repérer les images générées par l’IA utilisées pour diffuser la désinformation. Il dit que les développeurs ont également contribué à un système pour ajouter des filigranes invisibles aux images créées à l’aide de Stable Diffusion afin qu’elles soient plus faciles à tracer, et ont créé un outil pour trouver des images particulières dans les données d’entraînement du modèle afin que celles qui posent problème puissent être supprimées.

Après s’être intéressé à Unstable Diffusion, Simpson-Edin est devenu modérateur sur Unstable Diffusion Discord. Le serveur interdit aux gens de publier certains types de contenu, y compris des images qui pourraient être interprétées comme de la pornographie mineure. “Nous ne pouvons pas modérer ce que les gens font sur leurs propres machines, mais nous sommes extrêmement stricts avec ce qui est publié”, dit-elle. À court terme, contenir les effets perturbateurs de la création artistique basée sur l’IA pourrait dépendre davantage des humains que des machines.

.

Leave a Comment

Your email address will not be published.