Au-delà de la distraction de la science-fiction : Les vrais coûts de l'IA
Au-delà de la distraction de la science-fiction : Les vrais coûts de l'IA
Quand nous parlons d'intelligence artificielle aujourd'hui, la conversation est souvent dominée par la peur des risques futuristes et existentiels.

Quand nous parlons d'intelligence artificielle aujourd'hui, la conversation est souvent dominée par la peur des risques futuristes et existentiels. Les gens ont peur que des superordinateurs rebelles prennent le contrôle du monde ou rendent l'humanité obsolète. Mais j'ai réalisé que ces scénarios de science-fiction sont en fait une énorme distraction. Ils détournent notre attention des impacts négatifs très réels, tangibles et immédiats que l'IA a sur notre société et notre planète en ce moment même.
L'IA n'existe pas dans le vide. Elle est profondément liée à notre vie quotidienne, et sa croissance incontrôlée accélère des problèmes comme le changement climatique, la violation généralisée des droits d'auteur et la diffusion d'informations très biaisées.
Commençons par l'empreinte environnementale cachée de l'IA, en particulier les grands modèles de langage qui sont devenus si populaires. Pour comprendre cela, j'ai travaillé avec l'initiative BigScience, un projet mondial où nous avons développé Bloom.
Bloom a été le premier grand modèle de langage ouvert construit avec une stricte attention à l'éthique, à la transparence et au consentement. Quand j'ai étudié l'impact environnemental de Bloom, les résultats étaient choquants. L'entraînement de ce seul modèle a consommé autant d'énergie que trente maisons moyennes pendant une année entière, émettant environ vingt-cinq tonnes de dioxyde de carbone. Et c'est en fait dans la fourchette basse.
D'autres modèles, comme les anciennes versions de GPT, peuvent émettre vingt fois plus de carbone juste pendant leur phase d'entraînement. Ce qui rend cela encore plus inquiétant, c'est le manque total de transparence des grandes entreprises technologiques. Les centres de données qui font fonctionner ces modèles ne consomment pas seulement d'énormes quantités d'électricité, ils ont aussi besoin de millions de litres d'eau douce pour refroidir leurs serveurs.
L'obsession actuelle de l'industrie pour « toujours plus grand » signifie que les modèles d'IA ont grandi des milliers de fois en quelques années seulement, entraînant un coût environnemental énorme. Passer à un modèle plus grand pour la même tâche peut facilement émettre quatorze fois plus de carbone. Pour aider à résoudre ce problème, j'ai co-créé un outil appelé CodeCarbon.
Il estime la consommation d'énergie et les émissions de carbone pendant l'entraînement de l'IA. Cela permet aux développeurs de faire des choix plus durables, comme choisir de faire tourner leurs modèles sur des serveurs alimentés par des énergies renouvelables.
Une autre crise critique qui se déroule juste sous notre nez est l'utilisation non autorisée de la créativité humaine. En ce moment, le travail de toute une vie d'innombrables artistes, auteurs et créateurs est extrait d'Internet pour entraîner des modèles d'IA sans aucune forme de consentement ou de compensation.
Pour riposter, un groupe appelé Spawning.ai a créé un outil nommé « Have I Been Trained ? » (Ai-je été entraîné ?).
Cet outil permet aux créateurs de fouiller dans les immenses bases de données d'entraînement de l'IA pour voir si leur dur labeur a été volé. J'ai utilisé cet outil moi-même et j'ai cherché dans la base de données LAION-5B. J'ai été choquée de trouver mes propres images là-dedans, mélangées avec des images d'autres femmes nommées Sasha.
Ce genre de collecte de données aveugle est exactement ce qui conduit à des résultats incroyablement biaisés quand nous demandons à une IA de générer des images. Heureusement, des outils comme celui-ci redonnent le pouvoir aux gens. Ils ont fourni les preuves cruciales nécessaires à des artistes comme Karla Ortiz pour lancer des recours collectifs contre les entreprises d'IA pour violation du droit d'auteur.
Je crois fermement que la créativité humaine est très personnelle, et la traiter comme un buffet à volonté gratuit pour l'entraînement des IA des entreprises enlève l'âme de l'œuvre. Spawning.ai a maintenant fait équipe avec des plateformes comme Hugging Face pour créer des mécanismes stricts d'acceptation et de refus. Cela garantit que les créateurs ont enfin leur mot à dire sur la façon dont leurs données sont utilisées.
Cette collecte de données imprudente alimente directement le problème répandu et dangereux des biais dans l'IA. Les modèles d'IA sont essentiellement des miroirs, ils enregistrent les schémas, les croyances et les préjugés trouvés dans leurs données d'entraînement, perpétuant activement les stéréotypes, le racisme et le sexisme. Si nous n'intervenons pas activement, les algorithmes vont simplement refléter notre passé imparfait au lieu de nous aider à construire un avenir meilleur.
Le Dr Joy Buolamwini a brillamment souligné cela quand elle a découvert que les systèmes de reconnaissance faciale de l'IA échouaient complètement à détecter son visage à moins qu'elle ne mette un masque blanc. Ces systèmes sont historiquement bien pires pour reconnaître les femmes de couleur par rapport aux hommes blancs.
Quand ces modèles fondamentalement imparfaits et biaisés sont utilisés dans des domaines à hauts risques comme les forces de l'ordre, cela détruit des vies. Nous avons déjà vu des cas, comme celui de Porcha Woodruff.
Contribute
You can support your favorite writers


Daniel Muriot 2 hours ago
Intéressant cet outil "Have I Been Trained". Est-ce qu'il permet de constituer un élément de preuve pour aller réclamer de l'argent aux éditeurs d'IA ?