« IL NE FAUT PAS QUE LES RISQUES à LONG TERME OCCULTENT COMPLèTEMENT LES RISQUES à PLUS COURT TERME » GIADA PISTILLI (HUGGING FACE)

Le résumé de cette page a été généré par une IA générative. 

▶︎▶︎▶︎ Cliquez pour en savoir plus sur la méthodologie

L'intelligence artificielle (IA) est au cœur de débats houleux, oscillant entre les promesses d'un avenir technologique radieux et les craintes d'une dystopie où l'humanité serait dépassée par ses propres créations. Lors de cet entretien, Giada Pistilli, principale éthiciste chez Hugging Face, a abordé ces questions, mettant en lumière les enjeux éthiques et les risques associés à l'IA.

La lettre ouverte signée, en mars 2023, par des figures telles qu'Elon Musk et Yoshua Bengio a été un catalyseur de panique médiatique, évoquant un risque d'extinction de l'humanité par des IA potentiellement hors de contrôle. Giada Pistilli a déconstruit ces peurs, les attribuant à des idéologies qui mélangent éthique intergénérationnelle et utilitarisme. Elle a insisté sur la nécessité de replacer l'humain au centre du débat, afin d'anticiper et de mieux appréhender les risques réels liés aux avancées technologiques.

Un point clé soulevé par Giada Pistilli concerne l'absence de consensus autour de la notion d'intelligence artificielle générale (AGI). Elle a émis l'hypothèse que l'AGI pourrait être instrumentalisée pour créer un climat de peur, permettant ainsi d'exercer un contrôle sur les populations. Cette perspective soulève des questions fondamentales sur la gouvernance et la réglementation de l'IA.

Les risques actuels de l'IA, tels que les biais sexistes, racistes et culturels, ainsi que son impact écologique, ont été présentés comme des défis urgents et persistants. Ces problèmes, souvent perçus comme déjà résolus ou secondaires, nécessitent une attention immédiate et des actions concrètes pour éviter des conséquences désastreuses sur la société.

Giada Pistilli a critiqué la tendance à privilégier les scénarios catastrophistes, qui éclipsent les problèmes immédiats posés par l'IA. Elle a souligné l'importance de distinguer les risques à long terme des dangers plus pressants, et a mis en garde contre une focalisation excessive sur des hypothèses apocalyptiques qui pourraient détourner l'attention des enjeux actuels.

La surreprésentation de certaines langues dans les modèles d'IA a également été abordée, Giada Pistilli mettant en garde contre les risques spécifiques tels que les guerres civiles et les génocides qui pourraient découler de la non-reconnaissance des langues minoritaires. Cela souligne l'importance de la diversité et de l'inclusion dans le développement de l'IA pour prévenir les discriminations et les exclusions.

En Europe, le mouvement longtermiste, qui envisage des scénarios de fin du monde liés à l'IA, est moins prégnant qu'ailleurs. Toutefois, Giada Pistilli invite à une vigilance constante, rappelant que les risques immédiats posés par l'IA, tels que les biais et l'impact écologique, ne doivent pas être négligés au profit d'une attention démesurée portée aux risques futurs hypothétiques. L'éthique, la gouvernance et une réglementation adaptée sont des leviers essentiels pour encadrer le développement de l'IA et assurer un avenir où la technologie est au service de l'humanité et non l'inverse.

La discussion en 5 points clés

La lettre ouverte signée par des personnalités telles qu'Elon Musk et Yoshua Bengio il y a un an a suscité un mouvement de panique médiatique en évoquant un risque d'extinction de l'humanité dû à des intelligences artificielles potentiellement hors de contrôle. Giada Pistilli explique que les craintes autour de l'IA sont basées sur des idéologies mêlant éthique intergénérationnelle et utilitarisme, et souligne l'importance de placer l'humain au centre du débat pour anticiper les risques liés aux nouvelles technologies. Il n'existe pas de consensus sur la définition ou la réalisation future d'une intelligence artificielle générale (AGI), et certains débats suggèrent que l'idée d'AGI pourrait être utilisée pour instaurer un contrôle par la peur. Les risques actuels liés à l'IA incluent les biais sexistes, racistes et culturels, ainsi que l'impact écologique, qui sont des problèmes urgents et non résolus contrairement à la perception que ces questions sont déjà traitées. Giada Pistilli fait la distinction entre les risques à long terme et les risques à court terme liés à l'IA, et critique la tendance à se concentrer excessivement sur les scénarios apocalyptiques au détriment des problèmes immédiats et concrets.

2024-03-28T15:09:12Z dg43tfdfdgfd