banner
Maison / Blog / L'ambassadeur de l'IA de Google fait la distinction entre le battage médiatique et la catastrophe
Blog

L'ambassadeur de l'IA de Google fait la distinction entre le battage médiatique et la catastrophe

Jun 22, 2024Jun 22, 2024

MOUNTAIN VIEW, Californie — Au milieu du battage médiatique autour de l'intelligence artificielle lors de la conférence annuelle des développeurs de Google en mai, il est revenu à James Manyika, le nouveau responsable « technologie et société » de l'entreprise, de parler des inconvénients de l'IA.

Devant des milliers de personnes rassemblées dans une arène extérieure, Manyika a évoqué le fléau des fausses images et la manière dont l'IA fait écho au racisme et au sexisme de la société. De nouveaux problèmes apparaîtront, a-t-il prévenu, à mesure que la technologie s’améliorera.

Mais soyez assuré que Google adopte « une approche responsable de l’IA », a-t-il déclaré à la foule. Les mots « audacieux et responsable » sont apparus sur un écran géant, éclipsant Manyika alors qu'il parlait.

L'expression est devenue la devise de Google à l'ère de l'IA, remplaçant en quelque sorte « ne soyez pas méchant », le mantra que l'entreprise a retiré du préambule de son code de conduite en 2018. L'expression résume le message général de la Silicon Valley sur l'IA. , alors que bon nombre des dirigeants les plus influents de l'industrie technologique se précipitent pour développer des versions toujours plus puissantes de la technologie tout en mettant en garde contre ses dangers et en appelant à une surveillance et une réglementation gouvernementales.

Manyika, ancien conseiller technologique de l'administration Obama, né au Zimbabwe et titulaire d'un doctorat en IA d'Oxford, a adopté cette dualité dans son nouveau rôle d'ambassadeur de l'IA de Google. Il insiste sur le fait que la technologie apportera des avantages incroyables à la civilisation humaine et que Google est le bon gestionnaire de cet avenir brillant. Mais peu de temps après la conférence des développeurs, Manyika a signé une déclaration d'une phrase, avec des centaines de chercheurs en IA, avertissant que l'IA présente un « risque d'extinction » comparable aux « pandémies et à la guerre nucléaire ».

L’IA est « une technologie transformationnelle étonnante, puissante », a déclaré Manyika dans une récente interview. En même temps, admet-il, « de mauvaises choses pourraient arriver ».

Les critiques disent que de mauvaises choses se produisent déjà. Depuis sa sortie en novembre dernier, ChatGPT d'OpenAI a inventé une multitude de fausses informations, notamment un faux scandale de harcèlement sexuel qui nommait un véritable professeur de droit. Les versions open source du modèle Stable Diffusion de Stability AI ont créé un flot d'images réalistes d'abus sexuels sur des enfants, sapant les efforts de lutte contre les crimes du monde réel. Une première version de Bing de Microsoft est devenue extrêmement sombre et hostile envers les utilisateurs. Et une récente enquête du Washington Post a révélé que plusieurs chatbots – dont Bard de Google – recommandaient des régimes dangereusement faibles en calories, des cigarettes et même des ténias comme moyens de perdre du poids.

« Les produits d'IA de Google, y compris Bard, causent déjà du tort. Et c'est là le problème de « l'audace » en juxtaposition avec le développement « responsable » de l'IA », a déclaré Tamara Kneese, chercheuse principale et directrice de projet chez Data & Society, une organisation à but non lucratif qui étudie les effets de l'IA.

« Les grandes entreprises technologiques réclament une réglementation », a déclaré Kneese. "Mais en même temps, ils expédient rapidement les produits avec peu ou pas de surveillance."

Les régulateurs du monde entier se démènent désormais pour décider comment réglementer la technologie, tandis que des chercheurs respectés mettent en garde contre les dommages à long terme, notamment le fait que la technologie pourrait un jour dépasser l’intelligence humaine. Il y a une audience axée sur l’IA au Capitole presque chaque semaine.

Si l’IA a des problèmes de confiance, Google aussi. L'entreprise a longtemps eu du mal à convaincre ses utilisateurs qu'elle pouvait protéger la grande quantité de données qu'elle collecte à partir de leurs historiques de recherche et de leurs boîtes de réception de courrier électronique. La réputation de l'entreprise est particulièrement fragile en matière d'IA : en 2020, elle a licencié Timnit Gebru, chercheuse bien connue en éthique de l'IA, après avoir publié un article affirmant que l'IA de l'entreprise pourrait être infectée par le racisme et le sexisme en raison des données sur lesquelles elle a été formée.

Pendant ce temps, le géant de la technologie est soumis à une pression concurrentielle importante : Google a lancé son chatbot plus tôt cette année dans la hâte de rattraper son retard après que ChatGPT et d'autres concurrents aient déjà captivé l'imagination du public. Des concurrents comme Microsoft et de nombreuses start-ups bien financées considèrent l'IA comme un moyen de briser l'emprise de Google sur l'économie Internet.