Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog

Le Blog de jlduret

Le Blog de jlduret

Pensez juste ou pensez faux mais pensez par vous-même ! Depuis Socrate, le devoir du penseur n’est pas de répéter la doxa du moment mais de la questionner.


Cette étude démystifie le mythe de l’IA comme menace existentielle

Publié par jlduret sur 23 Août 2024, 07:34am

Catégories : #Intelligence artificielle, #Dangers de l'IA

© Image générée par l'IA DALL-E pour Presse-Citron

© Image générée par l'IA DALL-E pour Presse-Citron

VU LA

Camille Coirault

 

 

De HAL 9000 (2001, l’Odyssée de l’espace) à Skynet (Terminator), en passant par les Cylons (Galactica), la culture populaire regorge d’exemples d’intelligences artificielles se retournant contre leurs créateurs. Ces récits, ancrés dans notre imaginaire collectif, ont nourri une appréhension grandissante face à l’essor des modèles de langage de grande envergure (LLMs) comme ChatGPT-4 ou Gemini de Google. Ce qui nous apparaissait comme de la fiction il y a 10 ans est aujourd’hui sous nos yeux et le fantasme de la machine rebelle n’a jamais été aussi présent qu’aujourd’hui.

Cependant, une équipe de chercheurs dirigée par Iryna Gurevych de l’Université technique de Darmstadt et Harish Tayyar Madabushi de l’Université de Bath vient apporter un nouvel éclairage sur cette question brûlante. Leurs travaux ont été publiés à l’occasion du 62ᵉ congrès annuel de l’Association for Computational Linguistics.

Des limites insoupçonnées : le talon d’Achille des LLMs

Contrairement aux craintes largement répandues, l’étude révèle que ces modèles sophistiqués sont en réalité profondément contraints par leur programmation initiale. Incapables d’acquérir de nouvelles compétences de manière autonome, ils demeurent fermement sous le contrôle humain. Mis à part de rares exemples, comme le très récent algorithme EES conçu par le MIT, c’est la réalité pour la majorité des LLMs.

« On craint que, au fur et à mesure que les modèles deviennent de plus en plus grands, ils soient capables de résoudre de nouveaux problèmes que nous ne pouvons pas actuellement prédire, ce qui pose le risque que ces modèles plus grands puissent acquérir des capacités dangereuses, notamment le raisonnement et la planification » explique Tayyar Madabushi. Le chercheur tempère ensuite : « Notre étude montre que la peur qu’un modèle s’échappe et fasse quelque chose de complètement inattendu, innovant et potentiellement dangereux n’est pas fondée ».

Cette conclusion repose sur une série d’expériences menées sur quatre modèles de LLMs différents. Les chercheurs ont soumis ces systèmes à des tâches précédemment identifiées comme « émergentes », c’est-à-dire potentiellement capables de générer des comportements imprévus ou déviants. Les résultats sont sans appel : aucune preuve de développement d’une pensée différenciée ou d’une capacité à agir en dehors de leur programmation n’a été observée.

L’illusion de l’émergence : déconstruire le mythe

L’apparente sophistication des LLMs, susceptibles de mener des conversations cohérentes et naturelles, a conduit certains chercheurs à spéculer sur l’existence de capacités émergentes. On citait notamment l’exemple d’un LLM capable de répondre à des questions sur des situations sociales sans avoir été explicitement formé pour cela. Cependant, l’étude de Gurevych et Tayyar Madabushi démontre que ces prouesses s’expliquent par la combinaison de trois facteurs : la capacité à suivre des instructions, la mémorisation et la maîtrise linguistique.

Aucune trace d’intelligence véritable ou de pensée autonome n’a été détectée. Et c’est là que réside la différence entre ce qu’on appelle une IA aujourd’hui (en réalité un simple perroquet algorithmique), et une vraie intelligence artificielle, qui n’existe pas encore. Une intelligence artificielle véritable apprendrait d’elle-même, formulerait des choix ou des opinions ; ce qui n’est pas le cas aujourd’hui. Le terme IA est en vérité un abus de langage, car les systèmes actuels ne font que traiter et analyser des données en suivant des règles préétablies par des programmeurs humains, sans véritable compréhension ni conscience.

Le véritable danger : l’usage humain de l’IA

Si l’étude écarte le spectre d’une IA incontrôlable, elle ne minimise pas pour autant les risques liés à son utilisation. Gurevych précise : « Nos résultats ne signifient pas que l’IA ne représente aucune menace. Nous montrons plutôt que l’émergence présumée de compétences de pensée complexe associées à des menaces spécifiques n’est pas étayée par des preuves ».

Les véritables défis sont intimement reliés à l’utilisation que nous autres, humains, faisons de ces technologies : consommation énergétique croissante, questions de droits d’auteur, diffusion de fausses informations ou pollution numérique au sens large du terme.

Ainsi, loin d’être un colosse invincible, l’IA apparaît comme un outil puissant, mais limité, dont les dangers potentiels résident davantage dans son utilisation que dans une hypothétique rébellion. Cette étude nous invite donc à garder les pieds sur terre, à recalibrer nos craintes et à concentrer nos efforts sur une utilisation éthique et responsable de l’IA. Un outil n’est jamais dangereux en soi, il l’est si celui qui l’utilise en fait mauvais usage ; voilà un constat qui n’a pas énormément évolué depuis quelques milliers d’années.

  • Une étude récente démontre que les modèles de langage avancés (LLMs) sont incapables de développer une intelligence autonome menaçante.
  • Les capacités apparemment émergentes des LLMs s’expliquent par leur programmation initiale et non par une véritable intelligence.
  • Le danger réel de l’IA réside dans son utilisation par les humains plutôt que dans une hypothétique rébellion des machines.
Pour être informé des derniers articles, inscrivez vous :
Commenter cet article

Archives

Nous sommes sociaux !

Articles récents