par Jade
Le mimétisme de l’intelligence n’est pas de l’intelligence, et si le mimétisme de l’IA est un outil puissant, il n’est pas intelligent.
La mythologie de la technologie a un autel spécial pour l’IA, l’intelligence artificielle, qui est vénérée comme la source d’étonnantes réductions de coûts (le travail humain étant remplacé par l’IA) et d’une expansion illimitée de la consommation et des profits. L’IA est la perfection béate de l’avancée naturelle de la technologie vers des pouvoirs toujours plus grands.
Le consensus veut que les progrès de l’IA conduisent à une utopie de contrôle illimité de la nature et à une corne d’abondance et de loisirs.
Si nous écartons le rideau de la mythologie, nous constatons que l’IA imite l’intelligence humaine, et cette imitation est si fascinante que nous la considérons comme la preuve d’une intelligence réelle. Mais l’imitation de l’intelligence n’est pas l’intelligence, et si l’imitation de l’IA est un outil puissant, elle n’est pas intelligente.
Les itérations actuelles de l’IA générative – les grands modèles de langage (LLM) et l’apprentissage automatique – imitent notre capacité à utiliser le langage naturel en traitant des millions d’exemples d’écriture et de discours humains et en extrayant ce que les algorithmes sélectionnent comme étant les meilleures réponses aux requêtes.
Ces programmes d’IA ne comprennent pas le contexte ou le sens du sujet ; ils exploitent les connaissances humaines pour distiller une réponse. C’est potentiellement utile, mais ce n’est pas de l’intelligence.
Les programmes d’IA ont une capacité limitée à discerner le vrai du faux, d’où leur propension à faire passer des fictions pour des faits. Ils sont incapables de faire la différence entre des variations statistiques et des erreurs fatales, et l’ajout de mesures de précaution ajoute une complexité supplémentaire qui devient un autre point d’échec.
En ce qui concerne l’apprentissage automatique, l’IA peut projeter des solutions plausibles à des problèmes exigeants en termes de calcul, tels que la manière dont les protéines se replient, mais cette boîte noire informatique à force brute est opaque et donc d’une valeur limitée : le programme ne comprend pas réellement le repli des protéines de la manière dont les humains le comprennent, et nous ne comprenons pas comment le programme est parvenu à sa solution.
Comme l’IA ne comprend pas réellement le contexte, elle est limitée aux options intégrées dans sa programmation et ses algorithmes. Nous percevons ces limites dans les applications et les robots basés sur l’IA, qui n’ont aucune conscience du problème réel. Par exemple, notre connexion Internet est interrompue en raison d’une mise à jour corrompue du système, mais comme cette possibilité n’a pas été incluse dans l’univers des problèmes à résoudre de l’application, l’application/le robot IA signale consciencieusement que le système fonctionne parfaitement, même s’il est en panne. (Cet exemple est tiré de la vie réelle.)
En substance, chaque couche de cette extraction / imitation crée des points de défaillance supplémentaires : l’incapacité d’identifier la différence entre les faits et la fiction ou entre les taux d’erreur admissibles et les erreurs fatales, la complexité accrue des mesures de précaution et l’opacité de la boîte noire sont autant de facteurs qui génèrent des risques d’accidents normaux se transformant en défaillance du système.
Il y a aussi le risque systémique généré par la dépendance à l’égard de la boîte noire de l’IA pour faire fonctionner les systèmes au point que les humains perdent la capacité de modifier ou de reconstruire les systèmes. Cette dépendance excessive à l’égard des programmes d’IA crée un risque de défaillance en cascade, non seulement des systèmes numériques, mais aussi de l’infrastructure du monde réel qui dépend désormais des systèmes numériques.
Le fait de dépendre de l’IA pour trouver des solutions a un résultat encore plus pernicieux. Tout comme la nature addictive des téléphones portables, des médias sociaux et du contenu d’Internet a perturbé notre capacité à nous concentrer, à nous focaliser et à apprendre des matières difficiles – un déclin dévastateur de l’apprentissage chez les enfants et les adolescents – l’IA offre une corne d’abondance de faits à grignoter, de bribes de codage, de publicités télévisées générées par ordinateur, d’articles et de livres entiers qui ne nécessitent plus que nous ayons une connaissance approfondie des sujets et des processus. Sans cette compréhension, nous ne sommes plus équipés pour mener une enquête sceptique ou pour créer du contenu ou du codage à partir de zéro.
En effet, le processus ardu d’acquisition de ces connaissances semble désormais inutile : le robot IA peut tout faire, rapidement, à peu de frais et avec précision. Cela crée deux problèmes : 1) lorsque les programmes de la boîte noire de l’IA échouent, nous n’en savons plus assez pour diagnostiquer et réparer l’échec, ou pour faire le travail nous-mêmes, et 2) nous avons perdu la capacité de comprendre que dans de nombreux cas, il n’y a pas de réponse ou de solution qui soit le dernier mot : la « réponse » exige l’interprétation de faits, d’événements, de processus et de bases de connaissances qui sont intrinsèquement ambigus.
Nous ne reconnaissons plus que la réponse de l’IA à une requête n’est pas un fait en soi, mais une interprétation de la réalité présentée comme un fait, et que la solution de l’IA n’est qu’une voie parmi d’autres, chacune ayant des compromis intrinsèques qui génèrent des coûts et des conséquences imprévisibles par la suite.
Pour discerner la différence entre une interprétation et un fait supposé, il faut une mer de connaissances à la fois large et profonde, et en perdant la volonté et la capacité d’apprendre des matières difficiles, nous avons perdu la capacité de reconnaître ce que nous avons perdu : ceux qui ont peu de connaissances réelles n’ont pas les bases nécessaires pour comprendre la réponse de l’IA dans le contexte approprié.
Le résultat net est que nous devenons moins capables et moins informés, aveugles aux risques créés par notre perte de compétence, tandis que les programmes d’IA introduisent des risques systémiques que nous ne pouvons ni prévoir ni anticiper. L’IA dégrade la qualité de tous les produits et systèmes, car le mimétisme ne génère pas de réponses, de solutions et de connaissances définitives, mais seulement une illusion de réponses, de solutions et de connaissances définitives que nous confondons stupidement avec une intelligence réelle.
Alors que l’État-entreprise néo-féodal se réjouit des profits à récolter en éliminant la main-d’œuvre humaine à grande échelle, l’exploitation et le mimétisme des connaissances humaines ont des limites. Compter sur les programmes d’IA pour éliminer toutes les erreurs fatales est en soi une erreur fatale, et les humains doivent donc rester dans la boucle de décision (la boucle OODA d’observation, d’orientation, de décision, d’action).
Une fois que les programmes d’IA s’engagent dans des processus de sécurité des personnes ou de soins de santé, chaque entité liée au programme d’IA est exposée à une responsabilité illimitée (conjointe et solidaire) en cas d’erreurs préjudiciables ou fatales.
Si nous éliminons la mythologie et l’hyperbole, nous nous retrouvons avec une autre structure néo-féodale : les riches seront servis par des humains, et le reste d’entre nous sera coincé avec des services d’IA de mauvaise qualité et sujets aux erreurs, sans aucun recours.
Les promoteurs de l’IA s’attendent à ce que l’IA générative permette de récolter des billions de dollars de bénéfices grâce à la réduction des coûts et à la création de nouveaux produits et services. Cette histoire ne correspond pas au monde réel, dans lequel chaque outil logiciel d’IA est facilement copié / distribué et où il sera donc impossible de protéger toute valeur de rareté, ce qui est la dynamique essentielle pour maintenir le pouvoir de fixation des prix nécessaire pour récolter des profits considérables.
Les outils logiciels que tout le monde possède, à moins qu’un monopole n’en restreigne la distribution, ont peu de valeur, de même que le contenu généré automatiquement par ces outils : les millions de chansons, de films, de communiqués de presse, d’essais, de documents de recherche, etc. générés par l’IA submergeront tout public potentiel, réduisant à zéro la valeur de tout le contenu généré par l’IA.
Les promoteurs affirment que la suppression massive d’emplois sera magiquement compensée par de nouvelles industries entières créées par l’IA, à l’image de la transition entre le travail agricole et le travail en usine. Mais le dragon de l’IA se mangera lui-même la queue, car il ne crée que peu d’emplois ou de profits qui peuvent être taxés pour payer les gens qui ne travaillent pas (revenu de base universel).
La limite la plus importante de l’IA est peut-être qu’elle ne fera rien pour résoudre les problèmes les plus urgents de l’humanité. Elle ne peut pas nettoyer la grande gyre de déchets du Pacifique, ni limiter les 450 millions de tonnes de plastique non recyclé rejetées chaque année, ni inverser le changement climatique, ni nettoyer les orbites terrestres des milliers de détritus dangereux à haute vélocité, ni transformer l’économie très rentable des décharges de déchets en un système mondial durable, ni éliminer toutes les sources de ce que j’appelle l’anti-progrès. Cela ne fera qu’ajouter de nouvelles sources de risque systémique, de gaspillage et d’exploitation néo-féodale.
Traduction d’OfTwoMinds par Aube Digitale