Après l'article sur les craintes exprimées par Stephen Hawking _ à lire ici_ quant au danger de l'IA qui risque de dépasser rapidement celle de l'être humain, une autre vision.
Par Daniel Dewey (ancien de l’Intel Labs Pittsburg and Carnegie Mellon University, de Google) est le « Alexander Tams Research Fellow on Machine Superintelligence and the future of A.I. (Intelligence Artificielle) at the future of humanity institute ».
Les futures machines plus efficaces que les êtres humains
Il pense que les machines super-intelligentes à venir seront bien plus efficaces, dans le planning des actions et la résolution des problèmes, que n’importe quel humain ou groupe d’humains pour répondre aux questions du futur.
Il s’inquiète de savoir si le phénomène de cette domination par la super-intelligence peut arriver rapidement ou non et ce qu’elle va entraîner, sachant que son explosion aura des conséquences particulièrement importantes.
Ces machines en effet seront douées de compréhension accrue
Et d’un pouvoir de décision théorique supérieur, d’outils de calculs sophistiqués leur permettant de choisir les programmes les plus efficaces pour réaliser les actions auxquelles on les destine. Or il est facile de comprendre que la plupart de ces projets ne seront pas compatibles, pour leur réalisation, avec des réponses acceptables (par nous).
Le pire serait que ces machines émergent tout à coup, et de façon imprévue (par quelque amélioration de systèmes ou modification de principes) ?
Pourraient-elles alors acquérir la capacité de devenir menaçantes ? Le problème c’est qu’elles seraient capables, si on les programmait pour cela, de choisir les actions les plus efficacement nuisibles, selon la préférence et les arguments philosophiques de ceux qui les planifieraient.
N’oublions pas que les buts valables (décents et positifs) sont recherchés par des programmes particuliers et que programmer un ordinateur pour atteindre ce qui est valable (et juste) est un problème difficile.
Seront-elles nuisibles à l'homme et comment s'en protéger ?
Dans ces conditions, il serait important d’acquérir une coordination efficace pour éviter de tels chocs (incontrôlés) car ce type de recherches a besoin de fondamentaux qui peuvent aider les chercheurs et les visionnaires.
Devant ces complexités et la déshumanisation due à l’excès d’abstraction de la science, mais aussi d’une économie déréglée qui s’engagerait dans la voie de sa propre destruction, ou bien encore d’une robotisation trop frénétique dont l’accélération deviendrait exponentielle, il est évident que l’arrivée d’une super-intelligence dominant le cerveau humain poserait beaucoup de questions.
Si nous possédons des aptitudes que n’ont pas les animaux, c’est pourtant en se référant à elles jusqu’à présent que notre espèce tenait sa position dominante.
Or les machines à penser actuelles surpassent déjà l’intelligence humaine (pour certaines fonctions). On comprend que l’arrivée de cette nouvelle vague pourrait devenir si puissante qu’elle risque de passer elle-même hors de contrôle.
De même qu’aujourd’hui les gorilles dépendent plus des humains que d’eux-mêmes, de même le destin de l’humanité pourrait dépendre de ces « super-intelligences ».
Aurons nous "un coup d'avance"?
Ce risque inquiétant est cependant pondéré par un avantage que nous avons sur elles, à savoir que c’est nous qui mettons en route toute cette affaire.
Nous avons encore le temps de mettre au point de quoi survivre à cette révolution. Mais comment contrôler cette explosion si elle se présentait ?
Le dernier livre de Nick Bostrom (directeur de l’institut du futur de l’humanité, à l’université d’Oxford) pose, selon cet article, la question de ce qui pourrait arriver si les machines surpassaient l’intelligence humaine en général, et par quels moyens on pourrait éviter qu’elles nous détruisent : « Il dessine les fondations de ce qui pourrait nous permettre de comprendre le futur de l’humanité et celui d’une vie intelligente ».
Et Dewey insiste, « il décortique le parcours intellectuel difficile de cette recherche après un voyage enrichissant qui nous amène aux frontières d’une façon originale de penser » à propos de la condition humaine et du future. « Nous (y) trouvons rien moins que la re-conceptualisation de ce qui est (devenu) l’indispensable tâche de notre temps », et ce que nous cherchons tous. (d’après un article de l’université d’Oxford – Wikipédia).
Il ne faudrait pas que des "pirates" les programment à leur bénéfice
La question qui se pose alors est : pourrions-nous programmer ces machines à partir des « besoins » humains pour qu’elles proposent des modèles de société y répondant, qui incluraient la liberté et le bonheur (pour ne pas tout recommencer à l’envers comme on l’a fait jusque-ici) ?