Les motifs économiques peuvent ruiner l'intelligence artificielle

KI: Que se passe-t-il si nous créons quelque chose de plus intelligent que nous, une machine qui pourrait faire quelque chose de complètement différent de ce que nous voulons?

Critique littéraire aux temps modernes.
Intelligence artificielle compatible humaine et problème de contrôle
Forfatter: Stuart Russell
Forlag: Allen Lane (Storbritannia)

KI: Que se passe-t-il si nous créons quelque chose de plus intelligent que nous-mêmes, une machine qui pourrait faire quelque chose de complètement différent de ce que nous voulons?

(Traduit automatiquement depuis Norsk par Gtranslate (Google étendu))

Une machine peut-elle comprendre toutes les préférences humaines? Existe-t-il des machines altruistes? Sera superintelligent intelligence artificielle (KI) jamais venu? Sera-t-il possible de télécharger la conscience humaine sur un programme informatique? Ce sont des questions Stuart Russell reprend ce livre. Russell est professeur d'informatique et docteur honoris causa au Wadham College à Oxford. Il a reçu de nombreux prix et distinctions pour ses recherches sur la relation entre les ordinateurs et les humains, et il a écrit un certain nombre de livres sur les dangers et les avantages de l'intelligence artificielle.

Le livre aborde des questions importantes et centrales, telles que la rémunération des citoyens et la manière dont la technologie doit être utilisée dans le système éducatif. Russell discute également des problèmes d'utilisation des humanoïdes – des robots similaires aux humains.

Différentes interprétations du contexte peuvent créer des perturbations dans la communication entre les personnes
et la machine.

Alan Turing a mis en garde contre cela robot autant que possible aux gens. Il pensait que cela pouvait créer des liens émotionnels entre l'homme et la machine, ce qui pouvait faire en sorte que les machines prennent le relais. Russell est d'accord, mais mentionne également que personne n'écoute Turing dans ce domaine.

Droits du robot

Les robots devraient-ils avoir le statut d'individus électroniques dotés de leurs propres droits? Comment empêcher les humains d'obtenir un statut inférieur à celui des robots? Qui devrait être puni si le robot fait quelque chose de criminel – le programmeur ou le robot? Et comment punir un robot? Il est inutile d'emprisonner des robots, car ils n'ont pas de sentiments.

Russell refuse de répondre à la question de savoir quand est superintelligent KI viendra. Il souligne toutes les prédictions folles et incohérentes que des personnes bien informées ont faites à travers l'histoire et estime que la question elle-même suppose une "percée conceptuelle" sur laquelle il est impossible de dire quoi que ce soit.

Russell apporte sur la place de nombreux exemples frappants et divertissants de la façon dont il est erroné de prendre: par exemple, en 1929, le scientifique nucléaire Rutherford a formulé une déclaration oblique selon laquelle une réaction nucléaire en chaîne ne se produirait jamais, et seulement quelques années plus tard, le scientifique nucléaire Szilárd a lancé le concept de la première réaction en chaîne nucléaire.

Le choix de l'homme

Les préférences humaines n'existent pas au sein d'une machine et ne sont pas directement observables, mais il doit néanmoins y avoir un lien entre la machine et les préférences humaines, écrit Russell. Ces préférences peuvent être observées à travers des choix humains. Si la machine veut comprendre les préférences humaines, elle doit se familiariser avec ce que veulent les humains. Une machine qui ne connaît rien aux préférences humaines ne sera pas utile à l'homme, et alors le but de la machine est parti.

Babael Esmael
Ill.: Babael Esmael, Voir www.libex.eu

Les humains ne sont pas toujours rationnels, et comment une machine devrait-elle pouvoir prendre en compte l'imparfait et l'irrationnel de notre espèce pour déterminer ce que nous voulons? Ces «perturbations» que les machines doivent apprendre à interpréter.

Une compréhension différente du contexte peut créer des perturbations dans la communication entre les gens et la machine. Si je dis à une machine: "Obtenez-moi une pizza, peu importe le prix!" – la machine est-elle prête à tuer la moitié de l'humanité pour me procurer une pizza? Ou achètera-t-il une pizza qui coûte un demi-million? Comment éviter un robot qui court la moitié du monde à la recherche désespérée de café parce que le dernier arrêt était fermé et que je voulais un café "quoi qu'il arrive"? Comment les machines et les humains devraient-ils apprendre à parler ensemble? Et comment vont-ils apprendre à se comprendre?

Ethique et morale

Pouvez-vous remplir une machine avec éthique og moral qui lui permettra de résoudre des problèmes humains? Le singe avec des machines n'est pas qu'il ne peut pas résoudre les problèmes, écrit Russell, mais que nous courons le risque de résoudre les problèmes de manière incorrecte: à la recherche de solutions appropriées aux problèmes écologiques, par exemple, ils pourraient éradiquer l'humanité.

Russell écrit: "Le fait que les machines ne sachent pas exactement ce que les gens veulent est la clé de la création de machines utilisables." Pourquoi? Eh bien, parce qu'une machine qui pense avoir compris ce que l'homme veut peut bien être capable d'agir avec détermination, mais de façon malheureuse, à cause d'une défaillance du système qui n'inclut pas la possibilité d'une mauvaise interprétation, et cela pourrait faire quelque chose de très destructeur sur le chemin de leur objectif.

A la recherche de solutions adaptées aux problèmes écologiques, les machines pourraient surgir
pour éradiquer l'humanité.

Cependant, Russell pense qu'il y a une raison d'être optimiste: "Si cela se passe bien", écrit-il, "nous devons ignorer l'idée que la conscience de la machine doit s'aligner sur celle des humains." Au sein de KI, cela s'appelle "Le problème de l'alignement". Il est situé économique intérêts à créer des machines qui s'alignent avec l'intelligence humaine. Ensuite, les machines peuvent commencer à évoluer, pouvant éventuellement devenir des superordinateurs qui ne suivent pas les instructions humaines. Cela peut alors se terminer par l'éradication de l'humanité.

Motifs économiques

Il y a une plus grande utilité dans les machines qui font ce que l'homme veut, que dans les machines qui font quelque chose de complètement différent de ce que l'homme veut. Pourtant, Russell souligne la possibilité qu'un seul ingénieur en informatique puisse se détruire lui-même et les autres en laissant les machines commencer à agir de leur propre chef. Des motifs économiques peuvent ruiner toute l'industrie et produire des machines compétitives et incontrôlables.

Si vous vous concentrez davantage sur le développement du KI pour lui-même que sur le problème du contrôle, les choses peuvent mal tourner. Nous ne perdons rien en partageant nos connaissances, car KI n'est pas un jeu à somme nulle, souligne Russell. D'un autre côté: La compétition pour développer le premier ordinateur capable de surpasser les humains créera un jeu à somme nulle négatif. Il écrit: "La chose la plus importante que nous puissions faire est peut-être de développer des systèmes KI qui soient – dans la mesure du possible – sûrs et utiles à l'homme. Ce n'est qu'alors qu'il sera logique de réglementer l'intelligence artificielle. »

Les også: Une société bâtie sur l'intelligence artificielle par Sami Mahroum

Abonnement NOK 195 trimestre