Intelligence artificielle, véritable enjeu

Intelligence artificielle, véritable enjeu

Boîte intelligente ou vrai garçon ?

Par Neil Osterweil Des archives du médecin

24 septembre 2001 -- Si vous créez une machine capable d'un raisonnement indépendant, avez-vous créé la vie ? Avez-vous une responsabilité envers cette vie ou avez-vous simplement assemblé une autre pièce de matériel intelligent qui sera rendue obsolète par la prochaine nouveauté ?

Dans le film AI (comme dans intelligence artificielle) de Steven Spielberg-Stanley Kubrick, un fabricant de robots crée David, un garçon synthétique qui est programmé pour aimer. Son propriétaire humain lance un programme qui fixe de manière irréversible l'affection du cyberkid sur son propriétaire.

Mais en concevant et en construisant David, le fabricant de robots a créé un autre monstre de Frankenstein. Le "mecha" (abréviation de "mécanique"), apparemment conscient de lui-même, a besoin de l'amour de sa "mère" humaine et aspire, comme Pinocchio, à devenir un "vrai" garçon.

Le film soulève des questions philosophiques à la fois intrigantes et troublantes sur ce que signifie être humain, avoir un sentiment de soi et être un être unique et indépendant digne de respect et de droits en vertu de la loi.

Lorsque David, agissant pour se sauver des railleries et des menaces des garçons en chair et en os, blesse accidentellement le fils de ses propriétaires, il est abandonné dans les bois et doit se débrouiller seul. Il se retrouve en compagnie de robots bizarres, cassés, à moitié formés, qui restent "en vie" en récupérant des pièces détachées dans une décharge.

Mais ce n'est pas parce que David pleure et supplie de rester avec celle qu'il appelle Maman, et qu'il s'enfuit lorsqu'il est traqué par des chasseurs de primes, que ses instincts de terreur et d'auto-préservation sont authentiques, ou s'agit-il simplement d'une brillante simulation mécanique et électronique de la façon dont un vrai garçon réagirait ? Est-ce important ?

Je pense donc je suis ?

Nick Bostrom, docteur en philosophie de l'université de Yale à New Haven, dans le Connecticut, affirme que cela a de l'importance.

"Je pense que dès qu'une entité devient sensible -- capable d'éprouver de la douleur ou du plaisir -- elle obtient une sorte de statut moral, simplement parce qu'elle est capable de souffrir", explique Bostrom à doctor. "Même si les animaux n'ont pas de droits humains - et que la plupart d'entre nous pensent qu'il est acceptable de les utiliser pour la recherche médicale - il y a toujours des limites. Nous n'autorisons pas les gens à torturer les animaux sans aucune raison."

Frank Sudia, JD, a des critères légèrement différents. Selon lui, la capacité de faire et d'agir en fonction d'un ou plusieurs choix parmi de multiples options, et la capacité de décider laquelle des milliers de possibilités est la meilleure à utiliser dans une situation imprévue, peuvent constituer une définition de base et de travail de ce que signifie " être. "

"Si la machine a le pouvoir de s'autoproduire -- si elle peut chercher ses propres objectifs ou même choisir ses propres objectifs à partir d'une certaine liste d'objectifs qu'elle lit dans le journal [et décide] : "Oh, je veux ressembler à Madonna" -- je pense que cette capacité de choisir, guidée quelle qu'elle soit, est indissociable de ce que nous considérons comme notre sens du moi", dit-il à doctor.

Sudia est un consultant en sécurité du commerce électronique basé à San Francisco et se décrit comme un éthicien, un scientifique et un penseur des systèmes intelligents. Il compare le rôle du concepteur de systèmes d'intelligence artificielle ou du fabricant de robots à celui du parent d'un adolescent.

"L'adolescent commence à avoir une bonne variété de réponses [mais] pas un système de retenue vraiment génial", explique-t-il. "Vous essayez de former leur caractère de manière à ce qu'ils fassent des choix raisonnables qui seront socialement bénéfiques pour eux. Vous jouez donc à Dieu dans une très large mesure avec vos enfants. Oubliez de les former en Mozart - vous essayez de les former en quelque chose qui peut survivre en les amenant à avoir un soi."

Je fais des choix, donc je suis ?

La capacité de faire des choix seul ne suggère pas l'autonomie, souligne Bostrom. L'ordinateur Deep Blue a vaincu le grand maître des échecs Gary Kasparov. Il peut choisir parmi des millions de coups d'échecs possibles dans une situation donnée, mais essayez simplement de l'envoyer en face pour acheter un litre de lait.

"Pour accorder l'autonomie à un humain, nous en exigeons pas mal", explique Bostrom. "Les enfants n'ont pas toute la gamme d'autonomie, même s'ils peuvent faire plus que choisir des coups d'échecs ou faire des choix simples comme ça. Ils ont besoin d'une conception de leur bien-être, d'un plan de vie et de ce genre de choses. Je ne pense pas qu'une machine qui existe aujourd'hui sur terre puisse avoir ni la sensibilité ni l'autonomie."

Pour que nous puissions dire qu'une machine est consciente d'elle-même et donc qu'elle est un être conscient, nous devons d'abord savoir ce que c'est qu'être conscient. Au moins un esprit humain soutient que lorsqu'il s'agit de la nature de la conscience, nous n'en avons pas la moindre idée.

Margaret Boden, PhD, professeur de philosophie et de psychologie à l'Université du Sussex, en Angleterre, explique au docteur qu'il pourrait bien être possible de créer un robot qui semble être un être conscient de lui-même et autonome.

"En principe, il pourrait y avoir une simulation informatique d'une telle créature, car tout ce que fait l'esprit humain dépend du cerveau humain", dit-elle. "Mais si vous me demandez si ce robot serait conscient, je dirais que nous ne savons même pas ce que c'est que de dire que nous sommes conscients."

Même si nous supposons, comme Spielberg et Kubrick, qu'il est possible de créer un robot capable d'agir dans son propre intérêt et de ressentir la douleur, la perte et la solitude, le traiterons-nous comme l'un des nôtres, ou comme un autre grille-pain intelligent ?

J'achète des produits alimentaires, donc je suis ?

Si nous pouvons être manipulés émotionnellement par un film -- une autre forme de vie simulée -- ou si nous apprécions la version Las Vegas de Paris, alors nous pourrions certainement être affectés par les pleurs d'un bébé robot ou les supplications d'un garçon artificiel comme David dans AI. Et c'est cette interface -- la boîte qui contient le matériel (un cerveau robotique) et la façon dont le logiciel interagit avec l'utilisateur qui pourrait faire toute la différence.

"Si une IA arrivait à ressembler à un chien, peut-être aurait-elle les droits d'un chien. (...) Si elle arrivait à ressembler à Einstein, peut-être aurait-elle les droits d'un Einstein", dit Sudia.

Il est certainement possible de concevoir un système intelligent qui pourrait, par exemple, faire les courses à l'épicerie et payer à la caisse à notre place. Pour ce faire, il n'est pas nécessaire qu'il ressemble à un humain, explique Ian Horswill, PhD, professeur adjoint d'informatique à l'université Northwestern d'Evanston, Ill.

"Vous pouvez avoir des systèmes qui, à toutes fins utiles, sont intelligents -- du moins beaucoup plus intelligents que des crayons ou des traitements de texte -- mais qui n'ont pas les ... caractéristiques de l'existence humaine", explique Horswill à doctor.

Il n'y a aucune raison, par exemple, pour qu'un robot d'achat doive ressembler à votre oncle Chuck. Il pourrait s'agir d'une caisse enregistreuse roulante - une simple boîte avec un écran, des bras de préhension pour prendre les boîtes de corn flakes sur l'étagère, et un tiroir pour contenir la monnaie. Mais il s'agirait toujours d'un "ça" et non d'un "lui" ou d'une "elle", soutient Horswill.

" Vous pourriez construire une machine avec un corps semblable à celui de Commander Data et lui donner des émotions, puis lui retirer son cerveau et le mettre dans un robot-poubelle avec un tiroir-caisse et ne lui permettre de communiquer qu'en morse ", dit-il. " À mon avis, la plupart des gens seraient beaucoup plus disposés à éteindre le robot-poubelle que Commander Data ".

Hot