Sciences / Tech & internet

Peut-on enseigner des valeurs humaines universelles à une intelligence artificielle?

Temps de lecture : 6 min

La machine est vouée à nous imiter pour mieux intéragir avec nous. Mais à quel point pourra-t-elle y arriver?

Help | Michael Cordeddavia Flickr CC License by
Help | Michael Cordeddavia Flickr CC License by

Si vous rencontriez un robot dans la rue, vous vous écarteriez sûrement plutôt que de vous faire rouler sur le pied, pas vrai? Céder le passage est simple, mais c’est une des nombreuses valeurs humaines que nous tentons tant bien que mal d’inculquer à des machines de plus en plus prolifiques.

Des informaticiens comme Stuart Russell et des entreprises spécialisées en intelligence artificielle affirment qu’ils souhaitent que les machines «s’alignent sur des valeurs humaines universelles». Un scientifique de la startup Anki a voulu rassurer Elon Musk et d’autres détracteurs en affirmant que l’intelligence artificielle serait notre amie, et non notre ennemie.

À première vue, tout cela semble très louable. Depuis les célèbres Trois lois de la robotique d’Isaac Asimov, nous avons été conditionnés pour croire que sans notre orientation morale, des êtres dotés d’une intelligence artificielle commettront forcément des erreurs et prendront des décisions catastrophiques. Les ordinateurs sont puissants et intelligents mais tout aussi frustrants dans leur incapacité à comprendre l’ambiguïté ou le contexte. Russell veut s’assurer qu’ils seront capables de prendre la «bonne» décision quand ils seront en contact avec des humains, aussi bien en ce qui concerne les normes simples qui régissent un trottoir que pour des questions plus complexes et lourdes de conséquences, comme de décider quelle vie sauver en cas d’accident de voiture.

Des petites choses incompréhensibles?

En revanche, Russell et les autres scientifiques ont choisi d’ignorer les leçons qui sont ressorties de la dernière étude qui s’est inquiétée de l’influence des croyances et des valeurs humaines d’une société sur l’interprétation des machines. Il y a vingt ans, des sociologues sont arrivés à la conclusion que les machines intelligentes seront toujours le reflet des connaissances et des expériences de la communauté qui les a conçues. La vraie question, ce n’est pas de savoir si les machines peuvent obéir aux valeurs humaines, mais de savoir quels humains auront le pouvoir de choisir ces valeurs.

Dans la mesure où nos valeurs se traduisent dans nos comportements, on est en droit d’espérer que les machines parviennent à en capter une majorité

Russell

Dans une interview de 2015 pour le magazine Quanta, Russell a reconnu qu’inculquer des valeurs humaines à des machines serait un vrai challenge, mais il s’est montré prudemment optimiste :

«C’est une affirmation délibérément provocante, parce que l’idée de valeurs humaines universelles peut sembler contradictoire. Les valeurs humaines garderont sûrement toujours une part de mystère. Mais dans la mesure où nos valeurs se traduisent dans nos comportements, on est en droit d’espérer que les machines parviennent à en capter une majorité. Il restera sûrement des petites choses qu’elles n’arriveront pas à comprendre ou sur lesquelles nous ne serons pas tous d’accord. Mais tant que les machines arrivent à intégrer les bases, on devrait constater qu’elles ne pourront jamais être vraiment dangereuses.»

Des valeurs, quelles valeurs?

Pour Russell, les machines pourraient apprendre des approximations de valeurs humaines en nous observant, et grâce aux produits culturels et médiatiques que nous produisons. Dans ce cas, une nouvelle question se pose: de quelles valeurs humaines s’agirait-il? Les psychologues Joseph Henrich, Steven Heine et Ara Norenzayan ont récemment publié une étude qui montre que les affirmations sur la psychologie et les comportements humains de base générées dans des sociétés occidentales riches, industrialisées et démocratiques (ou WEIRD, pour Western, Industrialized, Rich and Democratic) ne peuvent s’appliquer en dehors de ces sociétés.

Henrich et ses collègues ne sont pas les seuls à le croire. Des psychosociologues ont depuis longtemps montré l’existence empirique des différences culturelles entre l’Occident et le reste du monde dans les pensées et les opinions, notamment sur la question de la nature de la vie. Mais Russell affirme qu’il n’y a rien à craindre. «Dans les zones où il existe des conflits de valeurs, les machines ne feront sûrement rien. Si vous voulez avoir un robot à la maison, il faut qu’il partage au moins quelques valeurs humaines.» Russell pense qu’une machine saura observer les compromis complexes des humains pour apprendre en suivant notre exemple. Mais il faudrait peut-être qu’il révise un peu son Histoire de l’intelligence artificielle.

«Sociologie des machines»

Il y a quelques dizaines d’années, l’intelligence artificielle la plus au point était celle des systèmes experts à base de connaissances. Pour mettre au point un système de ce genre, une équipe traduisait péniblement les connaissances d’un expert dans un domaine en méthode raisonnée pour qu’elle prenne des décisions basées sur les faits et sur certaines règles qui régissent ce domaine de connaissances. À l’époque des systèmes experts, de nombreuses personnes se sont posées les mêmes questions que celles que se posent Russell aujourd’hui: qu’est-ce qu’une machine sait vraiment, et comment peut-elle savoir ce qu’on sait?

De nombreuses activités humaines sont conditionnées par une compréhension des attentes de la société concernant cette action

En 1985, le sociologue Steve Woolgar a rédigé un appel destiné à ses confrères pour fonder une «sociologie des machines». L’idée n’était pas d’enseigner l’éthique à des machines, mais d’utiliser l’intelligence artificielle pour clore certains des débats sociologiques les plus controversés sur la théorisation des comportements humains. Si l’intelligence artificielle était possible, alors Woolgar se disait «qu’elle pourrait donner raison à des philosophies qui avancent que les comportements humains peuvent être codifiés et réduits à des séquences formelles, programmables et descriptibles». En 1994, un autre groupe de sociologues sous l’égide de la National Science Foundation ont lancé un appel à la recherche en «intelligence sociale artificielle» pour étudier comment les machines pourraient être utilisées afin de mieux comprendre la nature de la société et des comportements humains d’un point de vue sociologique.

Activités «polymorphes»

Cependant, le projet de fusion entre la sociologie et l’intelligence artificielle s’est heurté à bien des obstacles. Dans un livre paru en 1990, le sociologue Harry Collins a tenté de l’expliquer. Il soutient que toutes les communautés «connaissent» certaines choses tacites qui sont difficiles, voire impossibles, à représenter intégralement pour un ordinateur. En d’autres termes, «les ordinateurs peuvent agir intelligemment au même degré que les humains peuvent agir mécaniquement». De nombreuses activités humaines (comme voter, se saluer, prier, faire du shopping ou écrire une lettre d’amour) sont «polymorphes»: elles sont conditionnées par une compréhension des attentes de la société concernant cette action. Très souvent, nous exécutons ces activités contextuelles machinalement, parce que personne ne s’embête à remettre en cause leur statut de comportement attendu pour une société. Un essai sur la modélisation de l’évolution des normes a d’ailleurs été intitulé à juste titre: «apprendre à être irréfléchi».

Comme le suggérait Collins, les ordinateurs acquièrent des connaissances et des capacités humaines parce qu’ils sont ancrés dans des contextes sociaux humains. Un robot ménager destiné aux personnes âgées japonaises, par exemple, pourra se comporter d’une manière convenable pour des membres du troisième âge japonais uniquement parce que ses programmeurs comprennent la société japonaise. C’est pour ça qu’une discussion sur les machines et les valeurs, les connaissances et les objectifs humains est si frustrante: elle tourne en rond.

Une question de pouvoir

Ce qui nous ramène aux hypothèses optimistes de Russell selon lesquelles des informaticiens peuvent esquiver ces questions sociales grâce à des algorithmes améliorés et des efforts en ingénierie. Russell est ingénieur, pas un expert en sciences humaines. Quand il parle de «compromis» et de «fonctions de valeurs», il part du principe qu’une machine se doit d’être une utilitariste artificielle. Russell suggère aussi que les machines devront apprendre certaines valeurs humaines grâce aux produits culturels et médiatiques. Ça veut dire qu’une machine pourrait s’éduquer sur les conflits raciaux aux États-Unis en regardant le film canonique de 1915, pro-Ku Klux Klan et pro-Confédération, Naissance d’une nation?

Quels humains auront le pouvoir social, politique et économique d’inculquer leurs valeurs à une intelligence artificielle?

Mais le plus gros problème de Russell, c’est de savoir quelles valeurs humaines détermineront les valeurs de la machine. Par exemple, on a du mal à imaginer beaucoup de similitudes entre des supporters de Donald Trump et de la droite dure, et des supporters de l’extrême gauche et de Bernie Sanders, sur des questions clés de politique et de société. L’autre sujet sur lequel il pratique la politique de l’autruche (artificielle), c’est la question de savoir ce qui donnerait le droit à un scientifique blanc, aisé, occidental et cisgenre comme Russell de déterminer comment la machine encoderait et développerait des valeurs humaines, ou si tout le monde aurait le droit de déterminer la manière dont l’hypothétique intelligence artificielle de Russell ferait des compromis.

Il est peu probable que des sociologues comme Collins puissent offrir un avis définitif sur ces questions. En revanche, il est encore moins probable que Russell et ses semblables puissent les éviter grâce à des efforts techniques. Si seulement le problème ne concernait en effet que les détails de l’ingénierie d’un système qui respecterait les valeurs humaines, alors ce serait très simple. Mais voilà, le problème le plus complexe, c’est la question épineuse de savoir quels humains auront le pouvoir social, politique et économique d’inculquer leurs valeurs à une intelligence artificielle, et aucun algorithme de données ne pourra résoudre ça.

Newsletters

Digérer l'alcool aurait permis à nos ancêtres singes d'éviter l'extinction

Digérer l'alcool aurait permis à nos ancêtres singes d'éviter l'extinction

Une espèce de singe dont nous descendons aurait muté pour pouvoir ingurgiter des fruits fermentés et alcoolisés.

Comment la vie a survécu à la pire période glaciaire de la Terre

Comment la vie a survécu à la pire période glaciaire de la Terre

Il y a 700 millions d'années, les premières formes de vie auraient pu disparaître.

Vous avez toujours rêvé de voir comme un chat? C'est désormais possible

Vous avez toujours rêvé de voir comme un chat? C'est désormais possible

Des scientifiques ont créé un logiciel pour percevoir le monde avec la vision d'une abeille, d'un poisson ou encore d'un chat.

Newsletters