E. Boisseau - Singularité technologique

Éloïse Boisseau, doctorante au Centre Granger, publie dans l’Encyclopédie Philosophique, un article sur le sujet « Singularité technologique  »

Introduction :
L’expression « singularité technologique » ou « point de singularité technologique » désigne un événement spéculatif à venir, intimement lié au développement d’une authentique intelligence artificielle (désormais IA) et censé bouleverser l’ordre des choses.

On se souvient qu’Homère, au livre VIII de l’Iliade, mettait en scène le Dieu Héphaïstos concevant ce que l’on pourrait appeler (de manière sans doute anachronique) des « robots » humanoïdes conscients, des servantes artificielles faites pour assister leur maître et créateur. L’idée de parvenir à créer des machines réellement autonomes, pensantes, conscientes, capables de faire au moins autant de choses que les êtres humains, est donc loin d’être récente. Le sentiment qu’il y a urgence à ce sujet ou désastre imminent l’est en revanche beaucoup plus. Puisque la possibilité de créer et d’avoir l’usage de ces machines semble aujourd’hui à portée de main, et puisqu’une discipline bien établie – l’IA – semble œuvrer à cette fin, un certain nombre de questions (en particulier morales) se posent aujourd’hui à nous de manière pressante. La signature en 2015 d’une lettre ouverte alertant des dangers de l’IA par des grands noms de la discipline ou de la scène scientifique internationale (Stephen Hawking, Nick Bostrom, Stuart Russell, Max Tegmark, etc.) en témoigne. La dernière partie de cette lettre, consacrée aux « priorités de recherches à long terme », soulève justement la question de notre impréparation face à « la possibilité de machines superintelligentes ».

Une machine – ou plus généralement une entité – est dite « superintelligente » Bostrom, 1998 ; 2014) lorsqu’elle est dotée d’une intelligence qui dépasse très largement le niveau de l’intelligence des êtres humains. Il y a ici un certain flottement dans la littérature consacrée : selon certaines interprétations, l’existence de machines « superintelligentes » est une condition à la fois nécessaire et suffisante pour la singularité technologique. Selon d’autres interprétations, cette condition est nécessaire mais non suffisante dans la mesure où des machines superintelligentes pourraient ne pas donner lieu à la singularité. Enfin, selon une troisième famille d’interprétations (c’est en particulier la position de Kurzweil, 2015), il s’agit d’une condition qui n’est ni nécessaire ni suffisante puisque la singularité pourrait advenir sans superintelligence.

Accéder à l’article : Singularité technologique (GP) - L’encylopédie philosophique (encyclo-philo.fr)

SITE TEMPORAIRE – SITE EN TRAVAUX