La guerre des robots

intellig-artific-robot-pixabay-sk-688po

 

Etes-vous pour ou contre les robots ? Tant qu’ils nous aident et nous protègent, tout va bien. Mais s’ils commencent à nous chercher des noises, que se passera-t-il ? 

L’intelligence artificielle fait beaucoup parler d’elle ces temps-ci, pourtant le débat n’est pas neuf :  faut-il donner à des machines le pouvoir de nous dominer ? Peut-on se passer du confort et des facilités que donne l’automatisme et sa forme ultime : l’intelligence artificielle ? La question défraye la chronique depuis plusieurs décennies, elle n’est toujours pas tranchée. Le sera-t-elle ? On peut en douter dans un futur proche.

Issu de la Science Fiction, le thème de la rivalité des humains et des robots prend du galon. Il est en passe de devenir un réel objet de réflexion pour les philosophes engagés dans la société contemporaine et soucieux de l’avenir de notre espèce.  C’est le romancier visionnaire Isaac Asimov, un des piliers de la SF du 20e siècle, qui nous a mis en garde dès les années 40. Soucieux de la place que les robots allaient prendre dans le futur, et de la menace qu’ils pourraient représenter pour notre espèce, Asimov a édicté trois lois pour encadrer la robotique.

Ces trois lois furent le fruit de discussions entre Isaac Asimov et John Campbell autour du thème des robots. Elles furent citées pour la première fois en 1942 dans la nouvelle ‘Cycle fermé’ (Runaround) :
loi numéro 1 : un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger ;
loi numéro 2 : un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
loi numéro 3 : un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi. (source)
 
 
intelligence-artific-pixabay-sk-688po
 
 
Par la suite, ces lois ont fait l’objet de nombreux développements et commentaires. On comprend parfaitement leur objet : protéger définitivement notre espèce contre toute tentation hégémonique des machines intelligentes. Malheureusement, Asimov n’est pas au programme de l’ENA. Les grands de ce monde ne l’ont pas lu. On aimerait que de telles règles aient été sanctuarisées par la communauté internationale. On adorerait que les scientifiques et les ingénieurs chargés de concevoir et de développer l’intelligence artificielle, s’y soient tous strictement conformés. On souhaiterait vivement que leur application n’ait fait l’objet d’aucune dérogation. Force est de constater le contraire. On dirait que les ingénieurs, quand ils travaillent pour une armée, n’ont strictement rien à foutre d’Asimov et de ses règles à la con. Bien sûr, les aspirateurs robots n’ont encore tué personne. Peut-être que les robots Marie ont tailladés quelques doigts maladroits, mais ce n’était pas dans leur programme, ces bugs seront vite corrigés. La vérité est ailleurs. 
 
Il y a beaucoup, beaucoup plus grave. Je veux parler des robots tueurs. J’entends déjà les commentaires : Allons bon ! ça n’existe pas, sauf dans Matrix. Oui, beaucoup de choses qui existent dans Matrix existent aussi sur ce plan, même si nous n’en savons rien. Moi je vous dis que les robots tueurs existent. Et je le prouve. L’ US Army a concocté un joujou génial, le semeur de mort à distance, qui protège la vie des soldats. Un drone armé jusqu’aux dents, qui repère la cible et l’élimine en un clin d’oeil. C’est quoi, ça, si ce n’est pas un robot tueur ?
 
On m’objectera que le drone n’est pas tout à fait un robot : il est télécommandé, il ne peut pas prendre l’initiative de tuer, il faut que cet ordre lui soit donné par un être humain. C’est vrai, mais si ce type de drone n’entre pas en contradiction avec la première loi -« tu ne tueras point un humain »- son comportement s’oppose bel et bien à la seconde loi : « un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi ». Il faut se rendre à l’évidence. Les drones de combats fabriqués par les Etasuniens sont bel et bien des robots tueurs, et leur descendance sera peut-être le germe de notre destruction. D’autres exemples pourraient être évoqués, qui montrent de terribles entorses aux principes sécuritaires imaginés par Asimov.
 

Qu’appelle-t-on au juste l’intelligence artificielle ? La technologie de l’intelligence artificielle (IA) vise à créer ou simuler, chez les robots ou les logiciels, une intelligence comparable à l’homme ou davantage spécialisée. Les progrès permettent déjà des voitures autonomes automatisées comme les Google Cars, avec une aide voire déjà un remplacement des décisions humaines. Au point que des scientifiques s’inquiètent de son possible détournement. (source)

« Le développement de l’intelligence artificielle pourrait signifier la fin de l’espèce humaine. » La déclaration du physicien Stephen Hawking à la BBC fin 2014 a marqué les esprits. Beaucoup l’ont trouvée excessive. Pas tous : Bill Gates, le fondateur de Microsoft, que l’on ne peut pas soupçonner d’être réfractaire au progrès, a lui confié appartenir au « camp de ceux qui s’inquiètent ». (source)Stéphane Lepoittevin, La Vie, hors-série Sciences : Bientôt immortels?

« L’intelligence artificielle est une discipline scientifique recherchant des méthodes de résolution de problèmes à forte complexité logique ou algorithmique. Par extension elle désigne, dans le langage courant, les dispositifs imitant ou remplaçant l’humain dans certaines mises en œuvre de ses fonctions cognitives. Ses finalités et son développement suscitent, depuis toujours, de nombreuses interprétations, fantasmes ou inquiétudes s’exprimant tant dans les récits ou films de science-fiction que dans les essais philosophiques. » (source)

 

robot-intelligence-artificielle-688po

 

Mais il n’y a pas que les auteurs de SF qui s’inquiètent, loin de là. Fait particulièrement rare, en janvier 2015, des centaines de scientifiques et de chefs d’entreprises ont publié sur le site du Future of Life Institute, une lettre ouverte appelant à limiter les risques encourus par l’humanité en raison du développement des machines. Le philosophe Roger-Pol Droit se montre, quant à lui, plus mesuré. « Il y a, dit-il, autant de raison d’espérer que de s’inquiéter. » Ancien membre du Comité consultatif national d’éthique, il se souvient de l’émoi provoqué en 1996 par la naissance de la brebis Dolly, premier mammifère cloné de l’histoire. « Tout le monde était alors persuadé que l’on allait cloner des hommes. Or, 20 ans plus tard, on constate qu’il n’en a rien été grâce à des accords internationaux actant le refus, pour des raisons éthiques, de manipuler le génome humain. » (source)Stéphane Lepoittevin, La Vie, hors-série Sciences : Bientôt immortels?

Exact. mais cette répugnance n’a plus cours. Des chercheurs créent pour la première fois des embryons mixtes humains et porcins. Ne vous ai-je pas suggéré il y a beau temps que nous pourrions descendre du porcIl est essentiel, selon Roger-Pol Droit, que l’avenir de l’aventure humaine ne soit pas laissé entre les mains des scientifiques. « Cela, dit-il, doit relever en toute transparence de la responsabilité civile et citoyenne ». (source)Stéphane Lepoittevin, La Vie, hors-série Sciences : Bientôt immortels?

Qui donc a besoin de Dieu ? Pas moi, en tout cas.
Stef Kervor