La robotique et l’intelligence artificielle s’apprêtent à bousculer des pans entiers de l’économie. Mais ces technologies risquent aussi de débarquer  sur les champs de bataille , avec la mise au point des premières machines capables de tuer de façon autonome, sans aucune intervention humaine. Et cette perspective inquiète les experts du secteur : à l’occasion de la conférence IJCAI, principale rencontre mondiale sur l’intelligence artificielle qui vient de débuter à Melbourne (Australie), 116 entrepreneurs ont adressé une  lettre ouverte aux Nations unies pour alerter sur les dangers de ces armes létales autonomes (« Lethal autonomous weapon systems », LAWS).

Parmi les signataires, on trouve notamment  le patron de Tesla et SpaceX, Elon Musk , qui alerte régulièrement sur les dangers des technologies de pointe, mais aussi Mustafa Suleyman, cofondateur de Google Deepmind, aux côtés de dirigeants d’entreprises du monde entier, dont Universal Robots (Danemark), Snips (France) ou Sentient Technologies (Etats-Unis).

Publié par l’ONG américaine  Future of Life Institute , basée à Cambridge (Massachusetts), le texte estime que « les armes mortelles autonomes menacent de devenir la troisième révolution de la guerre », après la poudre à canon et la bombe atomique. Demain, les fusils, missiles, drones ou torpilles pourraient être pilotés directement par des algorithmes d’intelligence artificielle, sans que l’humain soit dans la boucle comme c’est le cas aujourd’hui. Avec des conséquences terribles, notamment si ces armes sont utilisées par « des despotes ou des terroristes contre des populations innocentes, ou piratées pour se comporter de façon non désirée », poursuit le texte.

Hawking et Chomsky partagent les mêmes craintes

Cette mise en garde sur les dangers des robots tueurs intervient  deux ans après un premier appel , publié lui aussi par le Future of Life Institute et signé – déjà – par Elon Musk, mais aussi par le physicien Stephen Hawking ou le linguiste Noam Chomsky, professeur émérite au MIT. Le document, qui appelait à une « interdiction totale des armes offensives autonomes », avait mis sur la place publique un débat jusque-là restreint aux diplomates et aux ONG, et poussé l’ONU a créé un groupe gouvernemental d’experts sur le sujet.

Mais la première réunion de ce groupe, qui devait avoir lieu à partir de ce lundi à Genève, a été reportée au mois de novembre. Un retard que déplorent les signataires du nouveau texte : « Nous n’avons pas beaucoup de temps pour agir. Une fois cette boîte de Pandore ouverte, elle sera difficile à refermer. »

lesechos