Pendant que le Premier ministre Dmitri Medvedev et Arkady Volozh conduisaient un taxi Yandex.Taxi sans pilote autour de Skolkovo, les ingénieurs militaires cherchaient comment adapter les technologies des véhicules sans pilote pour créer de nouvelles armes.

En réalité, la technologie n’est pas tout à fait ce qu’elle semble être. Le problème de toute évolution technologique est que la frontière entre les robots commerciaux « à vie » et les robots militaires tueurs est incroyablement mince, et cela ne coûte rien de la franchir. Pour l’instant, ils choisissent un itinéraire, et demain ils pourront choisir quelle cible détruire.

Ce n’est pas la première fois dans l’histoire que le progrès technologique remet en question l’existence même de l’humanité : premièrement, les scientifiques ont créé des substances chimiques, biologiques et chimiques. arme nucléaire, maintenant - des «armes autonomes», c'est-à-dire des robots. La seule différence est que jusqu’à présent, les armes étaient considérées comme inhumaines. » destruction massive- c'est-à-dire ne pas choisir qui tuer. Aujourd’hui, la perspective a changé : une arme qui tue avec une discrimination particulière, choisissant ses victimes selon ses propres goûts, semble bien plus immorale. Et si une puissance guerrière était stoppée par le fait que si elle utilisait des armes biologiques, tout le monde autour d'elle souffrirait, alors avec les robots, tout est plus compliqué - ils peuvent être programmés pour détruire un groupe spécifique d'objets.

En 1942, lorsque l’écrivain américain Isaac Asimov formula les Trois lois de la robotique, tout cela semblait passionnant mais complètement irréaliste. Ces lois stipulaient qu’un robot ne pouvait et ne devait pas blesser ou tuer un être humain. Et ils doivent obéir sans conteste à la volonté de l’homme, sauf dans les cas où ses ordres contrediraient l’impératif ci-dessus. Maintenant que les armes autonomes sont devenues une réalité et pourraient bien tomber entre les mains de terroristes, il s’avère que les programmeurs ont oublié d’intégrer les lois d’Asimov dans leur logiciel. Cela signifie que les robots peuvent constituer un danger et qu’aucune loi ou principe humain ne peut les arrêter.

Le missile développé par le Pentagone détecte tout seul les cibles grâce à logiciel, l’intelligence artificielle (IA) identifie les cibles de l’armée britannique et la Russie affiche des chars sans pilote. Développer la robotique et l’autonomie équipement militaire V divers pays Des sommes colossales sont dépensées, même si peu de gens souhaitent les voir en action. Comme la plupart des chimistes et des biologistes, ils ne souhaitent pas que leurs découvertes soient finalement utilisées pour créer des produits chimiques ou chimiques. armes biologiques, et la plupart des chercheurs en IA ne sont pas intéressés par la création d'armes basées sur celle-ci, car alors cela serait sérieux réponse du public nuira à leurs programmes de recherche.

Dans son discours du début Assemblée générale Les Nations Unies à New York le 25 septembre secrétaire général Antonio Guterres a qualifié la technologie de l'IA de « risque mondial », au même titre que le changement climatique et l'augmentation des inégalités de revenus : « Appelons un chat un chat », a-t-il déclaré. « La perspective de voir des machines déterminer qui vit est dégoûtante. » Guterres est probablement le seul à pouvoir inciter les départements militaires à revenir à la raison : il a déjà été responsable des conflits en Libye, au Yémen et en Syrie et a exercé les fonctions de Haut-Commissaire pour les réfugiés.

Le problème est qu’avec le développement de la technologie, les robots seront capables de décider qui tuer. Et si certains pays disposent de telles technologies et d’autres non, alors des androïdes et des drones intransigeants prédétermineront l’issue d’une bataille potentielle. Tout cela contredit à la fois toutes les lois d’Asimov. Les alarmistes peuvent craindre sérieusement qu’un réseau neuronal auto-apprenant devienne incontrôlable et tue non seulement l’ennemi, mais aussi tout le monde en général. Cependant, les perspectives pour des machines tueuses, même complètement obéissantes, ne sont pas du tout brillantes.

Travail le plus actif dans le domaine intelligence artificielle et l'apprentissage automatique s'effectue aujourd'hui non pas dans l'armée, mais dans la sphère civile - dans les universités et les entreprises comme Google et Facebook. Mais une grande partie de cette technologie peut être adaptée à un usage militaire. Cela signifie qu’une éventuelle interdiction de la recherche dans ce domaine affectera également les développements civils.

Début octobre, l'organisation non gouvernementale américaine Stop Killer Robots Campaign a adressé une lettre aux Nations Unies exigeant que le développement d'armes autonomes soit limité au niveau législatif international. L'ONU a clairement indiqué qu'elle soutenait cette initiative et, en août 2017, Elon Musk et les participants l'ont rejoint. Conférence internationale Nations Unies sur l'intelligence artificielle (IJCAI). Mais en réalité, les États-Unis et la Russie s’opposent à de telles restrictions.

La dernière réunion des 70 pays parties à la Convention sur certaines armes classiques (armes inhumaines) a eu lieu à Genève en août. Les diplomates n’ont pas réussi à parvenir à un consensus sur la manière dont la politique mondiale en matière d’IA pourrait être mise en œuvre. Certains pays (Argentine, Autriche, Brésil, Chili, Chine, Égypte et Mexique) ont exprimé leur soutien à une interdiction législative du développement d'armes robotiques ; la France et l'Allemagne ont proposé d'introduire un système volontaire de telles restrictions, mais la Russie, les États-Unis, Corée du Sud et Israël ont déclaré qu'ils n'avaient pas l'intention de limiter la recherche et le développement menés dans ce domaine. En septembre, Federica Mogherini, haute responsable de l'Union européenne police étrangère et la politique de sécurité, a déclaré que les armes à feu « affectent notre sécurité collective« C’est pourquoi la décision sur la question de la vie ou de la mort doit en tout état de cause rester entre les mains de l’homme.

Guerre froide 2018

Les responsables américains de la défense estiment que les armes autonomes sont nécessaires pour que les États-Unis maintiennent leur avantage militaire sur la Chine et la Russie, qui investissent également dans des recherches similaires. En février 2018, Donald Trump a exigé 686 milliards de dollars pour la défense du pays au cours du prochain exercice budgétaire. Ces coûts ont toujours été assez élevés et n’ont diminué que sous le précédent président Barack Obama. Cependant, Trump – sans originalité – a fait valoir la nécessité de les augmenter par la concurrence technologique avec la Russie et la Chine. En 2016, le budget du Pentagone a alloué 18 milliards de dollars au développement d’armes autonomes sur trois ans. Ce n'est pas grand-chose, mais ici, vous devez prendre en compte un facteur très important.

La plupart des développements en matière d’IA aux États-Unis sont en cours sociétés commerciales, ils sont donc largement disponibles et peuvent être vendus commercialement dans d’autres pays. Le Pentagone n’a pas le monopole des technologies avancées d’apprentissage automatique. L’industrie de défense américaine ne mène plus ses propres recherches de la même manière qu’auparavant. guerre froide", mais utilise les développements de startups de la Silicon Valley, ainsi que d'Europe et d'Asie. Dans le même temps, en Russie et en Chine, ces recherches sont sous le contrôle strict des ministères de la Défense, ce qui, d'une part, limite l'afflux de nouvelles idées et le développement technologique, mais, d'autre part, garantit le financement public et protection.

Selon les experts du New York Times, les dépenses militaires consacrées aux véhicules militaires autonomes et aux véhicules aériens sans pilote avions dépassera 120 milliards de dollars au cours de la prochaine décennie. Cela signifie qu’en fin de compte, le débat ne se résume pas à la question de savoir s’il faut créer des armes autonomes, mais plutôt au degré d’indépendance à leur accorder.

Aujourd’hui, il n’existe pas d’armes entièrement autonomes, mais le vice-président de l’état-major interarmées, le général Paul J. Selva, de l’armée de l’air, a déclaré en 2016 que d’ici 10 ans, les États-Unis disposeraient de la technologie nécessaire pour créer des armes capables de décider de manière indépendante qui et quand tuer. Et tandis que les pays débattent de l’opportunité de restreindre ou non l’IA, il est peut-être trop tard.

Clearpath Robotics a été fondée il y a six ans par trois amis d'université partageant une passion pour la fabrication d'objets. Les 80 spécialistes de l'entreprise testent des robots tout-terrain comme Husky, un robot à quatre roues utilisé par le ministère américain de la Défense. Ils fabriquent également des drones et ont même construit un bateau robotisé appelé Kingfisher. Cependant, il y a une chose qu’ils ne construiront jamais avec certitude : un robot capable de tuer.

Clearpath est la première et jusqu'à présent la seule entreprise de robotique à s'engager à ne pas créer de robots tueurs. La décision a été prise l'année dernière par le co-fondateur et directeur technique de l'entreprise, Ryan Garipay, et a en fait attiré dans l'entreprise des experts qui appréciaient la position éthique unique de Clearpath. Éthique des entreprises de robots Dernièrement vient au premier plan. Vous voyez, nous avons un pied dans le futur où existent des robots tueurs. Et nous ne sommes pas encore prêts pour eux.

Bien sûr, il y a plus à venir un long chemin. Les systèmes coréens Dodam, par exemple, construisent une tourelle robotique autonome appelée Super aEgis II. Il utilise des caméras thermiques et des télémètres laser pour identifier et attaquer des cibles situées à une distance allant jusqu'à 3 kilomètres. Les États-Unis expérimenteraient également des systèmes de missiles autonomes.

À deux pas des Terminators

Les drones militaires comme le Predator sont actuellement pilotés par des humains, mais Garipay affirme qu'ils deviendront très bientôt entièrement automatiques et autonomes. Et cela l'inquiète. Très. "Mortel systèmes autonomes les armes peuvent désormais sortir de la chaîne de montage. Mais les systèmes d’armes meurtrières qui seront fabriqués dans le respect des normes éthiques ne sont même pas prévus.»

Pour Garipay, le problème est droits internationaux. En temps de guerre, il existe toujours des situations dans lesquelles le recours à la force semble nécessaire, mais il peut également mettre en danger des innocents. Comment créer des robots tueurs qui prendront les bonnes décisions dans n'importe quelle situation ? Comment pouvons-nous déterminer nous-mêmes quelle devrait être la bonne décision ?

Nous constatons déjà des problèmes similaires dans l’exemple du transport autonome. Disons qu'un chien traverse la route en courant. Une voiture robot devrait-elle faire un écart pour éviter de heurter un chien mais mettre ses passagers en danger ? Et si ce n'était pas un chien, mais un enfant ? Ou un bus ? Imaginez maintenant une zone de guerre.

"Nous ne pouvons pas nous mettre d'accord sur la manière de rédiger un manuel pour une voiture comme celle-ci", déclare Garipay. "Et maintenant, nous voulons également passer à un système qui devrait décider de manière indépendante s'il convient ou non de recourir à la force meurtrière."

Fabriquez des choses sympas, pas des armes

Peter Asaro a passé ces dernières années à faire pression pour l'interdiction des robots tueurs en communauté internationale, étant le fondateur du Comité international pour le contrôle des armées robotiques. Il estime que le moment est venu d’imposer « une interdiction internationale claire de leur développement et de leur utilisation ». Cela, dit-il, permettra à des entreprises comme Clearpath de continuer à fabriquer des produits sympas « sans craindre que leurs produits puissent être utilisés pour violer les droits des personnes et menacer les civils ».

Les missiles autonomes intéressent les militaires car ils résolvent un problème tactique. Quand les drones télécommande, par exemple, travaillez dans des conditions de combat, l'ennemi bloque souvent les capteurs ou connexion réseau afin que l'opérateur humain ne puisse pas voir ce qui se passe ou contrôler le drone.

Garipay estime qu'au lieu de développer des missiles ou des drones capables de décider indépendamment quelle cible attaquer, l'armée devrait consacrer de l'argent à l'amélioration des capteurs et de la technologie anti-brouillage.

« Pourquoi ne pas utiliser les investissements que les gens aimeraient faire pour construire des robots tueurs autonomes et les consacrer à rendre les technologies existantes plus efficaces ? - il dit. « Si nous relevons le défi et surmontons cet obstacle, nous pouvons faire en sorte que cette technologie profite aux gens, et pas seulement aux militaires. »

Récemment, les discussions sur les dangers de l’intelligence artificielle sont également devenues plus fréquentes. Elon Musk craint qu’une IA galopante ne détruise la vie telle que nous la connaissons. Le mois dernier, Musk a fait don de 10 millions de dollars à la recherche sur l’intelligence artificielle. L’une des grandes questions sur l’impact de l’IA sur notre monde est de savoir comment elle fusionnera avec la robotique. Certains, comme Andrew Ng, chercheur à Baidu, craignent que la prochaine révolution de l'IA ne supprime des emplois. D’autres, comme Garipay, craignent que cela puisse leur coûter la vie.

Garipay espère que ses collègues scientifiques et constructeurs de machines réfléchiront à ce qu'ils font. C'est pourquoi Clearpath Robotics a pris le parti des gens. « Même si, en tant qu’entreprise, nous ne pouvons pas y investir 10 millions de dollars, nous pouvons y mettre notre réputation. »

Dmitry Melkin, Pavel et Boris Lonkin n'avaient aucune question sur qui emmener dans l'équipe pour participer aux batailles de robots. Les gars se connaissaient à Baumanka, puis ensemble ils ont assemblé et installé des centrales électriques à énergie solaire. Un jour, Dmitry a vu une annonce pour un concours de robotique et a postulé. Des amis ont soutenu l'initiative et, un mois plus tard, le premier robot de combat de l'équipe Solarbot, Brontosaurus, se tenait dans le garage.

Le premier robot est grumeleux

Le Brontosaure pesait un centime et, comme ses créateurs l'admettent désormais, n'était ni fiable ni ingénieux. des solutions constructives. Pas étonnant : il a été collecté en partie sur un coup de tête, en partie à partir de captures d'écran peu claires de vidéos des compétitions anglaises Robot Wars.

Après Brontosaure, après avoir compté et refait plusieurs fois les principaux composants, Dmitry, Boris et Pavel ont assemblé leur deuxième robot. Derrière ressemblance extérieure avec un obus, on l'appelait Shelby, de l'anglais shell - "shell". Shelby, le fils d'erreurs difficiles, a d'abord gagné tout le monde lors de la « Bataille des robots - 2016 » à Perm, organisée par l'Institut technologique de Moscou (MIT) et la société Promobot, puis, avec les voitures de deux autres équipes russes , est devenu participant à des compétitions internationales en Chine. Ses créateurs nous expliquent comment fonctionne le robot gagnant et ce qu'il a fallu pour le fabriquer.


Dmitry, inspirateur idéologique et touche-à-tout :

"Notre plus grande fierté est châssis Shelby. Nous avons retouché le châssis de son prédécesseur littéralement après chaque bataille. Lorsque nous avons fabriqué la Shelby, le châssis a été meulé, reconstruit et remonté à plusieurs reprises, mais maintenant vous pouvez complètement l'oublier. Dans les projets futurs, nous n'aurons qu'à travailler sur le maintien de la fiabilité et l'augmentation de la puissance. Ce serait bien, par exemple, pour notre nouveau robot pouvait déplacer non pas un, mais deux robots ennemis à la fois.

Les chaînes de Shelby proviennent de cyclomoteurs, ses roues proviennent d'un kart de course et ses moteurs électriques proviennent de modèles réduits de voitures radiocommandées. Les pièces pour robots de combat ne sont pas produites, il faut donc les chercher sur les marchés aux puces et sur Internet. Les bonnes pièces coûtent très cher et les concepteurs ont tendance à les fabriquer eux-mêmes.


Boris, designer, spécialiste de la solidité :

«Shelby est du genre flipper. Il est équipé d'un système pneumatique qui pousse avec force le couvercle vers le haut. C’est l’arme principale du robot et son mode de stabilisation : après avoir basculé, il peut se retourner d’un seul coup et se tenir sur ses roues. Mais nous ne pouvions pas créer une haute pression dans le vérin pneumatique afin de faire souffler le couvercle avec puissance - il n'y avait pas de vannes requises. Il ne restait plus qu’une chose à faire : faire fonctionner le système le plus rapidement possible. La solution s'est avérée simple : nous avons éliminé l'excès de résistance hydraulique et modifié les vannes d'usine. À l'avenir, bien sûr, une vanne sera nécessaire haute pression. Un modèle tout fait coûte cher, environ 200 000 roubles, alors maintenant nous réfléchissons à notre propre conception.


Les robots de combat ne sont pas un passe-temps bon marché : vous avez besoin d'au moins 200 à 300 000 roubles plus les consommables, les roues de secours et tout ce qui casse et est remplacé au combat. Et cela ne prend pas en compte le temps et le travail consacrés. « Pour assembler un robot, une équipe de trois personnes doit arrêter de travailler pendant deux mois », s'amusent les ingénieurs de Solarbot. Vous ne pourrez même pas économiser sur le rembourrage électronique.

Pavel, programmeur :

« Ce qui est génial avec les appareils électroniques Shelby, c'est qu'il y en a très peu. Afin de ne pas ramasser un fer à souder après chaque combat, vous devez fournir au robot le minimum de « cerveaux » nécessaire. Shelby dispose de contrôleurs d'usine simples et seules les vannes sont contrôlées par un petit circuit imprimé. Il est très difficile de le désactiver. Même lorsqu’en Chine, au lieu des batteries au plomb habituelles, nous avons reçu de puissantes batteries au lithium et que les câbles sont tombés en panne au bout de quelques minutes, l’électronique du robot n’a pas été endommagée.

Robot de combat Shelby

Vitesse jusqu'à 25 km/h Force sur la tige du vérin pneumatique 2 t Puissance moteur 2,2 kW Capacité de choc pneumatique sans changement de vérin 30−35 Télécommande Les règles de la « Bataille des Robots » interdisent toute pièce détachable et tôle, Ainsi, Shelby ne tire ni n'agite rien, et son corps est constitué uniquement d'un profilé métallique.

L'équipe Solarbot a construit un soldat de fer robuste, mais il a aussi un point de rupture. En Chine, il a souffert des couteaux rotatifs des fileuses chinoises, à Perm - des griffes d'un robot matanga, qui, avec huit tonnes de force, coupe un profilé métallique comme du beurre. Il y a des lacérations sur ses côtes de fer. Les créateurs lui préparent le sort d'une exposition : il participera à des festivals (le Summer Geek Picnic est dans un avenir proche), et dans l'arène il sera remplacé par un nouveau combattant - également un flipper, mais plus rapide, plus puissant et encore plus fiable. La force de levage du couvercle sera deux fois supérieure à celle de la Shelby, la puissance du moteur passera de 2,2 à 2,8 kW et la vitesse augmentera. Avec le nouveau robot, l'équipe russe rêve d'aller à Robot Wars en Angleterre.

Mais le futur flipper n’est pas le rêve ultime de Solarbot. Maintenant, Dmitry négocie avec d'autres équipes et recherche des sponsors : si tout se passe bien, alors le premier « mégabot » apparaîtra en Russie - aussi grand et redoutable que les monstres de plusieurs tonnes japonais, américains et chinois.

Grâce au soutien de l'Institut technologique de Moscou, les Russes ont participé pour la première fois au tournoi international de robots de combat Championnat FMB 2017 en Chine. La bataille a été organisée par Shelby, Kazan Destructor et St. Petersburg Energy, qui se sont qualifiés pour les demi-finales.

Elon Musk a récemment exprimé sa ferme opposition à l’utilisation de l’IA pour créer des robots tueurs. Nous ne parlons pas encore de Terminators, mais de systèmes robotiques capables d'effectuer certaines tâches qui incombent généralement aux soldats. L’intérêt des militaires pour ce sujet est compréhensible, mais leurs projets ambitieux en effraient beaucoup.

Mais les guerriers modernes ne sont pas les seuls à rêver et à voir des mitrailleuses capables de remplacer dix, voire cent soldats en même temps. Ces pensées ont visité les têtes de personnalités de différentes époques. Parfois, certaines idées étaient réalisées et elles semblaient plutôt bonnes.

Robot Chevalier Da Vinci


Leonardo était un génie dans presque tous les domaines. Il a réussi à réussir dans presque tous les domaines pour lesquels il a manifesté son intérêt. Au XVe siècle, il créa un chevalier robot (bien entendu, le mot « robot » n’était pas utilisé à l’époque).

La machine était capable de s'asseoir, de se tenir debout, de marcher, de bouger la tête et les bras. Le créateur du chevalier mécanique a réalisé tout cela à l'aide d'un système de leviers, d'engrenages et d'engrenages.

Le Chevalier a été recréé à notre époque - un prototype fonctionnel a été construit en 2002. Il a été créé « sur la base » du projet Da Vinci de Mark Rosheim.

Bateau télécommandé Tesla


En 1898, l'inventeur Nicola Testa a montré au monde la première invention de ce type : un véhicule télécommandé ( petit bateau). La manifestation a eu lieu à New York. Tesla contrôlait le bateau et il manœuvrait, effectuant diverses actions comme par magie.

Tesla a ensuite tenté de vendre son autre invention à l'armée américaine, une sorte de torpille radiocommandée. Mais pour une raison quelconque, l’armée a refusé. Certes, il a décrit sa création non pas comme une torpille, mais comme un robot, un homme mécanique capable d'effectuer travail difficileà la place de leurs créateurs.

Chars radiocommandés de l'URSS



Oui, les ingénieurs Union soviétique ils n’étaient pas faits pour ça. En 1940, ils créèrent des radiocommandés véhicules de combat sur le socle char léger T-26. La portée de fonctionnement du panneau de commande est supérieure à un kilomètre.

Les opérateurs de ces terminateurs militaires pouvaient ouvrir le feu avec des mitrailleuses, utiliser un canon et un lance-flammes. Certes, l'inconvénient de cette technologie était que Retourétait absent. Autrement dit, l’opérateur ne pouvait observer directement les actions du char qu’à distance. Naturellement, l’efficacité des actions de l’opérateur dans ce cas était relativement faible.

Il s'agit du premier exemple d'un robot militaire en action.

Goliath


Les nazis ont créé quelque chose de similaire, mais au lieu d’équiper les chars conventionnels de radiocommandes, ils ont créé des systèmes miniatures à chenilles. Ils pourraient être contrôlés à distance. Les Goliath ont été lancés avec des explosifs. L’idée était la suivante : un enfant agile se dirigeait vers un char ennemi « adulte » et, une fois à proximité, exécutait l’ordre de l’opérateur de tout détruire avec une explosion. Les Allemands ont créé à la fois une version électrique du système et un mini-réservoir doté d'un moteur. combustion interne. Au total, environ 7 000 systèmes de ce type ont été produits.

Canons anti-aériens semi-automatiques


Ces systèmes ont également été développés pendant la Seconde Guerre mondiale. Le fondateur de la cybernétique, Norbert Wiener, a contribué à leur création. Lui et son équipe ont pu créer des systèmes anti-aériens qui ajustaient eux-mêmes la précision du tir. Ils étaient équipés d’une technologie permettant de prédire où les avions ennemis apparaîtraient ensuite.

Armes intelligentes de notre temps


Dans les années 1950, l’armée américaine, cherchant à gagner La guerre du Vietnam, a créé pour la première fois des armes à guidage laser, ainsi que des dispositifs aériens autonomes, en fait des drones.

Certes, ils avaient besoin de l’aide humaine pour choisir une cible. Mais c’était déjà proche de ce qu’il est aujourd’hui.

Prédateur


Tout le monde a probablement entendu parler de ces drones. Le MQ-1 Predator a été introduit par l’armée américaine un mois après les événements du 11 septembre. Les Predators sont désormais les drones militaires les plus répandus au monde. Ils ont également des parents plus âgés - le drone Reaper.

Sapeurs


Oui, en plus des robots tueurs, il existe aussi des robots sapeurs. Aujourd’hui très répandus, ils ont commencé à être utilisés il y a plusieurs années, en Afghanistan et dans d’autres points chauds. À propos, ces robots ont été développés par iRobot – c'est la société qui crée les robots de nettoyage les plus populaires au monde. Nous parlons bien sûr du Roomba et du Scooba. En 2004, 150 de ces robots (pas des aspirateurs, mais des sapeurs) ont été produits, et quatre ans plus tard, déjà 12 000.

Aujourd’hui, les militaires sont complètement dispersés. L’intelligence artificielle (sa forme faible) promet de belles opportunités. Les États-Unis vont profiter pleinement de ces opportunités. Nous créons ici une nouvelle génération de robots tueurs, dotés de caméras, de radars, de lidars et d'armes.

Ce sont eux qui font peur à Elon Musk, et avec lui bien d’autres esprits brillants issus de divers domaines d’activité.

Nous avons roulé sur le Yandex sans pilote. Taxi" à Skolkovo, les ingénieurs militaires ont compris comment adapter les technologies des véhicules sans pilote pour créer de nouvelles armes.

En réalité, la technologie n’est pas tout à fait ce qu’elle semble être. Le problème de toute évolution technologique est que la frontière entre les robots commerciaux « à vie » et les robots militaires tueurs est incroyablement mince, et cela ne coûte rien de la franchir. Pour l’instant, ils choisissent un itinéraire, et demain ils pourront choisir quelle cible détruire.

Ce n'est pas la première fois dans l'histoire que le progrès technologique remet en question l'existence même de l'humanité : d'abord, les scientifiques ont créé des armes chimiques, biologiques et nucléaires, aujourd'hui des « armes autonomes », c'est-à-dire des robots. La seule différence est que jusqu'à présent, les armes de « destruction massive » étaient considérées comme inhumaines, c'est-à-dire qu'elles ne choisissent pas qui elles tuent. Aujourd’hui, la perspective a changé : une arme qui tue avec une discrimination particulière, choisissant ses victimes selon ses propres goûts, semble bien plus immorale. Et si une puissance guerrière était stoppée par le fait que si elle utilisait des armes biologiques, tout le monde autour d'elle souffrirait, alors avec les robots, tout est plus compliqué - ils peuvent être programmés pour détruire un groupe spécifique d'objets.

En 1942, lorsque l’écrivain américain Isaac Asimov formula les Trois lois de la robotique, tout cela semblait passionnant mais complètement irréaliste. Ces lois stipulaient qu’un robot ne pouvait et ne devait pas blesser ou tuer un être humain. Et ils doivent obéir sans conteste à la volonté de l’homme, sauf dans les cas où ses ordres contrediraient l’impératif ci-dessus. Maintenant que les armes autonomes sont devenues une réalité et pourraient bien tomber entre les mains de terroristes, il s’avère que les programmeurs ont oublié d’intégrer les lois d’Asimov dans leur logiciel. Cela signifie que les robots peuvent constituer un danger et qu’aucune loi ou principe humain ne peut les arrêter.

Un missile développé par le Pentagone détecte lui-même les cibles grâce à un logiciel, l'intelligence artificielle (IA) identifie les cibles pour l'armée britannique et la Russie présente des chars sans pilote. Des sommes colossales sont dépensées dans divers pays pour développer des équipements militaires robotisés et autonomes, même si peu de gens souhaitent les voir en action. Tout comme la plupart des chimistes et des biologistes ne souhaitent pas que leurs découvertes soient finalement utilisées pour créer des armes chimiques ou biologiques, la plupart des chercheurs en IA ne sont pas intéressés par la création d’armes basées sur ces découvertes, car un tollé général pourrait nuire à leurs programmes de recherche.

Dans son discours prononcé à l'ouverture de l'Assemblée générale des Nations Unies à New York le 25 septembre, le secrétaire général Antonio Guterres a qualifié la technologie de l'IA de « risque mondial », au même titre que le changement climatique et l'inégalité croissante des revenus : « Appelons un chat un chat ». il a dit. « La perspective de voir des machines déterminer qui vit est dégoûtante. » Guterres est probablement le seul à pouvoir inciter les départements militaires à revenir à la raison : il a déjà été responsable des conflits en Libye, au Yémen et en Syrie et a exercé les fonctions de Haut-Commissaire pour les réfugiés.

Le problème est qu’avec le développement de la technologie, les robots seront capables de décider qui tuer. Et si certains pays disposent de telles technologies et d’autres non, alors des androïdes et des drones intransigeants prédétermineront l’issue d’une bataille potentielle. Tout cela contredit à la fois toutes les lois d’Asimov. Les alarmistes peuvent craindre sérieusement qu’un réseau neuronal auto-apprenant devienne incontrôlable et tue non seulement l’ennemi, mais aussi tout le monde en général. Cependant, les perspectives pour des machines tueuses, même complètement obéissantes, ne sont pas du tout brillantes.

Aujourd'hui, les travaux les plus actifs dans le domaine de l'intelligence artificielle et de l'apprentissage automatique ne se déroulent pas dans le domaine militaire, mais dans le domaine civil, dans des universités et des entreprises comme Google et Facebook. Mais une grande partie de cette technologie peut être adaptée à un usage militaire. Cela signifie qu’une éventuelle interdiction de la recherche dans ce domaine affectera également les développements civils.

Début octobre, l'organisation non gouvernementale américaine Stop Killer Robots Campaign a adressé une lettre aux Nations Unies exigeant que le développement d'armes autonomes soit limité au niveau législatif international. L’ONU a clairement fait savoir qu’elle soutenait cette initiative et, en août 2017, Elon Musk et les participants à la Conférence internationale des Nations Unies sur l’utilisation de l’intelligence artificielle (IJCAI) l’ont rejointe. Mais en réalité, les États-Unis et la Russie s’opposent à de telles restrictions.

La dernière réunion des 70 pays parties à la Convention sur certaines armes classiques (armes inhumaines) a eu lieu à Genève en août. Les diplomates n’ont pas réussi à parvenir à un consensus sur la manière dont la politique mondiale en matière d’IA pourrait être mise en œuvre. Certains pays (Argentine, Autriche, Brésil, Chili, Chine, Égypte et Mexique) ont exprimé leur soutien à une interdiction législative du développement d'armes robotiques, la France et l'Allemagne ont proposé d'introduire un système volontaire de telles restrictions, mais la Russie, les États-Unis, la Corée du Sud et Israël a déclaré qu'il n'allait pas limiter la recherche et le développement effectués dans ce domaine. En septembre, Federica Mogherini, la plus haute responsable de la politique étrangère et de sécurité de l'Union européenne, a déclaré que les armes « affectent notre sécurité collective » et que les questions de vie ou de mort doivent toujours rester entre les mains de l'individu.

Guerre froide 2018

Les responsables américains de la défense estiment que les armes autonomes sont nécessaires pour que les États-Unis maintiennent leur avantage militaire sur la Chine et la Russie, qui investissent également de l’argent dans des recherches similaires. En février 2018, Donald Trump a exigé 686 milliards de dollars pour la défense du pays au cours du prochain exercice budgétaire. Ces coûts ont toujours été assez élevés et n’ont diminué que sous le précédent président Barack Obama. Cependant, Trump – sans originalité – a fait valoir la nécessité de les augmenter par la concurrence technologique avec la Russie et la Chine. En 2016, le budget du Pentagone a alloué 18 milliards de dollars au développement d’armes autonomes sur trois ans. Ce n'est pas grand-chose, mais ici, vous devez prendre en compte un facteur très important.

La majeure partie du développement de l’IA aux États-Unis est réalisée par des sociétés commerciales, elle est donc largement disponible et peut être vendue commercialement à d’autres pays. Le Pentagone n’a pas le monopole des technologies avancées d’apprentissage automatique. L’industrie de défense américaine ne mène plus ses propres recherches comme pendant la guerre froide, mais s’appuie sur les travaux de startups de la Silicon Valley, mais aussi d’Europe et d’Asie. Dans le même temps, en Russie et en Chine, ces recherches sont sous le contrôle strict des ministères de la Défense, ce qui, d'une part, limite l'afflux de nouvelles idées et le développement technologique, mais, d'autre part, garantit le financement public et protection.

Le New York Times estime que les dépenses militaires en véhicules militaires autonomes et en véhicules aériens sans pilote dépasseront 120 milliards de dollars au cours de la prochaine décennie. Cela signifie qu’en fin de compte, le débat ne se résume pas à la question de savoir s’il faut créer des armes autonomes, mais plutôt au degré d’indépendance à leur accorder.

Aujourd’hui, il n’existe pas d’armes entièrement autonomes, mais le vice-président de l’état-major interarmées, le général Paul J. Selva, de l’armée de l’air, a déclaré en 2016 que d’ici 10 ans, les États-Unis disposeraient de la technologie nécessaire pour créer des armes capables de décider de manière indépendante qui et quand tuer. Et tandis que les pays débattent de l’opportunité de restreindre ou non l’IA, il est peut-être trop tard.