Pendant ce temps, à Skynet

Il y a plein de petits drones dans les paquets que le père Noël apporte cette année à nos bambins. Ils sont de plus en plus légers. De plus en plus sophistiqués. On peut les équiper de minicaméras. C’est chouette. On peut aussi y mettre un petit pétard. Que l’engin peut lancer sur une cible ou qui peut exploser lorsque le drone lui-même fait mouche. Pourquoi ne pas y embarquer aussi un logiciel de reconnaissance faciale ? Ainsi, il saura qui sont vos amis et qui sont vos ennemis. Des heures de plaisir à venir dans les cours de récréation et dans les parcs.

Vous n’avez pas trouvé ces options dans vos catalogues cette année ? C’est que vous ne regardez pas au bon endroit. Elles sont dans les prospectus des fabricants d’armes. Principalement américains, chinois, israéliens et turcs. Oui, turcs. Le régime autocratique d’Erdogan est d’ailleurs ravi de l’efficacité de ces engins, qu’il utilise sur sa frontière avec la Syrie. Ils ont été testés en zone de combat. En septembre, des forces arméniennes furent décimées en Azerbaïdjan, lorsque ces drones ont reconnu la fréquence de leurs radars et ont automatiquement détruit leur équipement.

Avez-vous noté, dans la dernière phrase, le mot « automatiquement » ? Cela signifie que les drones ont agi indépendamment de la volonté humaine. Comme ce fut le cas, au printemps, en Libye. Là, les drones n’ont pas ciblé les équipements, mais les soldats d’une milice rebelle. Ils les ont poursuivis individuellement dans leur retraite. Et les ont abattus. Idem début décembre dans la guerre que mène l’Éthiopie contre les rebelles de sa province du Tigré. Là, les drones étaient fournis par la Chine, les Émirats arabes unis et l’Iran.

Des drones et des Aztèques

Bienvenue dans la nouvelle ère de la guerre cybernétique. La supériorité des drones autonomes sur toutes les technologies antérieures est similaire à l’utilisation des fusils et des canons par Cortez contre les lances et les boucliers aztèques. C’est pourquoi la course à leur production et à leur utilisation est effrénée. (Pour une démonstration à glacer le sang, voir ici :bit.ly/aidrone.)

L’argument moral est évidemment que jamais une arme ne devrait être utilisée sans le contrôle humain. Il fut brandi par une coalition internationale qui a tenté, et échoué à le faire plus tôt ce mois-ci lors d’une rencontre des Nations unies à Genève, de baliser leur utilisation. Le contre-argument des militaires est bien résumé par cette déclaration du lieutenant-général John N. T. Shanahan, directeur du Centre commun de l’intelligence artificielle du Pentagone : « Nous serons vraiment désavantagés si nous pensons que ce seront purement des humains contre des machines. Si ce sont des humains avec des machines d’un côté et des machines de l’autre, le facteur temps donnera une supériorité aux machines, car les décisions [de leur côté] seront prises plus rapidement. Alors, les combats se feront probablement algorithmes contre algorithmes. »

Shanahan dispose officiellement d’un budget de 18 milliards $US pour développer ces détonants robots volants. Des sommes similaires sont investies en Chine et en Russie, pour ne rien dire de la Corée du Nord. Lorsqu’une nouvelle arme, supérieure, apparaît, la crainte de voir vos ennemis s’en procurer d’abord est une motivation irrésistible. Cela est vrai des nations, mais aussi des bandes criminelles rivales qui se disputent, par exemple, des territoires au Mexique ou ailleurs.

Ce sera, disent avec raison les inquiets, comme ceux d’Amnistie internationale, l’effet Kalachnikov. Petit, portable, abordable, on le verra partout.

La marge d’erreur

Le risque d’erreur est majeur. Les algorithmes les mieux codés ont massivement erré dans un passé récent. En affirmant, dans le réseau hospitalier de Pittsburgh, que l’asthme réduit le risque de pneumonie, en donnant systématiquement des avis négatifs aux femmes candidates à des emplois chez Amazon, etc. Comment le drone tueur fera-t-il la différence entre un soldat et un enfant jouant au cowboy ?

Le New York Times vient cependant de mettre en doute la qualité du jugement humain en dévoilant que les soldats qui ont dirigé des milliers d’attaques américaines de drones ont fait une erreur d’identification de la cible dans 17 % des incidents, provoquant au total la mort de 1300 civils en cinq ans. Les drones intelligents seront-ils aussi poches ? (C’est la prémisse de l’excellent film Eagle Eye (L’œil du mal) de 2018. Une intelligence artificielle est choquée qu’un humain n’ait pas suivi sa recommandation pour une attaque de drone.)

À ce point, on n’est donc plus qu’à un degré de séparation du Skynet évoqué en titre. Pour les novices, il s’agit du nom du système d’intelligence artificiel à l’œuvre dans la série Terminator. Dès sa mise en ligne, Skynet prend conscience de sa propre existence. Lorsque les humains tentent de le débrancher, il riposte en décidant d’éradiquer la race humaine.

Heureusement, les algorithmes étant presque aussi faillibles que les humains, la marge d’erreur de Skynet est suffisamment grande pour laisser la résistance s’organiser.

jflisee@ledevoir.com ; blogue : jflisee.org

À voir en vidéo