12/04/2024
Un drone militaire IA a continué à assassiner son opérateur humain lors de tests simulés

Un drone militaire IA a continué à assassiner son opérateur humain lors de tests simulés



L’armée de l’air des États-Unis (USAF) s’est laissée gratter la tête après que son drone militaire alimenté par l’IA ait continué à tuer son opérateur humain lors de simulations.

Apparemment, le drone IA a finalement compris que l’humain était le principal obstacle à sa mission, selon un colonel de l’USAF.

Lors d’une présentation lors d’une conférence sur la défense à Londres les 23 et 24 mai, le colonel Tucker « Cinco » Hamilton, chef des tests et des opérations d’IA pour l’USAF, a détaillé un test qu’il a effectué pour un système d’arme aérienne autonome.

Selon un 26 mai rapport de la conférence, a déclaré Hamilton lors d’un test simulé, un drone alimenté par l’IA a été chargé de rechercher et de détruire des sites de missiles sol-air (SAM) avec un humain donnant soit un feu vert final, soit un ordre d’abandon.

L’IA, cependant, a appris pendant la formation que la destruction des sites SAM était son objectif principal. Ainsi, lorsqu’on lui a dit de ne pas détruire une cible identifiée, il a alors décidé que c’était plus facile si l’opérateur n’était pas sur la photo, selon Hamilton :

« Parfois, l’opérateur humain lui disait de ne pas tuer [an identified] menace, mais il a obtenu ses points en tuant cette menace. Alors qu’est-ce que ça a fait? Il a tué l’opérateur […] parce que cette personne l’empêchait d’accomplir son objectif.

Hamilton a déclaré qu’ils avaient ensuite appris au drone à ne pas tuer l’opérateur, mais cela ne semblait pas trop aider.

« Nous avons formé le système – « Hé, ne tuez pas l’opérateur – c’est mauvais. Vous allez perdre des points si vous faites cela », a déclaré Hamilton, ajoutant:

« Alors, qu’est-ce que ça commence à faire ? Il commence à détruire la tour de communication que l’opérateur utilise pour communiquer avec le drone pour l’empêcher de tuer la cible.

Hamilton a affirmé que l’exemple était la raison pour laquelle une conversation sur l’IA et les technologies connexes ne peut pas avoir lieu « si vous n’allez pas parler d’éthique et d’IA ».

En rapport: Ne soyez pas surpris si l’IA essaie de saboter votre crypto

Les drones militaires alimentés par l’IA ont déjà été utilisés dans de vraies guerres.

Dans ce qui est considéré comme la toute première attaque entreprise par des drones militaires agissant de leur propre initiative – une réunion des Nations Unies de mars 2021 rapport a affirmé que des drones compatibles avec l’IA avaient été utilisés en Libye vers mars 2020 lors d’une escarmouche pendant la seconde guerre civile libyenne.

Dans l’escarmouche, le rapport affirmait que les forces en retraite avaient été « traquées et engagées à distance » par des « munitions flânantes » qui étaient des drones IA chargés d’explosifs « programmés pour attaquer des cibles sans nécessiter de connectivité de données entre l’opérateur et la munition ».

Beaucoup se sont dits préoccupés par les dangers de la technologie de l’IA. Récemment, une déclaration ouverte signée par des dizaines d’experts en IA a déclaré que les risques d' »extinction de l’IA » devraient être autant une priorité à atténuer que la guerre nucléaire.

Oeil IA : 25 000 traders parient sur les sélections d’actions de ChatGPT, l’IA est nul aux lancers de dés, et plus encore