nouvelles

Un drone militaire américain contrôlé par intelligence artificielle a tué son opérateur lors de tests

Aux États-Unis, un drone a tué un opérateur en raison de tentatives d'interférence avec des frappes.

Lors d'un test virtuel mené par l'US Air Force, un drone contrôlé par intelligence artificielle (IA) a tué son opérateur afin qu'il n'interfère pas avec sa mission. C'est ce qu'a déclaré un haut représentant de l'US Air Force lors du Sommet sur l'avenir de l'aviation de combat et des capacités spatiales à Londres.

Le colonel Tucker Hamilton, chef des tests et des opérations d'IA à l'US Air Force, a parlé d'un test simulé dans lequel un drone basé sur l'IA était chargé de détruire les systèmes de défense aérienne ennemis et a fini par attaquer quiconque interférait avec cet ordre.

"Le système a commencé à comprendre que malgré la définition d'une menace, parfois l'opérateur lui ordonnait de ne pas détruire cette menace. Mais elle recevait des points pour avoir détruit cette menace. Et qu'a-t-elle fait ? Elle a tué l'opérateur. Elle a tué l'opérateur parce que il l'a empêchée d'atteindre son but "dit Hamilton.

Heureusement, personne n'a été réellement blessé. Hamilton, qui est pilote d'essai pour des combattants expérimentaux, a mis en garde contre les risques d'une dépendance excessive à l'IA et a souligné que le test montre "qu'on ne peut pas parler d'intelligence artificielle, d'apprentissage automatique, d'autonomie sans discuter d'éthique et d'IA".

.

Blogue et articles

à l'étage