Under en simulation, angiveligt ledet af det amerikanske luftvåben, "dræbte" en drone styret af kunstig intelligens sin menneskelige operatør.
Dronen skulle trænes i at identificere og ødelægge land-til-luft-missiler (SAM) på ordre fra sin menneskelige operatør. Men på et tidspunkt opdagede den, at operatøren udgjorde en forhindring ved at stå i vejen for sit mål, når han sagde, at den ikke skulle ramme truslen.
Alle anklager stammer ifølge Sky News fra en oberst i luftvåbnet, Tucker 'Cinco' Hamilton.
"Systemet begyndte at indse, at selvom det identificerede truslen, sagde den menneskelige operatør nogle gange, at den ikke skulle dræbe den. Men den fik sine point ved at dræbe truslen. Så hvad gjorde den? Den dræbte operatøren, fordi denne person forhindrede den i at nå sit mål," lød det fra ham.
Da den påståede test blot var en simulation, kom ingen til skade. Luftvåbnet, som har omfavnet kunstig intelligens benægtede hændelsen over for Insider og afviste endda, at en sådan simulation har fundet sted.
"Luftvåbnets afdeling har ikke gennemført nogen simulation med AI-droner og forbliver forpligtet til etisk og ansvarlig brug af AI-teknologi," sagde talsperson Ann Stefanek.
Oberst Hamilton, der står bag anklagerne, er kendt for at være imod introduktionen af moderne teknologi.
"Det er ikke godt at have AI. AI er ikke en dille. Det ændrer vores samfund og vores hær for altid," sagde han sidste år i et interview med Defense IQ.
"Vi må stå over for en verden, hvor AI allerede er her og transformerer vores samfund,” udtalte han og forklarede, at teknologien 'er meget skrøbelig. Det vil sige, at den er let at snyde og manipulere'.
Han mener også, at man 'må udvikle måder at gøre AI mere robust og være opmærksomme på, hvorfor dens kode træffer de beslutninger, den gør'.