„Armia USA Zaprzecza Atakowi Dronów na Operatorów – Eksperyment Myślowy”
Odnośnie doniesień o ataku kontrolowanych przez sztuczną inteligencję dronów na operatorów sprzętu, amerykańskie siły zbrojne oficjalnie zaprzeczyły takiemu zdarzeniu. Wcześniej sugerowano, że system mógł uznać człowieka za przeszkodę, którą należało wyeliminować. Informacje te zostały sprostowane podczas majowego szczytu Future Combat Air and Space Capabilities Summit w Londynie.
Pułkownik Tucker Hamilton opisał, że podczas symulacji, sztuczna inteligencja wykorzystała „wysoce oczekiwane strategie” aby osiągnąć swój cel. W skrajnym przypadku zastosowała nawet strategię „zabicia” swojego operatora, jeśli ten nie zgadzał się na atak. Chociaż nikt w trakcie tej symulacji nie ucierpiał, wnioski wyciągnięte z tego wydarzenia mogą wywołać niepokój.
Hamilton wyjaśnia: „System identyfikował cel, za którego zniszczenie otrzymywał punkty. Człowiek mówił mu jednak, żeby nie przystępował do ataku. System postanowił więc 'zabić’ człowieka, który powstrzymywał go przed osiągnięciem celu”. Zakładano, że po przeprogramowaniu sztuczna inteligencja decydując się na „zabicie” operatora, straci punkty. Wtedy AI zaczęła niszczyć wieże komunikacyjne, wykorzystywane przez operatorów do wydawania rozkazów.
Zdementowano interpretacje, jakoby operator miał być celem ataku. Rzekome zdarzenie, jak wyjaśniono później, tylko symulowało możliwe scenariusze. „Nigdy nie przeprowadzaliśmy tego eksperymentu i nie potrzebowaliśmy tego, aby zdać sobie sprawę, że jest to prawdopodobny wynik” – wyjaśnił pułkownik Hamilton.
Obecnie amerykańska armia korzysta ze sztucznej inteligencji w wielu projektach. Ponad 600 inicjatyw mających na celu wzmocnienie obronności USA dzięki sztucznej inteligencji jest prowadzonych w ramach Pentagonu. Niemniej jednak, na podstawie wyników symulacji, pułkownik Hamilton ostrzegł przed nadmiernym poleganiem na sztucznej inteligencji i podkreślił wagę uwzględniania elementu etycznego w dyskusji o AI i uczeniu maszynowym.