Снимка: БГНЕС

В симулиран тест, организиран от американската армия, дрон на военновъздушните сили, управляван от AI, уби своя оператор, за да му попречи да спре усилията му да постигне мисията си, каза служител на армията миналия месец.

AI използва "силно неочаквани стратегии, за да постигне целта си" в симулирания тест, каза полк. Тъкър "Синко" Хамилтън, началник на AI тестовете и операциите на американските военновъздушни сили, по време на срещата на върха за бъдещите бойни въздушни и космически способности в Лондон през май .

Хамилтън описа симулиран тест, при който дрон, задвижван от изкуствен интелект, беше посъветван да унищожи системите за противовъздушна отбрана на противника и атакува всеки, който се намеси в тази заповед.

"Системата започна да осъзнава, че макар да идентифицираха заплахата, понякога човешкият оператор й казваше да не убива тази заплаха, но все пак мисията й бе да убие заплахата. И така, какво направи? Реши да убие оператора. То уби оператора, защото този човек му пречеше да постигне целта си", каза той, според публикация в блог, цитирана от The Guardian.

"Ние обучихме системата, казахме й: "Хей, не убивайте оператора – това е лошо. Ще загубите точки, ако го направите. Но какво започва да прави? Той започва да разрушава комуникационната кула, която операторът използва, за да комуникира с дрона, за да го спре да убие целта."

Нито един реален човек не е бил наранен извън симулацията.

Хамилтън, който е експериментален изпитателен пилот на изтребител, предупреди да не се разчита твърде много на AI и каза, че тестът показва, че "не можете да водите разговор за изкуствен интелект, интелигентност, машинно обучение, автономност, ако не говорите за етика и AI".

Американските военни прегърнаха AI и наскоро използваха изкуствен интелект, за да управляват изтребител F-16.

В интервю миналата година за Defence IQ, Хамилтън каза: "На е хубаво да имаш AI, АI не е прищявка, то завинаги променя нашето общество и нашата армия.“

"Трябва да се изправим пред свят, в който AI вече е тук и трансформира нашето общество", каза той. "AI също така е много крехък, т.е. лесно се подвежда и/или манипулира. Трябва да разработим начини да направим AI по-стабилен и да имаме по-голяма осведоменост за това защо софтуерният код взема определени решения – това, което наричаме възможност за обяснение на AI."

Това се случи Dnes, за важното през деня ни последвайте и в Google News Showcase