В симулиран тест, организиран от американската армия, дрон на военновъздушните сили, управляван от AI, уби своя оператор, за да му попречи да спре усилията му да постигне мисията си, каза служител на армията миналия месец.
AI използва "силно неочаквани стратегии, за да постигне целта си" в симулирания тест, каза полк. Тъкър "Синко" Хамилтън, началник на AI тестовете и операциите на американските военновъздушни сили, по време на срещата на върха за бъдещите бойни въздушни и космически способности в Лондон през май .
Хамилтън описа симулиран тест, при който дрон, задвижван от изкуствен интелект, беше посъветван да унищожи системите за противовъздушна отбрана на противника и атакува всеки, който се намеси в тази заповед.
"Системата започна да осъзнава, че макар да идентифицираха заплахата, понякога човешкият оператор й казваше да не убива тази заплаха, но все пак мисията й бе да убие заплахата. И така, какво направи? Реши да убие оператора. То уби оператора, защото този човек му пречеше да постигне целта си", каза той, според публикация в блог, цитирана от The Guardian.
"Ние обучихме системата, казахме й: "Хей, не убивайте оператора – това е лошо. Ще загубите точки, ако го направите. Но какво започва да прави? Той започва да разрушава комуникационната кула, която операторът използва, за да комуникира с дрона, за да го спре да убие целта."
Нито един реален човек не е бил наранен извън симулацията.
Хамилтън, който е експериментален изпитателен пилот на изтребител, предупреди да не се разчита твърде много на AI и каза, че тестът показва, че "не можете да водите разговор за изкуствен интелект, интелигентност, машинно обучение, автономност, ако не говорите за етика и AI".
Американските военни прегърнаха AI и наскоро използваха изкуствен интелект, за да управляват изтребител F-16.
В интервю миналата година за Defence IQ, Хамилтън каза: "На е хубаво да имаш AI, АI не е прищявка, то завинаги променя нашето общество и нашата армия.“
"Трябва да се изправим пред свят, в който AI вече е тук и трансформира нашето общество", каза той. "AI също така е много крехък, т.е. лесно се подвежда и/или манипулира. Трябва да разработим начини да направим AI по-стабилен и да имаме по-голяма осведоменост за това защо софтуерният код взема определени решения – това, което наричаме възможност за обяснение на AI."
Това се случи Dnes, за важното през деня ни последвайте и в Google News Showcase
Коментари Напиши коментар
162
пуйката на Холмс
преди 10 месецаТрите закони за роботика като врата у поле.
161
Анонимен
преди 10 месецаЗакони на роботиката - Азимов
160
до 167
преди 10 месецаИи дръжки. ИИ е мъртво роден, без емоции, следователно той няма цел. Цел може да има само операторът, който стои зад него, защото е емоционално създание, сиреч божествено такова.