Снимка: Pixabay/ geralt
fallback

Изкуственият интелект, изграден върху планини от потенциално пристрастна информация, създава реален риск от автоматизиране на дискриминацията, но има ли начин да се превъзпитат машините?

Въпросът за някои е изключително належащ. В ерата на ChatGPT изкуственият интелект ще генерира все повече решения за доставчиците на здравни услуги, банковите кредитори или адвокатите, използвайки като изходен материал всичко, което е било издирено от интернет, предава АФП.

Следователно базовият интелект на ИИ е толкова добър, колкото е добър светът, от който е дошъл, толкова вероятно е да е изпълнен с остроумие, мъдрост и полезност, както и с омраза, предразсъдъци и тиради.

"Това е опасно, защото хората прегръщат и приемат софтуера за ИИ и наистина зависят от него", казва Джошуа Уивър, директор на Тексаския инкубатор за възможности и правосъдие, юридическа консултантска компания.

"Можем да влезем в тази обратна връзка, при която предразсъдъците в собствената ни същност и култура информират предразсъдъците в ИИ и се превръщат в нещо като подсилващ цикъл", каза той.

Да се гарантира, че технологиите отразяват по-точно човешкото разнообразие, не е само политически избор.

При други приложения на ИИ, като например разпознаването на лица, компаниите са се сблъсквали с проблеми, свързани с дискриминация.

Такъв е случаят с Rite-Aid, американска верига аптеки, където според Федералната търговска комисия камерите в магазините фалшиво маркират потребителите, особено жените и цветнокожите, като крадци на стоки.

Генеративният изкуствен интелект от типа на ChatGPT, който може да създаде подобие на човешки разсъждения само за секунди, открива нови възможности за грешка, притесняват се експертите.

Гигантите в областта на изкуствения интелект са наясно с проблема, опасявайки се, че моделите им могат да изпаднат в лошо поведение или да отразяват прекомерно западното общество, когато потребителската им база е глобална.

"Имаме хора, които задават запитвания от Индонезия или САЩ", каза главният изпълнителен директор на Google Сундар Пичай, обяснявайки защо заявките за изображения на лекари или адвокати ще се стремят да отразяват расовото разнообразие.

Но тези съображения могат да достигнат абсурдни нива и да доведат до гневни обвинения в прекалена политическа коректност.

Това се случи, когато генераторът на изображения Gemini на Google изплю изображение на германски войници от Втората световна война, което абсурдно включваше чернокож мъж и азиатка.

"Очевидно грешката беше, че прекалихме с прилагането... там, където не трябваше да се прилага. Това беше грешка и ние сгрешихме", каза Пичай.

Но Саша Лучони, учен-изследовател в Hugging Face, водеща платформа за модели на изкуствен интелект, предупреди, че "мисленето, че има технологично решение за пристрастията, е един вид вече тръгване по грешен път".

Генериращият ИИ по същество е свързан с това дали резултатът "съответства на това, което потребителят очаква", а това до голяма степен е субективно, каза тя.

Огромните модели, върху които е изграден ChatGPT, "не могат да разсъждават за това кое е пристрастно и кое не, така че не могат да направят нищо по въпроса", предупреди Джейдън Зиглер, ръководител на продуктовия отдел в Alembic Technologies.

Поне засега от хората зависи да гарантират, че изкуственият интелект генерира всичко, което е подходящо или отговаря на техните очаквания.

Но като се има предвид лудостта около ИИ, това не е лесна задача.

Hugging Face разполага с около 600 000 модела на ИИ или машинно обучение на своята платформа.

"На всеки няколко седмици излиза нов модел и ние сякаш се борим, за да се опитаме просто да оценим и документираме пристрастия или нежелано поведение", казва Лучони.

Един от методите, които се разработват, е т.нар. алгоритмично изключване, което ще позволи на инженерите да изключват съдържание, без да разрушават целия модел.

Съществуват обаче сериозни съмнения, че това може да работи.

Друг метод би "насърчил" модела да върви в правилната посока, би го "донастроил", "възнаграждавайки за правилно и неправилно", казва Рам Шрихарша, главен технологичен директор в Pinecone.

Pinecone е специалист в областта на разширеното генериране на информация (retrieval augmented generation или RAG) - техника, при която моделът извлича информация от фиксиран надежден източник.

За Уивър от Тексаския инкубатор за възможности и правосъдие тези "благородни" опити за отстраняване на пристрастия са "проекции на нашите надежди и мечти за това как може да изглежда една по-добра версия на бъдещето".

Но предубедеността "е присъща и на това, което означава да бъдеш човек, и поради това тя е заложена и в изкуствения интелект", казва той.

Това се случи Dnes, за важното през деня ни последвайте и в Google News Showcase

fallback
fallback

Коментари Напиши коментар

7

gargamel

преди 1 месец

Безработица в световен мащаб

6

:)

преди 1 месец

Няма нищо безопасно около и свързано с ИИ. Не препоръчвам продължителното му използване.

5

vs

преди 1 месец

И ИИ ви казва, че ***.гала си е ман.ал!

fallback