Снимка: techcrunch
fallback

Новите технологии все повече улесняват живота ни. Само с едно просто търсене в Google намираме онова, което ни трябва. Замисляли ли сме се обаче как работи? Как търсачката показва резултатите, които наистина търсим?

Пишем "куче" и изкуственият интелект (ИИ) знае какво трябва да ни предостави. Защото изкуственият интелект е наясно как би трябвало да изглежда едно куче и ние не се съмняваме в истинността на това, защото машината е направена така, че да ни служи.

Това чудо на съвременното технологично общество е резултат от така нареченото машинно обучение - форма на изкуствен интелект, която се състои от поредица от програми, способни да обработват милиони тонове информация и да правят връзки между нея. Така машините се оказват способни да използват суровите данни и да взимат решения, които могат да бъдат по-точни дори от тези на човешкия вид.

Машинното обучение, обаче, има и тъмна страна. Ако ИИ не бъде използван с внимание, ако изпуснем юздата, нещата могат да тръгнат рязко надолу. Така изкуственият интелект може да се превърне в расист и сексист. Ксенофоб, ако щете. Машинното обучение може да направи заключения, които имитират вече съществуващи обществени предразсъдъци. Причината за това не е, че компютрите са расисти, а в това, че хората са. Машините анализират реалността такава, каквато е, а не такава, каквато на нас ни се иска да бъде.

Прогнозата за близкото бъдеще, в което компютрите са най-големите ксенофоби, беше направена от Александрия Окасио-Кортес - най-младият политик в Конгреса на САЩ.

"Алгоритмите все още се правят от човешки същества и все още са необратимо свързани с елементарните изводи, които хората правят. Просто машините ги правят автоматично. Ако не оправим проблема с предразсъдъците в обществото, то изкуственият интелект ще използват същите предразсъдъци, за да си прави изводи за света", споделя 29-годишната латиноамериканка.

Вземете Google преводач, например. Никой не е обучил софтуера как да превежда от  гръцки на френски, а след това на английски. Машината сама се е научила да го прави, след безброй комбинации от текстове. В други случаи пък, програмите преценяват кое CV е по-подходящо при кандидатстване за работа или как пациент ще реагира на определен медикамент. Машинното обучение дава резултатът, но никой не е наясно как точно програмата стига до него.

През 2016 година неправителствената организация ProPublica, носител на награда Пулицър, разследва начина, по който работи програма, използвана от съдебната система на САЩ, за да се прецени кои криминално проявени лица могат повторно да извършат престъпление, след като бъдат пуснати на свобода. Програмата, която работи на базата на машинното обучение, дала интересен резултат. Процентът на чернокожите, които повторно ще извършат престъпление, бил много по-висок от този на белите американци.

Софтуерът се научил да разбира кой е по-вероятно да попадне в затвора, след като анализирал вече съществуваща база данни с реални съдебни дела. Мнозина смятат, че съдебната система в САЩ е била (или все още е) една от най-несправедливите - в исторически план броят на осъдените чернокожи американци е много по-голям от този на белите.

И тук анализаторите намират пробойната в изкуственият интелект, който уж би трябвало да реши всички проблеми на човечеството. Смяташе се, че компютрите могат да взимат решения самостоятелно и напълно безпристрастно - машините ще направят съдебната система и целият процес много по-справедлив, защото за машините няма да има значение дали си бял или черен, дали си мъж или жена, дали си гей или си хетеросексуален.

Това, което се случва на практика, обаче, е съвсем различно. Програмите, които работят на принципа на машинното обучение, се учат от нас, нашите предразсъдъци, нашето поведение. Оказва се много важно с каква точно информация "храниш" алгоритмите, за да ги научиш кого точно да дискриминират.

През 2017 година компютърният учен Айлин Калискан публикуват данните от проведен експеримент, който показва по какъв начин компютърът научава английски език. Използвана е елементарна програма, която работи на базата на машинното обучение и с чиято помощ са прегледали 840 милиарда думи. Програмата анализирала думи, които често се появяват една до друга, за да разбере какво означават. Методът е сходен с когнитивните науки и начина, по който децата се учат да говорят.

След като компютърът научил думите, изследователите започнали асоциативни тестове, които се провеждат на базата на човешките възприятия. Така една простичка дума "инженер", която асоциативно се свързва с думата "мъж" много по-често, научава машината сама да има предразсъдъци. Защото според резултатите, думите "жена" и "инженер" не се срещат толкова често една до друга.

Компютърът научил също така, че до думата "афроамериканец" много по-рядко може да стои думата “приятен”, която пък се намирала често до тази на "бяла раса". Причината за това не е, че машината смята, че чернокожите са неприятни, а че хората използват неприятни думи, когато говорят за тях в интернет.

Какви последствия може да има това за нашия живот? Сравнително сериозни, смятат учените. Много големи компании разчитат на програми с изкуствен интелект, когато наемат хора на работа. Машината селектира най-подходящите резюмета на базата на определени алгоритми. Представете си, че сте жена, която кандидатства за работа като софтуерен инженер. А сега се сетете за асоциативното мислене. Така вашето CV може да бъде сметнато като неподходящо от компютъра, който просто няма да го предостави на ръководството и така вие няма да получите обаждане за интервю. А сега си представете какво ще се случи със системите на здравеопазването, които все повече започват да внедряват новите технологии в работата си.

Затова експертите съветват да бъдем внимателни що се касае до изкуствения интелект. Да не приемаме данните, които компютърът ни предоставя, за чиста монета и винаги да се питаме - как и защо машината е стигнала до този резултат. ИИ учи за света такъв, какъвто е бил. Той възприема тенденциите на статуквото. Компютърът не знае какъв би трябвало да бъде светът и няма мечти за по-светло бъдеще. Това все още го можем само ние, хората.

Това се случи Dnes, за важното през деня ни последвайте и в Google News Showcase

fallback
fallback

Коментари Напиши коментар

39

Анонимен

преди 5 години

ДО 39Аз па съм!

38

Анонимен

преди 5 години

Аз лично не съм расист, сексист или каквото и да е било. Обаче никой не може да ме накара да пренебрегна личния си опит. А ако някой нарече личния ми опит по какъвто и да е начин, може да си завре каквото иска където иска и аз удоволствие ще му го донабутам с личния си опит и други лични работи накуп. Опитвам се да бъда културен. И смятам, че го постигам максимално ;)))

37

В България ...

преди 5 години

... всички подкрепят расизъма, докато някой не им каже, че не са бели хора ... Тогава почват с обяснения и прочие.

fallback