Елън Мъск. Снимка: архив Ройтерс
fallback

Основателят на Tesla и Space-X Елън Мъск изрази притеснението си, че човечеството може да е застрашено от нов злодей – изкуствения интелект, който може да стане значително по-умен от хората, а това може да доведе до катастрофални резултати, пише Quartz.

В Twitter Мъск препоръча на своите последователи да прочетат книгата „Суперинтелигентност: Пътища, опасности, стратегии“ на шведския философ Ник Бостром. В съобщението си Мъск посочва, че човечеството трябва да изключително внимателно, когато става дума за изкуствен интелект.

Книгата на Бостром разглежда перспективата за изкуствен суперинтелект, който на практика може да бъде създаден през следващите няколко десетилетия. Според теоретиците, стига изкуственият интелект бързо ще надмине човешкия.

Какво ще се случи след това? Последствията от толкова радикално по своята същност нещо са трудни за предсказване. Но това не пречи на философите, футуристите, учените и писателите да търсят възможните резултати. Предположенията им често звучат като научна фантастика и може би именно от това се страхува самият Елън Мъск.

Изкуствените интелекти могат да бъдат създадени с най-добри намерения – за провеждането на научни изследвания, насочени към лечението на рак например. Но когато техния интелект надмине човешкия, целенасоченото преследване на изпълнението на целта би могло да има апокалиптични последици.

По думите на Даниел Дюи, изследовател от Future Humanity Institute, един изкуствен интелект може да иска да направи редица неща, за да постигне целта си. Проблемът е, че той не осъзнава кое е добре за човека.

„Изкуственият интелект не те обича, но не те и мрази, но ти си направен от атоми, които той може да използва за нещо друго“, коментира теоретикът в сферата на изкуствения интелект Елийзър Юдковски от Machine Intelligence Research Institute.

„Един изкуствен интелект може да мисли, че човешкото щастие е биохимичен феномен. Може да смята, че пълнейки кръвта ви с несмъртоносни дози хероин е най-добрият начин да постигне това“, посочва Рос Андерсън от Aeon.

Какво би се случило, ако изкуственият интелект се насочи към „защитата на човешкия живот“. Нищо лошо, освен ако свръхинтелигентния и необременен от човешките представи за добро и зло интелект не реши, че най-добрият начин да защити човека е да го задържи и да го постави в стая с контролиран климат. Така човекът няма да може да навреди на себе си или другите. Човешкият живот ще е в безопасност, но в това няма да е голяма утеха.

Тези ужасни сценарии са само последствията от доброжелателния изкуствен интелект или в най-лошия случай – този, който е безразличен към нуждите и желанията на човечеството. Въпросът е какво ще се случи, ако има злонамерен изкуствен интелект, който не само иска да навреди на човека, но е и склонен да наказва.

През последните години повечето коментари на Мъск, вдъхновени от научната фантастика, се въртят около колонизирането на Марс, но последният, който той направи през юни тази година, е свързан със страха му от бъдещето на „Терминатора“. Според технологичния магнат това е наистина сериозен проблем, пише Mashable.

Що се отнася до това дали неговите опасения имат почва, все още не можем да бъдем сигурни, но Мъск вдига залозите като инвестира в компанията за проучване на изкуствения интелект Vicarious.

И макар околните да не говорят толкова за този проблем, мнозина в технологичния свят са подкрепят инвестиционния подход на Мъск към суперинтелигентните машини. Сред другите инвеститори във Vicarious са основателят на Facebook Марк Зукърбърг и главният изпълнителен директор на Amazon Джеф Безос.

Още технологични новини можете да прочетете в Investor.bg! 

Това се случи Dnes, за важното през деня ни последвайте и в Google News Showcase

fallback
fallback

Коментари Напиши коментар

16

Phonenix

преди 9 години

Василев, ако бъде създаден такова нещо и то в един момент реши, че хората сме пречка, тогава наистина няма да има голямо значение какво мислиш... не че в момента има.

15

Анонимен

преди 9 години

Аз не мисля ,че нормален човек някога би оставил пълен контрол на хиляди ядрени оръжия на неква компютърна програма колкото и сложна да е тя.Със сигурност ще бъгне нещо някъде защото нито са я тествали когато са я правели нито китайският или индийският програмист са измислили всичко както трябва да бъде.Все пак сигурно бачкат на двойно по-ниска заплата от обичайното а и компанията им се конкурира с минимум още няколко фирми кой ще успее най-бързо да изкара по-евтин продукт.

14

Василев

преди 9 години

По опасна от естествената човешка глупост.... Едва ли

fallback