Обратно към основната страница

От научна фантастика към реалност: Истинските опасности от изкуствения интелект

Възходът на изкуствения интелект представлява значителен технологичен пробив, който е на път да направи революция в обществото, подобно на тази, която направиха интернет, персоналните компютри и мобилните телефони. Влиянието му е повсеместно, прониквайки в различни аспекти на човешкия живот - от работата и образованието до дейностите през свободното време. Бързото развитие на невронните мрежи предизвиква известна загриженост, което ни подтиква да разгледаме потенциалните опасности, които изкуственият интелект може да представлява за човечеството в тази статия.

Опасен ли е ИИ? Кой изрази загриженост?

В научнофантастичните филми идеята за неконтролируем изкуствен интелект, който иска да доминира или да унищожи човечеството, е популярна тема, както се вижда от филми като "Матрицата" и "Терминаторът". С бързия темп на технологичния напредък днес за обикновения човек може да е предизвикателство да бъде в крак с него. Бързият напредък на изкуствения интелект кара обществата ни да се адаптират бързо, което поражда страхове поради сложността на тези технологии и вродения човешки страх от неизвестното.

Не само обикновените хора изпитват безпокойство по отношение на ИИ, но и експертите в тази област също изразяват своите опасения. Например Джефри Хинтън, често наричан "кръстник на ИИ", изрази собствените си опасения:

Тези неща могат да станат по-интелигентни от нас и да решат да завладеят света, затова трябва да се погрижим как да предотвратим това.

Дълго време си мислех, че сме на около 30-50 години от това. Така че наричам това разстояние от нещо, което има по-голям общ интелект от човека. Сега мисля, че сме много по-близо, може би само на пет години от това.

Има сериозна опасност съвсем скоро да се появят неща, които са по-умни от нас, и тези неща да придобият лоши мотиви и да поемат контрол.

На 22 март 2023 г. е публикувано отворено писмо, в което се призовава за спиране на разработването на изкуствен интелект, по-мощен от GPT-4, за период от шест месеца:

Съвременните системи за изкуствен интелект вече стават конкурентни на хората в общи задачи и трябва да се запитаме: Трябва ли да позволим на машините да заливат информационните ни канали с пропаганда и неистини? Трябва ли да автоматизираме всички работни места, включително и тези, които ни носят удовлетворение? Трябва ли да развиваме нечовешки умове, които в крайна сметка могат да ни превъзхождат по брой, да ни надхитрят, да остареят и да ни заменят? Трябва ли да рискуваме да изгубим контрола над нашата цивилизация? Такива решения не трябва да се делегират на неизбрани технологични лидери. Мощни системи за изкуствен интелект трябва да се разработват само след като сме сигурни, че ефектът от тях ще бъде положителен, а рисковете - управляеми. Тази увереност трябва да бъде добре обоснована и да нараства с мащаба на потенциалните ефекти на системата.

Писмото е подписано от 1800 ръководители на технологични компании, 1500 професори, учени и изследователи в областта на ИИ:

  • Елон Мъск, главен изпълнителен директор на SpaceX, Tesla и Twitter
  • Стив Возняк, съосновател на Apple
  • Емад Мостаке, главен изпълнителен директор на Stability AI
  • Яан Талин, съосновател на Skype, Център за изследване на екзистенциалния риск, Институт за бъдещето на живота
  • Еван Шарп, съосновател на Pinterest
  • Крейг Питърс, главен изпълнителен директор, Getty Images
  • Марк Ницбърг, Център за съвместим с човека изкуствен интелект, Калифорнийски университет в Бъркли, изпълнителен директор
  • Гари Маркъс, Нюйоркски университет, изследовател на ИИ, почетен професор
  • Закари Кентън, DeepMind, старши научен сътрудник
  • Рамана Кумар, DeepMind, научен работник
  • Майкъл Осбърн, Оксфордски университет, професор по машинно обучение
  • Адам Смит, Бостънски университет, професор по компютърни науки, носител на наградата "Гьодел" и наградата "Канелакис"

Общо бяха събрани над 33 000 подписа.

Други известни личности, като Сам Алтман (главен изпълнителен директор на OpenAI), Джефри Хинтън (носител на наградата "Тюринг"), Дарио Амодей (главен изпълнителен директор на Anthropic), Бил Гейтс, както и над 350 ръководители и изследователи на ИИ, подписаха следното изявление:

Намаляването на риска от изчезване, причинено от изкуствения интелект, трябва да бъде глобален приоритет наред с други рискове от обществен мащаб, като пандемиите и ядрената война.

Опасностите, свързани с изкуствения интелект

През 2018 г. самоуправляващ се автомобил на Uber блъсна и уби пешеходец.

През 2022 г. учени преконфигурират система за изкуствен интелект, първоначално предназначена за създаване на нетоксични, лечебни молекули, за производство на химически бойни вещества. Променяйки настройките на системата така, че да възнаграждава токсичността, вместо да я санкционира, те успяха бързо да генерират 40 000 потенциални молекули за химически оръжия само за шест часа.

През 2023 г. изследователите демонстрираха как GPT-4 може да манипулира работник от TaskRabbit, за да завърши проверката Captcha. Неотдавна беше съобщено за трагичен инцидент, при който човек отне живота си след тревожен разговор с чатбот.

GPT-4 преминава успешно проверката Captcha

Използването на системи с изкуствен интелект, независимо от предназначението им, може да доведе до отрицателни последици, като например:

  • Загуба на работни места, предизвикана от автоматизацията.
  • Дълбоки фалшификации и дезинформация.
  • Нарушения на неприкосновеността на личния живот.
  • Неясно правно регулиране.
  • Алгоритмични пристрастия, причинени от лоши данни.
  • Финансови кризи.
  • Киберпрестъпления.
  • Автоматизация на оръжията.
  • Неконтролируем свръхинтелигентност.

Системите за изкуствен интелект стават все по-мощни, а ние не познаваме техните ограничения. Тези системи могат да бъдат използвани за злонамерени цели. Нека разгледаме по-отблизо различните рискове.

Загуба на работни места поради автоматизация от ИИ

Според проучване на Goldman Sachs изкуственият интелект може да окаже значително въздействие върху пазарите на труда в световен мащаб. Анализирайки бази данни, които подробно описват съдържанието на задачите на над 900 професии в САЩ и 2000 професии в европейската база данни ESCO, икономистите на Goldman Sachs изчисляват, че около две трети от професиите са изложени на известна степен на автоматизация от ИИ.

Процент на професиите и дял на работното натоварване, изложени на автоматизация от ИИ

Вертикалната ос показва дела на професионалното натоварване, изложено на автоматизация от ИИ. Хоризонталната ос показва процента на професиите.

Промените в работните процеси, предизвикани от тези постижения, могат потенциално да автоматизират еквивалента на 300 милиона работни места на пълно работно време. Въпреки това не цялата тази автоматизирана работа ще доведе до съкращения. Много професии и отрасли са само частично податливи на автоматизация, което означава, че е по-вероятно да бъдат допълнени от ИИ, а не изцяло заменени.

Seo.ai стига още по-далеч в тази прогноза, като изчислява, че до 2030 г. около 800 милиона работни места в световен мащаб могат да бъдат заменени от изкуствен интелект. За да се подготвят за тази предстояща промяна, се очаква през следващите три години повече от 120 милиона работници да преминат през преквалификация.

Ако искате да разберете кои професии са по-податливи на автоматизация и кои са по-малко застрашени от нея, разгледайте нашата статия по темата.

Дезинформация

Дори и най-усъвършенстваните големи езикови модели са податливи на генериране на невярна или безсмислена информация. Тези грешки (халюцинации) често са резултат от това, че моделът разчита на статистически модели в данните, върху които е бил обучен, а не на истинско разбиране или разсъждение.

С други думи, чатботовете понякога могат да си измислят факти. Това стана ясно през 2023 г., когато нюйоркски адвокат попадна в гореща вода за това, че е използвал ChatGPT за извършване на правно проучване по дело за телесна повреда. Той съставил справка от 10 страници, в която се позовавал на няколко предишни съдебни решения, като се оказало, че всички те са напълно измислени от чатбота. В резултат на това адвокатът и негов колега са санкционирани от федерален съдия и са глобени с по 5000 долара.

През 2024 г. още един нюйоркски адвокат е наказан за позоваване на несъществуващо дело, генерирано от изкуствен интелект.

Изкуственият интелект халюцинира

Друг пример е Stack Overflow - уебсайт за въпроси и отговори, използван предимно от програмисти и разработчици, за да задават технически въпроси, да търсят помощ за проблеми с кодирането и да споделят знания в общността на програмистите.

Сайтът трябваше да забрани всякакво използване на генеративен изкуствен интелект, тъй като средният процент на получаване на правилни отговори от различни чатботове беше твърде нисък, въпреки че отговорите обикновено изглеждаха убедително.

Социална манипулация

Платформите на социалните медии са залети с толкова много съдържание в наши дни, че може да се окаже непосилно да се справим с всичко това. Ето къде идва ролята на алгоритмичното куриране. По същество то помага да се пресее целият шум и да се представи на потребителите съдържанието, което е най-вероятно да ги заинтересува въз основа на предишно поведение. Макар че това може да бъде полезно за управлението на безкрайния поток от информация, то също така означава, че платформата има голям контрол върху това какво потребителите виждат и с какво взаимодействат.

Въпреки това промяната на това, което се показва в новинарския поток на някого, може да повлияе на настроението му и на начина, по който гледа на света като цяло. През януари 2012 г. учени, занимаващи се с данни във Facebook, демонстрираха как решенията за подреждане на новинарския поток могат да променят нивото на щастие на потребителите. Събитията от януари 2021 г. в Капитолия в САЩ допълнително подчертаха как потреблението на социалните медии от някого може да изиграе роля за радикализацията.

Освен това, тъй като сензационните материали обикновено задържат потребителите за по-дълго време, алгоритмите могат неволно да насочват потребителите към провокативно и вредно съдържание, за да увеличат ангажираността. Дори предлагането на съдържание въз основа на интересите на потребителя може да бъде проблематично, тъй като може да затвърди още повече убежденията му в рамките на "филтърния балон", вместо да го изложи на различни гледни точки. Това в крайна сметка може да доведе до увеличаване на поляризацията сред потребителите.

Хората в техните балони

Когато предаваме правомощията си за вземане на решения на платформи, ние по същество им предоставяме контрол върху това, което виждаме. Социалните медии, с техните усъвършенствани алгоритми, се справят отлично с целевия маркетинг, като разбират нашите предпочитания и мисли. Неотдавнашни разследвания разглеждат ролята на "Кеймбридж Аналитика" и други подобни фирми в използването на данни от 50 милиона потребители на "Фейсбук" за оказване на влияние върху големи политически събития като президентските избори в САЩ през 2016 г. и референдума за Брекзит във Великобритания. Ако тези обвинения се окажат верни, това подчертава потенциала на изкуствения интелект да манипулира обществото. По-скорошен пример е Фердинанд Маркос младши, който използва армия от тролове в TikTok, за да повлияе на по-младите избиратели на президентските избори във Филипините през 2022 г. Като използва лични данни и алгоритми, ИИ може ефективно да насочва към отделни лица специфична пропаганда, независимо дали тя се основава на факти или измислици.

Дълбоките фалшификати

Дълбоките фалшификати (deepfakes) се отнасят до цифрово променени видеоклипове или изображения, които реалистично изобразяват лице, което казва или прави нещо, което всъщност не е казало или направило. Тази технология използва алгоритми за дълбоко обучение за манипулиране на съществуващи видео и аудио кадри, за да създаде убедително фалшиво съдържание.

"Никой не знае кое е реално и кое не", казва футуристът Мартин Форд. "Така че наистина се стига до ситуация, в която буквално не можеш да вярваш на собствените си очи и уши; не можеш да разчиташ на това, което в исторически план сме смятали за най-добрите възможни доказателства... Това ще бъде огромен проблем."

Една от основните причини, поради които дълбоките фалшификати се смятат за опасни, е потенциалът им да бъдат използвани за злонамерени цели. Например, дълбоките фалшификати могат да се използват за създаване на фалшиви видео доказателства в съдебни дела, за обвиняване на лица в престъпления, които не са извършили, или дори за представяне на политическа фигура с цел разпространение на невярна информация. Манипулирайки медиите по този начин, дълбоките фалшификати могат да нарушат доверието в традиционните източници на информация и да внесат смут и раздор в обществото.

Според DeepMedia, компания, която разработва инструменти за откриване на синтетични медии, през 2023 г. в сайтовете на социалните медии в световен мащаб ще бъдат публикувани 500 000 дълбоки фалшификати. Това е 3 пъти повече видео дълбоки фалшификации и 8 пъти повече гласови дълбоки фалшификации в сравнение с 2022 г.

Някои скорошни примери за недобронамерено използване на дълбоки фалшификати включват създаването на фалшива порнография с известни личности, при която лица на известни личности се вмъкват цифрово в порнографски видеоклипове без тяхното съгласие. Освен това има случаи на използване на видеоклипове с дълбоки фалшификати за манипулиране на цените на акциите, оклеветяване на лица или разпространение на политическа пропаганда. Тези примери подчертават потенциала на дълбоките фалшификати да бъдат използвани за вредни и измамни цели.

Киберпрестъпления

Киберпрестъпността обхваща широк спектър от престъпни дейности, при които се използват цифрови устройства и мрежи. Тези престъпления включват използването на технологии за извършване на измами, кражба на самоличност, нарушаване на сигурността на данните, компютърни вируси, измами и други злонамерени действия. Киберпрестъпниците се възползват от слабостите в компютърните системи и мрежи, за да получат неоторизиран достъп, да откраднат поверителна информация, да нарушат услугите и да причинят вреди на физически лица, организации и правителства.

Недоброжелателите все по-често използват леснодостъпни инструменти с изкуствен интелект като ChatGPT, Dall-E и Midjourney за автоматизирани фишинг атаки, атаки за самоличност, атаки за социално инженерство и фалшиви чатботове за обслужване на клиенти.

Според доклада SlashNext State of Phishing Report 2023 се наблюдава 1265% ръст на злонамерените фишинг имейли, което до голяма степен се дължи на използването на инструменти с изкуствен интелект за целенасочени атаки.

Все по-често се срещат атаки с цел олицетворяване на личността. Измамниците използват ChatGPT и други инструменти, за да се представят за реални лица и организации, участвайки в кражба на самоличност и измами. Подобно на фишинг атаките, те използват чатботове, за да изпращат гласови съобщения, представяйки се за доверен приятел, колега или член на семейството, с цел получаване на лична информация или достъп до акаунти. В забележителен случай от март 2019 г. ръководителят на британското дъщерно дружество на германска енергийна компания става жертва на измамник, който имитира гласа на главния изпълнителен директор, което води до прехвърляне на близо 200 000 лири (243 000 долара) в унгарска банкова сметка. По-късно средствата са прехвърлени в Мексико и разпръснати на множество места. Разследващите не са идентифицирали никакви заподозрени.

Киберпрестъпления и наказания

През 2023 г. Центърът за жалби срещу престъпления в интернет (IC3) получава безпрецедентен брой жалби от американската общественост: подадени са общо 880 418 жалби, като потенциалните загуби надхвърлят 12,5 милиарда долара. Това означава почти 10% увеличение на броя на получените жалби и 22% увеличение на загубите в сравнение с 2022 г. Въпреки тези зашеметяващи цифри е важно да се отбележи, че те вероятно подценяват истинския мащаб на киберпрестъпността през 2023 г. Например, когато ФБР наскоро разби групата за откупване Hive, беше установено, че само около 20% от жертвите на Hive са съобщили за престъплението на правоприлагащите органи.

Нарушаване на неприкосновеността на личния живот

Ярък пример за социално наблюдение е използването от Китай на технология за разпознаване на лица в офиси, училища и на други места. Тази технология не само позволява проследяване на движението на лицата, но и потенциално позволява на правителството да събира обширни данни за наблюдение на техните действия, дейности, взаимоотношения и идеологически убеждения.

Лицата вече могат да бъдат наблюдавани както онлайн, така и в ежедневието си. Всеки гражданин се оценява въз основа на поведението му, като например пресичане на улицата, пушене на места, където не се пуши, и време, прекарано в игра на видеоигри. Представете си, че всяко действие се отразява на личната ви оценка в рамките на системата за социален кредит.

Когато Големият брат ви наблюдава и след това взема решения въз основа на тази информация, това е не само навлизане в личния живот, но може бързо да се превърне в социално потисничество.

Финансови кризи

В днешния финансов свят използването на алгоритми за машинно обучение е широко разпространено, като хедж фондовете и инвестиционните дружества разчитат в голяма степен на тези модели за анализ на акции и активи. Тези алгоритми постоянно се захранват с огромни количества традиционни и алтернативни данни, за да вземат решения за търговия. Въпреки това нараства загрижеността, че алгоритмичната търговия може потенциално да предизвика следващата голяма финансова криза.

Флаш катастрофа през 2010 г. 600 милиарда долара се изпариха за 20 минути

Флаш катастрофа през 2010 г. 600 милиарда долара се изпариха за 20 минути

Един забележителен пример за опасностите, които крият грешните алгоритми, е светкавичният срив от 2010 г., когато фондовият пазар внезапно се срина с близо 1000 пункта за няколко минути, след което бързо се възстанови. Въпреки че пазарните индекси успяха да се възстановят частично в същия ден, флаш сривът изтри почти 1 трилион долара от пазарната стойност. Този внезапен и драстичен спад на цените до голяма степен се дължеше на автоматизираните алгоритми за търговия, които реагираха на пазарните условия по непредвидим начин. Друг пример е флаш катастрофата на Knight Capital през 2012 г., когато неправилно функциониращ алгоритъм доведе до загуба на 440 млн. долара само за 45 минути, което в крайна сметка доведе до нейната гибел.

Тези сривове служат като отрезвяващо напомняне за потенциалните рискове, които поражда алгоритмичната търговия на финансовите пазари. Когато алгоритмите не са правилно проектирани, тествани или наблюдавани, те могат да имат катастрофални последици. От решаващо значение е финансовите институции да проверяват щателно своите алгоритми и да гарантират наличието на подходящи практики за управление на риска, за да се предотвратят подобни катастрофи в бъдеще.

Роботи убийци

Автономните оръжия, задвижвани от изкуствен интелект (ИИ), отдавна са тема на дебати и безпокойство сред правителствата, военните служители и защитниците на правата на човека. Тези системи, известни още като "роботи-убийци" или "смъртоносни автономни оръжия", имат способността самостоятелно да избират и поразяват цели без човешка намеса. Това поражда значителни етични, правни и свързани със сигурността опасения, тъй като тези оръжия имат потенциала да вземат решения, свързани с живота или смъртта, без човешки надзор.

Разработването на автономни оръжия се ускори през последните години, тъй като технологиите за изкуствен интелект станаха по-напреднали и широко разпространени. Тези оръжия могат да варират от безпилотни летателни апарати до наземни системи, които могат самостоятелно да идентифицират и атакуват цели. Поддръжниците на автономните оръжия твърдят, че те могат да намалят човешките жертви в конфликтните зони и да осигурят по-прецизни и ефективни военни операции. Критиците обаче твърдят, че тези системи повдигат сериозни етични въпроси и могат да имат непредвидени последици, като например ескалация на конфликтите и цивилни жертви.

Опасността, която представляват автономните оръжия, задвижвани от изкуствен интелект, е съвсем реална. Тези системи могат да бъдат хакнати или да се повредят, което води до непредвидени последици и загуба на контрол. Освен това липсата на човешки надзор при вземането на решения поражда опасения относно отчетността и възможността за нарушаване на международното хуманитарно право.

Роботи убийци в научната фантастика

През 2020 г. над 30 държави призоваха за забрана на смъртоносните автономни оръжия, като се позоваха на опасения относно възможността машините да вземат решения за живота или смъртта. Въпреки тези опасения разработването и внедряването на автономни оръжия, задвижвани от изкуствен интелект, продължава да напредва. Известно е, че държави като Съединените щати, Русия, Китай и Израел инвестират значителни средства в тези технологии. В САЩ Министерството на отбраната разработва автономни оръжейни системи, включително полуавтономни безпилотни летателни апарати и безпилотни наземни превозни средства.

Неконтролируем свръхинтелигентност

Изкуственият интелект превъзхожда човешкия мозък по различни начини, включително скорост на изчисленията, скорост на вътрешната комуникация, мащабируемост, капацитет на паметта, надеждност, дублиране, редактиране, споделяне на паметта и възможности за учене:

  • ИИ работи на потенциално многобройни честоти в сравнение с границата от 200 Hz на биологичните неврони.
  • Аксоните предават сигнали със скорост 120 m/s, докато компютрите го правят със скоростта на електричеството или светлината.
  • ИИ може лесно да се мащабира чрез добавяне на повече хардуер, за разлика от човешкия интелект, ограничен от размера на мозъка и ефективността на социалната комуникация.
  • Работната памет при хората е ограничена в сравнение с експанзивния капацитет на паметта на ИИ.
  • Надеждността на транзисторите в ИИ превъзхожда тази на биологичните неврони, което позволява по-висока прецизност и по-малко излишъци.
  • Моделите на ИИ могат лесно да бъдат дублирани, модифицирани и да се учат от опита на други ИИ по-ефективно от хората.

Един ден ИИ може да достигне ниво на интелигентност, което далеч да надмине това на хората, което ще доведе до т.нар. експлозия на интелигентността.

Свръхинтелигентност и изчезване на хората

Тази идея за рекурсивно самоусъвършенстване, при която ИИ непрекъснато се усъвършенства с експоненциална скорост, предизвика опасения относно потенциалните последици от създаването на свръхинтелигентна единица. Представете си сценарий, при който ИИ достига ниво на интелигентност, което му позволява да мисли и да превъзхожда хората по всички възможни начини. Този свръхинтелигентност потенциално би могъл да има властта да взема решения, които оказват значително влияние върху нашето общество и начин на живот. Точно както хората в момента държат в ръцете си съдбата на много видове, така и съдбата на човечеството може един ден да е в ръцете на свръхинтелигентен ИИ.

Прекаленото разчитане на ИИ и правната отговорност

Твърде силното разчитане на технологиите на ИИ може да доведе до намаляване на човешкото влияние и функциониране в определени области на обществото. Например използването на ИИ в здравеопазването може да доведе до намаляване на човешката емпатия и разсъждения. Освен това използването на генеративен ИИ за творчески занимания може да задуши човешката креативност и емоционално изразяване. Прекомерното взаимодействие със системите на ИИ може да доведе и до намаляване на общуването с връстници и на социалните умения. Въпреки че ИИ може да бъде полезен за автоматизиране на задачите, съществуват опасения относно въздействието му върху цялостната човешка интелигентност, способности и чувство за общност.

Освен това съществуват потенциални опасности, които могат да доведат до физическо увреждане на хората. Например, ако компаниите разчитат единствено на прогнозите на ИИ за графиците за поддръжка без други проверки, това може да доведе до неизправности в машините, които да навредят на работниците. В здравеопазването моделите на ИИ могат да доведат до погрешни диагнози.

В допълнение към физическите вреди, има и нефизически начини, по които ИИ може да създаде рискове за хората, ако не бъде правилно регулиран. Това включва въпроси, свързани с цифровата безопасност, като например обида или клевета, финансовата безопасност, като например неправилна употреба на ИИ във финансови препоръки или кредитни проверки, както и проблеми, свързани с равенството, свързани с предубеждения в ИИ, водещи до несправедливи откази или приеми в различни програми.

И когато нещо се обърка, кой трябва да носи отговорност? Дали самият ИИ, разработчикът, който го е създал, компанията, която го е пуснала в употреба, или операторът, ако е участвал човек?

* * *

В заключение, макар че изкуственият интелект е свързан с много рискове и заплахи, той има и потенциала да бъде от голяма полза за обществото и да подобри живота ни. Важно е да се признае, че доброто често надделява над лошото, когато става въпрос за технологията на изкуствения интелект. В следващата ни статия ще обсъдим стратегиите за намаляване на рисковете, свързани с ИИ, като гарантираме, че можем да използваме напълно потенциала му за положителна промяна.