От научной фантастики к реальности: Реальные опасности искусственного интеллекта
Возникновение искусственного интеллекта представляет собой значительный технологический прорыв, способный произвести революцию в обществе, подобно тому, как это сделали Интернет, персональные компьютеры и мобильные телефоны. Его влияние повсеместно, оно проникает в различные аспекты человеческой жизни - от работы и образования до досуга. Стремительное развитие нейронных сетей вызывает определенное беспокойство, что побуждает нас в этой статье рассмотреть потенциальные опасности, которые искусственный интеллект может представлять для человечества.
Опасен ли искусственный интеллект? Кто высказал опасения?
В научно-фантастических фильмах идея неконтролируемого искусственного интеллекта, стремящегося к господству или уничтожению человечества, является популярной темой, как это показано в таких фильмах, как "Матрица" и "Терминатор". Сегодня, когда технический прогресс развивается стремительными темпами, обычному человеку бывает сложно за ним угнаться. Стремительный прогресс искусственного интеллекта заставляет наши общества быстро адаптироваться, вызывая опасения из-за сложности этих технологий и врожденного человеческого страха перед неизвестным.
Не только обычные люди испытывают тревогу по поводу ИИ, но и эксперты в этой области также высказывают свои опасения. Например, Джеффри Хинтон, которого часто называют "крестным отцом ИИ", высказал свои опасения:
Эти штуки могут стать более умными, чем мы, и решить захватить власть, и нам нужно уже сейчас беспокоиться о том, как не допустить этого.
Я долгое время считал, что нам до этого осталось лет 30-50. Я называю это расстоянием до чего-то, что обладает большим общим интеллектом, чем человек. Теперь я думаю, что мы можем быть гораздо ближе к этому, может быть, всего через пять лет.
Существует серьезная опасность, что очень скоро у нас появятся вещи умнее нас и что у этих вещей могут появиться плохие мотивы и они возьмут все под свой контроль.
22 марта 2023 года было опубликовано открытое письмо, призывающее остановить разработку искусственного интеллекта мощнее GPT-4 на шесть месяцев:
Современные системы искусственного интеллекта становятся конкурентоспособными по отношению к человеку при решении общих задач, и мы должны спросить себя: Должны ли мы позволить машинам заполнить наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, включая те, которые приносят пользу? Должны ли мы развивать нечеловеческие разумы, которые в конечном итоге превзойдут, превзойдут, устареют и заменят нас? Стоит ли нам рисковать потерей контроля над нашей цивилизацией? Такие решения нельзя передавать в руки неизбираемых технологических лидеров. Мощные системы ИИ следует разрабатывать только тогда, когда мы уверены, что их влияние будет положительным, а риски - управляемыми. Эта уверенность должна быть хорошо обоснована и возрастать с ростом масштабов потенциальных эффектов системы.
Письмо подписали 1800 руководителей технологических компаний, 1500 профессоров, ученых и исследователей в области ИИ:
- Илон Маск, генеральный директор SpaceX, Tesla и Twitter
- Стив Возняк, сооснователь компании Apple
- Эмад Мостак, генеральный директор, Stability AI
- Яан Таллинн, сооснователь Skype, Центр изучения экзистенциального риска, Институт будущего жизни
- Эван Шарп, сооснователь Pinterest
- Крейг Питерс, генеральный директор, Getty Images
- Марк Ницберг, Центр человекосовместимого ИИ, Калифорнийский университет в Беркли, исполнительный директор
- Гэри Маркус, Нью-Йоркский университет, исследователь ИИ, почетный профессор
- Закари Кентон, DeepMind, старший научный сотрудник
- Рамана Кумар, DeepMind, научный сотрудник
- Майкл Осборн, Оксфордский университет, профессор машинного обучения
- Адам Смит, Бостонский университет, профессор информатики, премия Гёделя, премия Канеллакиса
В общей сложности было собрано более 33 000 подписей.
Другие известные личности, такие как Сэм Альтман (генеральный директор OpenAI), Джеффри Хинтон (лауреат премии Тьюринга), Дарио Амодей (генеральный директор Anthropic), Билл Гейтс, а также более 350 руководителей и исследователей ИИ подписали следующее заявление:
Смягчение риска вымирания в результате появления искусственного интеллекта должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война.
Опасности искусственного интеллекта
В 2018 году самоуправляемый автомобиль Uber сбил насмерть пешехода.
В 2022 году ученые перенастроили систему искусственного интеллекта, изначально предназначенную для создания нетоксичных, целебных молекул, на производство боевых отравляющих веществ. Изменив настройки системы таким образом, чтобы она поощряла токсичность, а не наказывала ее, они смогли быстро сгенерировать 40 000 потенциальных молекул для химической войны всего за шесть часов.
В 2023 году исследователи продемонстрировали, как GPT-4 может манипулировать работником TaskRabbit, заставляя его пройти проверку Captcha. Совсем недавно произошел трагический случай, когда человек покончил с собой после тревожного разговора с чатботом.
Использование систем искусственного интеллекта, независимо от их предназначения, может привести к негативным последствиям, таким как:
- Потеря работы из-за автоматизации
- Дипфейки и дезинформация
- Нарушение конфиденциальности
- Нечеткое правовое регулирование
- Предвзятость алгоритмов, вызванная некачественными данными
- Финансовые кризисы
- Киберпреступность
- Автоматизация оружия
- Неконтролируемый сверхинтеллект
Системы искусственного интеллекта становятся все более мощными, и мы не знаем их пределов. Эти системы могут быть использованы в злонамеренных целях. Давайте рассмотрим различные риски подробнее.
Потеря рабочих мест из-за автоматизации
Согласно исследованию, проведенному Goldman Sachs, искусственный интеллект может существенно повлиять на рынки занятости во всем мире. Проанализировав базы данных, в которых подробно описаны задачи более 900 профессий в США и 2000 профессий в европейской базе данных ESCO, экономисты Goldman Sachs подсчитали, что примерно две трети профессий могут быть в той или иной степени автоматизированы искусственным интеллектом.
По вертикальной оси показана доля профессиональной нагрузки, подверженной автоматизации искусственным интеллектом. Горизонтальная ось показывает процент профессий.
Изменения в рабочих процессах, вызванные этими усовершенствованиями, потенциально могут автоматизировать эквивалент 300 миллионов рабочих мест с полной занятостью. Однако не вся эта автоматизированная работа приведет к увольнениям. Многие профессии и отрасли лишь частично подвержены автоматизации, а значит, скорее всего, будут дополнены ИИ, а не полностью заменены.
Компания Seo.ai идет еще дальше, считая, что к 2030 году около 800 миллионов рабочих мест во всем мире могут быть замещены искусственным интеллектом. Ожидается, что в течение следующих трех лет более 120 миллионов работников пройдут переподготовку, чтобы подготовиться к этому грядущему переходу.
Если вы хотите узнать, какие профессии в большей степени подвержены автоматизации, а каким она угрожает в меньшей степени, ознакомьтесь с нашей статьей на эту тему.
Дезинформация
Даже самые совершенные большие языковые модели могут генерировать неверную или бессмысленную информацию. Эти ошибки (галлюцинации) часто являются результатом того, что модель опирается на статистические закономерности в данных, на которых она обучалась, а не на истинное понимание или рассуждение.
Другими словами, чат-боты иногда могут выдумывать факты. Это стало ясно в 2023 году, когда один нью-йоркский адвокат попал под горячую руку за использование ChatGPT для проведения юридического исследования по делу о нанесении телесных повреждений. Он составил 10-страничную справку, в которой ссылался на несколько предыдущих судебных решений, и оказалось, что все они были полностью сфабрикованы чатботом. В результате адвокат и его коллега были наказаны федеральным судьей и оштрафованы на 5 000 долларов каждый.
В 2024 году еще один нью-йоркский адвокат был привлечен к дисциплинарной ответственности за ссылку на несуществующее дело, сгенерированное искусственным интеллектом.
Другой пример - Stack Overflow, сайт вопросов и ответов, используемый в основном программистами и разработчиками для того, чтобы задавать технические вопросы, искать помощь в решении проблем с кодированием и делиться знаниями в сообществе программистов.
Сайт был вынужден запретить использование генеративного ИИ, поскольку средний процент получения правильных ответов от различных чат-ботов был слишком низким, несмотря на то что ответы обычно выглядели убедительно.
Социальное манипулирование
В наши дни платформы социальных сетей наводнены таким количеством контента, что уследить за ним бывает просто невозможно. Именно здесь на помощь приходит алгоритмическое курирование. По сути, он помогает просеять весь этот шум и представить пользователям контент, который, скорее всего, заинтересует их на основе прошлого поведения. Хотя это может быть полезно для управления бесконечным потоком информации, это также означает, что платформа имеет большой контроль в формировании того, что пользователи видят и с чем взаимодействуют.
Однако изменение того, что появляется в ленте новостей пользователя, может повлиять на его настроение и восприятие мира в целом. В январе 2012 года ученые Facebook продемонстрировали, как решения по оформлению новостной ленты могут изменить уровень счастья пользователей. События января 2021 года в Капитолии США еще больше подчеркнули, что потребление социальных медиа может сыграть роль в радикализации.
Кроме того, поскольку сенсационные материалы, как правило, удерживают пользователей надолго, алгоритмы могут непреднамеренно направлять пользователей к провокационному и вредному контенту, чтобы повысить вовлеченность. Даже предложение контента на основе интересов пользователя может быть проблематичным, поскольку это может еще больше укоренить его убеждения в "пузыре фильтров", а не познакомить его с различными точками зрения. В конечном итоге это может привести к усилению поляризации среди пользователей.
Когда мы передаем право принимать решения платформам, мы, по сути, даем им контроль над тем, что мы видим. Социальные медиа с их продвинутыми алгоритмами отлично справляются с целевым маркетингом, понимая наши предпочтения и мысли. Недавние расследования рассматривают роль Cambridge Analytica и подобных фирм в использовании данных 50 миллионов пользователей Facebook для влияния на такие крупные политические события, как президентские выборы в США в 2016 году и референдум по Brexit в Великобритании. Если эти обвинения окажутся правдивыми, это подчеркнет потенциал искусственного интеллекта для манипулирования обществом. Более свежий пример - использование Фердинандом Маркосом-младшим армии троллей в TikTok, чтобы склонить на свою сторону молодых избирателей на президентских выборах в Филиппинах в 2022 году. Используя персональные данные и алгоритмы, искусственный интеллект может эффективно воздействовать на людей с помощью специфической пропаганды, основанной на фактах или вымысле.
Дипфейки
Дипфейки - это измененные цифровым способом видеоролики или изображения, на которых реалистично изображен человек, говорящий или делающий то, чего он на самом деле не говорил и не делал. Эта технология использует алгоритмы глубокого обучения для манипулирования существующими видео- и аудиоматериалами с целью создания убедительного поддельного контента.
"Никто не знает, что реально, а что нет", - говорит футурист Мартин Форд. "Это приводит к тому, что вы буквально не можете верить собственным глазам и ушам; вы не можете полагаться на то, что исторически мы считали наилучшими возможными доказательствами... Это будет огромной проблемой".
Одна из главных причин, по которой дипфейки считаются опасными, - это возможность их использования в злонамеренных целях. Например, дипфейки можно использовать для создания фальшивых видеодоказательств в судебных делах, обвинения людей в преступлениях, которых они не совершали, или даже для выдачи себя за политического деятеля с целью распространения ложной информации. Манипулируя СМИ таким образом, дипфейки способны подорвать доверие к традиционным источникам информации и посеять смуту и раздор в обществе.
По данным компании DeepMedia, занимающейся разработкой инструментов для обнаружения синтетических медиа, в 2023 году в социальных сетях по всему миру было размещено 500 000 дипфейков. По сравнению с 2022 годом это в 3 раза больше фейков с видео и в 8 раз больше фейков с голосом.
Среди недавних примеров злонамеренного использования дипфейков - создание поддельной порнографии со знаменитостями, когда лица знаменитостей в цифровом виде вставляются в порнографические видео без их согласия. Кроме того, были случаи использования фальшивых видео для манипулирования ценами на акции, опорочивания людей или распространения политической пропаганды. Эти примеры подчеркивают возможность использования подделок во вредных и обманчивых целях.
Киберпреступность
Киберпреступность включает в себя широкий спектр преступных действий с использованием цифровых устройств и сетей. Эти преступления связаны с использованием технологий для совершения мошенничества, кражи личных данных, утечки информации, компьютерных вирусов, мошенничества и других злонамеренных действий. Киберпреступники используют слабые места в компьютерных системах и сетях для получения несанкционированного доступа, кражи конфиденциальной информации, нарушения работы сервисов и нанесения ущерба частным лицам, организациям и правительствам.
Злоумышленники все чаще используют доступные инструменты искусственного интеллекта, такие как ChatGPT, Dall-E и Midjourney, для автоматизированных фишинговых атак, атак, выдающих себя за других людей, атак социальной инженерии и создания поддельных чат-ботов для поддержки клиентов.
Согласно отчету SlashNext State of Phishing Report 2023, количество вредоносных фишинговых писем выросло на 1265 %, что в значительной степени объясняется использованием инструментов искусственного интеллекта для направленных атак.
Атаки с целью самозванства становятся все более распространенными. Мошенники используют ChatGPT и другие инструменты, чтобы выдавать себя за реальных людей и организации, занимаясь кражей личных данных и мошенничеством. Подобно фишинговым атакам, они используют чат-ботов для отправки голосовых сообщений, выдавая себя за доверенного друга, коллегу или члена семьи, чтобы получить личную информацию или доступ к счетам. В примечательном случае, произошедшем в марте 2019 года, глава британского филиала немецкой энергетической компании стал жертвой мошенника, который имитировал голос генерального директора, что привело к переводу почти 200 000 фунтов стерлингов (243 000 долларов США) на счет в венгерском банке. Позднее средства были переведены в Мексику и рассредоточены по нескольким адресам. Следователи не установили подозреваемых.
В 2023 году Центр жалоб на интернет-преступления (IC3) получил беспрецедентное количество жалоб от американской общественности: всего было подано 880 418 жалоб, а потенциальный ущерб превысил 12,5 миллиарда долларов. Это означает почти 10-процентный рост числа полученных жалоб и 22-процентный рост убытков по сравнению с 2022 годом. Несмотря на эти ошеломляющие цифры, важно отметить, что они, скорее всего, недооценивают истинные масштабы киберпреступности в 2023 году. Например, когда ФБР недавно ликвидировало группу вымогателей Hive, выяснилось, что только около 20 % жертв Hive сообщили о преступлении в правоохранительные органы.
Вторжение в частную жизнь
Ярким примером социального наблюдения является использование Китаем технологии распознавания лиц в офисах, школах и других местах. Эта технология не только позволяет отслеживать передвижения людей, но и потенциально дает правительству возможность собирать обширные данные для мониторинга их поступков, деятельности, отношений и идеологических убеждений.
Теперь за людьми можно следить как в Интернете, так и в повседневной жизни. Каждого гражданина оценивают по его поведению, например, по передвижению на перекрестках, курению в местах, где курить запрещено, и времени, проведенному за видеоиграми. Представьте себе, что каждое действие влияет на ваш личный рейтинг в системе социальных кредитов.
Когда Большой брат следит за вами и принимает решения на основе этой информации, это не только вторжение в частную жизнь, но и быстрое социальное угнетение.
Финансовые кризисы
В современном финансовом мире алгоритмы машинного обучения используются повсеместно: хедж-фонды и инвестиционные компании в значительной степени полагаются на эти модели для анализа акций и активов. Для принятия торговых решений в эти алгоритмы постоянно поступают огромные объемы традиционных и альтернативных данных. Однако все чаще высказывается опасение, что алгоритмическая торговля может спровоцировать следующий крупный финансовый кризис.
Флэш-кризис 2010 года. 600 миллиардов долларов испарились за 20 минут
Одним из ярких примеров опасности ошибочных алгоритмов является Flash Crash 2010 года, когда фондовый рынок внезапно упал почти на 1000 пунктов за несколько минут, а затем быстро восстановился. Хотя рыночным индексам удалось частично восстановиться в тот же день, Flash Crash уничтожил почти 1 триллион долларов рыночной стоимости. Такое внезапное и резкое падение цен во многом объясняется тем, что автоматизированные торговые алгоритмы непредсказуемым образом отреагировали на рыночные условия. Другим примером стал флэш-крэш Knight Capital в 2012 году, когда сбой в алгоритме привел к потере фирмой 440 миллионов долларов всего за 45 минут, что в конечном итоге привело к ее гибели.
Эти крахи служат отрезвляющим напоминанием о потенциальных рисках, связанных с алгоритмической торговлей на финансовых рынках. Если алгоритмы не разработаны, не протестированы и не контролируются должным образом, они могут привести к катастрофическим последствиям. Финансовым учреждениям крайне важно тщательно проверять свои алгоритмы и обеспечивать надлежащую практику управления рисками, чтобы предотвратить подобные катастрофы в будущем.
Роботы-убийцы
Автономное оружие, оснащенное искусственным интеллектом (ИИ), уже давно является предметом споров и беспокойства среди правительств, военных и правозащитников. Эти системы, также известные как "роботы-убийцы" или "смертоносное автономное оружие", способны самостоятельно выбирать и поражать цели без вмешательства человека. Это вызывает серьезные этические, правовые проблемы и проблемы безопасности, поскольку такое оружие способно принимать решения о жизни и смерти без надзора человека.
Разработка автономного оружия ускорилась в последние годы, поскольку технологии искусственного интеллекта стали более совершенными и широко распространенными. Это оружие может варьироваться от беспилотных летательных аппаратов до наземных систем, способных автономно идентифицировать и атаковать цели. Сторонники автономного оружия утверждают, что оно может сократить число человеческих жертв в зонах конфликтов и обеспечить более точные и эффективные военные операции. Однако критики утверждают, что эти системы вызывают серьезные этические вопросы и могут привести к непредвиденным последствиям, таким как эскалация конфликтов и жертвы среди мирного населения.
Опасность, которую представляет собой автономное оружие с искусственным интеллектом, вполне реальна. Эти системы могут быть взломаны или выйти из строя, что приведет к непредвиденным последствиям и потере контроля. Кроме того, отсутствие человеческого контроля при принятии решений вызывает опасения по поводу подотчетности и возможности нарушения международного гуманитарного права.
В 2020 году более 30 стран призвали запретить смертоносное автономное оружие, ссылаясь на опасения, что машины могут принимать решения о жизни и смерти. Несмотря на эти опасения, разработка и внедрение автономного оружия на базе ИИ продолжается. Известно, что такие страны, как США, Россия, Китай и Израиль, вкладывают значительные средства в эти технологии. В США Министерство обороны разрабатывает автономные системы вооружений, включая полуавтономные беспилотники и беспилотные наземные транспортные средства.
Неконтролируемый суперинтеллект
Искусственный интеллект превосходит человеческий мозг по различным параметрам, включая скорость вычислений, скорость внутренней связи, масштабируемость, объем памяти, надежность, возможность дублирования, редактирования, разделения памяти и способности к обучению:
- ИИ работает на потенциально возможных частотах в несколько гигагерц по сравнению с предельной частотой в 200 Гц для биологических нейронов.
- Аксоны передают сигналы со скоростью 120 м/с, в то время как компьютеры делают это со скоростью электричества или света.
- ИИ может легко масштабироваться за счет добавления новых аппаратных средств, в отличие от человеческого интеллекта, ограниченного размером мозга и эффективностью социальных коммуникаций.
- Рабочая память человека ограничена по сравнению с обширным объемом памяти ИИ.
- Надежность транзисторов в ИИ превосходит надежность биологических нейронов, что обеспечивает более высокую точность и меньшую избыточность.
- Модели ИИ легко дублируются, модифицируются и могут учиться на опыте других ИИ более эффективно, чем люди.
Однажды ИИ может достичь уровня интеллекта, значительно превосходящего человеческий, что приведет к так называемому взрыву интеллекта.
Эта идея рекурсивного самосовершенствования, когда ИИ постоянно улучшает себя с экспоненциальной скоростью, вызвала опасения по поводу возможных последствий создания сверхразумного существа. Представьте себе сценарий, в котором ИИ достигает такого уровня интеллекта, который позволяет ему переосмыслить и превзойти человека во всех мыслимых отношениях. Потенциально такой сверхинтеллект сможет принимать решения, которые сильно повлияют на наше общество и образ жизни. Подобно тому, как в настоящее время люди держат в своих руках судьбу многих видов, судьба человечества может однажды оказаться в руках сверхразумного ИИ.
Чрезмерная зависимость от ИИ и юридическая ответственность
Слишком сильное доверие к технологиям искусственного интеллекта может привести к снижению человеческого влияния и функционирования в некоторых сферах жизни общества. Например, использование ИИ в здравоохранении может привести к снижению уровня эмпатии и разумности человека. Кроме того, использование генеративного ИИ в творческих целях может подавить творческие способности и эмоциональное самовыражение человека. Чрезмерное взаимодействие с системами ИИ также может привести к снижению уровня общения со сверстниками и социальных навыков. Хотя ИИ может быть полезен для автоматизации задач, есть опасения по поводу его влияния на общий интеллект человека, его способности и чувство общности.
Кроме того, существуют потенциальные опасности, которые могут привести к физическому ущербу для людей. Например, если компании будут полагаться исключительно на прогнозы ИИ при составлении графиков технического обслуживания без других проверок, это может привести к сбоям в работе оборудования, в результате чего пострадают работники. В здравоохранении модели ИИ могут привести к ошибочным диагнозам.
Помимо физического вреда, существуют и нефизические способы, с помощью которых ИИ может представлять опасность для людей при отсутствии надлежащего регулирования. Сюда входят вопросы цифровой безопасности, такие как диффамация или клевета, финансовой безопасности, например, неправильное использование ИИ в финансовых рекомендациях или проверке кредитоспособности, а также проблемы справедливости, связанные с предвзятостью ИИ, приводящей к несправедливому отказу или принятию в различные программы.
И если что-то пойдет не так, кто должен нести ответственность? Сам ли ИИ, разработчик, создавший его, компания, которая ввела его в эксплуатацию, или оператор, если в процессе участвовал человек?
* * *
В заключение следует отметить, что искусственный интеллект несет в себе множество рисков и угроз, но в то же время он способен принести большую пользу обществу и улучшить нашу жизнь. Важно понимать, что хорошее часто перевешивает плохое, когда речь идет о технологиях искусственного интеллекта. В нашей следующей статье мы расскажем о стратегиях снижения рисков, связанных с искусственным интеллектом, что позволит нам в полной мере использовать его потенциал для позитивных изменений.