Шесть наихудших сценариев развития ИИ в реальном мире

Худший сценарий с участием искусственного интеллекта (ИИ) знаком всем по научно-фантастическим блокбастерам: машины обретают человеческий разум, становятся разумными и неизбежно превращаются в злых повелителей, пытающихся уничтожить человеческую расу. Эта история основана на нашем врожденном страхе перед технологиями, что является отражением глубоких изменений, которые часто сопровождают новые технологические разработки.

Однако, как говорит Малкольм Мердок — инженер по машинному обучению и автор романа 2019 года «Квантовая цена» — ИИ не обязательно должен быть разумным, чтобы убить нас всех. Есть множество других сценариев, которые сотрут нас с лица земли до того, как разумный ИИ станет проблемой.

«Мы вступаем на опасную и неизведанную территорию с усилением наблюдения и отслеживания данных, и мы почти не понимаем потенциальных последствий»

Эндрю Лон Джорджтаунский университет

В интервью с экспертами по ИИ издание IEEE Spectrum выявило шесть наихудших сценариев развития искусственного интеллекта в реальном мире, которые гораздо более обыденны, чем те, что показаны в фильмах. Но они не менее антиутопичны. 

Фото: spectrum.ieee.org

Когда вымысел определяет нашу реальность

Если мы позволим вымыслу определять нашу реальность, может произойти ненужная трагедия. Но какой выбор, если мы не можем отличить настоящее от ложного в цифровом мире?

В ужасающем сценарии рост дипфейков — поддельных изображений, видео, аудио и текста, созданных с помощью передовых инструментов машинного обучения, — может когда-нибудь привести лиц, принимающих решения в области национальной безопасности, к реальным действиям на основе ложной информации, что приведет к крупному кризису или, что еще хуже, войне.

Эндрю Лон, старший научный сотрудник Центра безопасности и новых технологий (CSET) Джорджтаунского университета, заявил, что «системы с поддержкой ИИ теперь способны генерировать дезинформацию в больших масштабах». Создавая большие объемы и разнообразие поддельных сообщений, эти системы могут скрывать их истинную природу и оптимизировать для достижения успеха, со временем улучшая желаемое воздействие.

Одно только представление о дипфейках в условиях кризиса может также заставить лидеров колебаться в своих действиях, если достоверность информации не может быть своевременно подтверждена.

Марина Фаваро, научный сотрудник Института исследований и политики безопасности в Гамбурге (Германия), отметила, что «дипфейки по умолчанию подрывают наше доверие к информационным потокам». Как действие, так и бездействие, вызванное дипфейками, могут привести к катастрофическим последствиям для всего мира.

Фото: docwirenews.com

Опасная гонка на дно

Когда дело доходит до ИИ и национальной безопасности, скорость является одновременно и смыслом, и проблемой. Поскольку системы с поддержкой ИИ дают своим пользователям большие преимущества в скорости, страны, первыми разработавшие военные приложения, получат стратегическое преимущество. Но какими принципами можно пожертвовать в процессе?

Хелен Тонер, директор по стратегии в CSET, предполагает, что кризис может «начаться как безобидная единственная точка отказа, из-за которой все коммуникации отключаются, вызывая панику у людей и остановку экономической деятельности. Постоянное отсутствие информации, сопровождаемое другими просчетами, может привести к тому, что ситуация выйдет из-под контроля».

Винсент Буланин, старший научный сотрудник Стокгольмского международного института исследований проблем мира (SIPRI) в Швеции, предупреждает, что крупные катастрофы могут произойти, «когда крупные державы срезают углы, чтобы получить преимущество первыми. Если одна страна отдает предпочтение скорости, а не безопасности, испытаниям или контролю со стороны человека, это будет опасная гонка на дно».

Фото: docwirenews.com

Конец конфиденциальности и свободы воли

С каждым цифровым действием мы производим новые данные — электронные письма, текстовые сообщения, загрузки, покупки, сообщения, селфи и местоположения GPS. Предоставляя компаниям и правительствам неограниченный доступ к этим данным, мы передаем инструменты наблюдения и контроля.

С добавлением распознавания лиц, биометрии, геномных данных и предиктивного анализа с поддержкой ИИ, Лон из CSET беспокоится, что «мы вступаем на опасную и неизведанную территорию с ростом слежки и отслеживания с помощью данных, и мы почти не понимаем, какие возможны последствия».

Майкл С. Горовиц, директор Perry World House в Пенсильванском университете, предупреждает «о логике ИИ и о том, что он означает для внутренних репрессий. В прошлом способность автократов подавлять свое население зависела от большой группы солдат, некоторые из которых могли встать на сторону общества и совершить государственный переворот. ИИ может уменьшить подобные ограничения».

Сила данных, однажды собранных и проанализированных, выходит далеко за рамки функций мониторинга и наблюдения, позволяя осуществлять предиктивное управление. Сегодня системы с ИИ предсказывают, какие продукты мы купим, какие развлечения посмотрим и по каким ссылкам перейдем. 

Фото: wired.co.uk

Человеческий ящик Скиннера

Пользователи социальных сетей превратились в крыс для лабораторных экспериментов, живущих в человеческих ящиках Скиннера (ящик Скиннера — лабораторный прибор, используемый для изучения поведения животных), приклеенных к экранам своих смартфонов, вынужденных жертвовать более драгоценным временем и вниманием платформам, которые наживаются на этом за их счет.

Хелен Тонер из CSET заявила, что «алгоритмы оптимизированы так, чтобы пользователи оставались на платформе как можно дольше». Предлагая вознаграждение в виде лайков, комментариев и подписок, объясняет Малкольм Мердок, «алгоритмы замыкают работу нашего мозга, делая наше следующее участие неотразимым».

Чтобы максимизировать прибыль от рекламы, компании отвлекают наше внимание от работы, семьи и друзей, обязанностей и даже хобби. Что еще хуже, содержание часто заставляет нас чувствовать себя несчастными и хуже, чем раньше. Тонер предупреждает, что «чем больше времени мы проводим на этих платформах, тем меньше времени мы тратим на погоню за позитивной, продуктивной и полноценной жизнью».

Фото: economist.com

Тирания дизайна ИИ

Каждый день мы отдаем большую часть нашей повседневной жизни машинам с поддержкой ИИ. Это проблематично, поскольку, как отмечает Горовиц, «нам еще предстоит полностью осознать проблему предвзятости в ИИ. Даже с самыми лучшими намерениями дизайн систем с поддержкой ИИ, как данных для обучения, так и математических моделей, отражает узкий опыт и интересы предвзятых людей, которые их программируют. И у всех нас есть свои предубеждения».

Лидия Костопулос, старший вице-президент по новым технологиям компании KnowBe4, занимающейся информационной безопасностью, утверждает, что «многие системы с поддержкой ИИ не учитывают разнообразный опыт и характеристики разных людей». Поскольку ИИ решает проблемы, основанные на предвзятых взглядах и данных, а не на уникальных потребностях каждого человека, такие системы обеспечивают уровень соответствия, которого нет в человеческом обществе.

Еще до появления ИИ дизайн обычных предметов в нашей повседневной жизни часто обслуживал определенный тип людей. Например, исследования показали, что автомобили, ручные инструменты, включая мобильные телефоны, и даже температурные параметры в офисных помещениях были созданы для мужчин среднего роста, что ставит людей разного роста и телосложения, в том числе женщин, в неудобное, а иногда даже опасное положение.

Фото: pioneeringminds.com

Страх перед ИИ лишает человечество его преимуществ

Поскольку современный ИИ работает с наборами данных, передовыми статистическими моделями и алгоритмами прогнозирования, процесс создания машинного интеллекта в конечном итоге сосредоточен на математике. По словам Мердока, «линейная алгебра может делать безумно мощные вещи, если мы не будем осторожны». 

Но что, если люди станут так бояться ИИ, что правительства будут регулировать его таким образом, что лишат человечество многих преимуществ ИИ? Например, программа DeepMind AlphaFold совершила крупный прорыв в предсказании того, как аминокислоты складываются в белки, что позволило ученым определить структуру 98,5% белков человека. Эта веха заложит плодотворную основу для быстрого развития наук о жизни. 

Подумайте о преимуществах улучшенного общения и межкультурного взаимопонимания, которые стали возможными благодаря беспрепятственному переводу на любую комбинацию человеческих языков или использованию систем с поддержкой ИИ для поиска новых методов лечения болезней.

Регулирующие меры со стороны правительств для защиты от наихудших сценариев развития ИИ также могут иметь неприятные последствия и привести к собственным непреднамеренным негативным последствиям, в результате которых мы настолько испугаемся мощи этой потрясающей технологии, что будем сопротивляться тому, чтобы использовать ее во благо, которое она может принести в мир.