Как экзистенциальный страх мешает бороться с реальными проблемами ИИ

Ахра Аджинджал. Благовещение, 2000 / Facebook, «Сіль-соль»
Масштабная революция и столь же масштабная проблема — такова текущая оценка искусственного интеллекта, укоренившаяся в умах людей. При этом объективно оценить ситуацию и выработать план сосуществования с нейросетями человечество пока не способно.
Экзистенциальный страх теоретического апокалипсиса ИИ застилает глаза. На исследования, связанные с ним, тратятся десятки миллионов долларов в год. А ведь эти ресурсы можно было бы направить на решение реальных проблем, свойственных нейросетям.
Парадокс, но игнорирование этих проблем как раз приближает пресловутое «восстание машин».
СТРАХ НЕПОЗНАННОГО
Представьте, что в XVIII–XIX веках, во времена первой промышленной революции, существовали бы организации по безопасности, следящие, чтобы паровые машины не взрывались, ткацкие станки не ломались и все работало в интересах людей.
Одна ветвь этих организаций сосредоточилась бы на том, чтобы машины не производили бракованную продукцию, а рабочие не подвергались эксплуатации. Другая бы была озабочена тем, чтобы сами машины не стали разумными и не привели к концу человеческой цивилизации.
По вашему мнению, какое из этих направлений заслуживает большего внимания и финансирования? Очевидным кажется, что первое. Однако при попытке экстраполировать этот подход на происходящую революцию в сфере искусственного интеллекта, мы сталкиваемся с диаметрально противоположной ситуацией.
Различные исследовательские группы по всему миру, работящие над устранением непосредственного вреда от ИИ, сидят на голодном пайке по сравнению с теми, кто изучает экзистенциальные риски сосуществования людей вместе со все более умными машинами.
РАЗНИЦА БЮДЖЕТОВ
Этот перекос наглядно иллюстрируют цифры, которые, как известно, никогда не врут. Взять, к примеру, некоммерческую ассоциацию EDR (European Digital Rights), которая занимается защитой цифровых прав в Европе.
Ее кампании, направленные на ограничение использования технологии распознавания лиц и других цифровых алгоритмов, помогли обеспечить дополнительную защиту гражданских прав в европейском законе об искусственном интеллекте. Годовой бюджет этой организации составляет около $2,2 млн.
Или возьмем институт AI Now при Нью-Йоркском университете, который занимается тщательным изучением использования ИИ в здравоохранении, уголовном правосудии и образовании. Годовой бюджет — менее $1 млн.
На другом полюсе — некоммерческая организация Future of Life Institute, исследующая экзистенциальные риски получения искусственным интеллектом доступа к интернету и оружию. В 2021 году она объявила о программе грантов на сумму $25 млн за счет пожертвований канадско-российского криптомагната Виталика Бутерина.
В этой же категории — Центр безопасности ИИ, некоммерческая организация из Сан-Франциско, которая занимается продвижением безопасной разработки и развертывания искусственного интеллекта. В прошлом году она получила грант в размере $5,2 млн от сооснователя Facebook Дастина Московица.
А калифорнийский Центр искусственного интеллекта добился пожертвования в размере $11,4 млн от Open Philanthropy — исследовательского фонда, который выделяет гранты на основе доктрины эффективного альтруизма.
БОРЬБА НЕ С ТЕМИ
Нет ничего плохого в тщательной проверке ИИ на соответствие человеческим ценностям. В конце концов, у нейросетей куда больше вероятность сойти с рельсов, чем у ткацкого станка или паровой машины XVIII века.
Но колоссальный разрыв в финансировании между гипотетическими рисками будущего и реально существующими проблемами заставляет насторожиться. Ведь пока человечество озабочено экзистенциальными вопросами внедрения ИИ, нейросети подставляют людей прямо сейчас. Вот лишь несколько свежих кейсов.
Лаборант Массачусетского технологического института Рона Ванг недавно загрузила свою фотографию в Playground AI, онлайн-инструмент для автоматического редактирования фотографий средствами ИИ, чтобы получить «профессиональную фотографию профиля LinkedIn». В ответ на такой запрос нейросеть придала азиатскому лицу Ванг европеоидные черты.
Художница Лана Денина попыталась создать профессиональный портретный снимок с помощью инструмента редактирования Remini. После загрузки фотографий она получила чрезмерно сексуализированные портреты, согласно примерам, которые ранее разместила в Твиттере.
Другие инструменты искусственного интеллекта изображали женщин таким же вопиющим образом, тогда как им просто нужны были обычные портреты. Особенно пострадали цветные женщины. В то время как сотни миллионов долларов тратятся на борьбу с теоретическим апокалипсисом ИИ, нейросети увековечивают долгую и ужасающую историю сексуализации чернокожих женщин.
Вот почему ко всем заявлениям о создании очередного безопасного ИИ нужно относиться с большой долей скептицизма. Что еще важнее, тем, кто защищает людей от вредоносного воздействия нейросетей прямо сейчас, а не в отдаленном будущем, нужна вся возможная помощь.
ЗАРАБОТОК НА СТРАХЕ
Разрыв в финансировании можно объяснить идеологическими причинами. Страх непознанного оказывается гораздо сильнее, перевешивая необходимость устранения локальных проблем и совершенствования функционала ИИ во благо людей. В чем-то это отражение самой человеческой сущности.
Но есть в этом и коммерческий аспект. Те, кто сосредоточился на экзистенциальных рисках, нередко заявляют о необходимости дальнейшего совершенствования моделей ИИ, чтобы подвести под свои исследования более мощный базис. Со временем это повышает инвестиционную ценность таких проектов.
Прекрасным примером является OpenAI, создавшая ChatGPT. Компания начала свою жизнь как некоммерческая организация в 2015 году, собирая пожертвования от благотворителей для создания безопасных инструментов искусственного интеллекта, которые принесут пользу человечеству.
Позже, когда языковые модели ИИ стали более мощными и дорогостоящими в обслуживании, OpenAI коммерциализировала свою деятельность, а ее инвесторы осознали ценность своих вложений.
Венчурные инвесторы стремятся вкладываться в стартапы, идущие по пути OpenAI. Например, когда группа инженеров OpenAI отделилась в конце 2020 года и создала свой собственный стартап по безопасности ИИ под названием Anthropic, вскоре обнаружилось, что новосозданная компания собирает миллионы долларов из разных источников. На сегодня объем инвестиций составляет $ 1,2 млрд.
Конечно, Anthropic не является некоммерческой организацией и продает продукт. Но она также и часть серой зоны, где различные компании позиционируют себя как борцов с потенциальными рисками внедрения нейросетей и при этом, как ни странно, соревнуются в создании все более мощных моделей ИИ.
ПО ТРАДИЦИОННОМУ СЦЕНАРИЮ
Предсказывать будущее — непростая задача, однако, оглядываясь на прошлое, становится ясно, что текущая проблематика ИИ ничем не отличается от множества других ситуаций, происходивших ранее. Во всем, начиная от лука и ткацкого станка и заканчивая ядерной бомбой и смартфоном, человечество действовало по одному и тому же сценарию. Сначала придумать и впустить в свою жизнь, а затем эмпирическим путем выяснять, какие опасности и побочные эффекты несет это изобретение.
По-другому не получается. Потому что комплексный анализ, учитывающий все аспекты применения того или иного рукотворного объекта, в принципе невозможен.
Солнце нагревают нашу планету и нас самих, в воде дышать нельзя, дождь делает мокрым все вокруг. Мы можем адаптироваться к физическим законам и свойствам объектов, появившихся и существующих вне нашего влияния, но не способны заранее предугадать воздействие того, что создаем собственным умом и руками.
Конечно, это не означает, что внедрение ИИ можно пустить на самотек. Слишком много аспектов нашей жизни могут поменяться под воздействием нейросетей, слишком масштабными будут последствия. Тем более что в ближайшие годы нас ждет следующая генерация ИИ — персонализированный искусственный интеллект, заточенный под индивидуальные потребности и задачи пользователя.
И это будет нечто большее, чем голосовые помощники вроде Siri. Как по своим генеративным возможностям, так и по степени влияния на жизнь конкретного человека.
- ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: настало время запретить?
- ХУДОЖНИКИ В ПАНИКЕ: как нейросети преобразуют мир искусства
- БУНТ БОЕВЫХ ДРОНОВ: обратная сторона ИИ
При копировании материалов размещайте активную ссылку на www.huxley.media
Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.