ЛОВУШКИ И ИЛЛЮЗИИ ИИ: ученые призывают не доверять искусственному интеллекту

Photo by Michael Dziedzic on Unsplash
Многие люди склонны наделять искусственный интеллект сверхчеловеческими качествами. Но, оказывается, работая с ИИ, мы рискуем попасть в ментальные ловушки и утопить в опасных иллюзиях наше мышление, общество и науку. Поэтому ученые призывают внимательнее присмотреться к нашему видению ИИ и тем рискам, которые он создает.
ГАЛЛЮЦИНИРУЮЩИЙ И НЕПРОЗРАЧНЫЙ
Сегодня с искусственным интеллектом экспериментируют тысячи ученых, которые работают в самых разных областях знаний. При этом боты ИИ все чаще заменяют самих ученых. Например, в «беспилотных» лабораториях, где алгоритмы ИИ сами разрабатывают и сами проводят эксперименты при помощи роботов. Даже в социальных экспериментах, где еще вчера без людей никак было не обойтись, им на смену приходят боты.
Однако насколько ученые могут и должны доверять генеративному искусственному интеллекту? Безопасно ли это? Все больше специалистов считает, что преимущества систем искусственного интеллекта вовсе не так однозначны, как кажется.
ChatGPT склонен «галлюцинировать», то есть попросту выдумывать то, чего в реальности не существует. К сожалению, работа систем машинного обучения непрозрачна. Поэтому предотвратить «бредовые фантазии» ИИ не так-то уж просто.
ИЛЛЮЗИЯ СВЕРХСПОСОБНОСТЕЙ: ИИ «СУЖАЕТ ФОКУС»
Этой проблеме журнал Nature на днях посвятил обстоятельную статью. Ее авторами являются Лиза Мессери, антрополог из Йельского университета, и Молли Крокетт, когнитивист из Принстонского университета. В ней специалисты решили обсудить проблему неконтролируемых рисков, которые представляют для исследователей системы искусственного интеллекта.
Ученые обращают внимание, что люди смотрят на них как на «инструменты», которые обладают сверхчеловеческими интеллектуальными способностями. До некоторой степени это действительно так, но именно только до некоторой. Например, это верно в отношении больших объемов и высокой скорости обработки сложных данных.
Однако Мессери и Крокетт утверждают, что ИИ предоставляет ученым не только уникальные возможности, но и имеет довольно серьезные ограничения, которые исследователи должны учитывать в своей работе. Дело в том, что использование ИИ несет для ученых риски «сужения фокуса» науки. Поэтому не стоит всецело доверяться ботам, которые заставляют пользователя думать, что понимают некую концепцию лучше, чем на самом деле.
РИСКИ НУЖНО УЧИТЫВАТЬ НА СТАДИИ РАЗРАБОТКИ
Мессери и Крокетт изучили более сотни самых разных научно-исследовательских текстов, которые были изданы на протяжении пяти последних лет. Целью исследования было системное представление о том видении, которое существует в научном сообществе в отношении ИИ. Как ученые воспринимают, оценивают и понимают роль систем искусственного интеллекта в научном процессе.
В результате они пришли к выводу, что взгляд на ИИ как на средство расширения человеческих возможностей не так уж однозначен. Исследователи указывают, что те, кто планирует использовать ИИ в дальнейшем, должны объективно оценить все имеющиеся риски и начать учитывать их прямо сейчас, на стадии разработки инструментов ИИ.
Поскольку впоследствии, когда приложения будут интегрированы в процесс научных исследований, исправить что-либо будет уже намного сложнее. Опасность более чем реальна, поэтому авторы статьи призывают все научное сообщество с большой осторожностью подходить к оценке возможностей ИИ.
ИПОСТАСИ ИИ: ОРАКУЛ, АРТБИТР, КВАНТ, СУРРОГАТ
У «сверхинтеллекта» немало недостатков. Причем большинство из них являются чисто человеческими, что неудивительно, если помнить о том, что ИИ — продукт человеческого мышления. В одной из вариаций, которую Мессери и Крокетт назвали «оракулом», инструменты ИИ обладают выдающимися способностями, связанными с пониманием и интерпретацией научных текстов. Безусловно, их возможности работать с научной литературой превышают человеческие.
Следующий вид ИИ — это своеобразный «арбитр», поскольку его системы воспринимаются как более объективные. Считается, что они намного корректнее, чем люди, оценивают научные результаты. Ведь ИИ намного проще, чем нам, избежать соблазна отбирать исключительно те факты и экспертные оценки, которые подтверждают нашу правоту.
Третья ипостась ИИ представляется исследователям как «квант», поскольку ее аналитические возможности превосходят человеческие. В четвертой инструменты ИИ выступают в качестве «суррогата», моделируя данные, которые вне моделирования слишком сложно заполучить.
ИЛЛЮЗИИ ГЛУБИНЫ, ШИРОТЫ И ОБЪЕКТИВНОСТИ
Подключив к своему исследованию данные из различных областей научного знания, Мессери и Крокетт сформулировали и те основные риски, которые следуют из четырех вышеперечисленных вариаций. Первый — это «иллюзия глубины». Он состоит в том, что люди, полагающиеся в поисках информации на алгоритм, склонны воспринимать знания ИИ как свои собственные, хотя это, безусловно, не так. Его реальные знания на самом деле вовсе не так обширны.
Следующий риск — «перекос» в исследованиях, интерес которых смещается в зону того, что в состоянии тестировать системы ИИ. Мессери и Крокетт назвали этот феномен «иллюзией широты научного исследования». Например, представление об ИИ как о «суррогате» позволяет широко использовать его для моделирования человеческого поведения.
Однако далеко не все в человеческом поведении может быть смоделировано. И если ученые отдают приоритет работе с ИИ, то их научный интерес начинает игнорировать немоделируемую искусственным интеллектом реальность.
Третья иллюзия — «иллюзия объективности». Некоторые ошибочно полагают, что у системы ИИ нет своей собственной точки зрения. Именно поэтому они могут учитывать все разнообразие альтернативных мнений. Но и это далеко от истины — ИИ работает с теми данными, которые лежат в основе его обучения. Соответственно, они усваивают все типичные человеческие предпочтения и предвзятости.
СТРАТЕГИИ УХОДА ОТ ЛОВУШЕК ИИ
Мессери и Крокетт рекомендуют ученым ряд стратегий, позволяющих избежать ловушек, расставленных ИИ. Одна из них — сопоставить с одной из вышеупомянутых вариаций ту роль, которую вы предназначили ИИ в своем исследовании. Это даст вам представление о возможных подводных камнях, которых стоит опасаться.
Другой подход — осознанная работа с ИИ, ограничивающая сферу его использования. Например, экономия времени при сборе данных менее рискованна, чем генерация знаний. Специалисты настаивают, что существование многочисленных ловушек нужно учитывать всем, кто так или иначе связан с научной деятельностью: научным учреждениям, грантовым организациям, спонсорам, научным журналам и т. д.
Ученым не стоит преувеличивать возможности ИИ. По мнению авторов исследования, искусственный интеллект — это не панацея от всех проблем и не универсальный инструмент для ответа на все вопросы. Поэтому более адекватное его восприятие — отношение к ИИ как к выбору, у которого могут быть сопутствующие риски.
И эти риски нужно заранее осознать, оценить и учесть в научной работе.
Оригинальное исследование: Why scientists trust AI too much — and what to do about it
При копировании материалов размещайте активную ссылку на www.huxley.media
Выделите текст и нажмите Ctrl + Enter