ИИ В ЭПОХУ ПОСТПРАВДЫ: чат-бот заставит вас сомневаться в своих убеждениях
Источник фото: inc.com
ИИ способен корректировать картину мира, заставляя людей сомневаться в своих убеждениях. Об этом говорит новое исследование, опубликованное в журнале Science. Взаимодействие с большими языковыми моделями может привести к «сдвигу мышления», знакомя людей с фактами и хорошо аргументированными доказательствами. Таким образом, в эпоху постправды ИИ становится ценным инструментом опровержения ложной информации и борьбы с теориями заговора.
КАЖДЫЙ ВТОРОЙ — «КОНСПИРОЛОГ»!
Современный мир — очень неспокойное и небезопасное место. С этим утверждением сложно спорить. Традиционно считается, что своей популярностью теории заговора обязаны желанию людей обрести посреди тотальной неопределенности психологическую и мировоззренческую точку опоры.
Опросы показывают, что около 50% американцев верят в самые разные теории заговора. Среди наиболее популярных: фальсификация правительством США высадки астронавтов на Луну в 1969 году и вживление под видом вакцины от COVID‑19 микрочипов для массовой слежки за людьми.
Стремительный рост социальных сетей только усугубил эту проблему. Поскольку свободный обмен информацией между пользователями не предполагает ее проверки на научную или фактическую достоверность.
РАЗРУШИТЕЛЬНЫЙ ЭФФЕКТ ТЕОРИЙ ЗАГОВОРА
Один из авторов исследования, Кэтрин Фицджеральд из Квинслендского технологического университета в Брисбене (Австралия), считает, что большинство теорий заговоров не оказывает серьезного влияния на общество. Однако некоторые из них могут причинить реальный вред.
Например, утверждение о том, что президентские выборы в США в 2020 году были сфальсифицированы, спровоцировало атаку на Капитолий. А антипрививочная риторика повлияла на уровень вакцинации от COVID-19. Сторонников разнообразных теорий заговора огромное количество, и их крайне сложно переубедить.
Специалистам понадобится для этого невероятно много времени и усилий. Но с решением масштабных проблем и с обработкой огромных массивов данных, что не под силу человеку, могут прекрасно справляться большие языковые модели (LLM).
ИИ, ОБЛАДАЮЩИЙ ДАРОМ УБЕЖДЕНИЯ
Новый чат-бот от создателя ChatGPT OpenAI специально обучили, чтобы он мог убедительно опровергать ложные представления о мире. Модель быстро обрабатывает огромные объемы информации, обучается в интернете и отлично ориентируется во всех возможных аргументах и контраргументах противников и сторонников теорий заговоров.
Все ее доводы выглядят по-человечески естественными и убедительными. Чтобы добиться этого, исследователи набрали более 1000 участников, чьи демографические данные были сопоставлены с данными переписи населения США по таким характеристикам, как пол и этническая принадлежность.
Исходя из жизненного опыта и собственной точки зрения, каждому участнику было предложено описать теорию заговора и рассказать, почему он считает ее правдой. Сила этой убежденности должна была выражаться в процентах. После того как эти данные передавались чат-боту, начинался диалог человека и модели, который в среднем длился 8 минут.
Отвечая на вопросы участников, чат-бот весьма неплохо справлялся с задачей опровержения ложной информации.
УСОМНИТЬСЯ В СВОЕЙ ПРАВОТЕ
Ответы чат-бота были настолько подробными и исчерпывающими, что влияли на мнение участников. Оценка ими своей уверенности в правдивости теории заговора после такого диалога снижалась в среднем на 21%. До разговора с чат-ботом 25% участников эксперимента были абсолютно уверены в своей правоте более чем на 50%. Но после общения с ИИ самооценка сдвигалась в сторону неуверенности.
Последующее исследование 2 месяца спустя показало, что изменение точки зрения сохранилось у многих участников. Правда, есть нюанс: все субъекты исследования были платными респондентами, поэтому, возможно, не являются репрезентативными представителями людей, всецело захваченных теориями заговора.
Тем не менее результаты эксперимента выглядят впечатляюще. Теперь нужно понять, что именно обеспечило его успех, и изучить механизм, который делает убеждение «неработающим».
КАК ИЗБЕЖАТЬ ГАЛЛЮЦИНАЦИЙ
Дальнейшие исследования необходимы, чтобы однозначно убедиться, что LLM не усиливают конспирологическое мышление, а нивелируют его. С этой целью ученые планируют использовать другие показатели для оценки эффективности чат-бота, а также повторить эксперимент с применением менее продвинутых мер безопасности.
Известно, что чат-боты ИИ нередко склонны «галлюцинировать» и выдавать ложную информацию. Чтобы избежать этого, команда ученых попросила специалиста, проверяющего факты, оценить точность информации, предоставленной антиконспирологическим чат-ботом.
И он подтвердил, что в данном случае ни одно из утверждений ИИ не было ложным или политически предвзятым. Продолжая эксперимент, ученые планируют исследовать различные стратегии чат-ботов. Например, они хотят понять, что происходит, когда ответы чат-бота невежливы.
Оригинальное исследование:
- Durably reducing conspiracy beliefs through dialogues with AI
- This AI chatbot got conspiracy theorists to question their convictions