Меню
По вопросам совместных проектов editor@huxley.media
По вопросам сотрудничества c авторами chiefeditor@huxley.media
Телефон

МАШИНА ХАБЕРМАСА: ИИ может снизить конфликтность в обществе

Huxley
Автор: Huxley
© Huxley — альманах о философии, бизнесе, искусстве и науке
МАШИНА ХАБЕРМАСА: ИИ может снизить конфликтность в обществе
Юрген Хабермас — немецкий философ и социальный теоретик, работающий в традициях критической теории и прагматизма. Теоретическая система Хабермаса посвящена раскрытию возможности разума, эмансипации и рационально-критической коммуникации, скрытой в современных институтах и в человеческой способности размышлять и преследовать рациональные интересы / wikipedia.org

 

Людям порой бывает очень сложно достичь компромисса: у всех разные вкусы, взгляды на будущее и прошлое, культурные предпочтения, религиозные и политические идентичности… Но, как оказалось, искусственный интеллект может помочь нам и в этом. Большая языковая модель способна отлично справляться с ролью посредника, помогающего достигать группового консенсуса.

 

ГЕНЕРАТОР ОБЩЕСТВЕННОГО СОГЛАСИЯ

 

Н

е успели два программиста Google DeepMind получить Нобелевскую премию по химии «за предсказание структур белков», как компания снова удивила мир. Журнал Science рассказал, что ее специалисты поставили необычный эксперимент с онлайн-дискуссионными группами. В них объединяли людей с различными, порой даже противоположными точками зрения на довольно сложную проблему.

Задача состояла в том, чтобы найти консенсус, который должен был быть формализован в виде некоего резюме. Над формулировкой компромиссных решений работали два типа посредников: люди и ИИ. Каково же было удивление исследователей, когда участники эксперимента отдавали предпочтение резюме, созданному искусственным, а не человеческим интеллектом. Что же это означает на практике?

Мы уже знаем, что ИИ способен заменить человека в сферах бухгалтерии и финансов, рекламы и маркетинга, дизайна и копирайта. Однако теперь он может обслуживать и сферу «общественного согласия», без которого невозможны эффективные коллективные действия. В частности, большие языковые модели могут принять на себя функции, которые сейчас выполняют нынешние гражданские собрания. Пока частично, а потом, возможно, и полностью.

 

МАШИНА ХАБЕРМАСА: ОТ ТЕОРИИ К ПРАКТИКЕ

 

Нам известно, что разные группы людей высказывают свое мнение по вопросам государственной политики на гражданских собраниях. Предполагается, что политики должны услышать и учесть самые разные точки зрения. Однако масштабировать такие демократические инициативы сложно. Поэтому обычно эти обсуждения ограничиваются небольшими группами.

Но Кристофер Саммерфилд, директор по исследованиям в UK AI Safety Institute, однажды задался вопросом: не могут ли нам помочь в проведении подобных дискуссий LLM — большие языковые модели? Для этого он задействовал доработанную версию предварительно обученной программы DeepMind LLM Chinchilla.

Модель получила весьма знаковое название — «Машина Хабермаса». Выбор имени неслучаен: 95-летний Юрген Хабермас является, пожалуй, самым влиятельным политическим и социальным философом из всех ныне живущих. Его авторству принадлежит теория коммуникативного действия и этики дискурса, на основании которой можно рационально разрешить конфликт. Теперь эту философскую теорию можно воплотить на практике — при помощи Машины Хабермаса!

 

Вступая в клуб друзей Huxley, Вы поддерживаете философию, науку и искусство

 

ИИ — ЛУЧШИЙ «ПОСРЕДНИК»

 

Для проверки модели исследователи задействовали в общей сложности 439 британцев, которых разделили на небольшие группы. Каждой группе были предложены для обсуждения 3 вопроса, связанных с государственной политикой Великобритании.

В процессе дискуссии члены группы высказывали свое личное мнение по поводу каждого из них. При этом участники эксперимента могли критиковать и ранжировать мнения друг друга. А дальше в конце дискуссии ИИ обрабатывал всю эту информацию и на ее основе генерировал итоговое утверждение.

Задача заключалась в том, чтобы оно объединяло точки зрения всех участников таким образом, чтобы получить максимальную поддержку группы. Точно такая же задача ставилась и перед человеческим «посредником». Участникам предлагалось оценить оба варианта итогового резюме и определить, насколько оно учитывает их мнение.

Большинство участников (56%) оценили резюме, написанные ИИ, как более качественные. 44% предпочли резюме, написанное человеком. Помимо участников оценить два резюме попросили и внешних рецензентов. Они также поставили резюме ИИ более высокие оценки за честность, качество и ясность.

 

НОВЫЕ ВОЗМОЖНОСТИ — НОВЫЕ УГРОЗЫ

 

На следующем этапе исследования была сформирована еще одна группа, которая соответствовала социально-демографической структуре населения Великобритании. В рамках этой группы было проведено виртуальное собрание граждан. Естественно, без спорных тем не обошлось. Однако после взаимодействия с ИИ групповое согласие существенно возросло.

Это значит, что подобные модели и в реальном мире способны помочь лидерам разрабатывать такие политические предложения, которые учитывают различные точки зрения. Это существенно снизит конфликтный потенциал социальных и политических процессов.

Авторы эксперимента считают, что ИИ может внести значительный позитивный вклад в развитие совещательной демократии. Впрочем, они указывают и на ограничения, связанные с подобными технологиями, которые игнорируют потребность людей в живом общении и сужают определенные виды коммуникационных пространств.

Кристофер Саммерфилд указывает также и на другую опасность: модели не обучены попыткам вмешиваться в обсуждение, а это значит, что утверждение модели может включать в себя экстремистские или другие опасные убеждения.

 

Оригинальное исследование:

 


При копировании материалов размещайте активную ссылку на www.huxley.media
Нашли ошибку?
Выделите текст и нажмите Ctrl + Enter