Huxley
Автор: Huxley
© Huxley — альманах о философии, бизнесе, искусстве и науке
Science
9 мин. на чтение

КОЛЛЕКТИВНЫЙ ИИ: способен ли искусственный разум исправить недостатки группового мышления

КОЛЛЕКТИВНЫЙ ИИ: способен ли искусственный разум исправить недостатки группового мышления
Поделиться материалом
Арт-оформление: huxley.media via DALL·E 3

 

Термин «коллективный разум» возник в 1980-х годах и поначалу применялся только в отношении людей. Потом его признаки обнаружили у других живых существ. И вот наконец мир заговорил о возможности коллективного искусственного интеллекта.

Таким образом, из определения коллективного интеллекта как способности биологического сообщества решать задачи, недоступные его отдельным членам, пора вычеркивать слово «биологический».

Попробуем разобраться, способен ли наш неидеальный коллективный разум создать сверхчеловеческий по своим возможностям разум, застрахованный от ошибочных решений?

 

РОЕВОЙ ИНТЕЛЛЕКТ И МУДРОСТЬ ТОЛПЫ

 

Признаки коллективного разума сформулировал еще Аристотель: «Когда в процессе обсуждения участвуют многие, каждый может внести свою лепту добродетели и благоразумия… один понимает одну деталь, другой — другую, и все вместе понимают все». Но по этим признакам далеко не только человеческие сообщества обладают коллективным интеллектом.

Израильские ученые выяснили, что колонии бактерий, по сути, являются одним большим «мозгом», который решает задачи выживания, недоступные бактериям по отдельности. Можно считать, что муравьи — нечто вроде биороботов, чье поведение управляется исключительно инстинктами.

Но вот незадача — в средней муравьиной семье порядка миллиона особей, интеллектуальный ресурс которых исчисляется примерно 250 млрд нейронов. А это в 2,5 раза превосходит число нейронов в человеческом мозге. И признаков сложнейшей интеллектуальной деятельности этих насекомых хоть отбавляй.

Можно найти их и у самых разных рыб, птиц и животных. Из мира биологии их swarm intelligence (роевой интеллект) перекочевал в мир людей, заняв место рядом с «мудростью толпы». Последний термин стал популярен с легкой руки финансового журналиста Джеймса Шуровьески, утверждавшего, что коллективная оценка всегда более точна, поскольку в ней индивидуальные ошибки компенсируют друг друга. Дальнейшие исследования подтвердили его правоту.

Например, компания Unanimous AI, анализируя индивидуальные и групповые прогнозы по динамике индексов S&P 500, нефти и золота, установила, что точность индивидуальных прогнозов в среднем составила около 57%, прогнозов «толпы» — 66%, роевого интеллекта — 77%.

В 2014 году компания использовала принципы работы роевого интеллекта для разработки интерактивной платформы искуственного интеллекта Swarm AI, которую для повышения точности прогнозов стали использовать в Стэнфордском университете, компаниях Boeing, CNN, Credit Suisse и др.

 

НЕПРЕДСКАЗУЕМОЕ «СОЦИАЛЬНОЕ ЖИВОТНОЕ»

 

Увы, толпа, которую еще Гюстав Ле Бон назвал «социальным животным», оказалась явлением, наделенным, помимо коллективного ума, коллективной глупостью и деструктивностью. У Сержа Московичи, охарактеризовавшего ХХ век как «век толп», вслед за Ле Боном толпа понимается как сорвавшийся с цепи, неукротимый, ослепленный инстинктом зверь. Но в ХХI веке человеческую массу реабилитировали, вернув ей право на субъектность и рациональность.

Мариано Сигман и Дэн Ариели, экспериментируя с 10-тысячным коллективом, установили, что условиями хорошего группового решения являются небольшое число членов группы, свободная дискуссия и разнообразие мнений. Одна проблема — коллективным интеллектом и результатами его деятельности трудно управлять.

Люди живут и действуют на пересечении индивидуального и коллективного, сознательного и бессознательного, где все зависит от контекста. Поэтому одни и те же группы в одних обстоятельствах работают хорошо, а в других — хуже. Большие группы могут быть эффективны там, где беспомощны малые, и наоборот.

Вне определенных правил, поддерживающих согласованность и порядок, они неминуемо допускают ошибки. Например, даже переизбыток общения способен понижать коллективный интеллект человеческих сообществ.

Такая невероятная гибкость коллективного интеллекта и приспособляемость к контекстам поражает. Однако она, безусловно, не является исключительно человеческой чертой. Но вот что точно отличает человека от животного — так это способность человеческого коллективного разума создавать системы искусственного, нечеловеческого интеллекта.

 

Photo by Chhavi Arora ,Tanguy Catlin, Will Forrest, James Kapla, and Lars Vinter
Photo by Chhavi Arora ,Tanguy Catlin, Will Forrest, James Kapla, and Lars Vinter

 

ПРОБЛЕМЫ СО ЗДРАВЫМ СМЫСЛОМ

 

Клайв Томсон, автор Mit Technology Review, считает главной проблемой ИИ неспособность принимать решения, руководствуясь здравым смыслом. Когда 11 мая 1997 года Гарри Каспаров проиграл шахматный матч созданному IBM суперкомпьютеру Deep Blue, это казалось поражением человечества в интеллектуальной гонке.

В 1989 году IBM начала работу над Deep Blue, и разочарование по поводу ИИ тогда было огромным, отрасль находилась в упадке. Причина неудач заключалась в том, что инженеры писали правила для ИИ, руководствуясь чистой логикой, а не опираясь на реальность, где эти правила нарушались. На фоне прошлых неудач триумф Deep Blue стал для IBM весьма прибыльным маркетинговым ходом. Хотя на самом деле прорыв больше походил на тупик.

Компания потратила 6 лет и миллионы долларов, чтобы научить компьютер игре в шахматы. Но ведь в реальном мире почти нет задач, для решения которых ИИ имел бы 100% необходимой информации. И все же победа Deep Blue мотивировала разработчиков на создание алгоритмов, имитирующих обучение человеческого мозга. И в 2010-х годах самообучающиеся нейронные сети сравнялись с человеком в распознавании элементов изображений. Но вот со здравомыслием по-прежнему было плохо.

Большую часть умственной работы человек проделывает бессознательно, а этому научить ИИ чрезвычайно трудно. В отличие от старины Deep Blue, обучавшегося вручную, нейронные сети — это «черные ящики», механику которых непросто понять даже их создателю. Но самое неприятное — это ошибки, совершаемые ИИ.

Известен случай, когда беспилотные автомобили врезались в пожарные машины на обочине, потому что подобная ситуация ни разу не встречалась на обучающих видео. Чтобы такого не происходило, нужно научить нейронные сети действовать в соответствии с человеческим здравым смыслом, но как это сделать, пока что никто не знает. Однако, возможно, эта задача окажется по плечу коллективному ИИ?

 

РИСКИ КОЛЛЕКТИВНОГО РАЗУМА

 

Ученые уже анонсировали новую разновидность коллективного разума — коллективный искуственный интеллект. Если отдельные ИИ объединить в саморазвивающуюся сеть, она будет уметь намного больше, чем ИИ, которые обучаются независимо друг от друга.

Ожидается, что коллективный ИИ сможет более эффективно справляться с задачами, поскольку каждый ИИ будет мгновенно делиться знаниями со всей сетью, и на их основе будет вырабатываться коллективный ответ. Примерно так же реагирует на вызовы имунная система человека. Правда, по мнению Андреа Солтоджио, эксперта по кибербезопасности Университета Лафборо, эта модель несвободна от рисков.

Например, одни ИИ могут доминировать над другими. Почему нет, если и в человеческом сообществе, и у других социальных животных мы находим те или иные формы социальной иерархии? Однако некоторые ученые считают, что можно предусмотреть определенную степень независимости каждого конкретного ИИ от коллектива, чтобы при наличии коллективных  интересов он сохранял независимость и продолжал достигать своих собственных целей.

Отметим, однако, что человеческому коллективному разуму за всю его историю так и не удалось найти баланс индивидуального и общественного. Во многом из-за этих противоречий мы с вами так и не увидели предсказанный Фукуямой «конец истории».

 

Вступая в клуб друзей Huxley, Вы поддерживаете философию, науку и искусство

 

КОЛЛЕКТИВ КАК ГЕНЕРАТОР ОШИБОК

 

Не стоит представлять любой коллективный интеллект как «идеальный разум». Бихевиористы давно показали, что коллектив не только предоставляет индивидууму новые возможности, но и усугубляет ошибки своих членов. Компании выводят на рынки бесперспективные продукты, организации реализуют провальные стратегии, правительства и парламенты принимают решения, губительные для экономики и людей.

Групповому мышлению, которое часто отклоняется от истины, посвящено немало выдающихся работ. Достаточно назвать «Предсказуемую иррациональность» нобелевских лауреатов Даниэля Канемана и Дэна Ариэли или «Nudge. Архитектура выбора» Касса Санстейна и Ричарда Талера.

Коллективное отклонение от истины происходит в основном по двум причинам. Во-первых, коллектив не может быть застрахован от того, что кто-то из его членов пошлет некорректный сигнал. Во-вторых, репутационный фактор мотивирует людей не рисковать и подстраиваться под общую точку зрения.

Так возникают саморазрушительные коллективные решения, которые неисправимы из-за «эффекта каскада» — бесконечного  тиражирования членами коллектива «первослова» или «первопоступка». Ученые настолько подробно изучили и описали все эти ментальные ошибки и когнитивные ловушки, что останавливаться на них подробно нет смысла.

Отметим лишь, что избежать их групповое мышление неспособно. Это убедительно доказали психологи Роджер Бюлер и Дейл Гриффин, изучавшие ошибки планирования.

 

КАСКАДНЫЙ ЭФФЕКТ И СКРЫТОЕ ЗНАНИЕ

 

Вообще, коллективы всегда проявляют больше необоснованного оптимизма, чем отдельные личности. Их образ будущего всегда прост, гармоничен и непротиворечив. В частности, они нередко переоценивают преимущества и перспективы того же ИИ. Согласно Хэлу Аркесу и Кэтрин Блумер, коллективы крайне самоуверенны и упорны в рализации провальных планов, поскольку откорректировать точку зрения и когнитивные искажения им сложнее, чем индивидуумам.

Социологи, изучавшие законы информационного обмена и принятия коллективных решений, неслучайно ввели термин «каскад» — маленькая капля превращается в мощный в поток, который уже не остановить, даже если изначальная информация или выводы из нее были неверны. Каскадный эффект заставляет вас симпатизировать тому, к чему в нормальных обстоятельствах вы отнеслись бы нейтрально или настороженно.

Социальная психология говорит, что сплоченность группы — это вовсе не общность взглядов и интересов, а «каскадное» эхо «первослова»: у любой группы есть некая изначальная предрасположенность, к которой тяготеют и все последующие  аргументы.

Каскады бывают информационные, когда люди не высказывают личное мнение из благоговения к знанию коллектива — не могут же ошибаться все?! И репутационные — следствие боязни осуждения. Именно репутационное давление лежит в основе пресловутой политкорректности как атрибута борьбы за права человека. Но парадокс в том, что лишь немногие решаются отстаивать свои права, рискуя прослыть отщепенцами, посягнувшими на популярное «правильное» мнение.

Американский судья Лернед Хэнд не зря прославился фразой: «Дух свободы — тот, который не очень уверен в своей правоте». Независимый характер и политкорректность коллективного знания переоценивают: идеи одних членов коллектива, как правило, подавляют творческую мысль других. Для феномена игнорирования знания немногих социопсихологи ввели специальный термин — «скрытое знание».

 

Photo by Ross Frazier, Naufal Khan, Gautam Lunawat, and Amit Rahul
Photo by Ross Frazier, Naufal Khan, Gautam Lunawat, and Amit Rahul

 

КОГНИТИВНЫЙ ЦЕНТР И ПЕРИФЕРИЯ

 

Экспериментально доказано: даже если кто-то из членов группы знает правильное решение задачи, коллективный интеллект может долго искать ответ, но так и не найти его. Психологи Сюзанна Абел, Гарольд Стассер и Сандра Воган-Парсонс, изучая, как руководители принимают решения, пришли к выводу, что общеизвестная информация оказывает на них непропорционально сильное влияние.

Они не придают значения ценным знаниям меньшинства и в результате принимают неверные решения. Психологи выявили неоднородность коллективного интеллекта. В нем всегда есть большая «когнитивно-центральная» зона — те, кто знает все то же самое, что и остальные, — и небольшая «когнитивная периферия» — люди, обладающие уникальной информацией.

Первые намного более влиятельны, им доверяют. Вторые обладают «скрытым знанием», которое может стать топливом для успешных трансформаций и развития. Раскрепостить его можно, поощряя критическое мышление, перераспределение ролей и статусов, синхронизируя личную и коллективную выгоду.

Одним их первых, кто осознал ценность «скрытого знания», стал стратегический исследовательский центр RAND Corporation, заслуги которого в победе США в холодной войне общепризнанны. На основе анонимного оценивания корпорация создала для работы с когнитивной периферией «Метод дельфийского оракула», помогающий коллективному разуму преодолевать экспертный конформизм, самоцензуру и влияние репутационного фактора.

 

БЕЗ ПРАВА НА ОШИБКУ?

 

Исследователи последних десятилетий продолжают разрабатывать инновационные методы, позволяющие коллективам стать разумнее. Теперь к этому процессу может подключиться и коллективный ИИ. Давайте представим, что у человечества появился уникальный инструмент, позволяющий свести к минимуму или вовсе исключить плохие коллективные решения, которые могут иметь катастрофические последствия для компаний, государств и всего человечества.

Конечно, новые возможности чреваты и новыми вызовами. О некоторых их них мы подозреваем, поскольку неплохо изучили ментальные ловушки и когнитивные искажения коллективного разума людей. О других пока понятия не имеем. Очевидно, что ни один коллективный разум не идеален. Наверняка, коллективный ИИ будет свободен от многих человеческих недостатков, но это не значит, что у него не появятся собственные.

Например, у сети, состоящей из отдельных ИИ, могут отсутствовать когнитивный центр и периферия, то есть будет решена проблема «скрытых знаний». Вероятно, статус всех ИИ будет равноценен, а значит, коллективный искусственный разум будет освобожден от каскадных эффектов, репутационных страхов и многого другого, что ведет к «порче» коллективного интеллекта. Но вот вопрос: будет ли ИИ иметь человеческое право на ошибку, которая является непременным условием его эволюции и обучения?

Ведь человек создал и совершенствует ИИ только для одного — чтобы, принимая решения, никогда не ошибаться! Но если вдруг коллективный ИИ все-таки ошибется, за его ошибку, так же как и за свои собственные, человек по-прежнему будет расплачиваться в одиночку.

 


При копировании материалов размещайте активную ссылку на www.huxley.media
Вступая в клуб друзей Huxley, Вы поддерживаете философию, науку и искусство
Поделиться материалом

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Получайте свежие статьи

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: