Huxley
Автор: Huxley
© Huxley — альманах про філософію, бізнес, мистецтво та науку
Science
9 хв. на читання

КОЛЕКТИВНИЙ ШІ: чи здатен штучний розум виправити недоліки групового мислення

КОЛЕКТИВНИЙ ШІ: чи здатен штучний розум виправити недоліки групового мислення
Поділитись матеріалом
Арт-оформлення: huxley.media via DALL·E 3

 

Термін «колективний розум» виник у 1980-х роках і спочатку застосовувався тільки щодо людей. Потім його ознаки виявили в інших живих істот. І ось нарешті світ заговорив про можливість колективного штучного інтелекту.

Отже, з визначення колективного інтелекту як здатності біологічного співтовариства розв’язувати завдання, недоступні його окремим членам, настав час викреслювати слово «біологічний».

Спробуймо розібратися, чи здатен наш неідеальний колективний розум створити надлюдський за своїми можливостями розум, застрахований від помилкових рішень?

 

РОЙОВИЙ ІНТЕЛЕКТ І МУДРІСТЬ НАТОВПУ

 

Ознаки колективного розуму сформулював ще Арістотель: «Коли в процесі обговорення беруть участь багато людей, кожен може внести свою частку чесноти й розсудливості… один розуміє одну деталь, інший — іншу, і всі разом розуміють усе». Але за цими ознаками не тільки людські спільноти мають колективний інтелект.

Ізраїльські науковці з’ясували, що колонії бактерій, по суті, є одним великим «мозком», який вирішує завдання виживання, недоступні бактеріям окремо. Можна вважати, що мурахи — щось на зразок біороботів, чия поведінка керується виключно інстинктами.

Та є одна заковика — у середній мурашиній сім’ї близько мільйона особин, інтелектуальний ресурс яких обчислюється приблизно 250 млрд нейронів. А це в 2,5 раза перевершує кількість нейронів у людському мозку. І ознак складної інтелектуальної діяльності цих комах хоч відбавляй.

Можна знайти їх і у найрізноманітніших риб, птахів і тварин. Зі світу біології їхній swarm intelligence (ройовий інтелект) перекочував у світ людей, посівши місце поруч із «мудрістю натовпу». Останній термін став популярним з легкої руки фінансового журналіста Джеймса Шуров’єскі, який стверджував, що колективна оцінка завжди точніша, оскільки в ній індивідуальні помилки компенсують одна одну. Подальші дослідження підтвердили його правоту.

Наприклад, компанія Unanimous AI, аналізуючи індивідуальні та групові прогнози щодо динаміки індексів S&P 500, нафти й золота, з’ясувала, що точність індивідуальних прогнозів у середньому становила близько 57%, прогнозів «натовпу» — 66%, ройового інтелекту — 77%.

2014 року компанія використовувала принципи роботи ройового інтелекту для розроблення інтерактивної платформи штучного інтелекту Swarm AI, яку для підвищення точності прогнозів почали використовувати в Стенфордському університеті, компаніях Boeing, CNN, Credit Suisse та ін.

 

НЕПЕРЕДБАЧУВАНА «СОЦІАЛЬНА ТВАРИНА»

 

На жаль, натовп, який ще Гюстав Ле Бон назвав «соціальною твариною», виявився явищем, наділеним, крім колективного розуму, колективною дурістю й деструктивністю. У Сержа Московічі, котрий охарактеризував ХХ століття як «століття натовпів», слідом за Ле Боном натовп розуміють як зірваного з ланцюга, неприборканого, засліпленого інстинктом звіра. Але у ХХI столітті людську масу реабілітували, повернувши їй право на суб’єктність і раціональність.

Маріано Сігман і Ден Аріелі, експериментуючи з 10-тисячним колективом, встановили, що умовами гарного групового рішення є невелика кількість членів групи, вільна дискусія й різноманітність думок. Та є одна проблема — колективним інтелектом і результатами його діяльності важко керувати.

Люди живуть і діють на перетині індивідуального й колективного, свідомого та несвідомого, де все залежить від контексту. Тому одні й ті самі групи за одних обставин працюють добре, а за інших — гірше. Великі групи можуть бути ефективні там, де безпорадні малі, і навпаки.

Поза певними правилами, що підтримують узгодженість і порядок, вони неминуче припускаються помилок. Наприклад, навіть надлишок спілкування здатний знижувати колективний інтелект людських спільнот.

Така неймовірна гнучкість колективного інтелекту та пристосовуваність до контекстів вражає. Однак вона, безумовно, не є виключно людською рисою. Але що точно відрізняє людину від тварини — так це здатність людського колективного розуму створювати системи штучного, нелюдського інтелекту.

 

Photo by Chhavi Arora ,Tanguy Catlin, Will Forrest, James Kapla, and Lars Vinter
Photo by Chhavi Arora ,Tanguy Catlin, Will Forrest, James Kapla, and Lars Vinter

 

ПРОБЛЕМИ ЗІ ЗДОРОВИМ ГЛУЗДОМ

 

Клайв Томсон, автор Mit Technology Review, вважає головною проблемою ШІ нездатність ухвалювати рішення, керуючись здоровим глуздом. Коли 11 травня 1997 року Гаррі Каспаров програв шаховий матч створеному IBM суперкомп’ютеру Deep Blue, це здавалося поразкою людства в інтелектуальних перегонах.

У 1989 році IBM почала роботу над Deep Blue, і розчарування з приводу ШІ тоді було величезним, галузь перебувала в занепаді. Причина невдач полягала у тому, що інженери писали правила для ШІ, керуючись чистою логікою, а не спираючись на реальність, де ці правила порушувалися. На тлі минулих невдач тріумф Deep Blue став для IBM вельми прибутковим маркетинговим ходом. Хоча насправді прорив більше був схожий на глухий кут.

Компанія витратила 6 років і мільйони доларів, аби навчити комп’ютер гри в шахи. Але ж у реальному світі майже немає завдань, для розв’язання яких ШІ мав би 100% необхідної інформації. І все ж перемога Deep Blue мотивувала розробників на створення алгоритмів, що імітують навчання людського мозку. І в 2010-х роках нейронні мережі, що самонавчаються, зрівнялися з людиною в розпізнаванні елементів зображень. Та ось із розсудливістю, як і раніше, було кепсько.

Більшу частину розумової роботи людина здійснює несвідомо, а цього навчити ШІ надзвичайно важко. На відміну від старого доброго Deep Blue, який навчався вручну, нейронні мережі — це «чорні ящики», механіку яких непросто зрозуміти навіть їхньому творцеві. Але найнеприємніше — це помилки, яких припускається ШІ.

Відомий випадок, коли безпілотні автомобілі врізалися у пожежні машини на узбіччі, бо подібна ситуація жодного разу не зустрічалася на навчальних відео. Щоб такого не відбувалося, потрібно навчити нейронні мережі діяти відповідно до людського здорового глузду, але як це зробити, поки що ніхто не знає. Однак, можливо, це завдання буде до снаги колективному ШІ?

 

РИЗИКИ КОЛЕКТИВНОГО РОЗУМУ

 

Науковці вже анонсували новий різновид колективного розуму — колективний штучний інтелект. Якщо окремі ШІ об’єднати в мережу, що саморозвивається, вона вмітиме набагато більше, ніж ШІ, які навчаються незалежно один від одного.

Очікується, що колективний ШІ зможе ефективніше справлятися із завданнями, оскільки кожен ШІ миттєво ділитиметься знаннями з усією мережею, і на їхній основі вироблятиметься колективна відповідь. Приблизно так само реагує на виклики імунна система людини. Щоправда, на думку Андреа Солтоджіо, експерта з кібербезпеки Університету Лафборо, ця модель не є вільною від ризиків.

Наприклад, одні ШІ можуть домінувати над іншими. Чому ні, якщо і в людській спільноті, і в інших соціальних тварин ми знаходимо ті чи інші форми соціальної ієрархії? Однак деякі вчені вважають, що можна передбачити певний ступінь незалежності кожного конкретного ШІ від колективу, щоб за наявності колективних інтересів він зберігав незалежність і продовжував досягати своїх власних цілей.

Зазначимо, однак, що людському колективному розуму за всю його історію так і не вдалося знайти баланс індивідуального та суспільного. Багато в чому через ці протиріччя ми з вами так і не побачили «кінець історії», який пророкував Фукуяма.

 

Вступаючи до клубу друзів Huxley, Ви підтримуєте філософію, науку та мистецтво

 

КОЛЕКТИВ ЯК ГЕНЕРАТОР ПОМИЛОК

 

Не варто уявляти будь-який колективний інтелект як «ідеальний розум». Біхевіористи давно продемонстрували, що колектив не лише надає індивідууму нові можливості, а й посилює помилки своїх членів. Компанії виводять на ринки безперспективні продукти, організації реалізують провальні стратегії, уряди й парламенти ухвалюють рішення, згубні для економіки та людей.

Груповому мисленню, яке часто відхиляється від істини, присвячено чимало визначних праць. Достатньо назвати «Передбачувану ірраціональність» нобелівських лауреатів Даніеля Канемана і Дена Аріелі або «Nudge. Архітектура вибору» Касса Санстейна та Річарда Талера.

Колективне відхилення від істини відбувається в основному з двох причин. По-перше, колектив не може бути застрахований від того, що хтось із його членів пошле некоректний сигнал. По-друге, репутаційний фактор мотивує людей не ризикувати і підлаштовуватися під загальну точку зору.

Так виникають саморуйнівні колективні рішення, які невиправні через «ефект каскаду» — нескінченне тиражування членами колективу «першослова» або «першовчинку». Науковці настільки детально вивчили й описали всі ці ментальні помилки та когнітивні пастки, що зупинятися на них детально немає сенсу.

Зазначимо лише, що уникнути їх групове мислення нездатне. Це переконливо довели психологи Роджер Бюлер і Дейл Гріффін, які вивчали помилки планування.

 

КАСКАДНИЙ ЕФЕКТ І ПРИХОВАНЕ ЗНАННЯ

 

Загалом, колективи завжди виявляють більше необґрунтованого оптимізму, ніж окремі особистості. Їхній образ майбутнього завжди простий, гармонійний і несуперечливий. Зокрема, вони нерідко переоцінюють переваги та перспективи того ж таки ШІ. Згідно з Хелом Аркесом і Кетрін Блумер, колективи вкрай самовпевнені та наполегливі у ралізації провальних планів, оскільки відкоригувати точку зору та когнітивні викривлення їм складніше, ніж індивідуумам.

Соціологи, які вивчали закони інформаційного обміну та ухвалення колективних рішень, невипадково запровадили термін «каскад» — маленька крапля перетворюється на потужний потік, який уже не зупинити, навіть якщо початкова інформація або висновки з неї були хибними. Каскадний ефект змушує вас симпатизувати тому, до чого за нормальних обставин ви поставилися б нейтрально або насторожено.

Соціальна психологія стверджує, що згуртованість групи — це зовсім не спільність поглядів та інтересів, а «каскадне» відлуння «першослова»: у будь-якої групи є якась початкова схильність, до якої тяжіють і всі наступні аргументи.

Каскади бувають інформаційні, коли люди не висловлюють особистої думки з благоговіння до знання колективу — не можуть же помилятися всі?! І репутаційні — наслідок остраху осуду. Саме репутаційний тиск лежить в основі горезвісної політкоректності як атрибуту боротьби за права людини. Але парадокс у тому, що лише деякі наважуються відстоювати свої права, ризикуючи стати відщепенцями, які зазіхнули на популярну «правильну» думку.

Американський суддя Лернед Хенд недаремно прославився фразою: «Дух свободи — той, що не дуже впевнений у своїй правоті». Незалежний характер і політкоректність колективного знання переоцінюють: ідеї одних членів колективу переважно пригнічують творчу думку інших. Для феномена ігнорування знання небагатьох соціопсихологи ввели спеціальний термін — «приховане знання».

 

Photo by Ross Frazier, Naufal Khan, Gautam Lunawat, and Amit Rahul
Photo by Ross Frazier, Naufal Khan, Gautam Lunawat, and Amit Rahul

 

КОГНІТИВНИЙ ЦЕНТР І ПЕРИФЕРІЯ

 

Експериментально доведено: навіть якщо хтось із членів групи знає правильне рішення завдання, колективний інтелект може довго шукати відповідь, але так і не знайти її. Психологи Сюзанна Абел, Гарольд Стассер і Сандра Воган-Парсонс, вивчаючи, як керівники ухвалюють рішення, дійшли висновку, що загальновідома інформація має на них непропорційно сильний вплив.

Вони не надають значення цінним знанням меншості і в результаті ухвалюють неправильні рішення. Психологи виявили неоднорідність колективного інтелекту. У ньому завжди є велика «когнітивно-центральна» зона — ті, хто знає все те ж саме, що й інші, — і невелика «когнітивна периферія» — люди, які володіють унікальною інформацією.

Перші набагато впливовіші, їм довіряють. Другі володіють «прихованим знанням», яке може стати паливом для успішних трансформацій і розвитку. Вивільнити його можна, заохочуючи критичне мислення, перерозподіл ролей і статусів, синхронізуючи особисту й колективну вигоду.

Одним із перших, хто усвідомив цінність «прихованого знання», став стратегічний дослідницький центр RAND Corporation, заслуги якого в перемозі США у холодній війні є загальновизнаними. На основі анонімного оцінювання корпорація створила для роботи з когнітивною периферією «Метод дельфійського оракула», що допомагає колективному розуму долати експертний конформізм, самоцензуру і вплив репутаційного чинника.

 

БЕЗ ПРАВА НА ПОМИЛКУ?

 

Дослідники останніх десятиліть продовжують розробляти інноваційні методи, що дають змогу колективам стати розумнішими. Тепер до цього процесу може долучитися й колективний ШІ. Уявімо, що у людства з’явився унікальний інструмент, який дає змогу звести до мінімуму або зовсім виключити погані колективні рішення, котрі можуть мати катастрофічні наслідки для компаній, держав і всього людства.

Звичайно, нові можливості загрожують і новими викликами. Про деякі з них ми підозрюємо, оскільки непогано вивчили ментальні пастки й когнітивні викривлення колективного розуму людей. Про інші поки що гадки не маємо. Очевидно, що жоден колективний розум не є ідеальним. Напевно, колективний ШІ буде вільний від багатьох людських недоліків, але це не означає, що в нього не з’являться власні.

Наприклад, у мережі, що складається з окремих ШІ, можуть бути відсутні когнітивний центр і периферія, тобто буде вирішено проблему «прихованих знань». Ймовірно, статус усіх ШІ стане рівноцінним, а отже, колективний штучний розум буде звільнено від каскадних ефектів, репутаційних страхів і багато чого іншого, що веде до «псування» колективного інтелекту. Але виникає питання: чи матиме ШІ людське право на помилку, яка є неодмінною умовою його еволюції та навчання?

Адже людина створила і вдосконалює ШІ лише для одного — щоб, ухвалюючи рішення, ніколи не помилятися! Проте якщо раптом колективний ШІ все ж припуститься помилки, за цю помилку, так само як і за свої власні, людина, знову ж таки, розплачуватиметься сама.

 


При копіюванні матеріалів розміщуйте активне посилання на www.huxley.media
Вступаючи до клубу друзів Huxley, Ви підтримуєте філософію, науку та мистецтво
Поділитись матеріалом

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: