Меню
З питань спільних проєктів editor@huxley.media
З питань співпраці з авторами chiefeditor@huxley.media
Телефон

ПАСТКИ ТА ІЛЮЗІЇ ШІ: науковці закликають не довіряти штучному інтелекту

Huxley
Автор: Huxley
© Huxley – альманах про філософію, мистецтво та науку
ПАСТКИ ТА ІЛЮЗІЇ ШІ: науковці закликають не довіряти штучному інтелекту
Photo by Michael Dziedzic on Unsplash

 

Багато людей схильні наділяти штучний інтелект надлюдськими якостями. Але, виявляється, працюючи зі ШІ, ми ризикуємо потрапити в ментальні пастки і втопити в небезпечних ілюзіях наше мислення, суспільство й науку. Тож вчені закликають уважніше придивитися до нашого бачення ШІ та тих ризиків, які він створює.

 

ГАЛЮЦИНУЮЧИЙ І НЕПРОЗОРИЙ

 

Сьогодні зі штучним інтелектом експериментують тисячі науковців, які працюють у найрізноманітніших галузях знань. При цьому боти ШІ щодалі частіше замінюють самих науковців. Наприклад, у «безпілотних» лабораторіях, де алгоритми ШІ самі розробляють і самі проводять експерименти за допомогою роботів. Навіть у соціальних експериментах, де ще вчора без людей ніяк було не обійтися, їм на зміну приходять боти.

Однак наскільки науковці можуть і повинні довіряти генеративному штучному інтелекту? Чи безпечно це? Дедалі більше фахівців вважає, що переваги систем штучного інтелекту зовсім не такі однозначні, як здається.

ChatGPT схильний «галюцинувати», тобто просто вигадувати те, чого в реальності не існує. На жаль, робота систем машинного навчання є непрозорою. Тому запобігти «маячним фантазіям» ШІ не так уже й просто.

 

ІЛЮЗІЯ НАДЗДІБНОСТЕЙ: ШІ «ЗВУЖУЄ ФОКУС»

 

Цій проблемі журнал Nature днями присвятив ґрунтовну статтю. Її авторами є Ліза Мессері, антрополог з Єльського університету, і Моллі Крокетт, когнітивіст із Прінстонського університету. У ній фахівці вирішили обговорити проблему неконтрольованих ризиків, які становлять для дослідників системи штучного інтелекту.

Науковці звертають увагу, що люди дивляться на них як на «інструменти», котрі володіють надлюдськими інтелектуальними здібностями. До певної міри це справді так, але саме тільки до певної. Наприклад, це вірно щодо великих обсягів і високої швидкості обробки складних даних.

Однак Мессері та Крокетт стверджують, що ШІ надає вченим не лише унікальні можливості, а й має доволі серйозні обмеження, які дослідники мають враховувати у своїй роботі. Річ у тім, що використання ШІ несе для вчених ризики «звуження фокусу» науки. Тому не варто цілком довірятися ботам, які змушують користувача думати, що розуміють якусь концепцію краще, ніж насправді.

 
РИЗИКИ ТРЕБА ВРАХОВУВАТИ НА СТАДІЇ РОЗРОБКИ

 

Мессері та Крокетт вивчили понад сотню найрізноманітніших науково-дослідницьких текстів, що були видані протягом п’яти останніх років. Метою дослідження було системне уявлення про те бачення, яке існує в науковому співтоваристві щодо ШІ. Як вчені сприймають, оцінюють і розуміють роль систем штучного інтелекту в науковому процесі.

У результаті вони дійшли висновку, що погляд на ШІ як на засіб розширення людських можливостей не такий вже й однозначний. Дослідники вказують, що ті, хто планує використовувати ШІ надалі, повинні об’єктивно оцінити всі наявні ризики й почати враховувати їх просто зараз, на стадії розробки інструментів ШІ.

Оскільки згодом, коли застосунки будуть інтегровані у процес наукових досліджень, виправити що-небудь буде вже набагато складніше. Небезпека більш ніж реальна, тому автори статті закликають усю наукову спільноту з великою обережністю підходити до оцінки можливостей ШІ.

 

Вступаючи до клубу друзів Huxley, Ви підтримуєте філософію, науку та мистецтво

 

ІПОСТАСІ ШІ: ОРАКУЛ, АРТБІТР, КВАНТ, СУРОГАТ

 

У «надінтелекта» чимало недоліків. Причому більшість із них є суто людськими, і це недивно, якщо пам’ятати про те, що ШІ — продукт людського мислення. В одній із варіацій, яку Мессері та Крокетт назвали «оракулом», інструменти ШІ мають видатні здібності, пов’язані з розумінням та інтерпретацією наукових текстів. Безумовно, їхні можливості працювати з науковою літературою перевищують людські.

Наступний різновид ШІ — це своєрідний «арбітр», оскільки його системи сприймаються як більш об’єктивні. Вважається, що вони набагато коректніше, ніж люди, оцінюють наукові результати. Адже ШІ набагато простіше, ніж нам, уникнути спокуси відбирати виключно ті факти й експертні оцінки, які підтверджують нашу правоту.

Третя іпостась ШІ представляється дослідникам як «квант», бо її аналітичні можливості перевершують людські. У четвертій інструменти ШІ виступають як «сурогат», моделюючи дані, які поза моделюванням занадто складно дістати.

 

ІЛЮЗІЇ ГЛИБИНИ, ШИРОТИ ТА ОБ’ЄКТИВНОСТІ

 

Підключивши до свого дослідження дані з різних царин наукового знання, Мессері та Крокетт сформулювали й ті основні ризики, що випливають із чотирьох перелічених вище варіацій. Перший — це «ілюзія глибини». Він полягає в тому, що люди, які покладаються в пошуках інформації на алгоритм, схильні сприймати знання ШІ як свої власні, хоча це, безумовно, не так. Його реальні знання насправді зовсім не такі великі.

Наступний ризик — «перекіс» у дослідженнях, інтерес яких зміщується в зону того, що в змозі тестувати системи ШІ. Мессері і Крокетт назвали цей феномен «ілюзією широти наукового дослідження». Наприклад, уявлення про ШІ як про «сурогат» дає змогу широко використовувати його для моделювання людської поведінки.

Однак геть не все в людській поведінці може бути змодельовано. І якщо вчені віддають пріоритет роботі з ШІ, то їхній науковий інтерес починає ігнорувати реальність, яку штучний інтелект не моделює.

Третя ілюзія — «ілюзія об’єктивності». Дехто помилково вважає, що у системи ШІ немає своєї власної точки зору. Саме тому вони можуть враховувати все розмаїття альтернативних думок. Але й це далеко від істини — ШІ працює з тими даними, які лежать в основі його навчання. Відповідно, вони засвоюють усі типові людські вподобання та упередженості.

 

СТРАТЕГІЇ УНИКНЕННЯ ПАСТОК ШІ

 

Мессері і Крокетт рекомендують науковцям низку стратегій, що дають змогу уникнути пасток, розставлених ШІ. Одна з них — зіставити з однією з вищезазначених варіацій ту роль, яку ви призначили ШІ у своєму дослідженні. Це дасть вам уявлення про можливі підводні камені, яких варто побоюватися.

Інший підхід — усвідомлена робота зі ШІ, що обмежує сферу його використання. Наприклад, економія часу у процесі збору даних менш ризикована, ніж генерація знань. Фахівці наполягають, що на існування численних пасток потрібно зважати всім, хто так чи інакше пов’язаний із науковою діяльністю: науковим установам, грантовим організаціям, спонсорам, науковим журналам тощо.

Вченим не варто перебільшувати можливості ШІ. На думку авторів дослідження, штучний інтелект — це не панацея від усіх проблем і не універсальний інструмент для відповіді на всі питання. Тому більш адекватне його сприйняття — ставлення до ШІ як до вибору, у якого можуть бути супутні ризики.

І ці ризики потрібно заздалегідь усвідомити, оцінити та врахувати у науковій роботі.

 

Оригінальне дослідження: Why scientists trust AI too much — and what to do about it

 


При копіюванні матеріалів розміщуйте активне посилання на www.huxley.media
Знайшли помилку?
Виділіть текст і натисніть Ctrl + Enter