Huxley
Автор: Huxley
© Huxley — альманах про філософію, мистецтво та науку

Як екзистенційний страх заважає боротися із реальними проблемами ШІ

Як екзистенційний страх заважає боротися із реальними проблемами ШІ
Ахра Аджинджал. Благовіщення, 2000 / Facebook, «Сіль-соль»

 

Масштабна революція і настільки ж масштабна проблема — такою є поточна оцінка штучного інтелекту, яка вкорінилася у свідомості людей. При цьому об’єктивно оцінити ситуацію і виробити план співіснування з нейромережами людство поки що не здатне.

Екзистенційний страх теоретичного апокаліпсису ШІ застилає очі. На дослідження, пов’язані з ним, витрачають десятки мільйонів доларів на рік. Адже ці ресурси можна було б направити на вирішення реальних проблем, властивих нейромережам.

Парадокс, але ігнорування цих проблем саме наближає горезвісне «повстання машин».

 

СТРАХ НЕПІЗНАНОГО

 

Уявіть, що у XVIII–XIX століттях, за часів першої промислової революції, існували б організації безпеки, які стежили, щоби парові машини не вибухали, ткацькі верстати не ламалися і все працювало на користь людей.

Одне відгалуження цих організацій зосередилося б на тому, щоби машини не виробляли браковану продукцію, а робітники не піддавалися експлуатації. Інше було б стурбовано тим, аби самі машини не стали розумними і не привели до кінця людської цивілізації.

На вашу думку, який із цих напрямів заслуговує на більшу увагу та фінансування? Очевидним видається, що перший. Однак за спроби екстраполювати цей підхід на революцію, яка відбувається у сфері штучного інтелекту, ми стикаємося з діаметрально протилежною ситуацією.

Різні дослідницькі групи по всьому світу, які працюють над усуненням безпосередньої шкоди від ШІ, сидять на голодному пайку в порівнянні з тими, хто вивчає екзистенційні ризики співіснування людей разом із машинами, що розумнішають дедалі більше.

 

РІЗНИЦЯ БЮДЖЕТІВ

 

Цю невідповідність наочно ілюструють цифри, що, як відомо, ніколи не брешуть. Візьмемо, наприклад, некомерційну асоціацію EDR (European Digital Rights), яка займається захистом цифрових прав у Європі.

Її кампанії, спрямовані на обмеження використання технології розпізнавання облич та інших цифрових алгоритмів, допомогли забезпечити додатковий захист цивільних прав у європейському законі про штучний інтелект. Річний бюджет цієї організації складає близько $2,2 млн.

Або, скажімо, інститут AI Now при Нью-Йоркському університеті, який займається ретельним вивченням використання ШІ в охороні здоров’я, кримінальному правосудді та освіті. Річний бюджет — менше $1 млн.

На іншому полюсі — некомерційна організація Future of Life Institute, яка досліджує екзистенційні ризики отримання штучним інтелектом доступу до інтернету та зброї. 2021 року вона оголосила про програму грантів на суму $25 млн за рахунок пожертв канадсько-російського криптомагната Віталіка Бутеріна.

У цій же категорії — Центр безпеки ШІ, некомерційна організація із Сан-Франциско, яка займається просуванням безпечної розробки та розгортання штучного інтелекту. Минулого року вона отримала грант у розмірі $5,2 млн від співзасновника Facebook Дастіна Московиця.

А каліфорнійський Центр штучного інтелекту одержав пожертву в розмірі $11,4 млн від Open Philanthropy — дослідницького фонду, який виділяє гранти на основі доктрини ефективного альтруїзму.

 

БОРОТЬБА НЕ З ТИМИ

 

Немає нічого поганого у ретельній перевірці ШІ на відповідність людським цінностям. Зрештою, у нейромереж набагато більше можливості зійти з рейок, ніж у ткацького верстата або парової машини XVIII століття.

Проте колосальний розрив у фінансуванні між гіпотетичними ризиками майбутнього та реально існуючими проблемами змушує насторожитися. Адже поки людство стурбоване екзистенційними питаннями впровадження ШІ, нейромережі підставляють людей просто зараз. Ось лише кілька свіжих кейсів.

Лаборант Массачусетського технологічного інституту Рона Ванг нещодавно завантажила свою фотографію в Playground AI, онлайн-інструмент для автоматичного редагування фотографій засобами ШІ, щоб отримати «професійну фотографію профілю LinkedIn». У відповідь на такий запит нейромережа надала азіатському обличчю Ванг європеоїдних рис.

 

Вступаючи до клубу друзів Huxley, Ви підтримуєте філософію, науку та мистецтво

 

Художниця Лана Деніна спробувала створити професійний портретний знімок за допомогою інструмента редагування Remini. Після завантаження фотографій вона отримала надмірно сексуалізовані портрети згідно з прикладами, які раніше розмістила в Твіттері.

Інші інструменти штучного інтелекту також зображували жінок досить кричущим чином, хоча їм просто потрібні були звичайні портрети. Особливо постраждали кольорові жінки. У той час як сотні мільйонів доларів витрачаються на боротьбу з теоретичним апокаліпсисом ШІ, нейромережі увічнюють довгу та жахливу історію сексуалізації чорношкірих жінок.

Ось чому до всіх заяв про створення чергового безпечного ШІ потрібно ставитися з великою часткою скептицизму. І що є найважливішим: тим, хто захищає людей від шкідливого впливу нейромереж просто зараз, а не у віддаленому майбутньому, потрібна вся можлива допомога.

 

ЗАРОБІТОК НА СТРАХУ

 

Розрив у фінансуванні можна пояснити ідеологічними причинами. Страх непізнаного виявляється набагато сильнішим, переважуючи необхідність усунення локальних проблем та вдосконалення функціоналу ШІ на благо людей. У чомусь це відображення самої людської сутності.

Але є в цьому і комерційний аспект. Ті, хто зосередився на екзистенційних ризиках, нерідко заявляють про необхідність подальшого вдосконалення моделей ШІ, аби підвести під свої дослідження більш потужний базис. Згодом це підвищує інвестиційну цінність таких проєктів.

Чудовим прикладом є OpenAI, що створила ChatGPT. Компанія розпочала своє життя як некомерційна організація у 2015 році, збираючи пожертвування від благодійників для створення безпечних інструментів штучного інтелекту, які принесуть користь людству.

Пізніше, коли мовні моделі ШІ стали більш потужними та дорогими в обслуговуванні, OpenAI комерціалізувала свою діяльність, а її інвестори усвідомили цінність своїх вкладень.

Венчурні інвестори прагнуть вкладатися у стартапи, що йдуть шляхом OpenAI. Наприклад, коли група інженерів OpenAI відокремилася наприкінці 2020 року і створила свій власний стартап з безпеки ШІ під назвою Anthropic, незабаром виявилося, що новостворена компанія збирає мільйони доларів із різних джерел. На сьогодні обсяг інвестицій становить $1,2 млрд.

Звісно, Anthropic не є некомерційною організацією та продає продукт. Але вона також є й частиною сірої зони, де різні компанії позиціонують себе як борців із потенційними ризиками впровадження нейромереж і при цьому, як не дивно, змагаються у створенні дедалі більше потужних моделей ШІ.

 

ЗА ТРАДИЦІЙНИМ СЦЕНАРІЄМ

 

Передбачати майбутнє — непросте завдання, проте, оглядаючись на минуле, ми розуміємо, що поточна проблематика ШІ нічим не відрізняється від багатьох інших ситуацій, які відбувалися раніше. У всьому, починаючи від луку та ткацького верстата і закінчуючи ядерною бомбою та смартфоном, людство діяло за одним і тим самим сценарієм. Спочатку вигадати і впустити у своє життя, а потім емпіричним шляхом з’ясовувати, які небезпеки та побічні ефекти несе цей винахід.

Інакше не виходить. Бо комплексний аналіз, який враховує всі аспекти застосування того чи іншого рукотворного об’єкта, в принципі неможливий.

Сонце нагріває нашу планету й нас самих, у воді не можна дихати, дощ робить мокрим все навколо. Ми можемо адаптуватися до фізичних законів і властивостей об’єктів, що з’явилися та існують поза нашим впливом, проте не здатні передбачити вплив того, що створюємо власним розумом і руками.

Звичайно, це не означає, що використання ШІ можна не контролювати. Занадто багато аспектів нашого життя можуть змінитися під впливом нейромереж, занадто масштабними будуть наслідки. Особливо враховуючи, що найближчими роками на нас чекає наступна генерація ШІ — персоналізований штучний інтелект, заточений під індивідуальні потреби та завдання користувача.

І це буде щось більше, ніж голосові помічники на зразок Siri. Як за своїми генеративним можливостям, так і за рівнем впливу на життя конкретної людини.

 

 


При копіюванні матеріалів розміщуйте активне посилання на www.huxley.media
Вступаючи до клубу друзів Huxley, Ви підтримуєте філософію, науку та мистецтво
Отримуйте свіжі статті

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: