Huxleў
Автор: Huxleў
© Huxleў — альманах про філософію, бізнес, мистецтво та науку
Leadership&Management
5 хв. на читання

ШТУЧНИЙ ІНТЕЛЕКТ: настав час заборонити?

ШТУЧНИЙ ІНТЕЛЕКТ: настав час заборонити?
Поділитись матеріалом
Яна Гринів. Втрачений будинок, серія «Сліди агресії», 2022 / Facebook, «Сіль-сіль»

 

Впровадження технологій ШІ вплине на ринок праці. За прогнозами Всесвітнього економічного форуму, у найближчі 5 років під загрозою опиняться 26 млн робочих місць. Проте це не найнебезпечніше.

У штучного інтелекта велике майбутнє, чи наше майбутнє — життя під владою штучного інтелекту?

Це питання актуалізувалося з початку 2023 року, а розв’язувати його людству доводиться просто зараз у режимі реального часу.

 

ЩО РОБИТЬ ШІ: ТВОРИТЬ ЧИ ВИТВОРЯЄ?

 

Нещодавно британська продюсерська компанія Privateisland.tv випустила 30-секундний рекламний ролик пива, створений штучним інтелектом. На перший погляд сюжет здається тривіальним для реклами пива: барбекю на задньому дворі будинку, люди, що сміються, весела музика…

Але буквально з перших секунд перегляду очі починають лізти на лоба. І що далі, то сильніше. Фантасмагоричні симулякри людей зливаються з банками пива, що непропорційно зростають у розмірах, грилі перетворюються на вогняні торнадо, люди танцюють у вогні… А завершується все сценою вогняного попелища.

 

 

Враження від перегляду ролика — здивування у поєднанні з подивом і домішкою побоювання — можна екстраполювати на все, що зараз генерують нейромережі.

Прорив технологій ШІ за останній рік надзвичайно спростив створення нових продуктів інтелектуального характеру (текстів, відео, зображень). Однак ця простота не означає, що те «нове», яке генерується нейромережами, апріорі буде кращим, ніж те, що створювали і створюють люди. Почасти тому, що нейромережі не в змозі оперувати смислами та контекстами. ШІ лише сліпо компілює наявну в базах інформацію.

Насторожити має і те, що чат-боти, включаючи широко відомий ChatGPT, оперують вигаданими фактами та персоналіями, стаючи джерелами та інструментами дезінформації.

І вже зрозуміло, що дуже скоро ШІ замінить людину в багатьох сферах — різняться лише оцінки того, скільки людей у ​​результаті втратить роботу.

 

26 МЛН РАБОЧИХ МІСЦЬ ПІД ЗАГРОЗОЙ

 

Згідно з новим дослідженням Всесвітнього економічного форуму, близько 75% опитаних компаній мають намір впровадити технології ШІ протягом наступних 5 років. В результаті це може призвести до скорочення 26 млн робочих місць по всьому світу.

Це насамперед адміністративні та облікові посади, включаючи касирів, продавців квитків, операторів уведення даних та бухгалтерів. У дослідженні ВЕФ було опитано понад 800 компаній, в яких працює 11,3 млн осіб у 45 країнах світу.

І все ж у ВЕФ вважають, що на даний момент ШІ не такий страшний, як інші макроекономічні чинники. Можливості для створення робочих місць можуть з’явитися завдяки інвестиціям в екологічно чисті технології, ширшому застосуванню стандартів ESG та переорієнтації глобальних ланцюжків постачання.

 

РЕГУЛЯЦІЯ ТА ПРОЗОРІСТЬ ЗАМІСТЬ ЗАБОРОН

 

Чи означає це, що ШІ треба заборонити? Ні, прогрес не зупинити. Натомість необхідне нормативне регулювання на рівні країн і, можливо, навіть глобальне світове. Проте, як це неодноразово бувало з вибуховими технологіями, регулювання з великою ймовірністю виявиться малоефективним і не зможе встигати за розвитком ШІ.

В ЄС уже другий рік працюють над так званим Законом про штучний інтелект. Днями стали відомі проміжні результати. Передбачається, що інструменти ШІ будуть класифіковані відповідно до рівня ризику: мінімальний, обмежений, високий, неприйнятний.

Серед високих та неприйнятних ризиків — біометричне спостереження у громадських місцях, поширення дезінформації, використання алгоритмів для передбачення злочинів і визначення почуттів та душевного стану людини.

 

Вступаючи до клубу друзів Huxleў, Ви підтримуєте філософію, науку та мистецтво

 

Закон планується ухвалити до кінця 2024 року, проте по-справжньому жорстким він не буде. Європарламентарі відмовилися від заборон на користь прозорості. Зокрема, розробників зобов’яжуть розкривати інформацію, чи використовувалися для навчання генеративних моделей ШІ матеріали, захищені авторським правом.

Початкова пропозиція повністю заборонити нейромережам використовувати авторський контент не знайшла підтримки. Депутат Європарламенту Свенья Хан назвала це «лівими фантазіями про надмірне регулювання».

Ну а перший і поки що єдиний прецедент заборони ШІ у світі закінчився нічим. Італія, яка 31 березня заборонила доступ до ChatGPT у країні, вже 29 квітня зняла обмеження. Адже відсутні комплексні закони, що регулюють цю технологію, а компанія OpenAI надала користувачам чат-боту можливість заборонити обробляти їх розмови, як того вимагав італійський регулятор.

 

ТВОРЕЦЬ ШІ ШКОДУЄ ПРО РОБОТУ ВСЬОГО СВОГО ЖИТТЯ

 

Тим часом до критиків ШІ приєднався навіть піонер розробки нейромереж Джеффрі Хінтон, який минулого тижня звільнився з Google. Як написав у своєму Twitter 75-річний учений-інформатик, він зробив це, щоб вільно говорити про небезпеку ШІ, не замислюючись про те, як його слова вплинуть на Google.

Хінтона називають «хрещеним батьком» штучного інтелекту. Роботи над нейромережами він розпочав ще в 70-х роках минулого століття, а створена ним та його учнями технологія лягла в основу ChatGPT.

Коментуючи причини звільнення в інтерв’ю The New York Times, Хінтон заявив, що зараз шкодує про роботу всього свого життя і втішає себе тим, що якби цього не зробив він, це зробив би хтось інший.

«Штучний інтелект справді може стати розумнішим за людей. Але більшість людей думали, що це станеться нескоро. І я так думав. Я вважав, що це відбудеться за 30–50 років чи навіть пізніше. Тепер моя думка змінилася», — зізнався Хінтон.

Ці слова якнайкраще описують сьогоднішню ситуацію. Донедавна більшість із нас бачили в штучному інтелекті радше гіпотетичну загрозу, не думаючи, що вона стане реальністю найближчими роками. Тепер стало зрозуміло, що все розгортається прямо зараз, а за розвитком технологій ШІ не здатні встежити ані розробники, ані регулятори.

 

НАБЛИЖЕННЯ ДО ТЕХНОЛОГІЧНОЇ СИНГУЛЯРНОСТІ

 

На завершення коротко ще дві останні новини, які ілюструють стурбованість світової спільноти через стрімкий розвиток ШІ. У Нью-Йорку 2 травня сценаристи Голлівуду та члени Гільдії письменників Америки вийшли на пікет із вимогою обмежити використання штучного інтелекту для написання кіно- та телесценаріїв.

А 4 травня у Білому домі відбулася спеціальна нарада зі ШІ, куди покликали виконавчих директорів Google, Microsoft, OpenAI та Anthropic. Американська адміністрація хоче донести до провідних розробників ШІ меседж: перш ніж робити цю технологію доступною для громадськості, необхідно переконатися, що вона справді безпечна.

Все, що відбувається, підводить до усвідомлення простого й одночасно всеосяжного факту. Штучний інтелект наполегливо стукає у двері, і нам доведеться впустити його у своє життя. І пристосуватися до нових реалій.

Багато хто вбачає у стрімкому розвитку ШІ неконтрольоване наближення до технологічної сингулярності, коли технологічний розвиток стане в принципі некерованим та незворотним.

 


При копіюванні матеріалів розміщуйте активне посилання на www.huxley.media
Вступаючи до клубу друзів Huxleў, Ви підтримуєте філософію, науку та мистецтво
Поділитись матеріалом

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: