Huxleў
Автор: Huxleў
© Huxleў – альманах про філософію, бізнес, мистецтво та науку
Science
5 хв. на читання

БУНТ БОЙОВИХ ДРОНІВ: зворотний бік ШІ

Штучний інтелект
Поділитись матеріалом
Згенеровано за допомогою ШІ / bing.com

 

Рівно 70 років тому відомий американський письменник-фантаст Роберт Шеклі створив оповідання-притчу під назвою «Сторожовий птах» (1953).
Згідно з сюжетом людство для вирішення проблеми вбивств організувало некерованих літаючих роботів, сторожових птахів, що самонавчаються. Ці птахи мали захищати від будь-якого посягання на життя. Але щось пішло не так…
І ось сьогодні ми спостерігаємо випадки, коли штучний інтелект (ШІ) часом виявляється розумнішим за людину. І хитрішим. І навіть нещаднішим.

 

ЛІВІЙСЬКИЙ СЛІД

 

У весняному звіті 2021 року, складеному групою експертів Ради безпеки ООН, впала в очі подія, що сталася роком раніше, у березні 2020-го. Тоді зафіксували перший випадок в історії, коли турецький безпілотник Kargu-2 під контролем ШІ вирахував, атакував і, ймовірно, знищив людину. Це сталося в ході збройного конфлікту між регулярними військами Лівії (підтримуваними турками) та військовим угрупованням на чолі з Халіфом Хафтаром.

«Летальні автономні системи озброєння були запрограмовані так, щоб атакувати цілі, не вимагаючи передачі даних між оператором і боєприпасом», — йшлося у звіті. Організація Human Rights Watch (зі штаб-квартирою в Нью-Йорку) після такого випадку закликала заборонити розробку, виробництво та використання повністю автономної зброї. Правозахисники вважають, що це єдиний спосіб позбутися роботів-убивць.

 

ПОЛКОВНИК ВПС І ДРОН-УБИВЦЯ

 

А тому галас, який здійнявся у ЗМІ на початку червня 2023 року, про те, як дрон «убив» оператора, можна вважати несподіваним продовженням лівійської історії. Саме цей свіжіший факт вже звели до рангу анекдоту.

Все почалося з того, що наприкінці травня 2023 року полковник Такер «Сінко» Гамільтон, колишній пілот-випробувач, а нині голова відділу випробувань та операцій штучного інтелекту ВПС США, на військовому саміті в Лондоні розповів про бойовий БПЛА зі ШІ, який виконував завдання зі знищення умовних систем ППО умовного супротивника. За кожне «знищення» нараховували бали.

У якийсь момент оператор втрутився в дії ШІ та заборонив вражати ціль. ШІ відреагував несподівано: зважаючи на факт недоотримання балів, він направив дрон на винуватця ситуації — на оператора.

Тоді ШІ внесли жорсткі обмеження: «вбивати оператора не можна». Однак той, проаналізувавши ситуацію, тепер умовно знищив вежу зв’язку з оператором, щоби все одно продовжити атаку та виконати поставлене завдання.

 

БУНТ БОЙОВИХ ДРОНІВ: зворотний бік ШІ
Згенеровано за допомогою ШІ / bing.com

 

ЗМІ і соцмережі роздули епізод, перетворивши його на сенсацію, і, задіявши фантазію, почали писати мало не про реальне знищення оператора дроном, що збунтувався.

Але вже 2 червня полковник Гамільтон, схоже, «на прохання» ВПС США, сказав, що обмовився і що такий експеримент із симуляцією не проводився, мав місце лише «мислений експеримент», яким він вирішив поділитися з аудиторією, а заразом і перевірити правдоподібність розказаного. Тим самим заплутав історію…

Складається враження, що вона була потрібна йому виключно для реклами. Знайти стенограму доповіді полковника журналістам не вдалося, тому виникли розбіжності.

«ВПС США не проводило подібних симуляцій дронів зі штучним інтелектом та, як і раніше, віддані етичному й відповідальному використанню технологій штучного інтелекту, — сказала Енн Стефанек, прес-секретар штаб-квартири ВПС у Пентагоні. — Схоже, коментарі полковника були вирвані з контексту і мали анекдотичний характер».

Проте спростування переконало не всіх. Але залишило тему для роздумів: наскільки у перспективі можливий бунт бойових дронів проти своїх творців.

 

ШТУЧНИЙ ІНТЕЛЕКТ ТА ЕТИКА

 

Сама ситуація дозволяє думати не лише про райдужні перспективи розвитку ШІ. Використання нових технологій може коштувати людських життів. Свою стурбованість вже висловили ті ж таки військові.

Гамільтон, чия розповідь багатьом видалася правдивою, сам же попросив не надто покладатися на ШІ. За його словами, важливим є те, що, говорячи про штучний інтелект, машинне навчання, автономію, слід неодмінно розпочати з розмови про етику ШІ.

Ось ми цю розмову й почнемо.

Де ж можна вважати поведінку ШІ неетичною? По-перше, там, де може виникнути загроза порушення прав людини. І тут контроль над ШІ необхідний від початку до кінця.

А ось щось простіше, скажімо, запис до лікаря, можна сміливо віддати на відкуп ШІ. У питаннях отримання громадянства штучному інтелекту можна довірити підготовчу частину: проаналізувати анкети заявників і скласти попередні висновки. Проте лише державний службовець має ухвалювати остаточне рішення.

Що ж до автономних дій ШІ, тут усе залежить від галузі. Візьмемо правосуддя, міграційний контроль, рішення про прийом людини на роботу. Ризики неетичного застосування ШІ тут очевидні. І вони досить високі.

Такими ж високими ризики будуть у разі дистанційної біометричної ідентифікації — технології ідентифікації за обличчям, ходою, поставою людини тощо. У цьому випадку може йтися про порушення прав людини, а також про загрозу її безпеці та здоров’ю.

 

ВЕЛИКІ МОВНІ МОДЕЛІ ТА РИЗИКИ, ЩО ВИНИКАЮТЬ 

 

Можна виділити кілька груп ризиків, що виникають під час використання низки інструментів, як-от, наприклад, ChatGPT.

Перша — ризики для особистих даних та конфіденційності. Мовні моделі можуть робити узагальнення з величезного масиву оброблюваних даних, які недоступні для людини, котра аналізує інформацію.

Скажімо, за поведінкою людини в соцмережах, її запитами до чатів цих самих мовних моделей можна дізнатися багато про її звички, розклад дня, стан її психіки… Таким чином створюються загрози конфіденційності, неочевидні для користувачів мереж та інтернету в цілому.

Як приклад: наприкінці березня 2023 року ChatGPT заблокували в Італії. Місцевий регулятор звинуватив розробників у незаконному збиранні особистих даних. Це змусило OpenAI запровадити прозоріші методи роботи.

Друга група — ризики сегрегації. Мовні моделі можуть віддати перевагу окремим соціальним групам. Приділятимуть їм більше уваги, вилучатимуть певні меншини (етнічні, наприклад) і відтворюватимуть людські упередження стосовно цих меншин.

 

Вступаючи до клубу друзів Huxleў, Ви підтримуєте філософію, науку та мистецтво

 

Третя група ризиків — неточність і хибність інформації. Наприклад, некоректна медична та правова допомога. Мовні моделі не завжди відрізняють факти від вигадок, але при цьому зазвичай створюють враження достовірного співрозмовника.

Звідси й ризики безпеки: мовні моделі зручно використовувати для масової дезінформації, причому дезінформації персоналізованої, «з людським обличчям», заточеної під конкретні групи людей, зокрема, шляхом коментування в соцмережах та медіа.

Наступна група ризиків — загроза правам людини з боку державних органів, які використовують штучний інтелект. Це можливості розпізнавання, відстеження людей та позбавлення їх анонімності.

Безконтрольне застосування ШІ щодо громадян може призвести до ухвалення неправомірних чи помилкових рішень, як-от застосування санкцій, відмова у доступі до певних послуг, кредитів, працевлаштування… При цьому мотивацію таких рішень пояснити буде неможливо, а отже, неможливо буде й оскаржити…

 

ШТУЧНИЙ ІНТЕЛЕКТ У РУКАХ АМЕРИКАНСЬКОЇ АРМІЇ

 

Усі говорять про етику, але застосування штучного інтелекту не зупинити. Армія США вже використовує ШІ в управлінні винищувачем F-16.

Наприклад, компанія Lockheed Martin повідомила, що на авіабазі Едвардс у Каліфорнії пройшли випробування унікального експериментального винищувача на основі однієї з версій F-16. Політ тривалістю понад 17 годин здійснювався під керуванням ШІ. Щоправда, пілоти, які перебували в кабіні, готові були в разі потреби взяти управління в свої руки. Сталося це у грудні 2022-го.

У Lockheed Martin підкреслюють, що десятиліттями застосовують ШІ-технології для покращення продуктивності та безпеки льотних систем.

Повертаючись до дронів. Симуляції бойових дій за участю дронів у США проводяться далеко не перший рік. У 2016-му експериментальна бойова система ШІ ALPHA на основі нейромережі (розробка компанії Psibernetix за підтримки науково-дослідної лабораторії) виграла складні повітряні бої у тактичній симуляції.

Використовуючи чотири застарілі винищувачі, вона здобула перемогу над двома літаками п’ятого покоління, якими керував відставний полковник ВПС США Джин Лі, майстер повітряної тактики, вчитель тисяч американських льотчиків.

 

ФІЛОСОФ БОСТРОМ — СПЕЦ ЗІ ШІ

 

А ще можемо вислухати думку Ніка Бострома (1973 р. н.), шведського філософа, професора Оксфордського університету, директора-засновника Інституту майбутнього людства, а також Інституту етики та нових технологій:

«ШІ може не знищити людство за допомогою якоїсь зброї, а просто захопити контроль над ним шляхом маніпулювання, розуміючи, як працює мозок людини, а також маючи весь арсенал методів, за допомогою яких можна сформувати громадську думку в потрібному напрямку».

Йдеться про те, що в майбутньому наступні покоління мовних моделей можуть бути використані з аналогічною метою при тоталітарних режимах.

Бостром — особистість неординарна, можливо, тому йому варто вірити. Він двічі входив до списку 100 найкращих світових мислителів за версією американського журналу Foreign Policy. І, крім усього іншого, він людина з гарним почуттям гумору. Бувши аспірантом, навіть виступав як стендап-комік.

 

В ОЧИКУВАННІ ЗАКОНУ

 

Тож будьмо оптимістами. Тим більше, що вже на підході Закон про ШІ в Євросоюзі, який готується до прийняття.

Не забуватимемо, що етичний ШІ дуже важливий у розробці та впровадженні нових технологій. А ми, напевно, до цієї теми ще повернемося і сподіваємося, що вона матиме гідне продовження.

 


При копіюванні матеріалів розміщуйте активне посилання на www.huxley.media
Вступаючи до клубу друзів Huxleў, Ви підтримуєте філософію, науку та мистецтво
Поділитись матеріалом

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: