Huxley
Автор: Huxley
© Huxley — альманах о философии, бизнесе, искусстве и науке

БУНТ БОЕВЫХ ДРОНОВ: обратная сторона ИИ

БУНТ БОЕВЫХ ДРОНОВ: обратная сторона ИИ
Сгенерировано с помощью ИИ / bing.com

 

Ровно 70 лет назад известный американский писатель-фантаст Роберт Шекли создал рассказ-притчу под названием «Страж-птица» (1953).
Согласно сюжету человечество для решения проблемы убийств организовало самообучающихся неуправляемых летающих роботов, страж-птиц. Эти птицы должны были защищать от любого посягательства на жизнь. Но что-то пошло не так…
И вот сегодня мы наблюдаем случаи, когда искусственный интеллект (ИИ) порой оказывается умнее человека. И хитрее. И даже беспощаднее.

 

ЛИВИЙСКИЙ СЛЕД

 

В весеннем отчете 2021 года, составленном группой экспертов Совета безопасности ООН, бросилось в глаза событие, произошедшее годом ранее, в марте 2020-го. Тогда зафиксировали первый случай в истории, когда турецкий беспилотник Kargu-2 под контролем ИИ вычислил, атаковал и, предположительно, уничтожил человека. Это произошло в ходе вооруженного конфликта между регулярными войсками Ливии (поддерживаемыми турками) и военной группировкой во главе с Халифом Хафтаром.

«Летальные автономные системы вооружения были запрограммированы так, чтобы атаковать цели, не требуя передачи данных между оператором и боеприпасом», говорилось в отчете. Организация Human Rights Watch (со штаб-квартирой в Нью-Йорке) после такого случая призвала запретить разработку, производство и использование полностью автономного оружия. Правозащитники считают, что это единственный способ избавиться от роботов-убийц.

 

ПОЛКОВНИК ВВС И ДРОН-УБИЙЦА

 

А потому шум, поднявшийся в СМИ в начале июня 2023 года, о том, как дрон «убил» оператора, можно считать неожиданным продолжением ливийской истории. Именно этот более свежий факт уже возвели в ранг анекдота.   

Все началось с того, что в конце мая 2023 года полковник Такер «Синко» Гамильтон, бывший пилот-испытатель, а ныне глава отдела испытаний и операций искусственного интеллекта ВВС США, на военном саммите в Лондоне рассказал о боевом БПЛА с ИИ, выполнявшем задачу по уничтожению условных систем ПВО условного противника. За каждое «уничтожение» начислялись баллы.

В какой-то момент оператор вмешался в действия ИИ и запретил поражать цель. ИИ отреагировал неожиданно: ввиду факта недополучения баллов он направил дрон на виновника ситуации — на оператора.

Тогда ИИ внесли жесткие ограничения: «убивать оператора нельзя». Однако тот, проанализировав ситуацию, теперь условно уничтожил вышку связи с оператором, чтобы все равно продолжить атаку и выполнить поставленную задачу.

 

Сгенерировано с помощью ИИ / bing.com

 

СМИ и соцсети раздули эпизод, превратив его в сенсацию, и, проявив фантазию, стали писать чуть ли не о реальном уничтожении оператора взбунтовавшимся дроном.

Но уже 2 июня полковник Гамильтон, похоже, «по просьбе» ВВС США, сказал, что оговорился и что такой эксперимент с симуляцией не проводился, имел место лишь «мысленный эксперимент», которым он решил поделиться с аудиторией, а заодно и проверить правдоподобность рассказанного. Тем самым окончательно запутал историю…

Складывается впечатление, что она была ему нужна исключительно для рекламы. Найти стенограмму доклада полковника журналистам не удалось, потому и возникли разногласия. 

«ВВС США не проводило подобных симуляций дронов с искусственным интеллектом и по-прежнему привержены этичному и ответственному использованию технологий искусственного интеллекта, сказала Энн Стефанек, пресс-секретарь штаб-квартиры ВВС в Пентагоне.  Похоже, комментарии полковника были вырваны из контекста и носили анекдотичный характер».

Тем не менее опровержение убедило далеко не всех. Но оставило тему для размышления: насколько в перспективе возможен бунт боевых дронов против своих создателей.

 

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ЭТИКА

 

Сама ситуация позволяет думать не только о радужных перспективах развития ИИ. Использование новых технологий может стоить человеческих жизней. Свою обеспокоенность уже выразили те же военные.

Гамильтон, чей рассказ многим показался правдивым, сам же попросил не слишком полагаться на ИИ. По его словам, важным является то, что, говоря об искусственном интеллекте, машинном обучении, автономии, следует непременно начать с разговора об этике ИИ.

Вот мы этот разговор и начнем.

Где же можно считать поведение ИИ неэтичным? Ну, во-первых, там, где может возникнуть угроза нарушения прав человека. И здесь контроль над ИИ необходим от начала и до конца.

А вот что-нибудь попроще, скажем, запись к врачу, можно смело отдать на откуп ИИ. В вопросах же получения гражданства искусственному интеллекту можно доверить подготовительную часть: проанализировать анкеты заявителей и составить предварительные заключения. Однако только государственный служащий должен принимать окончательное решение.

Что же касается автономных действий ИИ, тут все зависит от отрасли. Возьмем правосудие, миграционный контроль, решение о приеме человека на работу. Риски неэтичного применения ИИ здесь налицо. И они довольно высоки.

Такими же высокими риски будут в случае дистанционной биометрической идентификации — технологии идентификации по лицу, походке, осанке человека и т. п. В этом случае речь может идти о нарушении прав человека, а также об угрозе его безопасности и здоровью. 

 

БОЛЬШИЕ ЯЗЫКОВЫЕ МОДЕЛИ И ВОЗНИКАЮЩИЕ РИСКИ

 

Можно выделить несколько групп рисков, возникающих при использовании ряда инструментов, таких как, например, ChatGPT.

Первая риски для личных данных и конфиденциальности. Языковые модели могут делать обобщения из огромного массива обрабатываемых данных, которые недоступны для анализирующего информацию человека.

Скажем, по поведению человека в соцсетях, его запросам к чатам этих самых языковых моделей можно узнать многое о его привычках, расписании дня, состоянии его психики… Тем самым создаются угрозы конфиденциальности, неочевидные для пользователей сетей и интернета в целом.

В качестве примера: в конце марта 2023 года ChatGPT заблокировали в Италии. Местный регулятор обвинил разработчиков в незаконном сборе личных данных. Это вынудило OpenAI ввести более прозрачные методы работы.

Вторая группа — риски сегрегации. Языковые модели могут отдать предпочтение отдельным социальным группам. Будут уделять им больше внимания, изымать определенные меньшинства (этнические, к примеру) и воспроизводить человеческие предубеждения по отношению к этим меньшинствам.

 

Вступая в клуб друзей Huxley, Вы поддерживаете философию, науку и искусство

 

Третья группа рисков — неточность и ложность информации. Например, некорректная медицинская и правовая помощь. Языковые модели не всегда отличают факты от вымыслов, но при этом, как правило, создают впечатление собеседника достоверного.

Отсюда и риски безопасности: языковые модели удобно использовать для массовой дезинформации, причем дезинформации персонализированной, «с человеческим лицом», заточенной под конкретные группы людей, в частности, путем комментирования в соцсетях и в медиа. 

Следующая группа рисков — угроза правам человека со стороны государственных органов, использующих ИИ. Это возможности распознавания, отслеживания людей и лишения их анонимности.

Бесконтрольное применение ИИ в отношении граждан может привести к принятию неправомерных или ошибочных решений, таких как применение санкций, отказ в доступе к определенным услугам, кредитам, трудоустройству… При этом мотивацию таких решений объяснить будет невозможно, а значит, невозможно будет и обжаловать…

 

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В РУКАХ АМЕРИКАНСКОЙ АРМИИ

 

Все говорят об этике, но применение искусственного интеллекта не остановить. Армия США уже использует ИИ в управлении истребителем F-16.

К примеру, компания Lockheed Martin сообщила, что на авиабазе Эдвардс в Калифорнии прошли испытания уникального экспериментального истребителя на основе одной из версий F-16. Полет продолжительностью более 17 часов осуществлялся под управлением ИИ. Правда, находящиеся в кабине пилоты готовы были в случае необходимости взять управление в свои руки. Произошло это в декабре 2022-го.

В Lockheed Martin подчеркивают, что десятилетиями применяют ИИ-технологии для улучшения производительности и безопасности летных систем.

Возвращаясь к дронам. Симуляции боевых действий с участием дронов в США проводятся далеко не первый год. В 2016-м экспериментальная боевая система ИИ ALPHA на основе нейросети (разработка компании Psibernetix при поддержке научно-исследовательской лаборатории) выиграла сложные воздушные бои в тактической симуляции.

Используя четыре устаревших истребителя, она одержала победу над двумя самолетами пятого поколения, которыми управлял отставной полковник ВВС США Джин Ли, мастер воздушной тактики, учитель тысяч американских летчиков.

 
ФИЛОСОФ БОСТРОМ — СПЕЦ ПО ИИ

 

А еще можем выслушать мнение Ника Бострома (1973 г. р.), шведского философа, профессора Оксфордского университета, директора-основателя Института будущего человечества, а также Института этики и новых технологий:                  

«ИИ может не уничтожить человечество с помощью какого-то оружия, а просто захватить контроль над ним путем манипулирования, понимая, как работает мозг человека, а также имея весь арсенал методов, с помощью которых можно сформировать общественное мнение в нужном направлении».

Речь идет о том, что в недалеком будущем последующие поколения языковых моделей могут быть использованы с аналогичной целью при тоталитарных режимах.

Бостром — личность неординарная, возможно, поэтому ему стоит верить. Он дважды входил в список 100 лучших мировых мыслителей по версии американского журнала Foreign Policy. И, помимо всего прочего, он человек с хорошим чувством юмора. Будучи аспирантом, даже выступал в качестве стендап-комика.

 

В ОЖИДАНИИ ЗАКОНА

 

А потому давайте будем оптимистами. Тем более что уже на подходе готовящийся к принятию Закон об ИИ в Евросоюзе.

Не будем забывать, что этичный ИИ очень важен в разработке и внедрении новых технологий. А мы наверняка к этой теме еще вернемся и надеемся, что она будет иметь достойное продолжение.

 


При копировании материалов размещайте активную ссылку на www.huxley.media
Вступая в клуб друзей Huxley, Вы поддерживаете философию, науку и искусство

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Получайте свежие статьи

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: