Huxley
Автор: Huxley
© Huxley — альманах о философии, бизнесе, искусстве и науке

Этические вопросы искусственного интеллекта

Этические вопросы искусственного интеллекта
Иллюстрация Berke Yazicioglu
Искусственный интеллект способен изменить мир к лучшему: заменить людей на опасных и монотонных работах, анализировать данные, помогать врачам и ученым. Но он также может писать фейковые статьи, создавать политическую рекламу и даже участвовать в войнах.

Вот лишь краткий список этических дилемм, с которыми предстоит столкнуться человечеству по мере развития искусственного интеллекта.

  1. Отберет ли ИИ вашу работу?

Когда-то промышленная революция заменила ручной труд станками. Сегодня многие работы выполняют программы. Однако идея, что люди останутся без дела, ошибочна: благодаря технологиям создаются новые рабочие места. Вместо того, чтобы нанимать людей для ввода данных и приема заказов, компании смогут дать им возможность работать с клиентами, выполнять более творческие задачи и проявлять инициативу.

  1. Приведет ли развитие ИИ к росту фейковых новостей и дезинформации?

ИИ действительно позволяет создавать изображения и голоса людей, которых никогда не существовало. О текстах и говорить нечего. Во время предыдущих президентских выборов в США боты сыграли огромную роль, заполоняя соцсети таким количеством политической пропаганды, какое никогда не смогли бы сгенерировать тысячи обычных пользователей. Единственный выход — жестко контролировать фейковый контент, признав его таким же вредным, как и угрозы кибербезопасности, а также — повышать информационную грамотность населения.

  1. Станет ли ИИ Большим Братом?

Технологии распознавания лиц позволяют искать людей в толпе — на стадионах, в метро, на акциях протеста. Информация о частной жизни, покупках и передвижениях станет такой же доступной, как интернет или электричество. Вопрос только в том, кто и как использует эти данные. При диктатуре они будут доступны правительству или нескольким компаниям, остальные же окажутся под постоянным наблюдением.

Примечательно, что такие IT-гиганты, как Microsoft, сами же призывают Конгресс США законодательно урегулировать технологии, связанные с вторжением в личную жизнь

  1. Получат ли интеллектуальные машины права, а вместе с ними и ответственность?

Сегодня программы, способные полноценно мыслить и чувствовать – не более чем, сюжет из фантастических романов. Однако вопрос «Могут ли программы принимать серьезные этические решения?» стоит уже сейчас. В 2018 году автомобиль, управляемый искусственным интеллектом, насмерть сбил пешехода. Эта авария вызвала широкое возмущение. Этические дилеммы вроде «действовать в интересах пассажиров или пешеходов, выбежавших на дорогу» не могут и не должны решать программы. Алгоритмы поведения в подобных ситуациях необходимо четко прописать и публично озвучить.

  1. Могут ли решения ИИ стать более справедливыми?

Поведение программ, основанных на машинном обучении, во многом зависит от того, какие данные они обрабатывали. Система распознавания лиц Google хуже идентифицирует людей, принадлежащих к этническим меньшинствам, а Apple Card недавно подверглась проверке из-за обвинения в гендерной дискриминации. Посты самообучающихся ботов содержат ксенофобию, а автоматизированные системы подбора персонала предпочитают мужчин-программистов, потому видели больше мужских резюме. Не стоит ожидать от машин, что они окажутся лучше большинства людей. В вопросах этики искусственный интеллект — это не самостоятельный игрок, а зеркало общества.

Источник: Forbes

Вступая в клуб друзей Huxley, Вы поддерживаете философию, науку и искусство

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Получайте свежие статьи

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: