Иллюстрация Berke Yazicioglu
Искусственный интеллект способен изменить мир к лучшему: заменить людей на опасных и монотонных работах, анализировать данные, помогать врачам и ученым. Но он также может писать фейковые статьи, создавать политическую рекламу и даже участвовать в войнах.Вот лишь краткий список этических дилемм, с которыми предстоит столкнуться человечеству по мере развития искусственного интеллекта.
- Отберет ли ИИ вашу работу?
Когда-то промышленная революция заменила ручной труд станками. Сегодня многие работы выполняют программы. Однако идея, что люди останутся без дела, ошибочна: благодаря технологиям создаются новые рабочие места. Вместо того, чтобы нанимать людей для ввода данных и приема заказов, компании смогут дать им возможность работать с клиентами, выполнять более творческие задачи и проявлять инициативу.
- Приведет ли развитие ИИ к росту фейковых новостей и дезинформации?
ИИ действительно позволяет создавать изображения и голоса людей, которых никогда не существовало. О текстах и говорить нечего. Во время предыдущих президентских выборов в США боты сыграли огромную роль, заполоняя соцсети таким количеством политической пропаганды, какое никогда не смогли бы сгенерировать тысячи обычных пользователей. Единственный выход — жестко контролировать фейковый контент, признав его таким же вредным, как и угрозы кибербезопасности, а также — повышать информационную грамотность населения.
- Станет ли ИИ Большим Братом?
Технологии распознавания лиц позволяют искать людей в толпе — на стадионах, в метро, на акциях протеста. Информация о частной жизни, покупках и передвижениях станет такой же доступной, как интернет или электричество. Вопрос только в том, кто и как использует эти данные. При диктатуре они будут доступны правительству или нескольким компаниям, остальные же окажутся под постоянным наблюдением.
Примечательно, что такие IT-гиганты, как Microsoft, сами же призывают Конгресс США законодательно урегулировать технологии, связанные с вторжением в личную жизнь
- Получат ли интеллектуальные машины права, а вместе с ними и ответственность?
Сегодня программы, способные полноценно мыслить и чувствовать – не более чем, сюжет из фантастических романов. Однако вопрос «Могут ли программы принимать серьезные этические решения?» стоит уже сейчас. В 2018 году автомобиль, управляемый искусственным интеллектом, насмерть сбил пешехода. Эта авария вызвала широкое возмущение. Этические дилеммы вроде «действовать в интересах пассажиров или пешеходов, выбежавших на дорогу» не могут и не должны решать программы. Алгоритмы поведения в подобных ситуациях необходимо четко прописать и публично озвучить.
- Могут ли решения ИИ стать более справедливыми?
Поведение программ, основанных на машинном обучении, во многом зависит от того, какие данные они обрабатывали. Система распознавания лиц Google хуже идентифицирует людей, принадлежащих к этническим меньшинствам, а Apple Card недавно подверглась проверке из-за обвинения в гендерной дискриминации. Посты самообучающихся ботов содержат ксенофобию, а автоматизированные системы подбора персонала предпочитают мужчин-программистов, потому видели больше мужских резюме. Не стоит ожидать от машин, что они окажутся лучше большинства людей. В вопросах этики искусственный интеллект — это не самостоятельный игрок, а зеркало общества.
Источник: Forbes
Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.