ЭКЗИСТЕНЦИАЛЬНЫЕ РИСКИ И ГЛОБАЛЬНОЕ УПРАВЛЕНИЕ: интервью с инвестором и филантропом Яаном Таллинном (Часть II)
Елена Бойцун: Вы упомянули очень интересный термин — предварительный ИИ. В настоящее время под ИИ в основном понимают далеко не общий искусственный интеллект. Современные системы — это алгоритмы принятия ограниченных решений на основе базы данных, машинное обучение. В них нет универсальности.
Яан Таллинн: Мне нравится один важный эвристический прием, который я предлагаю использовать людям. Каждый раз, когда вы видите термин ИИ, просто мысленно замените его на «делегирование машинам принятия человеческих решений», и тогда как потенциальные возможности, так и риски сразу же станут намного яснее.
Е.Б.: Вам нравится в целом применение термина искусственный интеллект?
Я.Т.: Это удобное сокращение. В сообществе рационалистов (Rationality Community), в которое я вхожу, есть такое упражнение для ума, которое называется «табу на слово».
Очень часто люди имеют немного разные определения для слов, и вам кажется, что вы говорите одно, а собеседник слышит совсем другое.
В ситуациях, при которых этот факт может нарушить коммуникацию, полезно применять подход, когда вы намеренно заявляете, что мы больше не используем этот термин.
Всякий раз, когда у вас возникает искушение произнести конкретное слово, необходимо остановиться и поискать какое-нибудь другое объяснение. В контексте ИИ довольно часто бывает полезно просто не использовать термин ИИ, потому что люди понимают под этим разные вещи.
Е.Б.: Почему вы концентрируете свое внимание на рисках, а не на идеальных возможностях ИИ? Насколько я понимаю, есть уже понятие Beneficial AI (благотворный ИИ). Почему же не продвигать идею о потенциальной пользе ИИ, который мог бы спасти планету?
Я.Т.: Я технический специалист, и я действительно думаю, что ИИ — это высокая технология с огромным влиянием и сферой применения. Я сосредоточен на ИИ еще и потому, что всякий раз, когда мы минимизируем риски, связанные с ним, эти корректировки, скорее всего, положительно отразятся и на других проблемах.
Например, если вы устраняете риск от ИИ, то автоматически также нейтрализуете, скажем, биологический риск или природные экзистенциальные риски, потому что ИИ сможет нам помочь с ними разобраться. Но если мы убираем только астероидный или биологический риск, у нас все еще остается опасность от применения ИИ, с которой нужно бороться.
Причина, по которой я действительно сосредоточен на негативных аспектах, заключается в том, что, если мы не обратим внимание на риски, у нас не будет положительных результатов от применения технологии. Проблема в том, что положительный результат кондиционален отрицательному.
Так что при негативном сценарии вы не получите ожидаемого положительного эффекта, не будет достаточно значимого изменения в позитивности результата.
Если вы концентрируетесь на позитивном результате, даже если он будет в десятки раз выше, негативный результат ограничит большинство сценариев развития событий, которые могли бы возникнуть при благоприятных обстоятельствах.
Другой подход к этому вопросу — важно фиксировать внимание как на отрицательных, так и на положительных сторонах, но имеет значение также, в каком порядке это делать.
Если вы сосредотачиваетесь только на преимуществах и собираетесь подумать о недостатках лишь спустя какое-то время, возможно, вы уже не успеете это сделать, потому что отрицательный результат может убить вас раньше.
В то время как если вы сначала устраните отрицательное влияние, то у вас будет вся вселенная для того, чтобы сосредоточиться на преимуществах. Поэтому я и думаю, что важно концентрироваться на рисках.
Е.Б.: Целевой группой, с которой вы работаете, является сообщество разработчиков, узкоспециализированные эксперты, осознающие большие риски своей работы. Но, насколько я понимаю, вы также стараетесь вовлечь в обсуждение для понимания этих рисков широкую публику.
Я.Т.: В какой-то мере.
Е.Б.: Мы тоже ведь должны быть вовлечены каким-то образом в обсуждение этих рисков. Мы, люди.
Я.Т.: Я бы сказал так: у меня нет очень продуманной повестки дня, когда дело доходит до информирования общественности. Я вижу, что интерес к этой теме велик, но не занимаюсь этим вопросом проактивно.
Я соглашаюсь давать интервью, когда ко мне обращаются, но, думаю, что гораздо важнее убедиться, что именно люди, которые непосредственно разрабатывают эти технологии, понимают риски.
В то же время у таких специалистов есть друзья, и даже если я не могу повлиять на человека напрямую, все равно полезно, чтобы друзья знали обо всех рисках, с которыми может сталкиваться человек в работе.
Иногда разработчики, создающие новые технологии, сознательно стараются не думать о возможных негативных результатах своей работы, потому что это довольно сложно психологически.
Поэтому в некотором смысле к обсуждению и побуждению легче было бы привлечь их друзей, чем их самих. В сфере ИИ есть множество примеров людей, которые, похоже, отказываются признавать очень и очень простые истины.
Е.Б.: Кажется, что сообщество разработчиков, о котором вы говорите, очень закрыто и развито. Когда я изучала эту тему для нашего разговора, я была впечатлена тем фактом, насколько это сообщество развито и как сильно закрыто от внешнего мира.
Это напомнило мне шахматное сообщество, которое тоже самодостаточно и замкнуто. Но шахматисты не разрабатывают технологию, которая могла бы иметь настолько важные последствия для широкой публики, как ИИ.
Я.Т.: Да, мой друг Макс Тегмарк иногда говорит, что, вполне вероятно, будущее человечества на всю оставшуюся часть истории вселенной может быть определено каким-нибудь парнем, пьющим Red Bull в три часа ночи на серверной ферме.
Я не утверждаю, что все произойдет именно так, но определенный риск этого есть. Очень, очень немногие люди прямо сейчас решают все, что произойдет с человечеством, и было бы здорово избежать негативного сценария, но пока неясно, как это сделать.
Е.Б.: Это очень интересная тема. Как вы думаете, человечество должно обратить больше внимания на происходящие исследования?
Я.Т.: Определенно, было бы полезно подумать о так называемых механизмах управления.
В Оксфорде работает группа GovAI (The Centre for the Governance of AI, Центр по изучению вопросов управления ИИ), которую я поддерживаю во всех смыслах. Эта группа исследователей изучает методы, которые регуляторные органы или общественность в целом могут использовать для того, чтобы формировать технологии в сфере ИИ.
Весьма вероятно, что тот парень с Red Bull в 3 часа ночи, на самом деле, не очень хочет решать вопрос будущего всего человечества. И в интересах компаний, занимающихся ИИ, понимать спектр полномочий и ответственности.
Я ожидаю, что если бы появились разумные идеи по поводу управления и законодательных документов, то и такие компании были бы мотивированы сотрудничать и принять их. Нам точно нужны идеи, как лучше управлять и регулировать.