Сэм Альтман — американский предприниматель, инвестор, программист и блогер. Генеральный директор OpenAI и бывший президент Y Combinator. Демис Хассабис — британский исследователь искусственного интеллекта, нейробиолог, разработчик компьютерных игр, игрок в шахматы мирового класса. Генеральный директор DeepMind
В 2016 году искусственный интеллект под названием AlphaGo, созданный лабораторией DeepMind, вошел в историю, победив чемпиона игры го.
Когда ИИ одолел чемпиона го Ли Седоля, многие эксперты были потрясены, так как они считали, что машины не смогут стать мастерами в игре такой сложности еще на протяжении долгих десятилетий.
AlphaGo основан на методе, разработанном DeepMind, так называемом обучении с подкреплением. Он позволяет программному обеспечению решать сложные задачи, требующие выбора действий, путем повторных попыток и получения обратной связи о своей производительности.
Недавно основатель и генеральный директор DeepMind Демис Хассабис заявил, что его инженеры используют техники из AlphaGo для разработки системы искусственного интеллекта под названием Gemini, которая будет превосходить возможности ChatGPT от OpenAI.
Gemini, которая все еще находится в разработке, является большой языковой моделью, аналогичной GPT-4, но с использованием технологий AlphaGo. Команда DeepMind планирует объединить эти технологии, чтобы наделить систему новыми возможностями, такими как планирование и способность разрешать сложные проблемы.
Эксперты утверждают, что технологии AlphaGo и Gemini смогут соединить в себе лучшее из двух вселенных ИИ.
БУДУЩЕЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: GOOGLE ПРОТИВ OPENAI
Вмае этого года на конференции разработчиков Google представила свою систему Gemini. Кроме того, компания объявила о ряде новых проектов в области искусственного интеллекта.
С целью укрепить свои исследования в области ИИ Google спешно выпустила своего собственного чат-бота под названием Bard и внедрила генеративный искусственный интеллект в свой поисковый движок и другие продукты.
Когда разработка Gemini будет завершена, она сможет сыграть важную роль в ответе Google на конкуренцию со стороны ChatGPT и других технологий генеративного искусственного интеллекта.
DЕЕРMIND НА ПОВЕСТКЕ ДНЯ
Для активизации исследований в области ИИ компания в апреле объединила подразделение DeepMind с основной лабораторией искусственного интеллекта Google — Brain, создав Google DeepMind.
Демис Хассабис подчеркивает, что новая команда объединит усилия двух ведущих игроков, которые создали фундамент для недавних достижений в области ИИ. «Если посмотреть на наши достижения в области искусственного интеллекта, я бы сказал, что 80 или 90 процентов инноваций пришли от одной или другой организации, — говорит Хассабис. — И они провели впечатляющую работу за последнее десятилетие».
ОБ «ОТЦАХ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА»
«Отцами искусственного интеллекта» обычно называют ранних исследователей и пионеров в этой области, таких как Алан Тьюринг, Джон Маккарти или Марвин Ли Минский, которые заложили основы теории и практики ИИ. Однако сейчас все чаще на слуху новые имена — имена людей, оказывающих значительное влияние на индустрию.
Демис Хассабис и Сэм Альтман — две ключевые фигуры в мире искусственного интеллекта, их с уверенностью можно назвать современными лидерами или вдохновителями в области ИИ. И каждый из них вносит свой вклад в эту область по-своему.
Хассабис, сооснователь и глава DeepMind, обладает мощной научной базой. Прежде чем увлечься искусственным интеллектом, он занимался нейронаукой и компьютерными технологиями. Его работа в DeepMind сосредоточена на создании ИИ, который может обучаться и развиваться самостоятельно через процесс, известный как обучение с подкреплением. Хассабис и его команда, в частности, сосредоточены на этических аспектах ИИ, они стремятся к тому, чтобы ИИ использовался во благо общества.
С другой стороны, Сэм Альтман, бывший глава Y Combinator и один из основателей OpenAI, внес свой вклад в область ИИ с более практической точки зрения. Его работа в OpenAI сосредоточена на обеспечении доступа к ИИ для всех и создании искусственного интеллекта, который может работать совместно с людьми для решения сложных проблем.
Хотя их подходы и бэкграунд отличаются, они оба, по сути, стремятся к одному и тому же: чтобы ИИ приносил пользу обществу и науке, оба делают важный вклад в научные исследования и разработки в области ИИ.
О ТЕХНОЛОГИЯХ И РИСКАХ
Обучение больших языковых моделей, таких как GPT-4 от OpenAI, включает подачу огромного количества отобранного текста из книг, веб-страниц и других источников в программное обеспечение машинного обучения, известное как «трансформер». Оно использует паттерны этих обучающих данных с целью научиться предсказывать символы (буквы и слова), следующие за заданным текстом. Этот простой механизм оказывается удивительно эффективным при ответах на вопросы и генерации текста либо кода.
Важным дополнительным шагом для создания таких мощных языковых моделей, как ChatGPT, является использование обучения с подкреплением на основе обратной связи от людей для совершенствования ее работы.
Большой опыт DeepMind в области обучения с подкреплением может позволить разработчикам наделить Gemini новыми возможностями.
Команда Хассабиса также рассматривает перспективу усовершенствования технологии больших языковых моделей с помощью идей из других сфер искусственного интеллекта. Исследователи DeepMind работают в таких областях, как робототехника и нейронаука. Недавно компания продемонстрировала алгоритм, способный выполнять манипуляционные задачи с помощью различных роботовых рук.
Широко распространено мнение, что для улучшения возможностей искусственного интеллекта важно опираться на физический опыт, подобно тому, как это делают люди и животные.
Факт того, что языковые модели изучают мир косвенно, через текст, считается некоторыми экспертами по искусственному интеллекту одним из основных ограничений.
Хассабису предстоит ускорить действия Google в области искусственного интеллекта, при этом управляя неизвестными и потенциально серьезными рисками. Резкие прогрессивные достижения в области языковых моделей вызывают беспокойство у многих экспертов по ИИ, включая некоторых разработчиков алгоритмов. Их опасения связаны с возможными злоупотреблениями или потерей человеком контроля над этой технологией.
Некоторые представители технологической индустрии даже призывают приостановить разработку более мощных алгоритмов, чтобы избежать создания чего-то опасного.
БЕЗУДЕРЖНОЕ РАЗВИТИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА — ЯДЕРНАЯ БОМБА НОВОГО ПОКОЛЕНИЯ?
Хассабис считает, что потенциальные выгоды от использования искусственного интеллекта, такие как научные открытия в областях здравоохранения или климата, делают необходимым продолжение развития этой технологии.
Он также полагает, что запретить развитие искусственного интеллекта нереально, так как это практически невозможно контролировать. «Если мы делаем все правильно, это будет самая полезная технология для человечества, — говорит Хассабис. — Мы должны смело идти к этой цели».
Однако Хассабис не выступает за безоглядное развитие искусственного интеллекта. DeepMind исследует потенциальные риски ИИ на протяжении длительного времени, задолго до появления ChatGPT, а Шейн Легг, один из сооснователей компании, возглавляет «группу безопасности искусственного интеллекта» внутри компании уже много лет.
В прошлом месяце Хассабис присоединился к другим выдающимся фигурам в сфере ИИ, подписав заявление, предупреждающее о том, что искусственный интеллект в будущем может представлять риск, сравнимый с ядерной войной или пандемией.
Одним из самых больших вызовов в настоящее время, по словам Хассабиса, является определение того, какие риски могут возникнуть из-за более мощного искусственного интеллекта.
«Я считаю, что в данной области очень срочно требуется проведение дополнительных исследований по вопросам, связанным с тестированием и оценкой возможностей, а также контролируемости новых моделей искусственного интеллекта», — утверждает он.
В этой связи Хассабис заявляет, что DeepMind может предоставить ученым доступ к своим системам.
«Я бы хотел, чтобы академическое сообщество как можно раньше получило доступ к этим передовым моделям», — говорит он. — Это может помочь решить проблему, связанную с тем, что эксперты в сфере искусственного интеллекта вне крупных компаний оказываются отстраненными от новейших исследований в этой области».
Угроза человечеству?
Хассабис подчеркивает, что никто точно не знает, станет ли искусственный интеллект серьезной угрозой. Однако он уверен, что если прогресс продолжится в текущем темпе, времени на разработку мер безопасности останется немного.
В экспертных кругах давно ведутся оживленные споры о том, какому виду искусственного интеллекта человечество должно отдать предпочтение: сильному или слабому.
ПРИВЕРЖЕНЦЫ СИЛЬНОГО ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Они считают, что целью должно быть создание искусственного интеллекта, способного полностью сравняться или даже превзойти человеческие способности во всех областях. Они верят в возможность создания разумных машин, способных осознавать себя и принимать самостоятельные решения. Они полагают, что сильный искусственный интеллект может привести к революционным прорывам во многих областях, включая науку, медицину и технологии.
Среди апологетов сильного искусственного интеллекта:
- Рэй Курцвейл — известный футурист и технолог, который прогнозирует, что в будущем мы достигнем «технологического сингуляритета», когда искусственный интеллект превзойдет человеческие способности и станет сознательным.
- Ник Бостром — философ и директор Философского института глобального благосостояния в Оксфордском университете. Он утверждает, что искусственный интеллект может превзойти человеческую интеллектуальную мощь и иметь широкие импликации для человечества.
ПРИВЕРЖЕНЦЫ СЛАБОГО ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Считают, что нужно сконцентрироваться на разработке систем, которые работают в узкоспециализированных областях и выполняют конкретные задачи, но не обладают общим разумом или сознанием. Они уверены, что развитие слабого искусственного интеллекта, способного работать совместно с людьми, может привести к значительным улучшениям в автоматизации и оптимизации процессов в различных отраслях, но при этом должен сохраниться человеческий контроль и надзор.
Среди известных сторонников слабого искусственного интеллекта:
- Джон Серл — философ и логик, который утверждает, что искусственный интеллект всегда будет оставаться слабым, несмотря на то, что он может достигать значительных результатов в узкой области задач.
- Дуг Ленат — психолог и основатель компании Cycorp. Отстаивает идею «агоностического интеллекта» — искусственного интеллекта, который не имеет собственных целей и намерений и служит лишь в качестве инструмента для решения задач.
ДИСКУССИИ ПРОДОЛЖАЮТСЯ…
Дискуссии вокруг этих вопросов приводят к важным размышлениям о будущем искусственного интеллекта, его этике, безопасности и социальных последствиях. Они подчеркивают необходимость более глубокого исследования, оценки и регулирования развития ИИ, чтобы достичь баланса между его потенциальными преимуществами и возможными рисками.
В результате диспутов среди экспертов по искусственному интеллекту возникают различные точки зрения и подходы к развитию этой технологии. Важно найти равновесие между стремлением к инновациям и безопасности для обеспечения ответственного и этичного использования ИИ.
Эти дискуссии отражают сложность и многогранность проблемы, поэтому необходимо продолжать диалог, чтобы сформулировать соответствующие регулятивные и этические рамки для развития и применения искусственного интеллекта.