GEMINI VS GPT-4: інтелектуальне протистояння століття

Сем Альтман — американський підприємець, інвестор, програміст та блогер. Генеральний директор OpenAI та колишній президент Y Combinator. Деміс Хасабіс — британський дослідник штучного інтелекту, нейробіолог, розробник комп’ютерних ігор, гравець у шахи світового класу. Генеральний директор DeepMind
2016 року штучний інтелект під назвою AlphaGo, створений лабораторією DeepMind, увійшов до історії, перемігши чемпіона гри го.
Коли ШІ здолав чемпіона го Лі Седоля, багато експертів були вражені, оскільки вони вважали, що машини не зможуть стати майстрами у грі такої складності ще протягом довгих десятиліть.
AlphaGo заснований на методі, розробленому DeepMind, так званому навчанні з підкріпленням. Він дозволяє програмному забезпеченню вирішувати складні завдання, що вимагають вибору дій, шляхом повторних спроб та отримання зворотного зв’язку про свою продуктивність.
Нещодавно засновник і генеральний директор DeepMind Деміс Хасабіс заявив, що його інженери використовують техніки з AlphaGo для розробки системи штучного інтелекту під назвою Gemini, яка перевершуватиме можливості ChatGPT від OpenAI.
Gemini, яка досі знаходиться в розробці, є великою мовною моделлю, аналогічною до GPT-4, але з використанням технологій AlphaGo. DeepMind планує об’єднати ці технології, щоб наділити систему новими можливостями, такими як планування і здатність вирішувати складні проблеми.
Експерти стверджують, що технології AlphaGo та Gemini зможуть поєднати в собі найкраще із двох всесвітів ШІ.
МАЙБУТНЄ ШТУЧНОГО ІНТЕЛЕКТУ: GOOGLE ПРОТИ OPENAI
Утравні цього року на конференції розробників Google презентувала свою систему Gemini. Крім того, компанія оголосила про низку нових проєктів у галузі штучного інтелекту.
З метою зміцнити свої дослідження в області ШІ Google швидко випустила свого власного чат-бота під назвою Bard і впровадила генеративний штучний інтелект у свій пошуковий двигун та інші продукти.
Коли розробку Gemini буде завершено, вона зможе відіграти важливу роль у відповіді Google на конкуренцію ChatGPT та інших технологій генеративного штучного інтелекту.
DЕЕРMIND НА ПОРЯДКУ ДЕННОМУ
Для активізації досліджень у галузі ШІ компанія у квітні об’єднала підрозділ DeepMind з основною лабораторією штучного інтелекту Google — Brain, створивши Google DeepMind.
Деміс Хасабіс наголошує, що нова команда поєднає зусилля двох провідних гравців, які створили фундамент для нещодавніх досягнень у галузі ШІ. «Якщо подивитися на наші здобутки в галузі штучного інтелекту, я б сказав, що 80 чи 90 відсотків інновацій прийшли від однієї чи іншої організації, — каже Хасабіс. — І вони провели вражаючу роботу за останнє десятиліття».
ПРО «БАТЬКІВ ШТУЧНОГО ІНТЕЛЕКТУ»
«Батьками штучного інтелекту» зазвичай називають ранніх дослідників та піонерів у цій галузі, як-от Алан Т’юрінг, Джон Маккарті чи Марвін Лі Мінський, котрі заклали основи теорії та практики ШІ. Однак зараз дедалі частіше ми чуємо нові імена — імена людей, які значно впливають на індустрію.
Деміс Хасабіс та Сем Альтман — дві ключові постаті у світі штучного інтелекту, їх із упевненістю можна назвати сучасними лідерами чи натхненниками в галузі ШІ. І кожен з них робить свій внесок у цю галузь по-своєму.
Хасабіс, співзасновник та очільник DeepMind, має потужну наукову базу. Перш ніж захопитися штучним інтелектом, він займався нейронаукою та комп’ютерними технологіями. Його робота в DeepMind зосереджена на створенні ШІ, який може навчатися та розвиватися самостійно через процес, відомий як навчання із підкріпленням. Хасабіс та його команда, зокрема, зосереджені на етичних аспектах ШІ, вони прагнуть того, щоби ШІ використовувався на благо суспільства.
З іншого боку, Сем Альтман, колишній глава Y Combinator і один із засновників OpenAI, зробив свій внесок в область ШІ з більш практичної точки зору. Його робота в OpenAI зосереджена на забезпеченні доступу до ШІ для всіх та створенні штучного інтелекту, який може працювати спільно з людьми для вирішення складних проблем.
Хоча їхні підходи та бекграунд відрізняються, вони обидва, по суті, прагнуть одного й того самого: щоби ШІ приносив користь суспільству та науці, обидва роблять важливий внесок у наукові дослідження та розробки в галузі ШІ.
ПРО ТЕХНОЛОГІЇ ТА РИЗИКИ
Навчання великих мовних моделей, таких як GPT-4 від OpenAI, включає подачу величезної кількості відібраного тексту з книг, веб-сторінок та інших джерел до програмного забезпечення машинного навчання, відомого як «трансформер». Воно використовує патерни цих навчальних даних з метою навчитися передбачати символи (літери та слова), що йдуть за заданим текстом. Цей простий механізм виявляється напрочуд ефективним при відповідях на питання та генерації тексту чи коду.
Важливим додатковим кроком для створення таких потужних мовних моделей, як ChatGPT, є використання навчання з підкріпленням на основі зворотного зв’язку від людей для вдосконалення її роботи.
Великий досвід DeepMind у галузі навчання із підкріпленням може дозволити розробникам наділити Gemini новими можливостями.
Команда Хасабіса також розглядає перспективу вдосконалення технології великих мовних моделей за допомогою ідей інших сфер штучного інтелекту. Дослідники DeepMind працюють у таких галузях, як робототехніка та нейронаука. Нещодавно компанія продемонструвала алгоритм, здатний виконувати маніпуляційні завдання за допомогою різних роботових рук.
Широко поширеною є думка, що для покращення можливостей штучного інтелекту важливо спиратися на фізичний досвід, подібно до того, як це роблять люди й тварини.
Факт того, що мовні моделі вивчають світ побічно, через текст, вважається деякими експертами зі штучного інтелекту одним з основних обмежень.
Хасабіс має прискорити дії Google в області штучного інтелекту, при цьому керуючи невідомими та потенційно серйозними ризиками. Різкі прогресивні досягнення у сфері мовних моделей викликають занепокоєння багатьох експертів зі ШІ, включаючи деяких розробників алгоритмів. Їхні побоювання пов’язані з можливими зловживаннями або втратою людиною контролю за цією технологією.
Деякі представники технологічної індустрії навіть закликають призупинити розробку потужніших алгоритмів, аби уникнути чогось небезпечного.

НЕВПИННИЙ РОЗВИТОК ШТУЧНОГО ІНТЕЛЕКТУ — ЯДЕРНА БОМБА НОВОГО ПОКОЛІННЯ?
Хасабіс вважає, що потенційні вигоди від використання штучного інтелекту, як-от наукові відкриття у галузі охорони здоров’я чи клімату, роблять необхідним продовження розвитку цієї технології.
Він також гадає, що заборонити розвиток штучного інтелекту нереально, оскільки його практично неможливо контролювати. «Якщо ми робимо все правильно, це буде найкорисніша технологія для людства, — каже Хасабіс. — Ми маємо сміливо йти до цієї мети».
Однак Хасабіс не виступає за безоглядний розвиток штучного інтелекту. DeepMind досліджує потенційні ризики ШІ протягом тривалого часу, задовго до появи ChatGPT, а Шейн Легг, один із співзасновників компанії, очолює «групу безпеки штучного інтелекту» всередині компанії вже багато років.
Минулого місяця Хасабіс приєднався до інших видатних фігур у сфері ШІ, підписавши заяву, яка попереджає про те, що штучний інтелект у майбутньому може становити ризик, порівнянний із ядерною війною чи пандемією.
Одним із найбільших викликів нині, за словами Хасабіса, є визначення того, які ризики можуть виникнути через потужніший штучний інтелект.
«Я вважаю, що в цій галузі дуже терміново потрібне проведення додаткових досліджень з питань, пов’язаних із тестуванням та оцінкою можливостей, а також контролю за новими моделями штучного інтелекту», — стверджує він.
У зв’язку з цим Хасабіс заявляє, що DeepMind може надати вченим доступ до своїх систем.
«Я хотів би, щоб академічна спільнота якомога раніше отримала доступ до цих передових моделей», — каже він. — Це може допомогти вирішити проблему, пов’язану з тим, що експерти у сфері штучного інтелекту поза великими компаніями виявляються відстороненими від новітніх досліджень у цій галузі».
Загроза людству?
Хасабіс наголошує, що ніхто точно не знає, чи стане штучний інтелект серйозною загрозою. Однак він упевнений, що коли прогрес продовжиться у поточному темпі, часу на розробку заходів безпеки залишиться небагато.
В експертних колах давно точаться жваві суперечки про те, якому виду штучного інтелекту людство має віддати перевагу: сильному чи слабкому.
ПРИБІЧНИКИ СИЛЬНОГО ШТУЧНОГО ІНТЕЛЕКТУ
Вони вважають, що метою має бути створення штучного інтелекту, здатного повністю зрівнятися або навіть перевершити людські здібності в усіх сферах. Вони вірять у можливість створення розумних машин, здатних усвідомлювати себе та ухвалювати самостійні рішення. Вони вважають, що сильний штучний інтелект може призвести до революційних проривів у багатьох галузях, включаючи науку, медицину та технології.
Серед апологетів сильного штучного інтелекту:
- Рей Курцвейл — відомий футурист і технолог, який прогнозує, що в майбутньому ми досягнемо «технологічного сингуляритету», коли штучний інтелект перевершить людські здібності і стане свідомим.
- Нік Бостром — філософ та директор Філософського інституту глобального добробуту в Оксфордському університеті. Він стверджує, ніби штучний інтелект може перевершити людську інтелектуальну міць та мати широкі імплікації для людства.
ПРИБІЧНИКИ СЛАБКОГО ШТУЧНОГО ІНТЕЛЕКТУ
Вважають, що потрібно сконцентруватися на розробці систем, які працюють у вузькоспеціалізованих галузях і виконують конкретні завдання, але не мають загального розуму чи свідомості. Вони впевнені, що розвиток слабкого штучного інтелекту, здатного працювати спільно з людьми, може призвести до значних покращень в автоматизації та оптимізації процесів у різних галузях, але при цьому має зберегтися людський контроль та нагляд.
Серед відомих прихильників слабкого штучного інтелекту:
- Джон Серл — філософ і логік, який стверджує, що штучний інтелект завжди залишатиметься слабким, незважаючи на те, що він може досягати значних результатів у вузькій галузі завдань.
- Дуг Ленат — психолог та засновник компанії Cycorp. Відстоює ідею «агоностичного інтелекту» — штучного інтелекту, що не має власних цілей та намірів і служить лише як інструмент для вирішення завдань.
ДИСКУСІЇ ТРИВАЮТЬ…
Дискусії навколо цих питань призводять до важливих роздумів про майбутнє штучного інтелекту, його етику, безпеку та соціальні наслідки. Вони наголошують на необхідності більш глибокого дослідження, оцінки та регулювання розвитку ШІ, щоби досягти балансу між його потенційними перевагами та можливими ризиками.
У результаті диспутів серед експертів зі штучного інтелекту виникають різні точки зору та підходи до розвитку цієї технології. Важливо знайти рівновагу між прагненням до інновацій та безпеки для гарантій відповідального та етичного використання ШІ.
Ці дискусії відображають складність і багатогранність проблеми, тому необхідно продовжувати діалог, аби сформулювати відповідні регулятивні та етичні рамки для розвитку й застосування штучного інтелекту.