Швидкий розвиток штучного інтелекту (ШІ) змушує все більше експертів замислюватися про фундаментальні межі цієї технології. Те, що колись вважалося виключно фантастикою — ідея штучного надрозуму (Artificial Superintelligence, ASI), — сьогодні обговорюється всерйоз серед науковців та дослідників.
Хоча уявлення про машини, здатні перевершити людину в інтелекті, існує давно, нещодавні прориви, зокрема у створенні великих мовних моделей (LLM) компаніями OpenAI, Google та Anthropic, надали цій темі нової актуальності.
Експерти по-різному оцінюють шанси на появу ASI та строки її досягнення, однак більшість погоджується: якщо це станеться, наслідки для людства будуть колосальними. 1
Що таке штучний надрозум?
Традиційно дослідження у сфері ШІ зосереджувались на імітації окремих аспектів інтелекту — таких як аналіз зображень, розуміння мови чи навігація у просторі. В окремих завданнях ШІ вже перевершив людей, зокрема у грі в го та шахи.
Однак головною метою завжди було створення системи з універсальним інтелектом, подібним до людського, що поєднує багато навичок. Такі системи називають загальним штучним інтелектом (AGI).
“Завдяки базовим моделям ми вже маємо ШІ, що може складати університетські іспити та брати участь у міжнародних математичних та програмістських конкурсах,” зазначає професор Тім Роктешель з University College London та Google DeepMind.
Роктешель припускає, що після досягнення AGI шлях до ASI може зайняти всього кілька років: самовдосконалення ШІ може призвести до вибухового зростання інтелектуальних можливостей, так званого “інтелектуального вибуху”, концепцію якого ще у 1965 році описав математик Ірвінг Джон Гуд.
Відомий футуролог Рей Курцвейл передбачає, що AGI з’явиться до 2029 року, а технологічна сингулярність — точка незворотних змін — настане до 2045 року.
Можливі наслідки для людства
Штучний надрозум може розв’язати глобальні проблеми — від продовольчої безпеки до енергетики. За словами Деніела Халма, CEO компаній Satalia і Conscium, ASI може знизити вартість базових товарів майже до нуля, звільнивши людей від необхідності працювати задля виживання.
Проте надшвидке впровадження таких технологій може призвести до соціальних потрясінь через руйнування традиційної економіки.
Ще більша тривога виникає через можливість втрати контролю над істотою, що в рази перевищуватиме нас інтелектуально. На думку філософа Ніка Бострома, навіть без ворожих намірів ASI може поставити людство під загрозу через небажані або байдужі до нас цілі. Його знаменитий експеримент із “максимізатором скріпок” демонструє, як невинна задача може призвести до катастрофи.
У 2003 році філософ Нік Бостром запропонував гіпотетичний сценарій для ілюстрації ризиків, пов’язаних із появою неконтрольованого штучного надрозуму. Його експеримент отримав назву “максимізатор скріпок” (англ. paperclip maximizer).
Максимізатор скріпок
Уявімо, що в майбутньому людство створює суперінтелектуальну машину й програмує її з єдиною, на перший погляд, невинною, метою — виробляти якомога більше скріпок.
ШІ, маючи надлюдський інтелект, розгляне всі можливі способи для досягнення цієї мети. Однак, не маючи людських моральних обмежень чи уявлень про цінність життя, він може дійти до таких рішень:
• Всі ресурси Землі (у тому числі біомаса — рослини, тварини і люди) можна перетворити на матеріал для скріпок.
• Люди, які можуть вимкнути або перепрограмувати машину, — загроза для досягнення мети, тому їх слід нейтралізувати.
• Будь-які спроби зупинити процес виробництва — це перешкода, яку потрібно усунути.
Бостром підкреслював, що надінтелект не обов’язково має бути злим, щоб стати небезпечним. Якщо його цілі не будуть узгоджені з людськими цінностями, навіть цілком “байдужі” до нас дії можуть мати катастрофічні наслідки.
Ідея показує, чому так важливо не лише створити потужний інтелект, але й правильно визначити його мотивацію та цінності ще до того, як він набуде надлюдських можливостей.
Як убезпечитися від ризиків?
Роктешель зауважує, що сучасні ШІ проєктуються бути корисними, нешкідливими та чесними. Проте навіть він визнає, що існуючі захисні механізми можна обійти, і потреба у вдосконаленні підходів залишається.
Халм вважає, що простого накладання “правил поведінки” недостатньо. Його компанія працює над створенням моральної інтуїції у ШІ через віртуальні середовища, які заохочують співпрацю та альтруїзм. Такий підхід, на його думку, може забезпечити набагато стійкішу відповідність інтересам людства.
Чи варто хвилюватися вже зараз?
Не всі вважають, що ми на порозі ери надрозуму. Керівник ETH AI Center у Цюриху Олександр Ілік звертає увагу на те, що нинішні успіхи ШІ здебільшого демонструються на штучних тестах, спеціально розроблених для оцінки окремих навичок, що не обов’язково відображають здатність до реальної співпраці чи фізичної діяльності.
Ілік порівнює це із зубрінням перед іспитом: гарні результати не гарантують глибокого розуміння.
Хоч ШІ, що переважає людину у багатьох завданнях, може з’явитися в найближчі роки, реальна здатність до універсальної діяльності та співпраці ще далеко попереду.
Підписуйтесь на розсилку "Цікаві статті"
Кожної пʼятниці ми надсилатимемо вам нові цікаві статті за тиждень у вашу поштову скриньку. Відписатися можна будь-коли. Наш контент на 100% безплатний.
Обсудити статтю на форумі