Підписання декларації відбулося на наймасштабнішому саміті з безпеки штучного інтелекту — AI Safety Summit. Крім України, документ підписали ще 29 держав, серед яких США, Австралія та країни ЄС, а також Китай, Саудівська Аравія і Південна Корея.
У декларації йдеться, що ШІ відкрив великі можливості для людей у багатьох сферах життя. Однак його неправильне використання несе “катастрофічний ризик” для людства. То про що йдеться?
— У декларації виокремили два типи ШІ: вузький (моделі, які розв’язують невеликі інтелектуальні задачі) і базовий, загальний (має велику картину світу і може робити логічні висновки). Для цих типів використовуватимуть різні стратегії обмежень, — пояснює заступник директора з наукової роботи Інституту проблем штучного інтелекту Міністерства освіти та науки і Національної академії наук України Микита Клименко. — Прості моделі зазвичай не можуть спричинити велику шкоду. Їх використовують у побутових засобах, наприклад, у кавоварці. Найгірше, що вона може зробити, — не запрацювати.
— А як щодо складних?
— Великі мовні чи генеративні моделі створюють або істотно змінюють інформацію, а також мають сформовану карту світу і багато “уявлень”. Такі моделі можуть, наприклад, змонтувати замість нас відео чи відредагувати доповідь. Ризики пов’язані з тим, що їхні висновки не відповідатимуть нашим намірам. Буває, що модель неадекватно сприймає дійсність, скажімо, має неправильні уявлення про територіальну цілісність країни чи не підтримує гендерної рівності. Ці закономірності виявити і заборонити доволі просто, але бувають і складніші випадки.
Публікації у провідних наукових виданнях свідчать, що великі мовні моделі по-іншому сприймають час: не як лінійну послідовність, а як хвилеподібну черговість причинно-наслідкових подій. При цьому зв’язки між ними встановлюються у різних категоріальних сутностях. Тому як це вплине на висновки такої моделі, сказати важко. Як і перевірити її.
— Тобто основна загроза ШI — дезінформація?
— Не зовсім. Складні моделі машинного навчання дедалі частіше застосовують для вирішення глобальних завдань, як-от керування енергосистемами, планування логістики важливих продуктів, робота у сфері безпеки та оборони (для моделювання стратегічних операцій).
Деякі з цих завдань можуть бути практично автоматизованими, тому важливо пильнувати як за вже готовими моделями ШІ, так і за процесом їх створення: навчальними вибірками, фахівцями, які над ними працюють. Усе це впливає на результат, який може бути несприятливим і спричинить катастрофічні наслідки.
— Які наприклад?
— Загрози кібербезпеці — найочевидніший різновид шкоди, якої може завдати ШІ. Наприклад, машинне навчання застосовують для контролю за роботою атомної електростанції. Якщо система пропускає певні зловмисні коди, раніше це встановлювали аналізом шаблонів і атипової поведінки програми. З ускладненням цих кодів у пригоді стало машинне навчання. У його алгоритми непрямо запрограмовано простеження таких шаблонів: вони самі їх аналізують і приймають здебільшого правильні рішення. Але бувають і винятки, бо системи керування можна перехитрити. І це дуже небезпечно, якщо йдеться про критично важливі для країни об’єкти.
— Джеффрі Гінтон, один із “хрещених батьків штучного інтелекту”, стверджує, що новітня технологія може становити більш глобальну загрозу для людства, ніж зміна клімату. Чому?
— Наразі на деяких фабриках діють роботи з вузьким ШІ — їх завжди контролюють люди. Але все йде до того, що скоро роботу всього заводу зможе контролювати лише одна людина. Однак якщо щось піде не так, вона може й не впоратися з результатами збою глобальної системи керування — і та може почати випускати бозна-що або не допустити людину до подальшого контролю.
Потенційно штучний інтелект зможе отримати такі повноваження, яких не надавали людям. І на тлі цього можуть виникнути проблеми. Ми намагаємося керувати людьми, які контролюють важливі процеси, і маємо засоби для їхньої перевірки. І якщо вони поводяться неадекватно, то можемо вивести їх з контуру дії небезпечних приладів. Із ШІ ситуація менш прогнозована.
— То як не допустити проблем, які можуть бути пов’язані зі стрімким розвитком ШI?
— Сферу ШІ розвивати потрібно в будь-якому разі. Це універсальний інструмент, що дозволяє досліджувати, контролювати, виконувати багато роботи, яку, як вважалося раніше, складно автоматизувати. Але перш ніж допускати ШІ до виконання критичних операцій, потрібно розробляти методи для контролю і перевірки його роботи.
Я схильний порівнювати ШІ з медичними препаратами. Перед використанням усі лікарські засоби проходять перевірку, але на цьому їхнє дослідження не завершується — воно може тривати ще десятки років. Так само і з моделями ШІ. Нині вони здебільшого малі, але є продукти, що вміщують дуже багато інформації і оперують нею подеколи незрозумілим для нас чином. Роботу такої системи потрібно вивчати й перевіряти десятиліттями.
— А як впоратися із засиллям дезінформації?
— Генерація фейків, яка набиратиме обертів з поширенням ШІ, небезпечна, але що більше дезінформації з’являтиметься, то більше засобів її виявлення створюватимуть. Наприклад, одна з популярних соцмереж для запобігання створенню фейкових акаунтів уже понад три роки використовує алгоритм, який виявляє підроблені фото неіснуючих людей. І хоч для людини це завдання доволі складне, алгоритм спрацьовує дуже добре. Протидіяти загрозі поширення фейків можна й просто перевіряючи в інших джерелах інформацію, яку зібрав ШІ.