Чому так сталося
Конфлікт в OpenAI — результат суперечок про майбутнє ШІ.
“Звільнення Альтмана стало кульмінацією боротьби за владу між двома ідеологічними полюсами компанії: групою, яка зродилася з технооптимізму Кремнієвої долини, підживленої швидкою комерціалізацією; й іншою, сповненою побоювань, що штучний інтелект становить небезпеку для існування людства і його потрібно вкрай обережно контролювати”, — зазначило видання Atlantic. OpenAI постала як некомерційна організація у 2015 році — щоб створити безпечний і корисний інтелект “на благо людства”. Засновники: Сем Альтман, Грег Брокман, Рейд Хоффман (співзасновник Linkedin), Пітер Тіль (співзасновник PayPal), Ілон Маск і кілька інших IT-підприємців — оголосили, що OpenAI вільно співпрацюватиме з іншими установами й дослідниками, зробить свої патенти й дослідження відкритими.
Головна ціль OpenAI — створити загальний штучний інтелект (AGI), який може успішно виконати будь-яку інтелектуальну задачу, на котру спроможна людина. У статуті організації вказано, що “основний фідуціарний обов’язок OpenAI — перед людством”, а не перед інвесторами чи навіть працівниками.
Однак у 2019 році OpenAI створила дочірню компанію OpenAI Global LLC, аби вже отримувати прибуток. Серед причин засновники OpenAI (Ілон Маск на той час уже вийшов з когорти) назвали необхідність інвестувати значні кошти в розвиток, зокрема, щоб збільшити обчислювальні потужності, яких потребують системи ШІ.
Фото: Adobe Stock
OpenAI Global LLC залучила мільярди доларів приватного капіталу від таких компаній, як Sequoia Capital, Andreessen Horowitz, головним же партнером став Microsoft, який інвестував 13 мільярдів доларів в обмін на 49% акцій.
При цьому глобальні рішення щодо стратегії OpenAI далі ухвалює правління некомерційної організації. Саме воно й звільнило Альтмана.
Альтман не розробник ШІ, інженер чи науковець. Він радше талановитий менеджер і популяризатор продуктів OpenAI. І палкий прихильник стрімкого розвитку й комерціалізації ШІ. Під його керівництвом OpenAI стала лідером ринку — сьогодні понад 92% компаній зі списку Fortune 500 використовують продукти OpenAI.
Натомість його опоненти в правлінні — зокрема Ілля Суцкевер, який є розробником систем ШІ, науковцем-дослідником — побоюються, що надто стрімкий розвиток систем ШІ може вийти з-під контролю людини. І що Альтман як очільник OpenAI не приділяє достатньої уваги таким ризикам.
Фото: Abigail Uzi
Сем Альтман й Ілля Суцкевер (праворуч) під час візиту в університет в Тель-Авіві
“Є також загрози, що якщо AGI стане дуже потужним, він може захотіти діяти самостійно, — заявив Суцкевер на конференції Ted Talks 17 жовтня. — Коли вивчаєш увесь позитивний потенціал AGI і всі його ризики, виникає питання: куди все це веде? Це те, що мотивувало мене запустити OpenAI, окрім розробки цієї технології, — вирішення складних питань і проблем, пов'язаних з AGI. Ми працюємо з урядами, допомагаємо їм зрозуміти, що нас чекає і чи готові ми до цього. Також проводимо багато досліджень у сфері технологій, щоб AGI ніколи не захотів діяти самостійно. Це те, над чим я теж працюю”. Науковець припускає, що AGI та його наступника ASI (Artificial Super Intelligence, штучний суперінтелект) можуть створити впродовж найближчих десяти років. Саме тому влітку цього року в OpenAI з його ініціативи створили окрему команду Super Alignment, щоб дослідити ризики ASI й контролювати його. На ці потреби компанія виділила 20% обчислювальних потужностей.
“Суперінтелект стане найвпливовішою технологією, яку будь-коли винайшло людство, і, ймовірно, допоможе вирішити багато найважливіших світових проблем. Але величезна сила суперінтелекту також може бути дуже небезпечною й позбавити прав і можливостей людство або навіть спричинити його вимирання”, — писав Суцкевер, анонсуючи ініціативу.
***
Зараз сторони конфлікту демонструють доброзичливість і бажання співпрацювати. Однак конфлікт точно не вичерпано. Як і не вщухли дискусії про те, наскільки небезпечний бурхливий (і неконтрольований) розвиток систем штучного інтелекту.