The Bell разобрался, насколько она обоснованна.
Что в проекте
Документ, обнародованный на минувшей неделе, — это черновик AI Act, разработанный в Европарламенте. Он основан на общей концепции регулирования ИИ, опубликованной Еврокомиссией еще в прошлом году, но сильно изменен и дополнен. В результате получился типичный продукт европейского рамочного законотворчества на 150 страниц, призванный “обеспечить развитие ИИ в Европе в соответствии с принципами этики и главенства интересов человека и дать отрасли новые ориентиры прозрачности и риск-менеджмента”.
По мнению изучившей документ консалтинговой компании Deloitte, главное в нем следующее:
AI Act может стать редким для ЕС экстерриториальным законом, применимым ко всем создателям и пользователям ИИ. Уже сейчас под него подпадали бы американские OpenAI с ее ChatGPT и Google с Bard.
Жесткость регулирования зависит от степени опасности ИИ. Прямо запрещены “неприемлемые” формы ИИ, например системы дистанционной биометрии в общественных местах, “предиктивная охрана правопорядка” на основе криминального профиля и локации человека, распознавание эмоций и обучение систем распознавания лиц на не предназначенных для этого сырых данных (соцсети, системы видеонаблюдения).
Для компонентов ИИ высокого риска (под который попадают универсальные модели ИИ типа GPT-4, применяющиеся в областях типа медицины и управления транспортными средствами) предусмотрено жесткое регулирование. Их создателям придется исчерпывающим образом доказывать качество сетов, использованных для обучения моделей, а также извещать об использовании в них данных, подпадающих под защиту авторского права. Модели ИИ придется сертифицировать до выхода на рынок и обеспечивать мониторинг их применения после. При проявлении у ИИ новых свойств, в том числе в результате действий третьих сторон, потребуется повторная сертификация.
К ИИ малой степени риска отнесены специализированные реализации моделей ИИ, в особенности те, выход которых “имеет незначительное или подчиненное влияние на решения и действия человека”. Для них регулирование сравнительно мягкое.
Deloitte обращает внимание, что AI Act прямо упоминает только два чисто финансовых применения ИИ — в моделях кредитных рейтингов и оценки страховых рисков. Но скорее всего их отнесут к высокому уровню риска, поскольку они определяют степень доступа “носителей естественного интеллекта” к финансовым ресурсам. Кроме того, хотя документ очень важен, это все-таки очень предварительная версия.
Почему такой скандал?
Чтобы понять, насколько накалена дискуссия вокруг законопроекта, достаточно зайти на профильный Reddit. “Смехотворно неприменимо, и в целом выбрасывает ЕС из гонки искусственных интеллектов, — пишет один из пользователей. — Крупные игроки попросту заблокируют их по IP, и производительность в экономике ЕС рухнет по сравнению с остальным миром”. “Даже если вы считаете, что жесткое регулирование — это правильно, задумайтесь, будут ли соблюдать правила ЕС такие страны, как Россия, Китай или Северная Корея”, — призывает другой. “Уход разработчиков ИИ из ЕС? Вполне возможно. Весь ВВП Европы не сравнится с прибылью от ИИ-гонки”, — замечает третий.
Частично это заслуга экономиста Тайлера Коуэна, продвинувшего достаточно спорный текст о законопроекте, написанный с позиций сторонников минимального контроля за ИИ. По мнению авторов, AI Act запретит компаниям уровня OpenAI, Amazon и Google предоставлять доступ к своему ИИ через механизм встройки API, а открытым депозитариям — таким, как GitHub — распространять модели ИИ с открытым исходным кодом. Частичное же обучение готовых моделей (LoRA) потребует сертификации.
Что не так с этим текстом, разобрал в своем блоге разработчик, теоретик и автор учебников по генеративным ИИ Балдур Бьярнасон. Он указывает, что по сути прописанные ЕС ограничения разумны и на самом деле касаются почти исключительно разработчиков моделей, а не компаний, их использующих, и не распространителей типа GitHub. “AI Act запрещает в основном то, что нельзя было разрешать в принципе, — пишет Бьярнасон. — Но если вы возьмете модель, настроите ее под узкую функцию и развернете как часть своего программного пакета, вам ничто не грозит, если разработчик модели соблюдал требования”.
Вопросы вызывают крупные оборотные штрафы за нарушения — до 4% суммарной выручки компании, и предположение, что “узкий” ИИ всегда безопаснее универсального. Но считать закон экзистенциальной угрозой опенсорсу в ИИ и поводом для конфликта ЕС с разработчиками из США было бы преждевременно. “Именно OpenAI, Microsoft и Google сдерживают развитие отрасли своей непрозрачностью и склонностью к необоснованным рискам”, — считает ученый.
Сергей СМИРНОВ
Что скажете, Аноним?
[17:10 27 ноября]
[13:15 27 ноября]
17:50 27 ноября
17:40 27 ноября
17:00 27 ноября
16:50 27 ноября
16:40 27 ноября
16:30 27 ноября
[16:20 05 ноября]
[18:40 27 октября]
[18:45 27 сентября]
(c) Укррудпром — новости металлургии: цветная металлургия, черная металлургия, металлургия Украины
При цитировании и использовании материалов ссылка на www.ukrrudprom.ua обязательна. Перепечатка, копирование или воспроизведение информации, содержащей ссылку на агентства "Iнтерфакс-Україна", "Українськi Новини" в каком-либо виде строго запрещены
Сделано в miavia estudia.