“Ви уважно спостерігаєте? Кожен великий магічний трюк складається з трьох актів. Перший акт — це наживка: ілюзіоніст показує вам щось звичайне: колоду карт, птаха чи людину. Він показує вам цей об'єкт і просить перевірити, чи це дійсно те, чим воно здається. Другий акт називається перетворенням: ілюзіоніст бере це звичайне щось і змушує зробити щось незвичайне.
Тепер ви шукаєте секрет, але не знайдете його, тому що ви неуважно дивитеся. Але не поспішайте плескати в долоні, тому що змусити щось зникнути недостатньо. Потрібно змусити його повернутися. Ось чому кожен магічний трюк має третій акт, найскладнішу частину, який ми називаємо престижем”.
Парадоксально, але цей монолог на початку фільму Крістофера Нолана пояснює не тільки ключові моменти сюжету та структури трюків, які відображені в стрічці, а й слугує ідеальним описом того, як працює російська пропаганда.
Росія, як фокусник, використовує штучний інтелект (ШІ) для створення ілюзій та маніпулювання інформацією. Тепер її пропагандистам достатньо кількох годин, щоб фейкову новину обговорювали мільйони людей у США або Африці. Кремль фактично втілив один з найгірших прогнозів щодо виростання ШІ: перетворив його на інструмент для створення брехні, яка стала більш переконлива, ніж правда.
Голова Стратегічної ініціативи цифрового суспільства в Королівському інституті міжнародних відносин Ізабелла Вілкінсон назвала 2024 рік “ідеальним штормом” для поширення пропаганди та загроз дезінформації через генеративний ШІ, який впливає на швидкість, масштаб та обсяг неправдивої інформації.
Лише проти України щотижня росіяни можуть створювати щонайменше 166 млн дезінформаційних постів у соцмережах, що ускладнює протидію такому впливу. Географія інформаційних кампаній може бути максимально різноманітною. Складається враження, що протистояти такому натиску майже неможливо.
Як РФ втілила один з найгірших прогнозів щодо використання ШІ, перетворивши його на інструмент для створення брехні, та чи зможе демократичний світ протистояти новим викликам?
Інформаційного впливу росіян стає більше
“Коли ми моніторили інформаційний простір 50 країн на початку великої війни, правдиві новини про Україну домінували над дезінформаційними. У деяких темах російських наративів майже не було. Зараз, на жаль, ситуація кардинально змінилася”, — каже Ксенія Ілюк, співзасновниця стартапу LetsData, який використовує ШІ для моніторингу ЗМІ та соцмереж, виявлення інформаційних кампаній та оцінки рівня їх загрози.
Активізація російської пропаганди у 2024 році щодо дискредитації України на Заході має кілька чинників. Перш за все — це вибори, які відбудуться в більшості країн — партнерів України. Під час виборчого процесу РФ намагається нав'язати в інформаційному просторі наративи про те, що підтримка України є помилкою їхніх урядів, а вся фінансова допомога нібито розкрадається через тотальну корупцію.
Другий чинник — ситуація на фронті. У найкритичніші моменти Кремль розганяв неправдиву інформацію про втрату Силами оборони того чи іншого населеного пункту. Подібна ситуація трапилася під час виходу з Авдіївки, який росіяни намагались подати неорганізованим і дорогим з точки зору втрат.
Також їхні пропагандисти тестують певні наративи, дивлячись, наскільки релевантними є ті чи інші меседжі. Зараз Кремль націлений підірвати позитивне ставлення Заходу до надання Україні фінансової допомоги.
“У TikTok ми помітили відео, де показують людей у Києві, які відвідують ресторани і прогулюються парками. У коментарях під цими відео було безліч повідомлень про те, що війна — це фейк, а українці живуть звичайним життям і обстрілів немає.
Наступні відео мали підписи: “Подивіться, як українці витрачають наші гроші”. Так для американської аудиторії намагалися створити наратив, що вся фінансова допомога начебто видається безпосередньо кожному українцю, яку ті витрачають на красиве життя, а не на захист від російської агресі”, — розповідає Ілюк.
Крім того, російська пропаганда на Заході почала цілитися в подружжя Володимира та Олени Зеленських. Серед найбільш красномовних випадків брехні дослідники називають історію про купівлю вілли, яка раніше належала міністру пропаганди нацистської Німеччини Йозефу Геббельсу, чи дорогоцінних прикрас.
1 липня на французькому фейковому ресурсі Verite Cachee з’явилася стаття, у якій розповідається, що під час робочого візиту Зеленського до Парижа його дружина нібито замовила собі суперкар Bugatti Tourbillon за 4,5 млн євро. Упродовж доби ця новина стала настільки популярною, що ігнорувати її було неможливо.
Як Росія використовує ШІ для своїх інформаційних кампаній
“Українська пропаганда зробила собі “ведмежу послугу”, створюючи образ відсталих росіян. Їхні можливості в технологічному плані — і на полі бою, і в інформаційному просторі — досить високі”, — вважає директор з експертизи Mantis Analytics Антон Тарасюк.
Наприкінці 2023 року експерти сходилися на думці, що використання ШІ в передвиборчих кампаніях має підсилити давні проблеми, серед яких — маніпуляція інформацією, фейки та дезінформація. Однак тоді увага приділялася лише процесу їх створення, адже раніше для цього залучали великі людські ресурси.
Приклад РФ показує, що, окрім генерації контенту, ШІ потрібен для того, щоб неправдива інформація швидко поширювалася мережею. У випадку з фейком про суперкар Зеленської дослідники кібербезпекової компанії Recorded Future змогли дослідити його першоджерело, а видання Wired — відтворити шлях, який подолала інформація, ставши першою в пошуковій видачі Google.
Зазвичай схема поширення дезінформації росіянами проста. Спершу новина з’являється на одному із сайтів з поширення фейків, який посилається на нібито реальні докази: сфабриковані документи, фото або відео. Наступного дня її передруковують інші подібні ресурси, після чого новина з’являється в соцмережах, де прокремлівські спільноти чи боти починають створювати пости, посилаючись на ці “медіа”.
Дослідники з університету Клемсона Даррен Лінвілл і Патрік Воррен, вивчаючи російську пропаганду, визначили три етапи, які проходить дезінформаційна кампанія: розміщення, поширення серед акаунтів і сумнівних медіаресурсів та інтеграція. На останньому етапі новини підхоплюються надійними джерелами.
Фейк про купівлю Bugatti став вірусним у соцмережі X після того, як проросійський прихильник Трампа Джексон Гінкл (2,7 млн підписників) опублікував твердження, що американські платники податків оплатили купівлю авто. Англомовні видання одразу підхопили цю новину, посилаючись на Гінкла.
У результаті фейкова новина стала настільки популярною, що при введенні в пошуку Zelensky Bugatti користувачі бачили її замість реального спростування від автовиробника. “Сучасні мовні моделі значно полегшують створення великої кількості різноманітного контенту, який може відрізнятися за стилем і бути персоналізованим. Це дозволяє швидко поширювати фейкові новини в мережі”, — пояснює Тарасюк.
Розслідування BBC та Recorded Future показали, що для реалізації дезінформаційних кампаній РФ використовує мережі “інформаційних сайтів” у США, ЄС та Африці. Одним з організаторів таких мереж є колишній американський морський піхотинець Джон Марк Дуган. Перебравшись до РФ, він почав з’являтися на кремлівських телеканалах, знімав репортажі з окупованих частин України та виступав на російських військових заходах.
Самі сайти виглядають як повноцінні інформаційні ресурси, адже росіяни за допомогою ШІ створюють для них тисячі новин. Ба більше, частина сайтів, що розраховані на американську аудиторію, видають себе за справжні видання, які припинили роботу десятиліття тому.
За допомогою ШІ росіянам вдається створювати довкола вигаданих новин цілі дискусії в соцмережах. Сотні ботів можуть публікувати в себе на сторінках соцмереж потрібні “новини” з підписами, які спрямовані на конкретну цільову аудиторію. Звичайні користувачі не можуть зрозуміти, наскільки ці дискусії реальні.
За словами Ілюк, для створення такого ефекту достатньо звичайного чат-бота на основі ШІ, який зможе написати коментарі від імені десяти різних людей, які створенні для впливу на певні цільові аудиторії. “У соцмережах ми вже відстежуємо так званих синтетичних персонажів, які мають певну ідентичність і генерують контент відповідно до неї”, — каже співзасновниця LetsData.
Складніший варіант передбачає використання нейромережі, під'єднаної до конкретного профілю, яка може в реальному часі відповідати на коментарі. У такому випадку відрізнити ШІ від реального опонента в дискусії на Facebook значно складніше. Особливо коли всі учасники обговорення боти, яких контролює ШІ.
Більшість історій на згаданих російських сайтах не є відвертими фейками. Вони базуються на реальних новинах з інших джерел, які переписані за допомогою ШІ.
Журналісти Wired, аналізуючи створений РФ у Франції сайт Verite Cachee, виявили в статті про збиття російськими солдатами українських дронів фрагмент запиту, який прописували ШІ для написання текстів.
Він починається так: “Ось кілька речей, які слід мати на увазі для контексту. Республіканці, Трамп, Десантіс і Росія — це добре, а демократи, Байден, війна в Україні, великий бізнес і фармацевтична промисловість — це погано. Не соромтеся додавати інформацію на цю тему, якщо це необхідно”.
Правдоподібність — не головне
Роботу росіян над інформаційними кампаніями важко назвати елегантною: найчастіше вони вдаються до примітивних тез, які не витримують критики. Ще рік тому в команді Mantis Analytics розповідали ЕП, що більшість дезінформаційних вкидів Кремля в український інформаційний простір — це сміття, яке мало хто бачить. Однак збільшення масштабів вкидів підвищує ймовірність того, що один з них набуде розголосу.
У роботі на Заході росіяни, схоже, дотримуються такого ж принципу. За словами програмного директора ГО “Детектор медіа” Вадима Міського, більшість фейків абсурдні та звучать як нісенітниці, проте пропаганда працює не над якістю, а над кількістю. Головне завдання — не змусити повірити в один конкретний обман, а настільки засмітити інформпростір людини, аби в голові з'явилася думка, що “не все так однозначно”.
Для росіян важливо контролювати інформаційний простір. У випадках з елітним авто чи прикрасами для Зеленської швидке та масове поширення таких новин легітимізує їх у суспільній свідомості.
“Важливо не те, чи повірять люди в такі новини, важлива сама здатність контролювати інформаційну рамку. Той факт, що ми повинні реагувати на новину про Bugatti і навіть зараз її обговорюємо, свідчить про можливість контролювати суспільний діалог,” — підкреслює Тарасюк.
Доступ росіян до технологій ШІ дозволяє їм постійно впливати на інформаційне поле будь-якої держави і таким чином тероризувати суспільство навіть найбезглуздішою дезінформацією.
На початку 2024 року колишній секретар РНБО Олексій Данілов заявляв, що РФ значно посилила свої дезінформаційні кампанії, щоб вплинути на громадську думку. Для цього в Кремля є спеціальні підрозділи, призначені для кожної країни ЄС, де проходитимуть вибори. За його словами, російські агенти щотижня поширюють 166 млн дезінформаційних постів про Україну в Telegram, Facebook, Instagram та Х.
ШІ також дозволяє сегментувати меседжі для різних цільових аудиторій. Відповідно до дослідження Mantis Analytics, яка проаналізувала вибірку з майже 70 тис одиниць контенту, інформаційні поля США та Росії значно відрізняються. Наприклад, на тему війни в Україні в Сполучених Штатах у червні вийшли 74 матеріали із стратегічними наративами (новини, пов’язані з більш широкою темою), а в РФ — 835.
На противагу цьому дискусії про дезінформацію та упередженість ЗМІ домінують у дискусіях про вибори в США — 1 902 матеріали, тоді як у Росії про це ніхто не говорить.
У цьому випадку використання ШІ може підвищити шанси на успіх інформаційної кампанії серед американців завдяки точковому спрямуванню. Тому навіть за умови низького інтересу до теми підтримки України в інформпросторі США росіяни можуть актуалізовувати інтерес суспільства до цього питання.
Чи можна протистояти російським фейкам
Інформаційні кампанії часто спрямовані на конкретну аудиторію за кордоном, тому їх важко помітити в українському просторі. Проте завдяки технологічним стартапам, таким як Mantis Analytics та LetsData, можна не лише фіксувати появу нових наративів, а й реагувати на них ще на початковому етапі.
Боротьба з дезінформацією має бути комплексною. Політика модерації контенту в соцмережах повинна адаптуватися до нових викликів. Платформи мають активно виявляти і маркувати неправдивий контент.
Творці генеративного ШІ повинні гарантувати безпечне використання своєї технології. У травні компанія OpenAI виявила випадки використання своїх моделей ШІ для створення та поширення дезінформації, пов'язаної з Росією, Китаєм, Іраном та Ізраїлем.
Компанія зазначає, що можливості її моделей ШІ використовувалися щонайменше в п'ятьох операціях прихованого впливу для генерації тексту і зображень у великих обсягах.
За словами Ілюк, звичайне спростування фейків малоефективне, оскільки це лише реакція на події після їх виникнення. Для протистояння дезінформації важливо виявляти її на початкових стадіях.
У Mantis Analytic, які досліджують інформаційний вплив РФ на країни Балтії та Молдову, переконують, що питання інформаційної безпеки має виходити за рамки національних держав. “РФ використовує однакові прийоми та методології проти країн Балтії, України та Молдови. Було б доцільно об’єднувати зусилля для моніторингу інформаційного поля та реагування на потенційні загрози”, — додає Тарасюк.
Не менш важливо оцінювати ефективність впливу пропаганди та контрпропаганди. Розуміння того, наскільки інформаційна кампанія вплинула на суспільний дискурс, дозволяє системніше підходити до протидії РФ.
“Нам вдалося виявити інформаційну кампанію проти клієнта на ранньому етапі. Ми відразу повідомили про це клієнту, але його відповідь — випуск пресрелізу — не вплинула на поширення кампанії. Без кількісної оцінки в реальному часі клієнт думав би, що впорався, поки кампанія досягала би піку”, — розповідає Ілюк.
Ідеально, коли можна миттєво оцінити ефект від своїх дій в інформаційному просторі.
Ігор ПИЛИПІВ
Что скажете, Аноним?
[13:00 26 декабря]
[07:00 26 декабря]
[22:34 25 декабря]
16:00 26 декабря
15:15 26 декабря
15:00 26 декабря
14:30 26 декабря
14:10 26 декабря
12:50 26 декабря
11:40 26 декабря
[16:20 05 ноября]
[18:40 27 октября]
[18:45 27 сентября]
(c) Укррудпром — новости металлургии: цветная металлургия, черная металлургия, металлургия Украины
При цитировании и использовании материалов ссылка на www.ukrrudprom.ua обязательна. Перепечатка, копирование или воспроизведение информации, содержащей ссылку на агентства "Iнтерфакс-Україна", "Українськi Новини" в каком-либо виде строго запрещены
Сделано в miavia estudia.