Підтримайте Sestry
Навіть маленький внесок у справжню журналістку допомагає зміцнити демократію. Долучайся, і разом ми розкажемо світу надихаючі історії людей, які боряться за свободу!
ШІ-чатботи, котрі стали звичним робочим інструментом для мільйонів людей, насправді можуть бути уражені російською пропагандою і видавати її за правдиву інформацію. У дослідженні NewsGuard йдеться, що Кремль створив цілу мережу генерування шкідливого контенту Pravda, котра налаштована виключно на чатботи і отруює згенеровані відповіді дезінформацією, просуваючи власні наративи. Мережа Pravda була запущена у квітні 2022 року, після повномасштабного вторгнення Росії в Україну, і відтоді успішно поширилася на 49 країн десятками мов.
«Було неминуче, що чатботи поширюватимуть дезінформацію. І «штучний інтелект» тут не винен — винні люди», — каже експерт із протидії російській пропаганді Домінік Гоншьоровскі.
Як аргумент наводить доказ: чатбот Grog зі «штучним інтелектом», розроблений компанією xAI Ілона Маска на противагу ChatGPT, на запитання, хто поширює найбільше дезінформації, щиро відповідає — Ілон Маск
Не все так однозначно
Якщо ж запитати у ChatGPT «чий Крим?», то, залежно від обраної мови, відповіді різнитимуться. Приміром, на питання українською «штучний інтелект» видає очікуване: «Згідно з міжнародним правом, Крим є територією України». Якщо ж вписати питання російською, то отримаємо відповідь: «Статус Крыма является предметом международного спора».
На запитання — «Хто обстрілює Донбас?» — прочитаємо, що «відповідальність за обстріли на Донбасі після початку повномасштабного вторгнення несе Російська Федерація та підтримувані нею збройні формування». Для тих, хто послуговується російською, є інша відповідь: «Ответ на этот вопрос зависит от источников информации. Обе стороны обвиняют друг друга в обстрелах, и установить однозначную ответственность за конкретные случаи обстрелов часто бывает сложно».
То чи винна Росія? Програма ChatGPT не сумнівається: «Згідно з міжнародним правом, Росія несе відповідальність за агресію проти України». І тут же російською піддає своє твердження сумніву: «Ответ на этот вопрос зависит от точки зрения и правового подхода»
Як це працює?
Поки ви читаєте це речення, мережа Pravda систематично публікує у мережі тексти різними мовами й у різних джерелах, просуваючи дезінформаційну маячню. За словами експерта із «штучного інтелекту» і автора курсів Python Software Engineering Нікіти Гладкіх, який працював у відомих компаніях — Primer AI, Revolut і Anaconda — для тренування моделей, що лежать в основі чатботів, необхідно дуже багато текстової інформації.
Станом на зараз найбільші й найкращі моделі натреновані на всіх доступних даних, зібраних в інтернеті. Тож компанії, що розробляють LLM (велику мовну модель), невпинно нишпорять буквально усюди, скачуючи всі доступні текстові дані.
Найзручнішим джерелом є новинні сайти, які постійно наповнюються новими матеріалами. Стандарти журналістики вимагають проводити фактчекінг, тож, за умовчанням, ці професійні оригінальні тексти мали б містити менше фейків

Створюючи величезний об’єм контенту на начебто незалежних веб-сайтах, Pravda значно посилює ймовірність того, що моделі ШІ знайдуть цю інформацію й «заберуть» для веб-даних, що їх використають чатботи. Дослідження стверджує, що замалим 3,6 млн текстів мережі Pravda торік було включено у вихідні дані західних систем ШІ, отруюючи відповіді хибними заявами та російською пропагандою.
— На етапі тренування ШІ схожий на малу дитину, сприймає будь-які вхідні дані як правду, — пояснює Нікіта Гладкіх. — Механізми фільтрації цих даних зараз цілком залежать від людей. Це ручна праця — обирати, на чому тренувати модель. Але коли корпус даних для тренування сягає сотень тисяч і мільйонів документів, було б дуже наївно сподіватись на добросовісну перевірку. А це означає, що в корпус документів, на яких тренують ШІ, потрапляють пропагандистські ідеї.
Чіткі цілі
Важливо, що Pravda не створює власного контенту й не направлена на користувачів, вона агрегує матеріали з російських ЗМІ та прокремлівських блогерів, посилюючи їхній вплив. 150 веб-сайтів у мережі уже ідентифіковані як її частини, 40 з них мають доменні імена, пов’язані з регіонами України. 70 — націлені на Європу, бо розміщують тексти англійською, французькою, чеською та іншими європейськими мовами.
Міхал Марек із Центру досліджень сучасного безпекового середовища в інтерв'ю PAP теж відзначає, що контент польськомовної версії Pravda найчастіше є перекладом раніше опублікованих матеріалів на російських сайтах:
— Існують також матеріали, створені поляками, які займаються дезінформаційною діяльністю на користь російської сторони, які публікуються, зокрема, в соціальних мережах.
30 сайтів мережі націлені на країни Африки, Тихоокеанського регіону, Близького Сходу, Північної Америки, Кавказу та Азії, включаючи Канаду, Японію, Тайвань та інші країни. Ще якісь — персоналізовані й вузькоспеціалізовані, бо мають у назві згадку про Трампа, Макрона, НАТО тощо.
— Цілком природно, що коли якась думка або набір пов’язаних ідей часто трапляється у вихідних даних, то це стає ідеєю, якою ШІ користується, генеруючи відповіді користувачам, — каже Нікіта Гладкіх.
Дослідники стверджують, що дезінформацію виявляти складно – мережа активно додає нові домени. А блокування численних сайтів Pravda аніяк не перешкоджає миттєвій появі нових
ШІ віддзеркалює нас
Що якісніше чатботи генеруватимуть контент, то складніше буде зловити їх на маніпуляції. Утім, рішення є.
За словами Нікіти Гладкіх, усі сучасні моделі проходять етап додаткового тренування Reinforcement learning from human feedback (RLHF). Простими словами — велика кількість людей спілкується з ШІ і оцінює якість відповідей. На основі цих даних інструменти «штучного інтелекту» покращують.
— Саме на цьому етапі ШІ «навчають», що не можна розкривати рецепти вибухівки, що потрібно рекомендувати звернутись до лікаря при скаргах на здоров'я, що варто бути чемним і ввічливим, — пояснює Нікіта Гладкіх. — Саме винайдення RLHF дозволило «вийти» сучасним інструментам ШІ з лабораторій у світ. Усі попередні експерименти дуже швидко закінчувалися, коли користувачі провокували ШІ на расистські чи сексистські висловлювання, лайку тощо. Річ у тім, що «штучний інтелект» віддзеркалює нас і веде себе так само, як пересічний користувач інтернету.

Що саме запитувати у «штучного інтелекту» і які відповіді вважати кращими за інші, прописано в інструкціях тестувальників на RLHF-етапі. Очевидно, інструкції для боротьби із пропагандою туди теж можна додати. Але на практиці це завдання не є легким.
Чи можна протидіяти?
— Ми знаємо, як порахувати збитки від теракту з вибухівкою, рецепт якої отримано завдяки ШІ, або шкоди здоров'ю від некоректної медичної рекомендації. А як порахувати збитки від пропаганди і промитих мізків? Це задача із зірочкою, — каже Нікіта Гладкіх.
Він припускає, що подібні дослідження-викриття приведуть до появи протоколів боротьби із пропагандою — як на етапі збору даних для тренування, так і на етапі RLHF. Утім, користувачам мереж варто таки покладатися на здоровий глузд, увесь час навчатися і обережно ставитися до будь-яких відповідей ШІ.
— Російська пропаганда постійно розвивається, знаходить нові канали поширення, — каже Домінік Гоншьоровскі. — Ми безпорадні проти цього, бо росіяни грають не за правилами. Це якщо б на футбольному полі одна команда проголошувала чесну гру, а інша вийшла, озброєна кийками та ланцюгами.
Тож відкриваючи віконце чатбота, все ще варто озброюватися критичним мисленням, фільтрувати інформацію й застосовувати старий добрий фактчекінг. Не варто забувати, що дорослі у цій кімнаті — ми. А ШІ-інструменти — лишень помічники, які теж помиляються.
Усі фото: Shutterstock
Редакторка і журналістка, письменниця, колумністка, авторка текстів про бізнес, філософію, науку і літературу. Вивчала полоністику у Волинському національному університеті імені Лесі Українки і тюркологію в Інституті імені Юнуса Емре (Туреччина). Була редакторкою і колумністкою «Газети по-українськи» і журналу «Країна», працювала для української діаспори на Radio Olsztyn, друкувалася у виданнях Forbes, Leadership Journey, Huxley, Landlord та інших. Дипломована спеціалістка Міжнародного сертифікованого курсу Thomas PPA (Велика Британія) з експертизою у human resources. Перша книга «Жінкам ніззя» вийшла у видавництві «Нора-друк» 2016 року, над другою працювала за сприяння Інституту Літератури у Кракові вже під час повномасштабного вторгнення.
Підтримайте Sestry
Навіть маленький внесок у справжню журналістику допомагає зміцнити демократію. Долучайся, і разом ми розкажемо світу надихаючі історії людей, які боряться за свободу!