Портал в режимі тестування та наповнення

Дослідження «Коли штучний інтелект стає ворожим: гендерні загрози проти українських журналісток»

Поділитись:

Штучний інтелект змінює спосіб створення та поширення інформації. Технології не завжди полегшують життя, інколи вони несуть ризики особливо для жінок у журналістиці.

Штучний інтелект (ШІ) змінює спосіб створення та поширення інформації. Поряд із перевагами ці технології несуть нові серйозні ризики – особливо для жінок у журналістиці. В Україні небезпеки посилюються через триваючу війну, високий рівень диджиталізації та вже наявні патерни гендерно зумовленого онлайн-насильства.

Журналістки стикаються з тривожним поєднанням насильства, що здійснюється за допомогою технологій: згенерованими ШІ діпфейками, клонованими голосами, фейковими профілями, доксингом (злив персональних даних), кіберсталкінгом (системним цифровим переслідуванням) і скоординованими кампаніями онлайн-переслідувань.

Такі тактики шкодять репутації, змушують до самоцензури чи навіть залишати професію й водночас негативно впливають на психічне здоров’я. Попри зростання глобальної обізнаності про ці загрози, систематичних даних про їхні прояви в Україні майже немає.

Це дослідження стало однією з перших спроб в Україні комплексно оцінити гендерний вимір роботи медіа в умовах воєнного часу та нових технологічних викликів. Було зібрано свідчення 119 українських медійниць, окремий розділ містить опис п’яти репрезентативних кейсів, які ілюструють, як ШІ використовується для дискредитації та переслідування журналісток; ці приклади не є вичерпними, проте показують ключові патерни.

Ми переконані, що результати дослідження допоможуть зробити видимішими нові загрози для українських медійниць і стануть основою для створення програм підтримки та захисту, спрямованих на подолання як гендерної нерівності, так і технологічно фасилітованого насильства.

Ключові висновки:

  1. Сьогодні українські медійниці працюють у середовищі стрімкої цифровізації та водночас зростаючих ризиків гендерно зумовленого насильства, яке технології, й зокрема штучний інтелект, у поєднанні з триваючою війною та соціальними вразливостями роблять ще складнішим і багатовимірним.
  2. Випадки застосування ШІ-технологій при організації онлайн-атак на журналісток не є масовими, втім такі випадки вже трапляються, а з розвитком технологій ці загрози можуть лавиноподібно масштабуватися.
  3. Серед 119 опитаних нами журналісток кожна п’ятнадцята (7%) вже стикалися з онлайн-атаками, створеними за допомогою ШІ, а ще 16% спостерігали такі атаки щодо своїх колег. На прикладі респонденток опитування можна помітити, що онлайн-атакам створеним на основі ШІ, піддаються журналістки та керівниці медіа як найбільш публічні особи, що репрезентують роботу медіа.
  4. Цікаво, що 43% респонденток зазначили, що щотижня бачать ШІ-згенерований контент, що свідчить про його широку присутність у медійному середовищі. Водночас лише 7% повідомили про особистий досвід атак, створених із використанням ШІ. Це може означати як те, що масштаби таких атак поки залишаються обмеженими, так і те, що частина респонденток може не завжди розпізнавати їх як саме ШІ-фасилітовані. Показник «складно відповісти» (14%) у питанні про досвід атак також може вказувати на невизначеність або суб’єктивність самооцінки, що важливо враховувати при інтерпретації даних.
  5. Дослідження визначає, що понад 70% випадків атак із якими зіштовхнулися респондентки чи їх колеги відбулися на платформі Facebook. На думку авторок дослідження, це пов’язано з тим, що Facebook в Україні досі є головним простором професійного спілкування журналістів, тож саме тут найчастіше розгортаються кампанії тиску та дискредитації. Імовірно, їхня інтенсивність пов’язана з тим, що український контекст поки що недостатньо врахований Meta, а локальна модерація та захист користувачів, зокрема журналісток, потребують подальшого розвитку.
  6. Хоча 61% респонденток проходили навчання про використання ШІ, лише 21% редакцій мають офіційні політики його використання. Це свідчить про дисбаланс між індивідуальною ініціативою й та інституційною підтримкою на рівні редакції. При цьому 35% зазначили, що політика ШІ «на стадії обговорення», тобто можна очікувати швидкого зростання формалізації практик найближчим часом.
  7. Результати опитування показують, що редакційні політики щодо ШІ переважно зосереджені на етичному створенні контенту та інформуванні аудиторії, але не враховують потенційні ризики й загрози для самих медійників, особливо для жінок, які належать до більш уразливої групи.
  8. Примітно, що понад половина учасниць (58%) зазначили, що навчальні програми про ШІ не містили компоненту, пов’язаного з онлайн-насильством чи гендерними ризиками технологій.
  9. Понад половина (53%) респонденток, які проходили тренінги, навчалися завдяки ініціативам донорів чи громадських організацій, а не редакцій. Це підтверджує роль громадських організацій як основного джерела професійного розвитку і безпеки для жінок українських медіа.
  10. Найпоширенішими типами ШІ-атак є гендерна дезінформація, імітація особи, меметичні кампанії та масові «зграєві» атаки (dogpiling). Ці форми мають виразний гендерний і психологічний характер.
  11. Усі респондентки, які зазнали атак, повідомили про стрес і підвищену тривожність; частина – про самоцензуру та тимчасові перерви у роботі. Таким чином, онлайн-насильство напряму впливає на свободу слова та участь жінок у журналістиці.
  12. У випадках атак журналістки найчастіше зверталися до колег, редакцій або друзів, а не до поліції чи платформ. Значна частина респонденток висловила відчуття беззахисності перед ШІ-фасилітованими атаками: багато хто прямо відповів — «ніщо наразі» або «від цього не можна захиститися». Такі реакції можуть бути зумовлені відчуттям обмеженого впливу на ситуацію та певною недовірою до ефективності існуючих механізмів реагування. З огляду на досвід, описаний респондентками, можна припустити, що правоохоронним органам ще потрібна додаткова підтримка для підвищення розуміння серйозності таких загроз і вдосконалення процедур реагування.
  13. Серед очікуваних форм допомоги найчастіше згадували: юридичну підтримку, швидку реакцію платформ, технічні інструменти виявлення ШІ-контенту та захист від поліції (кіберполіції). У відкритих відповідях журналістки найчастіше наголошували на потребі розвивати технічні навички (розпізнавання deepfake, розуміння роботи ШІ), запровадити механізми відповідальності за ШІ-фасилітовані атаки та посилити реакцію поліції й цифрових платформ. Це свідчить про формування усвідомленого запиту на системні, а не лише індивідуальні рішення у сфері безпеки жінок у медіа.

Хоча Україна активно рухається у напрямку розробки нормативної бази, наразі відсутнє законодавче регулювання ШІ. Питання правового статусу технологій, стандартів етичного використання та відповідальності за порушення залишаються невизначеними або носять рекомендаційний характер. Це створює ризики як для користувачів, так і для держави, особливо в контексті захисту від технологічно фасилітованого гендерного насильства (TFGBV).

Детально ознайомитися з дослідженням “Коли штучний інтелект стає ворожим” можна за цим посиланням.