Право на обличчя: Данія першою в ЄС прирівнює діпфейк до цифрового злочину

У світі, де штучний інтелект дедалі вправніше імітує людські голоси, обличчя та поведінку, межа між реальністю та вигадкою стрімко розмивається. З розвитком технологій глибокого навчання – так званих deepfakes – цифрова підробка людських образів перетворилася з технологічної цікавинки на інструмент маніпуляцій, шантажу, політичних провокацій та порушення меж приватного життя. У відповідь на ці виклики Данія зробила рішучий крок – запропонувала законодавчі зміни, які визнають право людини на її власну зовнішність, голос і тіло як об’єкт авторського права. Це перша така ініціатива в Європі, – пише британське видання The Guardian.
Що таке deepfake і чому це проблема?
Deepfake – це медіаконтент, створений із використанням штучного інтелекту, який імітує зовнішність, голос або поведінку реальної людини з високим ступенем достовірності. Хоча ці технології можуть мати позитивне застосування в кіноіндустрії чи освіті, в реальності вони часто використовуються для створення:
- порнографічного контенту без згоди особи, особливо часто стосовно жінок та публічних осіб;
- політичних фальсифікацій, наприклад, відео, на яких політики говорять те, чого ніколи не говорили;
- шахрайських схем – з імітацією голосів родичів або керівників компаній з метою виманювання грошей;
- дискредитаційних кампаній у соціальних мережах.
За даними досліджень, понад 90% deepfake-контенту у світі – це порнографія, у переважній більшості випадків створена без згоди зображених осіб. Швидкість і легкість поширення контенту, що миттєво стає вірусним, через платформи на кшталт X (Twitter), TikTok чи Telegram робить його майже неконтрольованим у правовому полі.
На жаль, трагічні наслідки використання діпфейків для окремих людей – особливо молоді – вже неодноразово ставали предметом суспільного резонансу, розслідувань і закликів до законодавчих змін. Розглянемо кілька реальних прикладів деструктивного впливу deepfake-контенту на людей і на їхню репутацію, психологічний стан та життя в цілому.
Медіаплатформа The Women’s Voices, акредитована у Франції і зосереджена на жіночих питаннях, опублікувала матеріал про прикрий випадок: у місті Альмендралехо (Іспанія) майже двадцять неповнолітніх дівчат стали жертвами порнографічних діпфейків. Зловмисники за допомогою штучного інтелекту створювали фейкові зображення, де обличчя дівчат монтували на оголені тіла. Поліція отримала щонайменше одинадцять заяв. Члени родин дівчат також повідомляли про шантаж діпфейковими зображеннями.
“Це жахливе відчуття – опинитися у такому відео без своєї згоди“, – каже співрозмовниця німецького видання Spiegel, яка просить називати її псевдонімом через страх, що публічність лише посилить проблему. За останні сім років тисячі знаменитостей, від Тейлор Свіфт до німецьких політиків, стали жертвами таких фейкових порнографічних відео, які збирають сотні тисяч переглядів і приносять платформам мільйони кліків.
Донька співрозмовниці проходила терапію через цю ситуацію, і хоч зараз їй краще, безтурботне дитинство вони вже не повернуть – все через один короткий відеокліп і пошук у Google.
Данський підхід: перше в Європі визнання права на “цифрову особистість”
Данія планує внести зміни до закону про авторське право, які вперше в ЄС офіційно закріплять право кожної людини на контроль над використанням її зовнішності, голосу та тіла в цифровій формі. Ініціативу представив міністр культури Якоб Енгель-Шмідт, який заявив:
“Люди не повинні бути “проведені через цифровий копіювальний апарат” і використовуватись без їхньої волі для будь-яких цілей. Ми чітко даємо зрозуміти: кожен має право на власне тіло, голос і риси обличчя”.
Основні положення данського законопроєкту передбачають, що:
-Визнається право кожної особи на свій цифровий образ як об’єкт інтелектуальної власності;
-Забороняється створення та поширення глибоких фейків без згоди зображеної особи;
-Особи, чиї образи використано без дозволу, зможуть вимагати видалення контенту з платформ;
-Передбачено фінансову компенсацію постраждалим;
-Пародія та сатира залишаються дозволеними – аби не обмежувати свободу творчості. Щоправда, тут дискусійним залишається питання про класифікацію контенту як, скажімо, пародійного чи сатиричного. Відкритим лишається і питання нанесення моральної шкоди людині контентом, що може бути патогенним для неї і нейтральним для інших адресатів і для самого творця.
Після широкого громадського обговорення влітку, уряд планує внести поправки до парламенту восени 2025 року. Закон підтримують понад 90% депутатів. Важливо що уряд Данії готується винести ініціативу на загальноєвропейський рівень під час свого майбутнього головування в Раді ЄС.
Як до проблеми ставляться інші країни ЄС?
Європейський Союз вже має Загальний регламент із захисту персональних даних (GDPR), який частково охоплює питання використання зображення особи без згоди. Але ця норма не пристосована до нових реалій глибокого фейку, де мова йде не про справжні фотографії, а про створені штучним інтелектом імітації.
Деякі країни намагаються реагувати фрагментарно:
Так, Франція у 2020 році обговорювала кримінальну відповідальність за створення deepfake-контенту, але реального законодавчого прогресу не досягла. Німеччина досі спирається на загальні положення про дифамацію, захист приватного життя та авторське право. Італія – одна з небагатьох країн, де регулятор з питань захисту даних вже змушував платформи блокувати deepfake-відео.
Проте повноцінного та всеохопного закону, як пропонує Данія, в ЄС досі не існувало.
Платформи – слабка ланка?
Одним із головних викликів для регуляторів залишається неспроможність або небажання цифрових платформ ефективно реагувати на скарги користувачів щодо діпфейків. У багатьох випадках навіть після численних звернень фальсифіковані відео залишаються у відкритому доступі, продовжуючи завдавати шкоди репутації чи психічному здоров’ю постраждалих. Данський закон, у разі його ухвалення, передбачає можливість державного втручання в ситуаціях, коли платформи саботують або ігнорують вимоги про видалення незаконного контенту. Зокрема, уряд матиме право не лише накладати значні штрафи, а й ініціювати винесення цього питання на рівень Європейської комісії. Це означає, що Данія може закликати Брюссель скоординувати спільну європейську відповідь – шляхом тиску на міжнародні компанії, посилення вимог у межах Директиви про цифрові послуги (DSA) або навіть створення нових регуляторних норм, які б уніфікували правила для всіх країн ЄС. Таким чином, у разі системної бездіяльності техногігантів, проблема перестає бути лише національною і перетворюється на предмет спільної європейської відповідальності.
Український контекст: правова порожнеча
В Україні поки що немає спеціального законодавства, що регулювало б deepfake-технології. Існуючі норми щодо захисту честі, гідності та приватного життя надто загальні і не завжди придатні для оперативного реагування в цифровому середовищі. З огляду на війну та високий рівень інформаційної загрози, впровадження подібних норм, як у Данії, було б своєчасним і важливим кроком у напрямку цифрової безпеки.
Отже, Данія стала першою країною в Європі, яка спробувала адаптувати авторське право до викликів епохи штучного інтелекту. У світі, де образ людини стає «власністю» алгоритмів, захист її “цифрового Я” – це не лише правове, а й етичне питання. Чи підхоплять ініціативу інші країни ЄС, залежить не лише від політичної волі, але й від здатності переосмислити фундаментальні засади приватності в цифрову добу.
Діпфейки атакують через телефон: стрімке зростання ШІ-шахрайства лякає кіберзахисників
Нова хвиля тривоги назріває і у кібербезпеці: діпфейки, що раніше асоціювалися переважно з фейковими відео чи порнографічним контентом, тепер активно проникають у сферу телефонних шахрайств. За останній рік кількість спроб телефонного шахрайства із застосуванням штучного голосу зросла на понад 1300%. Про це повідомляє компанія Pindrop, яка спеціалізується на голосовій автентифікації для банків, страхових компаній та ритейлу.
ШІ-синтезовані голоси тепер усе частіше використовують у дзвінках до клієнтів, часто під виглядом банківських працівників або страхових агентів. У деяких випадках зловмисники озвучують персональні дані жертви, створюючи враження достовірної розмови. Страховий сектор став одним із головних об’єктів атаки: тут зафіксовано зростання подібних інцидентів на 475%.
“Глибокі фейки, синтетичні голоси та шахрайство на основі ШІ радикально змінюють правила гри. Технології удосконалюються, а методи зловмисників стають дедалі все більш витонченими”, – наголосив Віджай Баласубраманійан, співзасновник і CEO Pindrop.
У звіті компанії йдеться про те, що хакери не просто застосовують готові інструменти глибокої підробки – вони активно навчаються, переглядаючи спеціалізовані відео в даркнеті, і користуються сервісами підробки даних “на замовлення”. Особливе занепокоєння викликає ще одна новація: фейкові голоси кандидатів на роботу, згенеровані штучним інтелектом, використовуються для обману рекрутерів під час онлайн-співбесід.
Прогнози на 2025 рік ще більш тривожні:
- кількість шахрайських дзвінків з діпфейками може зрости на 155%,
- загальне шахрайство з використанням ШІ — на 162%,
- у роздрібній торгівлі очікується подвоєння атак,
- а контакт-центри ризикують зазнати збитків у розмірі 44,5 мільярда доларів.
Ці дані лише підсилюють тривогу, яку викликає розповсюдження діпфейків у суспільстві, не лише як засобу репутаційної атаки, а і як інструменту системного обману. У світі, де більше не можна вірити ні тому, що бачиш, ні тому, що чуєш, загроза глибокої фальсифікації дедалі частіше перетворюється з цифрової екзотики на реальну загрозу щоденному життю.