Алгоритми проти демократії: Як ШІ викривлює політичну реальність

У певному сенсі штучний інтелект подібний до дитини: його переконання та уявлення формуються на основі того, чому і як його навчають. Інформація, яку він отримує, визначає його відповіді, а закладені алгоритми та дані впливають на його світогляд, так само як виховання та освіта формують свідомість дитини. ШІ дедалі більше інтегрується в наше повсякденне життя, але разом із його перевагами виникають і серйозні виклики. Одним із найбільш обговорюваних є питання упередженості ШІ, коли алгоритми можуть відтворювати та навіть посилювати людські стереотипи.
Журналіст Ремі Демікеліс, автор “L’Intelligence artificielle, ses biais et les nôtres” – книги про упередженість у системах ШІ, запевняє, що “алгоритми не тільки відтворюють упередженість, притаманну суспільству, але й посилюють її”.
Алгоритми ШІ часто відтворюють людські стереотипи, що призводить до дискримінаційного ставлення через приналежність до певної раси, статі та інших соціальних груп. Спроби виправити ці перекоси виявилися складним завданням, а відсутність єдиних стандартів регулювання лише загострює проблему.
Прикладів того, як ШІ може формувати викривлені образи, вдосталь. У 2023 році нейромережа Midjourney створювала негативні зображення французьких передмість, що цілком закономірно викликало в аудиторії критику і протести. Пошукові запити, пов’язані з баньє, давали стереотипні результати, що значно контрастували із загальними уявленнями про Францію. Подібну дискримінацію помітили і в чат-ботах ШІ, які демонструють упередженість щодо жінок, людей з інвалідністю та представників етнічних меншин.
Природа упередженості у ШІ
Корінь проблеми – дані, на яких навчаються алгоритми. Наприклад, у базах даних весільних фото близько половини з них походить зі Сполученого Королівства та США, що спотворює уявлення про весільні традиції у світі. Це може призводити до того, що національні вбрання з інших культур ШІ ідентифікує як “екзотичні” або “народні костюми”, а не стандартний весільний одяг.
Вплив упереджень у ШІ визнається на державному рівні. Головні виклики – не лише самі алгоритми, а їх розробники. Якщо системи створюються білими чоловіками, вони можуть несвідомо ігнорувати проблеми дискримінації.
Algorithmic Justice League виступає за перевірку алгоритмів для оцінки їх упередженості. Але такі перевірки поки що не мають чітких стандартів і складно перевіряються.
Спроби технологічних компаній зменшити упередженість не завжди вдаються. Наприклад, минулого року Google Gemini потрапив у скандал через створення історично некоректних зображень в спробі бути “політкоректним”. Критики, включаючи Ілона Маска, звинуватили ШІ у “перекрученні реальності”.
Упередженість у ШІ виникає, коли алгоритми навчаються на даних, що вже містять людські стереотипи або дисбаланс. Це може призвести до дискримінаційних результатів, скажімо, у наймі персоналу, кредитуванні чи правосудді.
Створення цілком нейтрального алгоритму є складним завданням, оскільки моделі ШІ навчаються на величезних обсягах даних, які можуть містити культурні, расові та гендерні упередження. Це означає, що навіть найпередовіші системи можуть ненавмисно відтворювати ці стереотипи.
Справа і в тому, що деякі відкриті бази даних, які використовуються для навчання ШІ, мають диспропорційне представлення різних культур, рас і гендерів. Це може призвести до того, що алгоритми будуть менш точними або упередженими щодо недостатньо представлених груп.
Дослідження показали, що деякі системи розпізнавання облич мають вищий рівень помилок при ідентифікації людей з темним кольором шкіри, особливо жінок. Це може бути пов’язано з тим, що такі системи навчалися на наборах даних, де переважали зображення світлошкірих чоловіків.
Деякі компанії використовували ШІ для відбору резюме, але виявилося, що ці системи віддавали перевагу чоловікам перед жінками, оскільки навчалися на історичних даних, де чоловіки були частіше наймані на певні посади.
ШІ та соціальна нерівність
Автоматизовані системи використовуються для оцінки кредитоспроможності, найму, визначення ризиків у судах та інших важливих сфер. Але якщо алгоритми навчаються на даних з упередженнями, вони можуть приймати дискримінаційні рішення.
У США система COMPAS оцінила ймовірність повторного злочину. Дослідження показало, що алгоритм частіше помилково визначав темношкірих як високоризикових, а білих – як низькоризикових, навіть якщо це не було правдою.
Amazon створив ШІ для автоматизації найму, але алгоритм занижував рейтинг резюме жінок, оскільки навчався на даних, де переважали чоловіки, що призвело до гендерної дискримінації.
Ці випадки показують, як ШІ може посилювати стереотипи та нерівності. Жінки та представники меншин можуть бути несправедливо виключені з можливостей працевлаштування, отримання кредитів або доступу до освіти та медицини через упереджені алгоритми.
Регуляція ШІ у світі
Євросоюз, США та Китай мають різні стратегії і регулюванні ШІ, що відображають їхні пріоритети та цінності.
Євросоюз став першою у світі юрисдикцією, що ухвалила комплексний Закон про штучний інтелект, який забороняє ШІ використовувати біометричні дані для класифікації людей за расою, політичними поглядами чи сексуальною орієнтацією.
Європа відстає від США та Китаю у розробці ШІ. Її жорсткі регуляторні спроби можуть призвести до того, що великі технологічні компанії виведуть свої продукти з європейського ринку. Наприклад, Meta (Facebook) заявила, що не буде запускати свою модель Llama AI в ЄС через “непередбачуваність регуляторної політики”.
Євросоюз хоче стати лідером у регулюванні ШІ, створивши закон, що класифікуватиме системи ШІ за рівнем ризику: від дуже високого до мінімального. Наприклад, використання ШІ для біометричної ідентифікації в реальному часі у громадських місцях заборонено через високий ризик порушення прав людини. Мінімальному контролю підлягають системи з низьким ризиком. Порушення закону можуть призвести до штрафів до 35 мільйонів євро або 7% світового обороту компанії. Майбутнє регулювання ШІ залежатиме від того, чи зможе Європа знайти баланс між безпекою та розвитком технологій в умовах глобальної конкуренції.
У Сполучених Штатах відсутній єдиний федеральний закон щодо ШІ. Натомість регулювання здійснюється на рівні окремих штатів та галузевих агентств. Так, штати Каліфорнія та Колорадо впровадили власні закони для забезпечення прозорості та відповідальності у використанні ШІ. Такий підхід надає компаніям більше свободи для інновацій, але водночас може фрагментувати правове поле.
Зі свого боку, Китай суворо контролює розвиток та використання штучного інтелекту. У 2017 році Піднебесна оголосила про намір стати світовим лідером у сфері ШІ до 2030 року, встановивши чіткі цілі та стандарти. Такий підхід забезпечує централізований контроль, але може обмежувати інновації та викликати занепокоєння щодо прав людини.
ШІ як знаряддя авторитарних режимів, їх вплив на вибори та маніпуляцію громадською думкою
Сучасні політичні кампанії використовують ШІ для аналізу поведінки виборців. Завдяки даним із соцмереж, алгоритми визначають уподобання, інтереси та емоції користувачів. Це дозволяє персоналізувати повідомлення для різних груп населення. Такий підхід – мікротаргетинг – було використано у виборчих кампаніях у США. Facebook та Instagram пропонують налаштування рекламних кампаній, що дозволяють політикам точно націлювати свої повідомлення на різні сегменти виборців.
Відомо, що генеративний ШІ може створювати реалістичні зображення, відео та аудіо, які по суті є “глибокими фейками” (deepfakes). Ці технології використовуються для поширення дезінформації та маніпулювання думками людей. Під час президентських виборів у США-2024 для дискредитації кандидатів широко використовувалися діпфейки. Так, у соцмережах поширювалися підроблені відео із заявами політиків, яких вони насправді не робили. Це створювало плутанину серед виборців і підривало довіру до кандидатів.
Непоодинокі випадки, коли авторитарні режими використовують ШІ для посилення контролю над населенням. Алгоритми аналізують дані з камер спостереження, соцмереж та інших джерел для відстеження та придушення інакомислення. У Китаї система соціального кредиту використовує ШІ для моніторингу поведінки громадян, надаючи або відбираючи привілеї залежно від їхньої “лояльності” до режиму.
Хто повинен відповідати за помилки ШІ
Коли ШІ робить помилки або приймає дискримінаційні рішення, виникає питання: хто несе відповідальність – розробники чи користувачі? Європарламент у своїй резолюції зазначає, що, залежно від обставин, відповідальність може лягати на виробника, оператора, власника або користувача ШІ. Це показує, як складно визначити, хто винний у випадку помилок ШІ.
ШІ часто використовується для перевірки контенту в інтернеті. Однак виникає питання: чи не стає така перевірка цензурою? Адже видалення “проблемних” відповідей може запобігти дезінформації та мові ворожнечі, але надмірна модерація може обмежувати свободу вираження. Важливо забезпечити прозорість алгоритмів і залучати людський нагляд, щоб зберегти баланс між безпекою та свободою слова.
Очевидно, що прозорість алгоритмів ШІ важлива для запобігання маніпуляціям і дискримінації. Компанії повинні розкривати деталі про те, як працюють їхні алгоритми, щоб користувачі могли їм довіряти. Це включає інформацію про джерела даних, методи навчання та критерії прийняття рішень. Такий підхід сприятиме підзвітності та етичному використанню ШІ.
Чи можливо створити етично нейтральний ШІ
Щоб створити етично нейтральний ШІ, потрібно, щоб моделі навчалися на даних, що відображають різноманітність суспільства. Це зменшить ризик упередженості через однобічні або неповні дані. Дотримуватися моральних принципів та враховувати можливі соціальні наслідки використання технологій допоможе залучення етичних комітетів до розробки та впровадження ШІ.
Повністю усунути упередженість в ШІ складно через різні технологічні та соціальні обмеження. Алгоритми можуть відтворювати існуючі стереотипи, якщо вони є у навчальних даних. Навіть зусилля з усунення упередженості можуть призвести до нових форм дискримінації. Тому важливо постійно стежити за роботою ШІ та коригувати її, залучаючи експертів з етики, соціології та інших галузей.
ШІ може стати потужним інструментом у боротьбі з дискримінацією. Алгоритми можуть аналізувати великі обсяги даних, щоб виявляти приховану упередженість у рішеннях, що дозволяє вчасно виправляти ситуацію. У сфері зайнятості ШІ може допомогти забезпечити справедливий відбір кандидатів, аналізуючи резюме без врахування особистих характеристик, таких як стать чи етнічна приналежність. Але для досягнення цього потрібно ретельно налаштовувати алгоритми та забезпечувати їх прозорість і підзвітність.
Тетяна Вікторова