Штучний інтелект у системі контролю: невидима сторона ChatGPT і чим він небезпечний

Здається, ще вчора штучний інтелект був темою наукової фантастики, а сьогодні він став вже частиною щоденної рутини. Знайти ідею для подарунка, написати текст, перевірити домашнє завдання, пояснити складну тему простою мовою можна доручити ChatGPT. І що цікаво, він з всім цим справляється швидко і з легкістю. Зручність спілкування з ШІ зробили його новим “онлайн-асистентом” мільйонів людей, однак за цією блискучою обгорткою приховується низка ризиків, про які не всі знають. Від помилкових відповідей до витоку даних чи формування спотвореної картини світу. Використання ChatGPT може не тільки допомагати, а й нашкодити. Цілком зрозуміло, що ChatGPT став незамінним для багатьох, але варто пам’ятати, на які ризики ми йдемо, повністю довіривши йому частину свого життя.
Що таке ChatGPT і навіщо він потрібен
Штучний інтелект вже давно перестав бути темою лише для кінофільмів чи наукових конференцій. Тепер він може написати вам листа, розв’язати задачу, допомогти з дієтою і навіть підказати, що приготувати на вечерю. Одним з найпомітніших “діячів” в цій галузі став Generative Pre-trained Transformer (ChatGPT), бот, який навчився на купі текстів і тепер відповідає на все, що ви йому напишете.
OpenAI вже встигла здивувати світ, коли презентувала нейромережу, яка малює картинки за словами, під назвою DALL-E. Влітку до неї відкрили доступ усім охочим, і миттєво соцмережі наповнились фантастичними зображеннями, створеними не художниками, а звичайними користувачами. Одні раділи, що можуть малювати, не вміючи тримати пензля, інші тривожились, що такий підхід може вдарити по справжнім митцями.
Якщо DALL-E приміряє на себе роль художника, то ChatGPT став справжнім майстром слова. Він пише тексти у всіх можливих жанрах: від віршів до наукових робіт, може створити пост для соцмереж, план харчування, лист коханій людині або ж пояснити складну тему простими словами. Крім того, він трошки програміст, кулінар, коуч і навіть психолог на мінімалках. Чат підказує, як полагодити код, прокласти маршрут на відпочинок, скласти резюме і робить це цілком переконливо.
Використовувати ChatGPT просто: заходиш на сайт OpenAI, реєструєшся (можна через Google або Microsoft), і спілкуйся собі українською, англійською чи будь-якою іншою доступною мовою. Щоправда, деякі користувачі помітили: англійською відповіді іноді точніші. Але навіть українською цей бот вміє дивувати і не лише тим, що знає майже все, а й тим, що іноді, як і будь-який інструмент, помиляється. Користувачам треба пам’ятати просту істину, що ChatGPT може не лише приносити користь, а й ризики.
Чому великі компанії б’ють на сполох
ChatGPT дійсно розумний, швидкий і корисний, але не всі у захваті від його можливостей. Деякі компанії, особливо ті, що мають справу з великою кількістю конфіденційної інформації, вже встигли обпектися й тепер тримаються від чатбота на відстані витягнутої флешки. Наприклад, у Samsung був гучний інцидент, коли один із інженерів, мовляв, ненавмисно вставив у ChatGPT частину внутрішнього коду компанії. Бот, звісно, не забув. Проблема в тому, що все, чим ми ділимось з ШІ, зберігається десь на серверах, і впевненості в тому, що ці дані ніколи не потраплять до сторонніх очей немає. Після цього випадку Samsung просто сказала “досить”. Ніякого ChatGPT на роботі, а заодно і жодних AI-інструментів, якщо в запитах є щось приватне чи корпоративне.
Поряд з Samsung до списку обережних приєдналися банки. JPMorgan одним із перших обмежив використання ШІ серед своїх працівників. Bank of America, Citigroup, Deutsche Bank, Wells Fargo і навіть Goldman Sachs теж вирішили не ризикувати, бо навіть якщо ChatGPT не злий геній, то довіряти йому внутрішні дані все одно, що розповідати свої паролі випадковому перехожому. Amazon також не залишився осторонь. Компанія попередила своїх працівників: жодних витоків, навіть, випадкових. Особливо коли йдеться про вихідні коди або інструменти, які ще не вийшли у світ. Apple, хоча сама не відстає в розробках штучного інтелекту, теж наклала табу на використання генеративних платформ, таких як ChatGPT. Компанія теж побоюється витоку даних, над якими працює роками. А тепер найцікавіше: навіть Google, компанія – розробник власного чатбота Bard не радить своїм працівникам ділитися з ботами нічим, що не повинно “випливти” назовні. Бо все, що ви вводите, може стати частиною відповідей іншим користувачам. Тобто ваш код, персональні дані чи ідеї цілком можуть “спливти” у чиємусь іншому діалозі.
Деякі компанії пішли шляхом компромісу. Наприклад, PwC дозволяє вивчати ChatGPT, але суворо забороняє застосовувати його у роботі з клієнтами. А юридичні фірми взагалі дуже насторожено поставилися до ШІ — близько 15% з них уже офіційно попередили своїх працівників про ризики, а дехто, як Mishcon de Reya, ввів повну заборону. Навіть на рівні держав є запитання до ChatGPT. У квітні Італія на кілька тижнів заблокувала доступ до сервісу, пославшись на проблеми з конфіденційністю, начебто інші користувачі могли бачити заголовки чужих чатів. OpenAI швидко виправилася і додала функцію видалення історії та зробила налаштування приватності більш прозорими. Але, як кажуть, неприємний осад лишився.
Всі ці приклади стали прямим нагадування про головне: ChatGPT не варто сприймати, як якусь чарівну паличку, бо це дуже потужний інструмент. А будь-який інструмент, якщо з ним поводитися не обережно, може наробити лиха.
Які загрози таїть в собі ChatGPT
З першого погляду ChatGPT справляє враження майже ідеального співрозмовника. Він завжди ввічливий, не перебиває, не нав’язує свою думку і вміє говорити на будь-яку тему – від приготування борщу до філософії стоїцизму. Але варто лише трохи заглибитися і одразу стає зрозуміло: за цією зручністю ховаються ризики, про які важливо знати кожному, хто бодай раз відкривав чат із ботом.
Люди часто діляться з ChatGPT чимось дуже особистим, наприклад, розповідають, де живуть, як звати дітей, пишуть свою електронну пошту, номер телефону, а часом навіть надсилають паролі, дані банківських карток чи коди з робочих проєктів. І все це у діалозі з нейромережею, яка, на відміну від звичайного співрозмовника, запам’ятовує кожне слово буквально. На жаль, багато хто забуває, що все, введене у чат, може залишитися на серверах компанії. А це вже зовсім інший рівень ризику.
Дехто використовує ChatGPT навіть як лікаря: запитує про симптоми, просить поради щодо ліків, ділиться історіями хвороб. Але бот не має сприйматися як медик. Його відповіді базуються на загальнодоступній інформації, яка може бути не лише застарілою, а й хибною. А помилка в такій ситуації може стати не просто незручністю, а реальною загрозою для здоров’я.
До того ж чатботи мають властивість іноді “проговорюватися”. У 2023 році з’явилися повідомлення про те, що ChatGPT випадково показував користувачам фрагменти чужих діалогів із зазначенням адрес, кодами і навіть назвами презентацій. Це не те, чого очікуєш, коли просто просиш допомогти з резюме чи рецептом для вечері. І хоча OpenAI додала налаштування, які дозволяють видаляти історію чатів, навіть це не дає стовідсоткової гарантії.
Здавалося б, звичайна розмова, а скільки в ній прихованих загроз. Вказав адресу і от уже розкрив місцезнаходження. Ввів номер телефону і відкрив шлях до відстеження. Поділився історією з роботи і вже інформація, яка мала залишитись за зачиненими дверима офісу, може опинитись у відкритому доступі. А найнеприємніше, ви навіть не дізнаєтесь, коли і кому вона “випаде” у відповіді.
Варто розуміти, що ШІ може бути до певної міри ще й “стікачем”. Чат-боти, зокрема такі як ChatGPT, мають вбудовані обмеження, які не дозволяють їм допомагати в небезпечних або незаконних речах. І якщо ви вирішите перевірити систему на міцність, наприклад, попросити інструкцію, як зламати банківський рахунок, створити дипфейк політика або підробити документи, то ви можете втрапити в халепу набагато серйознішу, ніж просто отримати ввічливу відмову.
Багато платформ ШІ прямо попереджають у своїх правилах: незаконні запити, спроби шахрайства чи використання ШІ в злочинних цілях можуть бути зафіксовані й передані відповідним органам. І це вже не жарти, адже ваш чат може стати доказом. Реальність є такою, що світ почав активно створювати правові “вогнегасники” навколо штучного інтелекту. І хоча правила відрізняються від країни до країни, тенденція одна: держава не має наміру стояти осторонь, поки хтось намагається перетворити ШІ на злочинного спільника.
Наприклад, у Китаї, використання ШІ для підриву державної стабільності несе за собою реальну кримінальну відповідальність. Там уже затримували людей за поширення згенерованих ботами фейкових новин. У країнах ЄС, згідно з нещодавно ухваленим AI Act, усі дипфейки мають бути чітко марковані. Немає позначки, то варто чекати штрафу або чогось гіршого. А в Британії вже діє закон, за яким публікація згенерованих ШІ еротичних зображень людини без її згоди сприймається як кримінальний злочин, навіть, якщо “це був просто жарт”.
Тому, перш ніж запитати щось “з сірого сектору”, краще добре подумати, чи дійсно вам потрібен співрозмовник, який усе пам’ятає і, за певних умов, може поділитися цим з владою.
Суд проти анонімності: нова ера цифрової відповідальності
Звичка говорити з ChatGPT нагадує шепіт в порожню кімнату: швидко, довірливо, без страху, що хтось почує. Люди діляться тут таким, про що не наважились би сказати навіть найкращому другові. Ми розповідаємо про хвороби, проблеми в шлюбі, фінансові тривоги і чомусь свято віримо, що все це, мов написане пальцем по воді, одразу щезне, щойно закриємо вкладку. Адже, згідно з політикою OpenAI, більшість чатів автоматично видаляються через 30 днів і не потрапляють у систему навчання моделі. Але нещодавно ця тиха домовленість луснула, немов мильна бульбашка.
У справі The New York Times проти OpenAI федеральний суд постановив зберігати всі журнали користувачів, без винятків. Навіть ті, які користувачі вважали тимчасовими й відмовились від їх використання в навчанні. Рішення суду переважило всі тумблери, прапорці, анонімні режими та обіцянки в політиці конфіденційності.
Користувачі все ще можуть самі видалити свої чати зі свого акаунта, бо це право не відібрано. Але за лаштунками все вже зберігається і, навіть, те, що раніше нібито “не зберігалося”. І якщо чатом користується бізнесмен, то ситуація може значно ускладнитися. Адже цілком зрозуміло, що дані компанії в такому випадку перетворюються на таку собі шахівницю з комерційними таємницями, контрактами, внутрішніми розрахунками. Слід зазначити, що все це стало юридично зафіксованим полем для можливих позовів.
Для юристів це звична справа, адже під час розслідувань суд зобов’язує зберігати докази. Але для всіх, хто вірив у “цифрову приватність” така можливість перетворилася на справжній землетрус. Політика конфіденційності перестала бути нашою бронею. Тепер це лише умовна обіцянка, яку можна легко змінити або, навіть, скасувати рішенням суду, голосуванням акціонерів чи просто новим пунктом у “користувацькій угоді”.
Варто згадати, що вже неодноразово великі компанії на кшталт Google, Zoom, Adobe заднім числом змінювали правила обігу з даними. Очікування приватності не витримують тиску прибутку, правових вимог або реструктуризацій. Тепер треба зрозуміти, що всі ми живемо в реальності, де наша конфіденційність існує лише настільки, наскільки компанія, яка її гарантує, ще жива, не продана і не потрапила під суд. Рішення суду тепер не виступає просто бюрократичною вимогою. Це сигнал про те, що навіть якщо OpenAI сумлінно виконує припис, відтепер правила диктують суди, перед якими не встоїть ні політика конфіденційності, ні інтерфейс з опцією “не зберігати історію”.
Наша правова система досі живе у світі паперових документів і серверних шаф. Вона не готова до ШІ, який щомиті вcмоктує в себе, мов пилосос, особисті дані мільйонів, зливає індивідуальне в колективне і зберігає сліди розмов, які люди вважали тимчасовими. У такому середовищі, де немає чітких обмежень на зберігання, суди будуть грати на випередження, адже такі дані одного разу можуть стати “важливими доказами”.
Це створює справжній прецедент. Якщо чати в ChatGPT можна зберігати для судової справи про авторське право, то нічого не завадить зробити те ж саме для розслідування домашнього насильства, пошуку даних про аборти чи інших чутливих тем. Тож, якщо ми хочемо, щоб наші особисті розмови залишались особистими, потрібні не просто добрі наміри, а закони, які обмежують зберігання, захищають “тимчасове” як непорушне, і вимагають дизайну систем, які не запам’ятовують більше, ніж потрібно. Бо в іншому випадку особисті чати перестають бути особистими, будь-якої хвилини їх можна витягнути з тіней і прочитали вголос у залі суду.
Ми звикли до ChatGPT, як до кишенькового експерта, порадника і навіть співрозмовника. Однак те, що здається зручним і безпечним, не завжди є таким. Розмова з ботом все частіше нагадує лист, який ніколи не зникає, навіть якщо здається, що його спалили. Сьогодні вже зрозуміло, що “тимчасові” чати можуть бути збережені, навіть “анонімні” запити можуть стати доказами, а “безневинні” розмови можуть мати наслідки. Політика конфіденційності перетворилася зі стіни, на штору, яку можна легко відсунути. Не треба думати, що чат згенерований ШІ – це наш щоденник з секретиками та замком, як у дитинстві. Адже це сервер, доступ до якого може отримати суд, корпорація чи уряд.
Головне питання полягає не в тому, що вміє ChatGPT, а в тому, чи готові ми жити у світі, де будь-яка інформація про нас залишає цифровий слід, який може колись прочитати хтось інший. Тож варто не лише користуватись технологіями, а й використовувати їх з розумом.