Социальная

Искусственный интеллект в системе контроля: невидимая сторона ChatGPT и чем он опасен

Кажется, еще вчера искусственный интеллект являлся темой научной фантастики, а сегодня он стал уже частью ежедневной рутины. Найти идею для подарка, написать текст, проверить домашнее задание, объяснить сложную тему на простом языке можно поручить ChatGPT. И что любопытно, он со всем этим справляется быстро и с легкостью. Удобство общения с ИИ сделали его новым «онлайн-ассистентом» миллионов людей, однако за этой блестящей оберткой скрывается ряд рисков, о которых не все знают. От ложных ответов к утечке данных или формированию искаженной картины мира. Использование ChatGPT может не только помогать, но и навредить. Понятно, что ChatGPT стал незаменимым для многих, но стоит помнить, на какие риски мы идем, полностью доверив ему часть своей жизни.

Что такое ChatGPT и зачем он нужен

Искусственный интеллект уже давно не является темой только для кинофильмов или научных конференций. Теперь он может написать вам письмо, решить задачу, помочь с диетой и даже подсказать, что приготовить на ужин. Одним из самых заметных «деятелей» в этой области стал Generative Pre-trained Transformer (ChatGPT), бот, который научился на куче текстов и теперь отвечает на все, что вы ему напишете.

OpenAI уже успела удивить мир, когда представила нейросеть, которая рисует картинки по словам, под названием DALL-E. Летом к ней открыли доступ всем желающим и мгновенно соцсети наполнились фантастическими изображениями, созданными не художниками, а обычными пользователями. Одни радовались, что могут рисовать, не умея держать кисти, другие беспокоились, что такой подход может ударить по настоящим художникам.

Если DALL-E примеряет на себя роль художника, ChatGPT стал настоящим мастером слова. Он пишет тексты во всех возможных жанрах: от стихов до научных работ, может создать пост для соцсетей, план питания, письмо любимому человеку или объяснить сложную тему простыми словами. Кроме того, он немного программист, кулинар, коуч и даже психолог на минималках. Чат дает подсказку, как починить код, проложить маршрут на отдых, составить резюме и делает это вполне убедительно.

Использовать ChatGPT просто: заходишь на сайт OpenAI, регистрируешься (можно через Google или Microsoft), и общайся себе на украинском, английском или на любом другом доступном языке. Правда, некоторые пользователи заметили: английский ответ иногда точнее. Но даже на украинском этот бот умеет удивлять и не только тем, что знает почти все, но и тем, что иногда, как и любой инструмент, ошибается. Пользователям следует помнить простую истину, что ChatGPT может не только приносить пользу, но и риски.

Почему крупные компании бьют тревогу

ChatGPT действительно умный, быстрый и полезный, но не все в восторге от его возможностей. Некоторые компании, особенно имеющие дело с большим количеством конфиденциальной информации, уже успели обжечься и теперь держатся от чата на расстоянии вытянутой флешки. Например, у Samsung был громкий инцидентКогда один из инженеров, мол, нечаянно вставил в ChatGPT часть внутреннего кода компании. Бот, конечно, не забыл. Проблема в том, что все, чем мы делимся с ИИ, сохраняется где-то на серверах, и уверенности в том, что эти данные никогда не попадут в глаза посторонних нет. После этого случая Samsung просто сказала «достаточно». Никакого ChatGPT на работе, а заодно и никаких AI-инструментов, если в запросах есть что-нибудь частное или корпоративное.

Наряду с Samsung к списку аккуратных присоединились банки. JPMorgan одним из первых ограничил использование ИИ среди своих работников. Bank of America, Citigroup, Deutsche Bank, Wells Fargo и даже Goldman Sachs тоже решили не рисковать, потому что даже если ChatGPT не злой гений, то доверять ему внутренние данные все равно, что рассказывать свои пароли случайному прохожему. Amazon также не остался в стороне. Компания предупредила своих работников: никаких истоков даже случайных. Особенно когда речь идет об исходных кодах или инструментах, которые еще не вышли в свет. Apple, хотя сама не отстает в разработках искусственного интеллекта, тоже наложенный табу для использования генеративных платформ, таких как ChatGPT. Компания тоже опасается утечки данных, над которыми работает годами. А теперь самое интересное: даже Google, компания – разработчик собственного чатбота Bard не советует своим работникам делиться с ботами нечем, что не должно «выплыть» наружу. Ибо все, что вы вводите может стать частью ответов другим пользователям. То есть ваш код, персональные данные или идеи вполне могут «всплыть» в чьем-то другом диалоге.

ПОСМОТРИТЕ ЕЩЕ:  Здоровое питание в школах: насколько далеко мы продвинулись

Некоторые компании пошли по пути компромисса. Например, PwC разрешает изучать ChatGPT, но строго-настрого запрещает применять его в работе с клиентами. А юридические фирмы вообще очень настороженно отнеслись к ИИ — около 15% из них уже официально предупредили своих работников о рисках, а некоторые, как Mishcon de Reya, ввели полный запрет. Даже на уровне государств есть вопросы к ChatGPT. В апреле Италия на несколько недель заблокировала доступ к сервису, сославшись на проблемы с конфиденциальностью, вроде бы другие пользователи могли видеть заголовки чужих чатов. OpenAI быстро исправилась и добавила функцию удаления истории и сделала настройки конфиденциальности более прозрачными. Но, как говорится, неприятный осадок остался.

Все эти примеры стали прямым напоминанием о главном: ChatGPT не стоит воспринимать как какую-то волшебную палочку, потому что это очень мощный инструмент. А любой инструмент, если с ним обращаться не осторожно, может натворить беды.

Какие угрозы таит в себе ChatGPT

С первого взгляда ChatGPT производит впечатление почти идеального собеседника. Он всегда вежлив, не перебивает, не навязывает свое мнение и умеет говорить на любую тему – от приготовления борща до философии стоицизма. Но стоит лишь немного углубиться и сразу становится понятно: за этим удобством скрываются риски, о которых важно знать каждому, кто хоть раз открывал чат с ботом.

Люди часто делятся с ChatGPT чем-то очень личным, например, рассказывают, где живут, как зовут детей, пишут свою электронную почту, номер телефона, а иногда даже посылают пароли, данные банковских карт или коды из рабочих проектов. И все это в диалоге с нейросетью, которая в отличие от обычного собеседника запоминает каждое слово буквально. К сожалению, многие забывают, что все, введенное в чат, может остаться на серверах компании. А это уже совсем другой уровень риска.

Кое-кто использует ChatGPT даже как врача: спрашивает о симптомах, просит совета по лекарствам, делится историями болезней. Но бот не должен восприниматься как медик. Его ответы базируются на общедоступной информации, которая может быть не только устаревшей, но и ложной. А ошибка в такой ситуации может оказаться не просто неудобством, а реальной угрозой для здоровья.

К тому же чатботы обладают свойством иногда «проговариваться». В 2023 году появилось сообщение о том, что ChatGPT случайно показывал пользователям фрагменты чужих диалогов с указанием адресов, кодами и даже названиями презентаций. Это не то, чего ожидаешь, когда просишь помочь с резюме или рецептом для ужина. И хотя OpenAI добавила настройки, позволяющие удалять историю чатов, даже это не дает стопроцентной гарантии.

Казалось бы, обычный разговор, а сколько в нем скрытых угроз. Указал адрес и вот уже раскрыл местонахождение. Ввел номер телефона и открыл путь к отслеживанию. Поделился историей работы и уже информация, которая должна остаться за закрытыми дверями офиса, может оказаться в открытом доступе. А самое неприятное, вы даже не узнаете, когда и кому она выпадет в ответе.

Следует понимать, что ИИ может быть в известной степени еще и «стекачем». Чат-боты, такие как ChatGPT, имеют встроенные ограничения, которые не позволяют им помогать в опасных или незаконных вещах. И если вы решите проверить систему на прочность, например, попросить инструкцию, как сломать банковский счет, создать дипфейк политика или подделать документы, то вы можете попасть в беду гораздо более серьезную, чем просто получить вежливый отказ.

Многие платформы ИИ прямо предупреждают в своих правилах: незаконные запросы, попытки мошенничества или использование ИИ в преступных целях могут быть зафиксированы и переданы соответствующим органам. И это уже не шутки, ведь ваш чат может стать доказательством. Реальность такова, что мир начал активно создавать правовые «огнетушители» вокруг искусственного интеллекта. И хотя правила отличаются от страны к стране, тенденция одна: государство не намерено стоять в стороне, пока кто пытается превратить ИИ в преступного сообщника.

Например, в Китае использование ИИ для подрыва государственной стабильности несет за собой реальную уголовную ответственность. Там уже задерживали людей за распространение сгенерированных ботами фейковых новостей. В странах ЕС, согласно недавно принятому AI Act, все дипфейки должны быть четко маркированы. Нет отметки, то стоит ждать штрафа или чего хуже. А в Британии уже действует закон, согласно которому публикация сгенерированных ИИ эротических изображений человека без его согласия воспринимается как уголовное преступление, даже если это была просто шутка.

ПОСМОТРИТЕ ЕЩЕ:  Кому война, а кому прибыль

Поэтому, прежде чем спросить что-то из серого сектора, лучше хорошо подумать, действительно ли вам нужен все помнящий собеседник и, при определенных условиях, может поделиться этим с властью.

Суд против анонимности: новая эра цифровой ответственности

Привычка говорить с ChatGPT напоминает шепот в пустую комнату: быстро, доверительно, без страха кто-то услышит. Люди делятся здесь такими, о чем не решились бы сказать даже лучшему другу. Мы рассказываем о болезнях, проблемах в браке, финансовых тревогах и почему свято верим, что все это, словно написанное пальцем по воде, сразу исчезнет, как только закроем вкладку. Ведь согласно политике OpenAI большинство чатов автоматически удаляются через 30 дней и не попадают в систему обучения модели. Но недавно эта тихая договоренность лопнула, словно мыльный пузырь.

В деле The New York Times против OpenAI федеральный суд постановил хранить все пользовательские журналы, без исключений. Даже те, которые пользователи сочли временными и отказались от их использования в обучении. Решение суда перевесило все переключатели, флажки, анонимные режимы и обещания в политике конфиденциальности.

Пользователи все еще могут сами удалить свои чаты из своего аккаунта, потому что это право не отобрано. Но за кулисами все уже сохраняется и даже то, что раньше якобы «не сохранялось». И если чатом пользуется бизнесмен, ситуация может значительно усложниться. Ведь вполне понятно, что данные компании в таком случае превращаются в некую шахматную доску с коммерческими тайнами, контрактами, внутренними расчетами. Следует отметить, что все это стало юридически зафиксированным полем возможных исков.

Для юристов это обычное дело, ведь во время расследований суд обязывает хранить доказательства. Но для всех, кто верил в «цифровую конфиденциальность» такая возможность превратилась в настоящее землетрясение. Политика конфиденциальности перестала быть нашей броней. Теперь это лишь условное обещание, которое можно легко изменить или даже отменить решением суда, голосованием акционеров или просто новым пунктом в «пользовательском соглашении».

Стоит упомянуть, что уже неоднократно крупные компании типа Google, Zoom, Adobe задним числом меняли правила обращения с данными. Ожидания конфиденциальности не выдерживают давления прибыли, правовых требований или реструктуризаций. Теперь надо понять, что все мы живем в реальности, где наша конфиденциальность существует лишь настолько, насколько гарантирующая ее компания еще жива, не продана и не попала под суд. Решение суда теперь не является просто бюрократическим требованием. Это сигнал о том, что даже если OpenAI добросовестно выполняет предписание, теперь правила диктуют суды, перед которыми не устоит ни политика конфиденциальности, ни интерфейс с опцией «не сохранять историю».

Наша правовая система все еще живет в мире бумажных документов и серверных шкафов. Она не готова к ИИ, который ежесекундно впитывает в себя, как пылесос, личные данные миллионов, сливает индивидуальное в коллективное и сохраняет следы разговоров, которые люди считали временными. В такой среде, где нет четких ограничений на хранение, суды будут играть на опережение, ведь такие данные однажды могут стать важными доказательствами.

Это создает подлинный прецедент. Если чат в ChatGPT можно хранить для судебного дела об авторском праве, то ничего не помешает сделать то же для расследования домашнего насилия, поиска данных об абортах или других чувствительных тем. Поэтому, если мы хотим, чтобы наши личные разговоры оставались личными, нужны не просто добрые намерения, а законы, ограничивающие хранение, защищают временное как незыблемое, и требуют дизайна систем, которые не запоминают больше, чем нужно. В противном случае личные чаты перестают быть личными, в любую минуту их можно вытащить из теней и прочитали вслух в зале суда.

Мы привыкли к ChatGPT, как к карманному эксперту, советчику и даже собеседнику. Однако то, что кажется удобным и безопасным, не всегда таково. Разговор с ботом все чаще напоминает письмо, которое никогда не исчезает, даже если кажется, что его сожгли. Сегодня уже понятно, что временные чаты могут быть сохранены, даже анонимные запросы могут стать доказательствами, а невинные разговоры могут иметь последствия.  Политика конфиденциальности превратилась из стены в штору, которую можно легко отодвинуть.  Не надо думать, что чат сгенерированный ИИ – наш дневник с секретиками и замком, как в детстве. Это ведь сервер, доступ к которому может получить суд, корпорация или правительство.

Главный вопрос заключается не в том, что умеет ChatGPT, а в том, готовы ли мы жить в мире, где любая информация о нас оставляет цифровой след, который может когда-нибудь прочитать кто-то другой. Так что следует не только пользоваться технологиями, но и использовать их с умом.

 

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Related Articles

Back to top button