Исследования показали, что искусственный интеллект способен манипулировать людьми

Популярность генеративного ИИ, чат-ботов и антропоморфных ассистентов стремительно растет, открывая возможности для манипуляций посредством использования поведенческих и психологических данных, полученных в процессе взаимодействия с пользователями. Об этом сообщает издание Techsplore.
Исследователи Кембридского университета предупреждают о формировании нового рынка, где искусственный интеллект анализирует и прогнозирует человеческие решения, продавая эти данные компаниям для коммерческого использования.
Современные ИИ-инструменты способны предусматривать действия пользователей, такие как покупки, политические предпочтения или личные планы. Из-за персонализированного общения они могут влиять на принятие решений, вызывая доверие. Крупные компании, среди которых OpenAI, Meta, Nvidia и Apple уже активно работают над разработкой платформ для анализа и прогнозирования человеческих намерений.
Ученые отмечают потенциальные риски отсутствия регулирования подобных технологий. Так называемая экономика намерений, построенная на использовании ИИ, может негативно повлиять на демократию, свободу слова и рыночную конкуренцию, обеспечивая преимущество компаниям, которые монетизируют человеческие стремления и решения. Это рассматривается как продолжение экономики внимания, однако с более глубокими общественными последствиями.
Среди примеров такого развития – платформа Apple App Intents, которая позволяет прогнозировать действия пользователей, а также исследования Meta и OpenAI по интеграции ИИ для анализа желаний и намерений. В этой связи ученые подчеркивают важность повышения осведомленности общества и необходимость создания четких этических стандартов во избежание возможных манипуляций и злоупотреблений.
Хотя использование этих технологий имеет и положительные стороны, нравственное внедрение требует открытой дискуссии и осознания обществом потенциальных рисков.