Дослідження розкрили, що штучний інтелект здатен маніпулювати людьми

Популярність генеративного ШІ, чат-ботів і антропоморфних асистентів стрімко зростає, відкриваючи можливості для маніпуляцій через використання поведінкових і психологічних даних, отриманих у процесі взаємодії з користувачами. Про це повідомляє видання Techsplore.
Дослідники Кембридзького університету попереджають про формування нового ринку, де штучний інтелект аналізує й прогнозує людські рішення, продаючи ці дані компаніям для комерційного використання.
Сучасні ШІ-інструменти здатні передбачати дії користувачів, такі як покупки, політичні уподобання чи особисті плани. Через персоналізоване спілкування вони можуть впливати на прийняття рішень, викликаючи довіру. Великі компанії, серед яких OpenAI, Meta, Nvidia та Apple, вже активно працюють над розробкою платформ для аналізу й прогнозування людських намірів.
Науковці наголошують на потенційних ризиках відсутності регулювання подібних технологій. Так звана «економіка намірів», побудована на використанні ШІ, може негативно вплинути на демократію, свободу слова та ринкову конкуренцію, забезпечуючи перевагу компаніям, які монетизують людські прагнення й рішення. Це розглядається як продовження економіки уваги, проте з глибшими суспільними наслідками.
Серед прикладів такого розвитку – платформа Apple «App Intents», яка дозволяє прогнозувати дії користувачів, а також дослідження Meta й OpenAI щодо інтеграції ШІ для аналізу бажань і намірів. У зв’язку з цим науковці підкреслюють важливість підвищення обізнаності суспільства та необхідність створення чітких етичних стандартів, щоб уникнути можливих маніпуляцій і зловживань.
Хоча використання цих технологій має й позитивні сторони, етичне впровадження потребує відкритої дискусії та усвідомлення суспільством потенційних ризиків.