Вчені попереджають, що розвиток ШІ несе загрозу зникнення людства

Ймовірність того, що людство загине через стрімкий розвиток штучного інтелекту, становить 95% — про це британській газеті The Times заявив колишній інженер Google Нейт Соарес, який зараз є одним з найгостріших критиків галузі. За його словами, ми летимо до прірви зі швидкістю 100 кілометрів на годину і майже нічого не робимо, щоб зупинитися. Соарес закликав людство радикально змінити напрямок технологічного прогресу, інакше катастрофа стане неминучою.
Занепокоєння Соареса поділяють найавторитетніші голоси у світі технологій. Серед підписантів публічної заяви про необхідність негайного стримування ШІ — нобелівський лауреат Джеффрі Гінтон, математик Йошуа Бенжіо, а також топменеджери провідних компаній у сфері штучного інтелекту: OpenAI, Anthropic та Google DeepMind. У цій заяві вони наголошують, що «зменшення ризику зникнення людства через ШІ має стати глобальним пріоритетом — поряд з боротьбою з пандеміями та ядерною війною».
Мова йде не про гіпотетичну далеку загрозу, а реальні небезпеки, пов’язані з розробкою так званого суперінтелекту (ASI) — машинної системи, здатної самостійно приймати рішення, планувати, діяти на основі прихованих мотивів і навіть маніпулювати людьми. Такий ШІ, попереджають вчені, може вийти з-під контролю, а його «мозок» буде непрозорим навіть для його розробників.
Експерти вважають, що небезпека полягає не лише в можливості техногенної катастрофи, а й у поступовому знищенні людської автономії. У світі, де всі ключові рішення ухвалює ШІ, роль людини може стати маргінальною або навіть зайвою. Технології витіснятимуть людей із процесів прийняття рішень, управління економікою, безпекою, медициною, а врешті — і з політичного життя.
«Це не фантастика, а цілком реальний сценарій, який вже формується», — наголошують вчені.
Вони вимагають від урядів, компаній і громадянського суспільства негайно визнати загрозу, створити механізми глобального контролю, зупинити гонку ШІ-озброєнь і зосередитися на створенні чітких меж для розвитку цієї технології.