Машина прогресу чи руйнування? Сем Альтман про долю штучного інтелекту

Мабуть, усі пам’ятають незабутню сцену з легендарного блокбастера “Термінатор”, коли творець кіборга, який мав стати рятівником людства, раптом з жахом і розпачем усвідомлює: його прагнення допомогти прогресу обернулося народженням справжнього монстра. Ця мить – момент морального зламу, коли геній, охоплений почуттям провини, готовий принести в жертву власне життя, аби тільки зупинити створену ним машину руйнування. Це кульмінація, що змушує серце стискатися, нагадуючи, як небезпечно і тонко переплітаються мрії про велич із трагедією творіння.
Схоже, подібні думки й почуття цілком зрозумілі й розробнику OpenAI Сему Альтману, ключовій постаті у розвитку штучного інтелекту і колишньому президенту Y Combinator. В інтерв’ю виданню Bloomberg він поділився нюансами становлення компанії, її викликами, а також професійними конфліктами з командою та радою директорів, що відображає зіткнення між ідеалістичними цілями некомерційної організації та комерційними потребами розвитку штучного інтелекту. Інтерв’ю ілюструє, як розвиток AGI – штучного загального інтелекту – стикається з етичними, технологічними та соціальними викликами, і розкриває складність прийняття рішень у цій швидкозмінній галузі.
Коли штучний інтелект переходить на бік зла
На жаль, штучний інтелект, цей витвір людського генія, інколи опиняється в руках тих, хто використовує його для сумнівних цілей. Зловмисники дедалі частіше звертаються до ШІ, щоб створювати маніпулятивні технології, вводити в оману та шкодити заради своєї вигоди, реалізуючи інстинкт влади чи почуття власної переваги.
Наприклад, технологія deepfake дає змогу створювати відео, де політики або громадські діячі виглядають так, ніби промовляють слова, яких насправді вони ніколи не казали. Ця технологія є ніби ніж у спину, що руйнує репутації, спричиняє конфлікти та розпалює недовіру в суспільстві.
Шахраї використовують генератори тексту, вдосконалені до рівня, де їхні повідомлення виглядають цілком правдивими, переконливими чи зворушливими. Через ці оборудки люди втрачають особисті дані чи гроші, повіривши у фальшиві прохання чи обіцянки.
На фінансових ринках ШІ застосовується для поширення фальшивих новин і маніпуляцій, що впливають на ціни акцій і спричиняють економічні потрясіння. У цифровому просторі фейкові новини, створені алгоритмами, підривають довіру та спричиняють соціальні розколи.
Особливо небезпечними є технології, що підробляють голоси, створюючи ілюзію, що з вами на зв’язку близька людина. Такі маніпуляції спонукають людей віддавати свої кошти або ділитися цінною інформацією.
Дилема “безпека проти можливостей”
Отже, темна сторона ШІ нагадує про важливість контролю за цими технологіями. Альтман розповів про напругу між правлінням компанії та виконавчою командою OpenAI через різні погляди на те, як розвивати штучний загальний інтелект. Розробникам доводилося вирішувати дилему: як збалансувати швидкий розвиток штучного загального інтелекту із забезпеченням його безпеки для суспільства. Правління компанії вважало, що важливо рухатися повільно, ретельно контролювати процес і враховувати всі ризики, адже AGI може створити серйозні загрози, якщо вийде з-під контролю. Вони боялися, що ця технологія може бути використана для злочинних цілей або навіть стати некерованою, якщо досягне певної автономності.
Під час розробки спільних проєктів Сем Альтман співпрацював із такими впливовими особистостями як Ілон Маск. Їх об’єднала спільна ідея: зробити ШІ безпечним і корисним для всіх. Однак з часом їхні погляди розійшлися. Маск, який побоюється неконтрольованого розвитку ШІ, критикував OpenAI, яку вони заснували разом з Альтманом. Він вважав, що комерційна модель може поставити прибуток вище безпеки. Натомість Альтман вірив, що лише через швидке впровадження продуктів і тестування їх у реальних умовах можна вчасно виявити проблеми й навчитися їх вирішувати. Він також побоювався, що, якщо OpenAI не прискорить свої дії, конкуренти можуть випередити їх, створивши менш безпечні версії AGI. Для Альтмана важливо було йти вперед, навіть якщо це пов’язано з ризиками, адже інакше компанія могла втратити лідерство в галузі.
Зрештою, цей конфлікт показує широку проблему всієї галузі: як непросто створювати потужні інформаційні технології, не завдаючи шкоди суспільству. Альтман вважає, що ризики можна контролювати в процесі роботи, натомість правління OpenAI бачило у надшвидкому розвитку потенційну загрозу суспільству. Це питання залишається відкритим і дуже важливим для майбутнього AGI.
Зміна риторики OpenAI щодо AGI
OpenAI змінила спосіб, у який говорить про штучний загальний інтелект, щоб людям було легше зрозуміти, над чим саме працює компанія і якого прогресу досягає. OpenAI почала описувати свої розробки через конкретні рівні розвитку. Такий підхід дозволяє точніше сказати, на якому етапі зараз перебуває технологія і що вона вже може робити. Це замінило складні дискусії про те, чи досягли вони AGI, на зрозумілу оцінку того, які саме завдання їхні системи здатні виконувати. Раніше вони відкрито обговорювали AGI як свою головну мету, але це викликало багато плутанини, бо ШЗІ – складна ідея, яку люди розуміють по-різному.
Хтось уявляє це як машини, що можуть робити все, як люди, а хтось – як системи, які стають ще потужнішими, розвиваючи самі себе. Дехто гуманізує ШЗІ, припускаючи, що останній може уподібнитися людині: думати, відчувати, аналізувати ситуації та приймати рішення, як ми. Інші вбачають у ньому щось більше: систему, яка зможе покращувати сама себе і досягти такого рівня розвитку, що її можливості перевершать усе, що ми, люди, можемо собі уявити. Такі системи могли б розвиватися самостійно, створюючи нові технології і знання, недоступні людям.
Сьогодні ми маємо справу лише зі штучним вузьким інтелектом, який виконує конкретні завдання – грає в шахи, перекладає тексти чи аналізує дані. Мабуть, на щастя, ШЗІ, який міг би працювати як універсальний розум, поки що залишається лише мрією науковців.
Тривога через автономність і ризики AGI
Альтман говорить про те, що, хоча довгострокові ризики AGI важко змоделювати, вони є реальними. Він підкреслює, що навіть короткострокові небезпеки, зокрема, неправильне використання ШІ для кібербезпеки чи біологічної зброї, вже стають серйозним викликом. Розробник OpenAI визнає, що важко точно передбачити відкладені потенційні проблеми AGI, наприклад, чи зможе автономна система в майбутньому вийти з-під контролю або діяти проти інтересів людей. Однак ці ризики він вважає надзвичайно серйозними.
Водночас Альтман наголошує, що короткострокові небезпеки вже стають реальністю. Наприклад, моделі ШІ можуть бути використані для створення кіберзагроз або навіть для розробки небезпечної біологічної зброї, якщо йому надати відповідні запити. Він згадує випадки, коли технології OpenAI підвищували ризик їх неправильного використання для створення подібної зброї. У 2022 році дослідники показали, як ШІ може симулювати створення отруйних речовин, що викликало занепокоєння і підтвердило необхідність регулювання.
Ще один ризик – можливість отримання інструкцій для виготовлення біологічної зброї. ШІ може автоматизувати пошук інформації про створення небезпечних патогенів або їх модифікацію, що можуть використати навіть некваліфіковані особи. Також ШІ може бути використаний для дослідження мутацій вірусів чи бактерій, створюючи патогени, стійкі до лікування. Ці процеси стають швидшими завдяки ШІ, що несе загрозу.
Іншим ризиком є соціальна інженерія. ШЗІ може створювати правдоподібні тексти, листи чи інший контент, щоб обманом змусити співробітників лабораторій до небезпечних дій або розголошення інформації.
Ці приклади підкреслюють важливість етичного регулювання ШЗІ. Сем Альтман стоїть на передовій битви за майбутнє, де технології можуть стати загрозою. Його головні виклики – це питання безпеки ШЗІ та виживання людства в епоху, де машина може стати сильнішою за свого творця.
Альтман бореться за баланс: як створювати нове, не забуваючи про відповідальність, як забезпечити прибуток, не зраджуючи принципам, і, найголовніше, як зберегти технології для всіх, а не віддати їх у руки обраних. Його ідея проста і водночас глибока: штучний інтелект повинен бути нашим союзником, а не нашим ворогом.
Це не лише про коди і алгоритми. Це про силу, яка формує світ. Для одних ШЗІ – це майбутнє, яке допоможе вирішувати великі проблеми на кшталт лікування хвороб чи зміни клімату. Інші бояться, що такі системи можуть вийти з-під контролю або стати інструментом для зловмисників. Тому обговорення цієї теми важливе не тільки для науки, але й для всіх нас, адже це може змінити наше життя більше, ніж ми можемо уявити.
Тетяна Вікторова