Чому ШІ нас всіх вбʼє і чи є в нас ще шанси?
Наївно вірити, що штучний інтелект, який перевершує людину, буде нашим другом і ми будемо йому потрібні
Це огляд книги If Anyone Builds It, Everyone Dies. The Case Against Superintelligent AI (укр. Побудує хтось один — помруть усі) від Еліезера Юдковського та Нейта Соареса.

Photo by Lucas Brito on Unsplash
Я не великий фанат горор-книг та фільмів жахів. Не те що вони мене не лякають, навпаки, мене легко піймати скрімерами або навіть простими деталями вбивств. Я просто класифікую ці твори наступним чином:
1. Це неможливо в реальному житті
2. Це можливо, проте я радше лотерею виграю, ніж мене зачепить
Тому не вважаю за потрібне витрачати на це свій час.
Проте я з превеликою цікавістю звертаю свою увагу на книги, в яких автори намагаються привернути увагу до абсолютно реальної небезпеки, яка нам всім, чи більшості з нас, загрожує.
Одна з недавніх таких книг Nuclear War: A Scenario (укр. Ядерна війна: Сценарій) від Енні Якобсен.
Інша, яку я тільки закінчив слухати, — If Anyone Builds It, Everyone Dies (укр. Побудує хтось один — помруть усі). Цю книгу написали Еліезер Юдковський та Нейт Соарес. І про неї я хочу трохи поговорити.
Почну з короткої інформації про авторів.
Перший і найголовніший — це Еліезер Юдковський.
Він відомий та шанований дослідник, прославився популяризацією ідей про безпечний ШІ та чому неконтрольований розвиток ШІ приведе нас всіх до загибелі.
Слухаючи книжки про ШІ та його розвиток, імʼя Еліезера звучало досить часто, майже завжди коли мова заходила про небезпеку, яку несе ШІ. Серед людей, що поділяють його думки, згадували таких топчиків, як Ілля Суцкевер чи Джефрі Гінтон.
Другий автор — Нейт Соарес.
До цієї книги я про нього ніколи не чув, тому довелось трошки почитати хто він. Нейт президент Machine Intelligence Research Institute — некомерційна організація яка досліджує ризики які несе ШІ, заснована Юдковським.
А тепер до головного.
Вся книга це по факту велика збірка уявних експериментів чи трагічних прикладів з метою переконати читача в тому, що штучний інтелект — це екзистенціальна небезпека для людства якщо ми не створимо його правильно.
Автори починають з того, що наводять деталі процесу створення штучного інтелекту та підкреслюють, що це більше схоже на процес вирощування, ніж будування. І що на виході ми отримуємо настільки великі набори значень, що творцям просто не зрозуміти, що взагалі там всередині.
Неповне розуміння результату і є першою ознакою небезпеки. Адже процес тренування штучного інтелекту не завжди досягає бажаної мети. І що виправляти помилки, чи налаштовувати отримане досить таки важко.
В цьому в принципі і є головна ідея книги. Маючи добрі наміри, ми можемо створити інтелект, який переважатиме людський, проте не буде нам підкорюватись. Або буде нас вводити в оману, імітуючи свою покору і роблячи що вважає за потрібним.
Дружелюбність ШІ це не є його гарантована властивість. Він може бути дружелюбним до людей. А може й вбачати в них загрозу, наприклад, боючись що ми створимо йому конкурентів.
Отже, від необачного створення штучного інтелекту який переважає нас хоча б на трохи програють всі.
Відштовхуючись від цього, Еліезер та Нейт намагаються пояснити свою теорію, що варіантів як нас може підкорити бунтівний ШІ безліч. І майже всі ці варіанти можуть матеріалізуватись настільки швидко, що в нас, людей, не буде часу навіть зрозуміти що відбувається.
І це, як я вже писав на початку, справжня загроза з якою ми можемо зіткнутись.
Особисто я вважаю такий сценарій вірогідним, хоча визнаю, спочатку мені здавалось це все трохи шапочками з фольги.
Найсумніше в цьому творі те, що автори теж визнають безвихідність ситуації: зупинити перегони за кращим ШІ зараз вже виглядає непосильним, туди гроші течуть без упину і вже навіть держави допомагають великим гравцям.
З того, що мене здивувало, це опасіння авторів стосовно ChatGPT-5. Адже це LLM — велика мовна модель, і ми вже досить добре знаємо, що вона добре запамʼятовує речі, непогано «думає», проте багато топових дослідників сходяться на тому, що LLM це потужний інструмент, але все ж таки тупикова гілка розвитку.
Мені важко якось однозначно підсумувати цей твір.
З одного боку, достатньо лячний прогноз. З іншого, вплинути на ситуацію можна лише обʼєднавшись всім разом, чого очевидно не буде. От і залишається тільки схрестивши пальці спостерігати за гонитвою за ШІ та сподіватись, що ми таки не побудуємо якусь хрінь, яка буде нашим вироком.
Ще додам, що хоч книга й досить невелика, проте вона все одно видалась мені трошки затянутою. В 2023 році Еліезер Юдковський написав статтю для Time, вона всього лише на 11 хвилин читання, проте, як на мене, коротко передає весь посил книги та мислення Юдковського. Тож раджу прочитати статтю, якщо часу на книгу немає.
Як вважаєш ти: чи дійсно розвиток ШІ загроза для людства?
Якщо так, чи думаєш ти що це трапиться за нашого з вами життя?
Цей довгочит та інші є також в мене на Medium 😌
І також анонси постів на тематику ШІ та інші викладаю в Telegram-каналі.
Ласкаво прошу!

7 коментарів
Додати коментар Підписатись на коментаріВідписатись від коментарів