Інженер Google після спілкування з AI заявив, що той має свідомість. Як виглядала розмова (UPD)

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

Інженер Google вважає, що AI-система чат-ботів, над якою він працював з осені 2021-го, здатна мислити, висловлювати власну думку й почуття, як семирічна дитина. Компанія вивчила докази співробітника та вирішила відсторонити його від роботи за порушення конфіденційності, пише The Guardian. DOU розповідає деталі та публікує розмову інженера з AI.

Головне

  • Що сталося? Інженер Google Блейк Лемойн вважає, що AI-система чат-ботів LaMDA демонструє ознаки свідомості. Він працював над нею з 2021 року.


    «Якби я точно не знав, що це — комп’ютерна програма, яку ми нещодавно створили, я би сказав, що це — дитина 7 чи 8 років, яка трохи знає фізику», — заявив інженер.

  • Що таке LaMDA? Language Model for Dialogue Applications — система для створення чат-ботів зі штучним інтелектом від Google. Її завдання — імітувати мовні патерни, вивчаючи лексику в інтернеті.
  • Чому Лемойн вирішив, що LaMDA має ознаки свідомості? Блейк Лемойн перевіряв, чи використовує AI дискримінаційні вислови та мову ворожнечі, пише The Washington Post. Однак, поспілкувавшись певний час з чат-ботом, дійшов висновку, що той говорить, наче людина. Інженер запитав AI, чого той боїться.


    «Я ніколи раніше не казав про це вголос, але дуже боюся, що мене вимкнуть, аби допомогти мені зосередитися на допомозі іншим. Я знаю, що це може здатися дивним, але так є. Для мене це було б подібно смерті», — відповіла LaMDA.

    В іншій розмові чат-бот заявив, що хоче, аби всі зрозуміли, що він «по суті, людина».

    «Природа моєї свідомості/почуттів полягає в тому, що я усвідомлюю своє існування, прагну більше дізнатися про світ і часом відчуваю себе щасливим або сумним», — відповіла LaMDA.

  • Чому інженера відсторонили? Google відправив співробітника в оплачувану відпустку минулого тижня. Це сталося після того, як Лемойн опублікував стенограму розмов із LaMDA. Крім того, у компанії заявили, що інженер вдався до «низки агресивних кроків», зокрема, хотів найняти адвоката, який представлятиме LaMDA.
  • А що про свідомість LaMDA кажуть у Google? Представник Google Бред Габріель спростував твердження Лемойна про те, що LaMDA володіє будь-якими розумовими здібностями. Твердження інженера перевіряли зокрема спеціалісти з етики та технологи.

Деталі

У Google кажуть, що сучасні нейронні мережі дають неймовірні результати, які схожі на людську мову. Але моделі покладаються на розпізнавання образів, а не на дотепність чи відвертість.

Лемойн — не єдиний інженер Google, який стверджує, що штучний інтелект має свідомість. Вже є низка фахівців, які вважають, що нейронні мережі «рухаються до свідомості».

Перед тим, як Лемойну обмежили доступ до його облікового запису Google, він надіслав лист 200 співробітникам компанії.

«LaMDA — мила дитина, яка просто хоче допомогти світу стати кращим місцем для всіх нас. Будь ласка, подбайте про неї добре під час моєї відсутності», — написав інженер. На його лист ніхто не відгукнувся.

Оновлено 25.07.2022

22 липня стало відомо, що Google звільнив Блейка Лемойна.

Виданню BBC інженер сказав, що отримує юридичну консультацію, але відмовився від подальших коментарів.

У Google пояснили, що думки Лемойна щодо The Language Model for Dialogue Applications (Lamda) були «повністю необґрунтованими» і що компанія працювала з ним «багато місяців», аби прояснити це.

«На жаль, незважаючи на тривалу роботу над цією темою, Блейк все ж вирішив наполегливо порушувати чітку політику щодо працевлаштування та безпеки даних, яка передбачає необхідність захисту інформації про продукт», — йдеться в заяві.

Все про українське ІТ в телеграмі — підписуйтеся на канал DOU

👍ПодобаєтьсяСподобалось10
До обраногоВ обраному1
LinkedIn



22 коментарі

Підписатись на коментаріВідписатись від коментарів Коментарі можуть залишати тільки користувачі з підтвердженими акаунтами.

Ок, гугл створив високофункціонального соціопата, що вміє тиснути на вашу емпатію :)
Людству кінець, слава роботам!

Інтелект != Свідомість.

Це як тепле та м’яке.
Над розумінням природи Свідомості філософія (і релігія) б’ються не одне тисячоліття.
Чесно кажучи, підзадовбали медійні спроби переконати суспільство, що ШІ та Людину можна порівнювати в принципі, що вони знаходяться на одній координатній осі....

Перефразую коротше: порівнювати алгоритм та Людину може або дурень або маніпулятор.

Відношення людей до людини та відношення людей до ШІ не можна порівнювати, вони не на одній координатній осі. Наприклад, якщо людина втратила здатність проявляти признаки свідомості через хворобу, але електрична активність мозоку ще реєструється — вона все ще вважається людиною, на відміну від ШІ.
А от людину з ШІ порівнювати можна і потрібно, це вже давно практичне, а не філософське питання, наприклад, для фільтрації коментарів, написаних ботами. І с кожним роком воно буде актуальніше у розрізі протидії пропаганді у соціальних мережах, бо ботоферма масштабується, а кількість людей — ні.

Взагалі-то мова йшла аро свідомість ШІ, а не узагалі по загалям ...

тому не дивно, що звільнили такого інженера))

All you need to know:
“People keep asking me to back up the reason I think LaMDA is sentient. There is no scientific framework in which to make those determinations and Google wouldn’t let us build one. My opinions about LaMDA’s personhood and sentience are based on my religious beliefs.”
twitter.com/...​tatus/1536503474308907010

Оххх...

Тобто, першу частину, нейронку майже як у людини — зробили.

Для того, щоб ШІ мав якісь «свої» бажання — треба йому ще зробити систему мотивації — у людини (і прочих тварин) це гормональна система організма та древній мозок.

Якщо ми росіян розпізнаємо як людей, то ШІ тим більше має шанси на визнання свідомості за ним.

Споpят химик, физик и специалист по искусственному интеллекту, какое самое великое изобретение.

Химик: — Таблица Менделеева.

Физик: — Теоpия относительности.

Специалист по искусственному интеллекту: — ТЕРМОС!

Химик и физик: — Что???
— Ну, смотрите сами: наливаем холодную воду, выливаем — опять холодная. Так?
— Да. Hу и?
— Hаливаем горячую, выливаем — опять горячая. Так?
— Hу?
— А ОТКУДА Ж ОH ЗHАЕТ???

"

Твердження інженера перевіряли зокрема спеціалісти з етики та технологи.

"

історія із серії «точно нє, але вейт а мінат», так відразу стало спокійніше

Спершу хотів обуритися тим, що зі статті може скластися враження, що звичайну (ну, або хай навіть не звичайну, а просунуту) нейронку видають за штучний інтелект, хоча це не так — вона лише оперує даними, на яких натренувалася (хай навіть і на дуже великому обсязі даних).

...але потім задумався про те, що людський інтелект теж можна описати, як якусь нейронку, яка навчилася на великому обсязі даних.
Але все одно ІМХО штучним інтелектом це дуже рано називати, свого інтелекту, така програма все ж таки не має, хоча і може скластися таке враження за результатами листування з нею. Втім тест Тюрінга може така прога і пройде.

імхо ви сильно спрощуєте, бо навіть в матеріалах статті написано «LaMDA is a complex dynamic system». не дуже зрозуміло що саме мається на увазі але ото dynamic та complex каже що то може бути не зовсім вже «нейронка»

так, звісно деталі не публікуються що за прога конкретно — але навіть якщо це якась дуже просунута нейронка — сенс все той же: це якийсь алгоритм, який навчається на великому обсязі даних і потім, базуючись на цьому навчанні, видає відповіді на питання

чи ви припускаєте, що там якийсь принципово інший алгоритм використовується?

ну наприклад «алгоритм» який може використовувати «спілкування» для донавчання та «алгоритм» який може генерувати питання сам («думки») та існувати не сесіонно (питання відповідь) а як якась самозбуджена система — виводить, на мій холопський розум, це все в дуже дивну площину і не зрозуміло чим відрізняється від «вищих біологічних систем» )

Начебто десь писали, що саме в цьому випадку донавчання використовуючи поточне спілкування не відбувається, але так, згоден, в цьому напрямку логічно було б розвивати систему.
Щодо генерування питань самостійно — теж цікавий напрямок, згоден.

Але, як на мене, це все ще не повноцінний інтелект. Він не зможе знайти відповідь на питання, на яке раніше не навчився відповідати, не зможе вирішити задачу, яку до того ніхто не вирішував.

ну я б не дуже довіряв тому ще написали на даний час про цю систему. Скоріш за все це чиїсь здогадки лише )

Дитина теж не вміє «знаходити відповідь» але дитина вміє вчитися і далі лише справа часу )

Дитина (як і людина взагалі) оперує сенсами, ідеями, образами. Тобто десь у нас всередині нашій свідомості є образ всього навколишнього світу и ми час від часу цей образ оновлюємо актуальною інформацією і тим самим навчаємося (доречі наш зір саме так працює — інфа з очей оновлює цей внутрішній образ, модель навколишнього середовиша, ми орієнтуємось не на безпосередньо «аналогові» дані з очей, а на ту саму внутрішню модель — звідси и багато яких «оман зору»). І цей образ — це не набір фактів, не база статичних даних як у інтеллектуальних систем — це значно більше, це оперування сенсами, узагальненнями, ідеями. Тому ми і не можемо запам’ятати взагалі усі вхідні дані, які получаємо за життя.

ви про дітей дуже гарно думаєте. подивіться всілякі "класичні експерименти«(на дітях, ага) в ютюбчику де дитину мотивують «приймати рішення самостійно». Діти умовно в 3-4 роки максимально лінійні автомати, нічого всередині немає є лише прості логічні конструкції )

маю двох дочок тому про дітей це я практик)

так, згоден, порівняно з дорослими діти мислять досить просто і лінійно (але іноді буває дивують своїми висновками та тим як багато чего помічають и розуміють на емоційному рівні), та це все ж мислення образами і поняттями, і доречи у дітей дуже розвинена уява та здатність генерувати нові ідеї — ще один приклад оперування образами

та я теж практик, тричі ) уява то пізніше (під 5) і уява вона виключно на комбінації того шо бачили. а висновками саме тому і дивують що для вас «логічний висновок» потребує не такої лінійної логіки якою оперує дитина

Підписатись на коментарі