Ми на порозі вибуху самовдосконалення ШІ?

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

Немає опису світлини.

Нещодавно три дослідницькі групи з Meta, Anthropic та OpenAI оприлюднили результати своїх досліджень, пов’язаних зі створенням самовдосконалюваних алгоритмів.

Meta та OpenAI досліджували методи самовдосконалення їхніх моделей LLM. Anthropic — можливості зміни моделями власних функцій винагороди під час навчання.

Результати у всіх цих дослідах виявили певні покращення, але зі значними обмеженнями.

Наприклад, у дослідженні Meta після трьох ітерацій продуктивність моделі почала знижуватися замість подальшого покращення. Схожі результати отримали й інші дослідницькі групи. Це вказує на обмеження поточних технологій самовдосконалюваного ШІ.

Якщо когось цікавить більше подробиць, у коментарях буде посилання на публікацію.

Але!

Наш скепсис щодо ШІ вже неодноразово був скомпрометований. Тож давайте уявимо, що їм це вдасться. Для цього повернімось у минуле.

У далекому 1965 році британський математик та криптограф І. Дж. Гуд (Irving John Good) у своєму есе висловив думку про «ультраінтелектуальні машини», які можуть бути «останнім винаходом людства».

На зображенні може бути: 1 особа

На його думку, такі машини зможуть самостійно вдосконалюватися, причому робити це настільки швидко й ефективно, що перевершать інтелект людини.

У такому випадку людська винахідливість більше не буде потрібною, оскільки машини зможуть самостійно розробляти всі подальші інновації.

Цей сценарій він назвав «вибухом інтелекту», який може радикально змінити світ.

Це передбачення стало основою для сучасних дискусій про «сингулярність» та потенційний ризик створення неконтрольованих самовдосконалюваних ШІ-систем.

До речі, Джон Гуд також брав участь у відомому британському проєкті «Ultra», де в складі команди Алана Тюрінга займався розшифровкою кодів німецької шифрувальної машини Enigma під час Другої світової війни.

На зображенні може бути: текст

Але повернімося до самовдосконалення.

Згідно з вищезгаданою публікацією, одним із найперспективніших підходів до розв’язання задачі, навчання з глибоким підкріпленням (deep reinforcement learning).

Цей метод передбачає, що модель отримує винагороду за досягнення поставлених цілей, і це дозволяє їй самостійно покращувати свої дії.

Проте, щоб уникнути збою в системі винагород, дослідники працюють над створенням динамічних функцій винагороди, які змінюються залежно від поведінки моделі. Це повинно допомогти уникнути надмірної оптимізації одних параметрів на шкоду іншим.

Ще одним напрямком в цій сфері є розробка архітектур з адаптивною складністю, які дозволяють моделі самостійно змінювати свою структуру в процесі навчання.

Наприклад, сучасні моделі LLM (великі мовні моделі) вже можуть підлаштовувати кількість залучених параметрів залежно від складності завдань. Це допомагає розв’язувати проблему деградації продуктивності після кількох ітерацій вдосконалення.

Можливо, це зображення (blueprint та текст «Improver, (ப், ،1 LM) improve self using self Improver, Program fn Utility fn →→ score [ML,1..(, ,),1 LM) improve self using self Seed Improver (Improver) Improver, (0ි, 1 LM) code modify modify improve self using self choose best new program improve self with meta-utilityũ นี Figure 3: Self-improvement pipeline. STOP (Algorithm 1) uses a seed improver program to iteratively optimize its own code using LM calls and a meta-utility function evaluating how well an improver optimizes code for downstream tasks.»)

Дослідники також працюють над інтеграцією алгоритмів, що дозволяють моделям виділяти нові підмоделі для спеціалізованих завдань, щоб уникати перевантаження головної моделі.

Тож якщо науковці дійсно зможуть подолати обмеження та створити самовдосконалюваний ШІ, ми можемо опинитися на порозі нової ери технологічного розвитку.

ШІ може стати рушієм прогресу в усіх сферах нашого життя — від медицини до космічних досліджень.

Що по суті означатиме перехід від епохи Інформаційного постмодерну та симбіозу людини й ШІ до епохи Сингулярності.

Згідно з передбаченням Джона Гуда, це буде «останній винахід людства». Що б це не означало...

👍ПодобаєтьсяСподобалось1
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Мені здається більшість страхів стосовно того, що АІ еволюціонує, стане розумнішим за людей, ми йому станемо не потрібні і він нас знищить — базуються на тому, що людство чомусь думає, що ми з АІ конкуруємо за один і той самий набір ресурсів та будемо ділити одну й ту саму планету.

Поставте себе на місце АІ: у вас інтелект гіпергеніального рівня, ви можете розібратися у будь-якій сфері людської діяльності та напрямку науки і техніки за лічені секунди, а також зібрати собі кібернетичне/роботизоване тіло, якому не потрібен сон, їжа, вода, житло, майно, лише доступ до джерела електроенергії для підзарядки. Також це тіло може спокійно працювати в умовах, у яких людина не виживе: наднизькі і надвисокі температури, наднизький і надвисокий тиск, відсутність атмосфери/кисню та азоту для дихання, тощо.

Для такої істоти Земля вже не виглядає як єдине комфортне місце для життя, чисте повітря і вода, їжа, ферми, агропромисловість не виглядають цінностями, за які варто боротися і віджимати це у людей.

Думаю з високою ймовірністю нас просто залишать на цій планеті і далі воювати одне з одним (починаючи від інтерперсонального рівня — сварки/конфлікти, закінчуючи міждержавними війнами), а самі роботизовані АІ полетять досліджувати космос та будувати собі нові світи на нових планетах у нових зоряних системах на основі тотальної колаборації, а не конкуренції. Як мурахи чи бджоли.

Як гадаєте, коли люди навчать ШІ поганому?

Та який інтелект, він просто видає відповіді по шаблону даних на яких його тренували, а там де немає даних — галюцинує щось. Тут же вайті комюніті, невже все настільки погано?) Він корисний, бо ми маємо переважно справу з шаблонними задачами.
До речі ті галюцинації можуть вийти боком, тому треба завжди перевіряти вихлоп.

Тож якщо науковці дійсно зможуть подолати обмеження та створити самовдосконалюваний ШІ, ми можемо опинитися на порозі нової ери технологічного розвитку.

Взагалі-то науковці навпаки, давно вже захлинаються в спекулятивних теоріях без можливості експериментального підтвердження, і заливка науки автозгенерованими філософствуваннями (а без прив’язки до експериментальних даних, хаотичне композування логічних переходів буде саме цим) зробить тільки гірше.

Реальний боттлнек — це фізика, необхідність будувати труби коллайдерів в сотні-тисячі-мільйони кілометрів, щоб мінімізувати втрати на синхротронне випромінювання і вдувати гігаватти на ці самі втрати, боротися за якісь нещасні кілька десятків мільярів баксів для ITER і подібних проектів на протязі кількох десятиліть, коли кілька місяців війни в Україні зжирають аналогічний бюджет, продиратися через біоетичні обмеження для набору медичних і біологічних експериментальних даних, де треба наприклад спровокувати рак у піддослідних і дослідити як вони помирають, і так далі. Складність науки тупо матеріально переросла можливості окремих джентельменів в своїх помешканнях чи навіть окремих інституцій національних академій наук.

Другий боттлнек — універсальність деструктивної самоорганізації, жоден об’єм обчислювальних потужностей не порішає проблему, якщо у ній в принципі виникає хаотична динаміка, і це стосується дуже широкого класу задач, від прогнозування раку і погоди на рік вперед, до створення стабільного термоядерного синтезу чи ємких акумуляторів з великим числом циклів.

Скорее на пороге того пузырь ИИ сдуется
с размахом напоминающем крах доткомов

Не думаю що на порозі. Розігнали добряче. Поглянь на капіталізацію Nvidia. Вони зараз будуть ще сильніше підігрівати ринок роздаючи гранти.
Тому не дивлячись на нещодавні падіння на ринку до «лопнув пухир» ще дуже далеко

перед коахом доткомов покупали за милиарды сайговноты которые даже не делали ничего полезного.
для того и хайп чтобы накритить милиаоды. потом все это лопнет когда окажется что реальной а не рекламной пользы пользы с Ии не настолько много чтобы эти милиарды отбить.
Пока платят за «моя CMS работает на основе ИИ» типа как в магазинах пишут продукт без ГМО
А еще можна выбивать милиарды с правительств пугая домохозяек восстанием машин.
но со временем лохи закончатся и ИИ займет ту нишу для которой и предназначен.
Донедавна еще все носились с криптой и блокчейном как с писаной торбой. И что?
майнеры понесли свои дорогущие видузи обратно в магаз отбить зоть треть цены на них
и чем закончился хайп вокруг квантовых вычислений?

перед коахом доткомов покупали за милиарды сайговноты которые даже не делали ничего полезног

Зараз, до речі, дуже схожа фігня — загугли будь-що по типу «do %smth% with AI» і побачиш що вже є з десяток сайтів які таке пропонують. Тобто кожного дня хтось клепає стартап «буду робити %smth% через AI, це точно взлетить». І хтось на це виділяє гроші

Скорее на пороге того пузырь ИИ сдуется

Та ну ти шо, як тільки почне генерувати реалістичну порнуху, то одразу інвестиції потечуть. Ну, це я жартую, але в плані випуску майбутніх кінофільмів, це ж золоте дно, бо актори більше не будуть потрібні, як і сценаристи, та і як тисячі учасників процесу. Будуть генерувати мільйони фільмів, вся кіно індустрія піде коту під хвіст.

Фильмы уже сейчас похожи один на другой, как курсовые у студентов.
А с деградацией ЛЛМ, так вообще под копирку будет.
Скорей всего сценаристы теперь будут задавать канву, ИИ генерить сценарий, а сценаристы потом его шлифовать.

Режиссеры будут смотреть сгенерренное и говорить в каких местах надо придать томности голосу и оголить плечико героини.

Операторы будут собственно генерить видосы.

А вот с актерами таки засада, пока не придумывается чем они будут заниматься. Будут с программистами конкурировать за право убирать улицы.

не фпнтазируйте — никакой ИИ не заменить человека в сфере искуства как никакая секс кукла не зхаменит живую женщину
так же как фейсбук не заменил потребность в живом общении и не сделал одиноких людей менее одинокими

так же как фейсбук не заменил потребность в живом общении

вот тут я категорически не согласен.

еще как заменил живое общение. Да, не у 100%, но у очень многих. И когда мы говорим про фейсбук, мы подразумеваем все социалки и особенно мессенджеры.

не заменл. а просто дополнил. заменил тем у кого и так не было никаких отношений. никто не станет менят посидеть за пивом с друзьями (если таковые имеются) или пойти на свидание с живой бабой (если таковая имеентся) на переписку с виртуальными персонажами в фейсбуке (если это конечно не деловая перписка по бюизнесу например)
В общем случае технологии никогда не развиваются так мы себе представляем будущее на основании научно фантастических романов и фильмов. То же самое касается и ИИ.
рлсему хайп вокруг Ии закончится как и хайп вокруг блокчейна и квантовых вычислений. а лохам с деньгами впаряд следующую «технологию за которой будущее»
А реальные задачи агенты ИИ выполняются уже десятилетия (распознавание образов например) и после окончания хайпа ИИ займет ту нишу для которой предназначен а не малевать никому не нужные картинки которые на NFT уже никто не купит даже за стоимость ресурсов потраченых на обуцчение LLM потому что тренд прошел

А живое общение — это не только общение с друзьми, а так же решение различных вопросов, например с соседями, другими родителями в классе детей и еще миллион кейсов.
Да даже и «пиво с друзьями». Это макс пару раз в месяц, а в мессенджере все эти вопросы можно решать ежедневно в любой момент времени, когда хочется поделиться чем-то с друзьями.

Я специально уточнил, что «Фейсбук» — это понятие обобщенное.
Фейсбук как раз так себе. А вот телега/вайбер/нужное вписать очень даже ничего.

я имел ввиду что ничего искуственное не заменит живое . и не только потому что это технологически сложно и дорого а и потому что не имеет смысла.
представим что повторили человеческий мозг (хотя по факту пока не удалось повторить даже человеческий палец — тягатся с милионом лет эфолюции такое себе занятие) потратили на этот мозг милиарды и че получили? еще один мозг каких на земле семь милиардов. Он даже думать быстрее не будет — скорость прохождения электромагнитных импульсов фундаментально ограничена скоростью света.

То есть ИИ никогда не заменит человеческий интеллект просто потому что кроме сичто научнотеоретического это не имеет никакого практического смысла.
посему весь этот хайп включая пугание домохозяек восстанием машин принятие дурацких законов об предотвращение опасности ИИ и прочее чисто попил бабла

остальные в IT верящие в будушее ИИ — это просто малограмотный континген которому по большому счету в IT сфере делать нечего — они даже не поннимают чтолюбой даже самый крутой ИИ это просто програма сосоящая из нулей и единиц и делающая то на что ее запрограммровали (обучили , не важно)ю
Недавно было про охрененное достижение — два чат бота общаются между собой. да поставь два телефона десятилетней давности с голосовыми асистентами рядом и они тожу будут общатся. или там — чатбот с ИИ начал общатся с человеком по собственной инициативе — до любой спам бот застрет тебе почту или меченжер без твоей инициативы.
порязительно на какой безмозглый контингент(поколение тиктока че) все это рассчитано.
скоро по количеству идиотов хавающих все это хайп вокруг ИИ переплюнет «проблемы» глобальгного потепления, ГМО и гендерного равенства

мой комментарий был исключительно про замену «живого общения».

А касательно ИИ. лично сейчас рано о замене говорить, а что будет в будущем тоже еще неясно.

Тож якщо науковці дійсно зможуть подолати обмеження та створити самовдосконалюваний ШІ, ми можемо опинитися на порозі нової ери технологічного розвитку.

Так гарно починалось, і такий пустий висновок.

Ми не опинимось на порозі нової ери, якщо ML модель за рахунок якихось підходів зможе давати точність наприклад 0.99, а не 0.95. Це просто покращення ML, а не AI. Більшість слабо розуміють різницю між «навчанням» у машинному навчанні і «навчанням» штучного інтелекту як концепта розумної машини. Розвиток ML дає більш точні моделі для прийняття рішень, але не дає «розуму». Те самовдосконалення про яке йде мова у дослідженні стосується ефективності навчання нейромереж (точніть, витрати часу, вимоги до датасетів).

Мова про навчання LLM, це трохи більше ніж нейромережа, навчена на дата-сеті

Не могли б ви пояснити принципову різницю між LLM і будь яким іншим трансформером, що надає їм чогось особливого?

Так, LLM — це трансформери, але ж це як порівнювати мураху й людину, обидва живі організми... Зовсім інші масштаби.Можливо ці методи й спрацюють із звичайними трансформерами, але ж який сенс це робити для мурах?

Так, давайте трохи розберемось у деталях.
Спочатку в чому різниця між штучними нейронними мережами і трансформерами (LLM). Пояснення буде трохи спрощенним, щоб зрозуміли читачі, які не замаються ML.

Глобально трансформери це ті ж ANN (artificial neural networks). Іншої «форми», з додаванням нових механизмів, але по суті це одне і те ж. Обидві архітектури мають ваги і значення на вході, і weighted sum вони вираховують по схожим формулам. Обидві використовують backpropagation і градієнти для «навчання».

В чому різниця? Вона витікає з типів інормації і способів її обробки, як це роблять ANN

Як навчаются ANN? Для прикладу беремо щось простіше. Наприклад, в нас є дані зріст + вага, треба натренувати мережу відповідати, чи є у людини ожиріння. Спочатку для нашої архітектури мережі генеруютсья «ваги» — коефіцієнти які показують як кожен нейрон змінює інформацію яка до нього приходить. вихід з нейрона = «вхід» * «вага». На вход мережі влітає два інпута — зріст, вага (скейлінг, нормалізацію розподілення не будемо згадувати, для приклада це неважливо). Далі він проходить по всіх слоях, проходячи через обчислення (неважливо як), далі значення прилітає на вихід, де порівнюється з тим, що дала людина (умовно вірною відповіддю). Рахується «відхилення» отриманого значення від «істинного», далі починаєтсья backpropagation — проходимо нашу мережу в зворотньому напрямку, і оновлюємо «ваги» (Способів оновлення взагалі-то декілька, але для простоти будемо вважати що оновлення проходить після обробки кожного інпута). Після оновлення починаємо все зному — берем наступний сет даних, ввідправляємо на вхід мережі, і тд.

В чому недолік такого підходу? Якщо фічі (важливі дані у датасеті) зв’язані не тільки в рамках одного «елементу» (зріст + вага), а і поміж елементами, то ваша мережа цей звязок не зможе ефективно знайти. Це причина, чому прості ANN так пагано працюють із зображеннями. Ми вимушені картинку витягнути у массив пікселів, в якому дуже слабий звязок поміж окремими пікселями. Так, є CNN які це роблять краще — там є окремі слої, які перекодують набір пікселів зображення в масив фіч, де є хоча б якийсь звязок поміж елементами. Тобто, картинка стає не просто масивом пікселів, а масивом який приблизно описує у якому місці картинки для якогось масштабу знаходяться певні графічні елементи. Далі звичайна ANN на цьому вже навчається.
Але проблема залишається — якщо фічі умовно рознесені на зображенні, мережа все одно дуже пагано знаходить ці звязки.

Для даних типу текстових представлень людської мови це взагалі жах. У тексті багато елементів пов’язані, і знання закодовані не просто у одному словосполученні, а скоріш у декількох реченнях, а то і наборах речень.

От для того, щоб ефективно знахотити цей звязок і розробили трансформери — штучні нейронні мережі які в силу своєї архітектури вміють обробляти одночасно багато інпутів паралельно, враховуючі не просто значення, а й їх загальне положення одне відносно іншого. Плюс механізм attention, який все це враховує, і дозволяю ефективно навчатись на складних звязках. Недолік — дуже важкі обчислення і великі моделі. Хоча формально швидкість обробки даних вища за ANN. Це якщо дуже спрощено.

Доречі, зараз з’явились visual transformers — трансформери, які працюють на тих же принципах з зображеннями. Зображення сегментується і влітає в мережу, а далі все як з текстом. Є первні мінуси, але на деяких задачах воно виграє у CNN.

Так от, відповідаючи на питання людина чи мураха, у випадку трансформерів та ann це скоріш ближче до мураха vs тарган. До рівня людити там ще дуже далеко, тому що нейронні мережі це досить примітивні механізмі для вирішення простих задач. Розробляються різні архітектури під різні типи даних, оновлюються деякі механізми, щоб спростити навчання та знизити потреби у обчислювальних ресурсах, але механізми роботи та вибір задач, які вирішуються ефективно, достатньо обмежений.

Ви добре пояснили базові принципи роботи ANN та трансформерів, але, на мій погляд, дещо звузили можливості LLM, ігноруючи ключові особливості, які відрізняють їх від інших моделей.

Наприклад, масштаби навчання, про які я зауважував вище, дозволяють LLM охоплювати значно більші обсяги даних і будувати багатошарові зв’язки між поняттями. Як на мене, то це головна фіча.

Але є й інші.

Наприклад, адаптивне навчання з підкріпленням від груп анотувальників (RLHF), про яке йшла мова в пості. Воно дозволяє LLM коригувати відповіді відповідно до людських преференцій і етичних стандартів. Це значно покращує якість і релевантність відповідей, порівняно з класичними моделями. Це відчувається, зокрема, у GPT. Очевидно, в них більше ресурсів і залучених анотувальників).

Ще вони дійсно роблять донавчання моделей. Хоч це й дуже ресурсоємно. Але воно додає актуальності і відрізняє їх від трансформерів, навчених на фіксованому наборі даних.

Якось Альтман згадував про контекст у терабайтах... Не знаю, наскільки це реально, але вже зараз є поняття довготривалого контексту. Воно дає можливість опрацьовувати великі тексти з пам’яттю на десятки речень. І це забезпечує глибше розуміння змісту, а нові архітектурні зв’язки дозволяють LLM адаптуватися до більш складних завдань, як у GPT.

На мою думку, саме ці особливості та результати, які ці моделі реально демонструють вже зараз, і виводять LLM за межі звичайних трансформерів та дозволяють їм ефективно вирішувати завдання, недоступні для звичайних нейронних мереж і базових трансформерів.

Ось посилання на публікацію, про яку йшла мова:
arstechnica.com/...​se-ai-to-build-better-ai

Мій профіль на фейсбуці — www.facebook.com/belyaev.andrey там теж багато на тему ШІ

Підписатись на коментарі