Майже детективна історія про штучний інтелект

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

Ви ж в курсі, що є старий, новий та загальний штучні інтелекти?

Новий, це той, що з’явився 30 листопада 2022 року у вигляді чату-GPT й створений завдяки великим мовним моделям -LLM.

Зі старим теж все ясно. А от що таке Загальний Штучний Інтелект?

В англомовному середовищі це Artificial General Intelligence або AGI.

В теорії AGI це загальний штучний інтелект, здатний виконувати будь-яке завдання не гірше за людину. В реальності його ще не існує.

Про AGI багато говорять. Сем Альтман, наприклад, голова компанії, що створила чат-GPT, вважає що його дітищу ще далеко до AGI, але в майбутньому шанси є.

А що, якщо раптом це майбутнє вже настало?!

Саме так я подумав, коли знайшов в мережі один дуже цікавий проєкт! Деякі експерти позиціонували його навіть як втілення AGI!

Він акцентував увагу на тому, що розв’язав основні проблеми LLM моделей.

А саме! Зупинка у своєму розвитку на моменті закінчення навчання, тобто вони мають статичні знання про світ. Нездатність навчатися без спеціальних процедур тонкого тюнінгу. Ну і найголовніше, вони живуть в обмеженому вікні контексту. Тобто не мають довготривалої пам’яті та не здатні зберігати інформацію з минулих діалогів.

То що ж пропонує цей новий проєкт? Режим безперервного навчання — CLM (Continuous Learning Mode)! Який включає:

  • відсутність обмеження знань;
  • запам’ятовування вмісту розмов;
  • вміння здобувати нові навички, без тонкого тюнінгу.

Тобто все те, чого не може LLM.

Звичайно, що в мене виникла купа питань, як до проєкту, так і до технологій, які тут використані. Бо згідно з описом — це фактично AGI. Але кому під силу зробити таку штуку? OpenAI, Microsoft, Meta, Amazon, Anthropic, Mask...?

Ви будете здивовані, але жодних копірайтів, а ні на сайті, а ні в документації я не знайшов. Зате знайшов хлопця з твітеру, який просував цей проєкт та назвався його автором. Що для одного розробника було дуже круто! Він же і поділився зі мною інформацією про технічну сторону проєкту.

В якості внутрішніх моделей він використовує Sonnet та 4o. А от для внутрішніх 405 та 70b. Іншими словами мова не йде про нову модель винайдену геніальним програмістом. Це архітектурна схема в якій використовуються найкращі моделі LLM, у яких «на підхваті» працюють спеціально адаптовані моделі, для кластеризації контексту.

Тож збудження деяких ШІ експертів було передчасним. Це не AGI. Але тема дуже цікава. Я навіть думаю, що за такою архітектурою майбутнє ШІ. Бо з нею можна дійсно організувати довготривалу пам’ять.

Єдине що бентежить, це маскування CLM під LLM. Бо, на перший погляд, начебто CLM це наступний цивілізаційний крок після LLM, хоча насправді мова всього лише про метод керування контекстом.

Тим не менш, думаю, що цей метод скоро буде широко задіяний в більшості комерційних систем штучного інтелекту!

У конкретно цього проєкту є інтернет-адреса, документація та платний доступ до API! Я дам посилання в коментах. Але попереджаю, що окрім тих, хто хвалять цей проєкт, я, мабуть, серед них, є й хейтери, та ті, хто звинувачують його у скамерстві.

Як на мене, там все більш менш пристойно, я користувався вебдемкою, все працює. Але я не користувався платним API.

Тому залишаю на ваш розсуд рішення чи спробувати користуватися цим проєктом, чи ні.

👍ПодобаєтьсяСподобалось2
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Є два шляхи, яким АІ може ставати більш розумним за людський інтелект:
1) АІ буде розумнішати
2) Люди будуть тупішати

І щось за соціальними трендами останніх років мені здається, що людство вирішило одночасно рухатися в обох напрямках.

Схоже на правду. Порядок співвідношення розумних до тупих — величина стала, приблизно 20/80. ШІ на це не впливає, він просто дійсно поглиблює прірву. Розумні з використанням ШІ стають розумнішими, тупі тупішають

Ніяка найбільш розвинута LLM навіть з додаванням контекстних штук не є і не може бути не те шо AGI, а навіть головною технологією в AGI. По своїй сутності не може.

Якщо дуже спростити, то AGI повинен:
1) отримувати інформацію про оточуючий світ через сенсори/інтерфейси/якзавгодно

2) «розуміти» цю інформацію — перекладати сигнал у якесь внутрішнє символьне представлення знань, так щоб ними можна було оперувати за допомогою операцій конкретних моделей логіки, отримувати нові знання

3) організовувати цикл навчання на основі цих знань і взаємодії з оточуючим світом

LLM нічого не знає про «знання». Для неї набор слів нічим не відрізняється від набору цифр. Їй по суті можно кормити будь що, і воно буде шукати патерни і орієнтуватись на контекст на будь яких наборах даних. Знання закодовані у текстах мозком людини, і тільки тому у відповідях генеративних моделей ми бачимо якийсь сенс.
Тому, коли хтось починає говорити про AGI у контексті будь якого існуючого ML, сміло плюйте в очі, бо намагаються ввести в оману.

Підписатись на коментарі