ШІ чекає свого Прометея

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!



Уявіть древню Грецію. Ви живете у підніжжя Олімпу. Щоночі, на горі, боги влаштовують оргії навколо вогню. А ви лише дивитесь та заздрите.

Ви не можете торкнутися звабливих язиків полум’я, зігрітися його теплом, бачити вночі як у день. Ваша заповітна мрія — принести його додому, грітися від полум’я та готувати, нарешті, щось гаряче.

Уявили?

А тепер порівняймо вогонь з гори Олімп з генеративним штучним інтелектом.

З легкої руки OpenAI його називають GPT. Але OpenAI намагається отримати патент на GPT та зареєструвати торговельну марку, тому не варто звикати саме до цих трьох літер.

Можемо називати новітні моделі як Великі Генеративні Трансформерні Мультимодальні моделі, але така назва — дичина для більшості. Тому коли я тут пишу про «ШІ», то маю на увазі саме ВГТММ (LGTMM).

Але повернемося у древню Грецію. Що спільного між вогнем Олімпу та ШІ. Де тут аналогія? Адже на відміну від древніх греків чатом GPT користувалися тут, мабуть, усі?

Так, правда ваша, але частково. В нашій аналогії користуватися чатом GPT, це те саме, що дивитися на гору Олімп, бачити вогонь, але не відчувати його тепло!

Зараз аргументую

По перше, ви не можете взяти його з собою на безлюдний острів, де немає інтернету.

По друге, ви не можете покласти його в кишеню, і бути впевненим, що ваші з ним діалоги не побачать ніхто крім вас.

По третє, ви не можете використовувати його для бізнесу. Бо токени коштують відчутних грошей. Особливо якщо треба «ганяти» через контекст структурований контент, використовуючи API.

Останнє, мабуть, найголовніше, що не дає ШІ поширитися в більшість сфер життя. Бо для багатьох життєвих задач його використання буде корисно, але не рентабельно.

Наприклад: консультації з продажу, сервіси підтримки користувачів, гіди та екскурсоводи, та, по суті будь-які асистенти. Все це прекрасно працює з GPT-4, але вартість токенів виявляється досить відчутною, в той час, як користь є абстрактною.

Тож, які в нас є варіанти?

Можна чекати, поки ціни якісних комерційних моделей стануть доступними. Щоб це не означало. Але дивлячись у чесні очі Сема Альтмана, щось не дуже віриться.)

А ще можна звернутися до Open Source рішень. Давайте цей варіант розглянемо більш детально.

Перше, що стає нам на заваді, це вимоги до заліза.

Для прикладу одна з потужних генеративних open source моделей займає приблизно терабайт на носії даних та потребує понад 400 гігабайтів оперативної пам’яті!

Тож не намагайтесь встановити її на ваш PC. Схожий за розмірами хмарний сервіс від умовного Amazon буде коштувати приблизно 30 баксів на годину.

І я, до речі, не впевнений, що таке залізо зможе прийнятно обслужити більше одного користувача в моменті.

А ще зважте, що якість відповідей подібної моделі десь на рівні від GPT-3 до GPT-4, навіть ближче до 3.5, тобто, м’яко кажучи, не достатнє. І при всій повазі до Amazon, це все ще не кишенькове рішення.

Для ШІ в кишені потрібно зменшити вимоги до заліза та швидкість роботи моделі.

Чи можна це зробити? Так, ось декілька методів!

— Дистиляція. Навчання дочірньої моделі, на основі знань великої.

— Квантування. Зменшення бітності чисел моделі.

— Спарсинг. Видалення менш важливих параметрів моделі.

— Hardware acceleration. Використання просунутого заліза.

Що ж ми маємо на виході?

Ось деякі моделі, які мають отримані таким чином кишенькові варіанти. LLaMA, GPT-Neo, OPT, T5, BLOOM, BERT, T5, XLNet, Phi-3 ну і ще досить багато інших. Це open source з репозиторіями на GitHub, або на їх сайтах, або на Hugging Face.

Та всі вони, на мій субʼєктивний погляд, не дотягують до GPT-3.5. Тобто до рівня ШІ з якого й почався весь цей ажіотаж навколо генеративного ШІ в листопаді 2022 року.

На доступному залізі вони працюють, але повільно, в них мале вікно контексту, а задачі зі структурування даних вони з тріском провалюють.

Тобто по суті використати їх як корисний персональний ШІ інструмент не реально. В мене не вийшло! Якщо в когось є якісь кейси подібних речей — відпишіться, будь ласка, буду дуже вдячний!

На закінчення

Ситуація така, що Сем Альтман (гендир OpenAi), на жаль, явно грає на стороні «Богів». Він не має наміру зробити ШІ дешевим та доступним за межами OpenAi.

А світ поки що перейшов в режим очікування нового Прометея для ШІ. Це має бути хтось, хто уособлює якості Лінуса Торвальдса по софту, та Генрі Форда, для залізяк.

👍ПодобаєтьсяСподобалось2
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
В мене не вийшло! Якщо в когось є якісь кейси подібних речей — відпишіться, будь ласка, буду дуже вдячний!

Відкриті моделі чудово працюють, якщо їх дотреновувати (у сенсі виходить закривати бізнес потреби). Й не такі вони великі, базової ноди 8*80Gb здебільшого вистачає для до ~80B, й це значно простіше ніж навчання на >10-ці нодів й проблеми їх синхронізації, особливо коли мережова підглючує (а спільна шара тоне від навантаження)

Але ось що логічно: Прометея не винагородили, а скоріше навпаки...

Ніхто не обіцяє, що буде легко))

Ось ще вагомий аргумент знайшов.
Генеративний ШІ не знає, де голова кицьки стає її спинкою. Це знає спостерігач (термін із квантової механіки)
У алгорітмічного ШІ існуватиме вкладена на самому початку універсальна модель кицьки, де між головою і спинкою буде шия.
Якщо вирішуватиме інтернет, на який відстані від голови починається спинка, ми отримаємо не одне конкретне число, а дуже багато і тоді що — середне аріфметичне брати?
Генерація тут не допоможе.
Такі питання вирішує спостерігач. Як голка на магнитній платівці вказує, який конкретно домен зчитуватиме/буде зчитаний, так правило, яке існує незалежно від входящих даних — вказуватиме чи це ще голова чи вже розпочалася шия.
Голова спина — що це взагалі? Який практичний сенс?
А як ви розпізнаєте чи вже бичий ринок чи все ще ведмежий?
Чи досягнули ми дна?
Оце і є практичний сенс того, що необхідно щоб були якісь правила, крізь які генерації відфільтровувалися на годящі і негодящі.
Тому від винаходження алгоритмів логічного мислення програмісти нікуди не дінуться. Одним зкармлюванням усіх на світі зразків всього тут не обійтися. Потрібні моделі усього на світі. Ці моделі повинні бути розраховані окремо. І їх треба з самого початку існування логічно алгоритмічного ШІ ввести у нього разом з алгоритмами логічного мислення.
А machine learning (ML) on examples — це вже потім.

Власне, а які алгоритми логічного мислення ви знаєте?

Генеративний ШІ дає людини вже існуюче.
Такий ШІ не обмірковує, базуючись на деякому наборі елементів.
Це людина починає обмірковувати, виходячи з отриманої від ШІ генерації.
А що, якби ШІ міг обмірковувати власні генерації?
Але йому для цього потрібен власний досвід вдалих міркувань.
У людей такий досвід накопичується у правилах. Наприклад, правилах орфографії. Ці правила люди вивчають у школах. Тобто є інститути перевірки таких правил.
Після генеруючого ШІ потрібно поставити міркуючого ШІ.
До речі, це схоже чимось на відношення між Ід Его Супер Его чи Маля Дорослий Дідусь. Але це з психології, не будемо відволікатися.
Можна як зараз, генерації ШІ подавати на вхід джуну — людині, щоб він розбирався.
Але чи зможе джун людина міркувати краще і швидше за міркуючого ШІ — другу частину майбутнього універсально складеного ШІ що буде спроможний не лише генерувати на основі доступного контенту з інтернету але й суворо, щільно обмірковувати все те, базуючись на правилах логічного мислення що програмісти таки колись створять, на алгоритмах логічного мислення?

До речі, чи робота генеративних ШІ є якимось відзеркаленням роботи головного мозку людини?
Якщо так, то створити вправного генеративного ШІ це створити штучний мозок людини.
Круто? Ніт. Не круто.
Люди не шарять. Люди дуже не вправні коли їх прохають мислити логічно. Нейрони не пристосовані мислити логічно. Програмісти мислять чи міркують більш менш логічно лише тому, що вони вимушені складати алгоритми, винаходити алгоритми, відшукувати алгоритми, бачити алгоритмічне у процесах, що їх прохають моделювати.
Програмісти навчаються бути логічними.
Що ж це означає? Я вважаю, що генеративні ШІ це просто людські лінощі. Бо люди не хотять побачити що існують алгоритми для моделювання не генеративних, а обчислюючих ШІ.
Міркуючих ШІ.
Тобто, я вважаю, що можна створити універсальний алгоритм для міркування над будь чим і генеративна частина у цьому алгоритмові буде не головною.
Наприклад?
Що це буде за алгоритм, який на ввід приймаючи: Яблуко, надасть відповідь, що це фрукт.
Так, алгоритм може написати що Яблуко це плід яблуні.
Але що відповість він — фрукт це чи плід залежатиме від контексту. Тобто всіх тих інструкцій чи слів нативної мови які були подані йому на вхід раніше.
Є велика різниця між генеративним і не_генеративним (алгоритмічним) штучними інтелектами.
Генеративний він ймовірнісний, він демократичний, а демократія — ви самі знаєте що це таке.
Алгоритмічний це імперативний.
Алгоритмічний потребуватиме встановлення для нього програмістами непорушних правил вирахування логікі. Такі правила це математика. Стара добра математика множин.
Просто треба знати математику, якщо ви хочете запрограмувати штучний інтелект дійсно розумний, а не генеративну іграшку, яка абстрактно є підрахуванням частоти використання слів у тексті. Точніше у всіх доступних текстах інтернету з урахуванням контекстів де зустрічаються.
Але тут нема логікі. Правила у генеративних ШІ спостерігаються, а не є константами.
Треба ж навпаки — мати набір констант — набір правил, які встановлюватимуть — чи є якась інформація прийнятною до використання у відповідях у певних контекстах.
І це не може бути зроблене через генеративність — ніт.
Ми генеруємо нативну мову у спілкуванні — так. Але генеруємо правильно лише коли перевіряємо генерації на відповідність тим правилам, що вчили у школі.
Тому алгоритмічність майбутніх ШІ це фундамент їх більшої розумності чим зараз демонструють люди.

Не впевнений, що хтось знає, як думає людина. Генеративні алгоритми, як на мене, найближче до оригіналу, а можливо й перевершать його в найближчих реінкарнаціях. Що ж до «алгоритмічного» ШІ... Ну є спроби заборонити ШІ висловлюватися на заборонені теми, але це скоріш перешкода, ніж щось конструктивне. Ще маніпулювання контекстом, це алгоритмічне, але то інша тема.

Якщо проблема у тому, щоб мати достатню кількість «заліза» то потрібно вже створювати розподілений ШІ.
Як торенти створили біткоін, так вони створять ШІ для всіх, де ціною за квиток буде згода щоб ваш компьютер став node — одним з багатьох — для розподіленого ШІ.
Що цікаво — централізований ШІ це просто капітал який належить OpenAI
А децентралізований ШІ це теж капітал, що належатиме...

Здається, ви дуже давно бачили ціни на токени...
Для ~3.5~ 4o-mini вони дуже прийнятні, якщо у вас хоч трошки комерційний use-case...

Власне залізо ви не окупите ніколи в реальності. І якість моделей, які реально селф-хостити, дууууже далека від 4/4o і навіть 3.5/4o-mini

З огляду на якість ~3.5~ 4o-mini, кейс знайти теж важко, то ж, вони б мали бути безкоштовними...

Ну оригінальний постер говорив про structured data extraction — і для цих задач воно працює. Там навпаки треба, щоб воно екстрагувало лише те, що є в тексті, і нічого не додумувало :)

Або навпаки генерація human-readable message зі списку помилок при валідації заекстрагованого.

Але ж хочеться, щоб давало те ж що й 4o, але за ціною 4o-mini. Про це ж, до речі й мова...

Якщо б не було use-cases вони б його не підтримували та не продавали :)

ви не можете взяти його з собою на безлюдний острів, де немає інтернету.

Starlink walks into the bar...

Підписатись на коментарі