Захоплення світу Штучним Інтелектом відкладається

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

Можливо, це зображення (текст)

Захоплення світу Штучним Інтелектом відкладається! І для того є дві причини. Про них і поговоримо.

Перша причина — це те, що GPT4 відстій!

Це не моя думка, так вважає Сем Альтман. Якщо хтось не вірить в коментах, скину пруф.)

Уявіть експоненціальну криву, яка показує якісні характеристики ШІ. Десь на самому початку причаївся GPT3. Далі GPT4, він на порядки вище, але все ще в латентній фазі. Далі GPT5, і т.д.

Ну ви зрозуміли, для кожного наступного рівня, попередній буде відстоєм. І GPT4 поки не те «Дещо», яке здатне захопити світ. Але хто ж знає, як з цим буде у GPT5...

Друга причина — це живлення!

Судячи з експоненціальної кривої, апетит майбутніх моделей буде здатен задовольнити лише ядерний синтез! А його, вочевидь, недостатньо.

Є, до речі, конкретні люди, які свого часу зупинили ядерний прогрес. Як виявилося, ці герої при цьому не свідомо запобігли захопленню світу.

Тож дякуємо Ангелі Меркель та Франсуа Олланду за відстій).

Але наскільки все серйозно?

Особисто я не вважаю гідними уваги хайпи типу Юваля Харарі про «Небезпеку ШІ...» або лист Інституту майбутнього, який рік тому підписали Маск, Возняк та ще бозна-хто.

Історики, філософи, бізнесмени можуть відчувати тренди, але не розуміють, ЯК. Тому можуть і помилятися.

Інша річ фраза «про вас будуть судити по змісту вашого контексту», яку приписують Сему Альтману.

Або попередження Джеффрі Хінтона, провідного науковця в цій сфері, якого вважають батьком ШІ.

До думки останнього я б прислухався дуже серйозно. Бо він не тільки «відчуває небезпеку», він знає ЯК її можна імплементувати.

Але про це, іншим разом.

👍ПодобаєтьсяСподобалось0
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Автор якщо б дійсно цікавився розвитком ллм модельок а не цим графоманством, то напевно знав би що вже є методи підняття якості відповідей. Що за допомогою методології ai agents (саме це треба гуглити) змогли гпт3(або3.5, я не пам’ятаю вже) видавати відповіді якісніші за gpt4.
І що ключ до якісної видачі йде не через одну якісну видачу(як нам вочевидь здається, але це і нормально через поверхневу обізнанність в сфері), а через умовну обробку результату, планування як той результат отримати, вичитку тощо. Ця робота на дуже ранньому етапі розвитку, тож дуже цікаво наскільки якісніше зможе видавати відповіді ллмки розміру який зможе поміститись в портативних девайсах. Але з публічної інформації відчувається що стрибок буде дуже скоро.

Дуже забавно як інфантильний маск грає в статті як думка яка має для вас вагу. Усе що пукає маск в ефір — це щоб добитись своїх цілей і не завжди збігається з його справжньою думкою(яка може бути також неадекватною, адже важко сказати який з його висерів много ходов очка, а що — його інфантильна думка). На мій погляд краще ігнорувати його.
Перепрошую за деякі формулювання, але щодо маска по іншому не можу.

Не уважно прочитали. Про Маска тут і мови не було. Підвищення якості через роботу з контекстом, це те що допомогло з gpt3 зробити 3.5. Тобто два роки тому. Тут же мова про тенденцію. Сам Альтман і назвав gpt4 відстоєм, бо натякав на недостачу електроенергії, яка насувається, через його ШІ.

Про Маска тут і мови не було.

була в контексті що не гідні уваги ініціативи на одній з яких його підпис. Можливо ви закладали не той контекст згадуючи його, як зрозумів я. Мені здалось що він згадав щоб додати тій ініціативі ваги, але на мій погляд він не додає, що я і намагався донести.

мова про тенденцію. Сам Альтман і назвав gpt4 відстоєм, бо натякав на недостачу електроенергії

чи споживають більші моделі більше електроенергії? так
але і гпт4 вже оптимізована до гпт4о, яка по бенчмаркам краща за гпт4 і споживає менше електроенергії.
Тобто тенденція не тільки на збільшення споживання, але й на оптимізацію(що або зменшує споживання, або збільшує якість не збільшуючи споживання). І ті самі агенти що я згадував раніше — це також про оптимізацію.

На ринку ЛЛМ зараз велика конкуренція і це на мій погляд дуже добре має впливати на результативність і оптимізацію

На ринку ЛЛМ зараз велика конкуренція і це на мій погляд дуже добре має впливати на результативність і оптимізацію

Але ж обчислювальні потужності потрібні кожному з конкурентів. Тож не дивлячись на оптимізацію, вона не закриє необхідні потужності. 100 ярдів від майкрософт на новий датацентр так би просто не витрачали

Стоп’ятсотий інформаційний пук щодо ШІ, зміст котрого зводиться до «ну не знаю, подивимося».

Логічному ШІ не потрібно буде багато ресурсів — бо він зможе обчислити більшість висновків, а не тримати все у store.

Чомусь всі очікують подальшого масштабування LLM з більшим використанням енергії.
Але є альтернативи. LLM продемонстрували потенціал технологій AI і зацікавили інвесторів.
тепер є багато варіантів розвитку, в тому числі для створення загального AI . Не обовязково буде потрібно багато енергії.
Раніше серйозно цією темою займалися умовно 10 тис науковців та інженерів і мали 10 млрд фінансування. А тепер будуть займатися 500 тис науковців і інженерів з фінансуванням трильйон доларів. Швидкість розвитку АІ технологій значно зросте

Ядерного синтезу в електрогенерації не тільки недостатньо. Його взагалі не існує :)

Ну технічно існує. А ость товку мало

Підписатись на коментарі