Захоплення світу Штучним Інтелектом відкладається
Захоплення світу Штучним Інтелектом відкладається! І для того є дві причини. Про них і поговоримо.
Перша причина — це те, що GPT4 відстій!
Це не моя думка, так вважає Сем Альтман. Якщо хтось не вірить в коментах, скину пруф.)
Уявіть експоненціальну криву, яка показує якісні характеристики ШІ. Десь на самому початку причаївся GPT3. Далі GPT4, він на порядки вище, але все ще в латентній фазі. Далі GPT5, і т.д.
Ну ви зрозуміли, для кожного наступного рівня, попередній буде відстоєм. І GPT4 поки не те «Дещо», яке здатне захопити світ. Але хто ж знає, як з цим буде у GPT5...
Друга причина — це живлення!
Судячи з експоненціальної кривої, апетит майбутніх моделей буде здатен задовольнити лише ядерний синтез! А його, вочевидь, недостатньо.
Є, до речі, конкретні люди, які свого часу зупинили ядерний прогрес. Як виявилося, ці герої при цьому не свідомо запобігли захопленню світу.
Тож дякуємо Ангелі Меркель та Франсуа Олланду за відстій).
Але наскільки все серйозно?
Особисто я не вважаю гідними уваги хайпи типу Юваля Харарі про «Небезпеку ШІ...» або лист Інституту майбутнього, який рік тому підписали Маск, Возняк та ще бозна-хто.
Історики, філософи, бізнесмени можуть відчувати тренди, але не розуміють, ЯК. Тому можуть і помилятися.
Інша річ фраза «про вас будуть судити по змісту вашого контексту», яку приписують Сему Альтману.
Або попередження Джеффрі Хінтона, провідного науковця в цій сфері, якого вважають батьком ШІ.
До думки останнього я б прислухався дуже серйозно. Бо він не тільки «відчуває небезпеку», він знає ЯК її можна імплементувати.
Але про це, іншим разом.
10 коментарів
Додати коментар Підписатись на коментаріВідписатись від коментарів