OpenAI запускає o1 — модель, що пише код гри «Змійка», вирішує складні рівняння за 30 секунд та мислить, як людина

Усі статті, обговорення, новини про AI — в одному місці. Підписуйтеся на DOU | AI!

OpenAI випускає нову модель під назвою o1, яка стане першою у серії моделей, тренованих на тому, щоб відповідати на складні запитання швидше, ніж це може зробити людина. Разом з нею випускається й o1-mini — менша та дешевша версія.

Для OpenAI модель o1 — це крок до штучного інтелекту, який нагадуватиме людину. Але практично це ще й покращений код та розв’язання багатоступеневих задач порівняно з попередніми моделями. Проте вона й дорожча, і повільніша у використанні, ніж GPT-4o. OpenAI називає цей випуск o1 «попереднім переглядом», щоб підкреслити, наскільки все ще нова ця штука.

Користувачі ChatGPT Plus і Team можуть скористатися як o1-preview, так і o1-mini вже сьогодні, а для Enterprise та Edu доступ відкриється наступного тижня. В OpenAI також планують дати доступ до o1-mini безкоштовним користувачам ChatGPT, але точну дату ще не визначили. Для розробників о1 буде дорогою радістю: в API o1-preview коштує $15 за 1 мільйон вхідних токенів і $60 за 1 мільйон вихідних токенів. Для порівняння, GPT-4o коштує $5 за вхідні і $15 за вихідні токени.

Навчання o1 кардинально відрізняється від попередників, каже головний дослідник OpenAI Джеррі Творек. Модель тренували на новому алгоритмі оптимізації та нових даних, створених спеціально для неї.

Раніше GPT моделі тренували на копіюванні патернів з даних. Але o1 навчили вирішувати задачі самостійно за допомогою навчання з підкріпленням (це коли система отримує нагороди або покарання). Вона також використовує «ланцюжок думок», схожий на те, як люди обробляють проблеми, проходячи їх крок за кроком.

Завдяки новому підходу модель має бути точнішою. «Ми помітили, що ця модель менше галюцинує,» каже Творек, хоча ця проблема все ще є. «Ми не можемо сказати, що вирішили проблему галюцинацій.»

Основна відмінність цієї моделі від GPT-4o в тому, що вона краще справляється зі складними завданнями, як-от програмування та математика, і при цьому пояснює свої думки.

«Модель точно краще вирішує тест з математики для старшокласників, ніж я,» — каже головний дослідник OpenAI Боб МакГрю. OpenAI також протестувала o1 на відбірковому іспиті для Міжнародної олімпіади з математики, і якщо GPT-4o вирішив лише 13% завдань, то o1 справився з 83%.

На змаганнях з програмування Codeforces ця модель досягла 89-го процентиля, і OpenAI каже, що наступне оновлення моделі буде «схожим на рівень студентів PhD у складних завданнях з фізики, хімії та біології.»

Проте o1 ще не така крута, як GPT-4o в багатьох сферах. Вона гірше знає факти про світ і не може переглядати веб чи працювати з файлами та зображеннями. Але OpenAI вважає, що це новий клас можливостей. Модель назвали o1, щоб показати «перезавантаження лічильника на 1».

На демонстрації мені показали, як модель вирішує таку задачу:

"Принцеса такого віку, як принц буде, коли принцеса стане вдвічі старшою за принца, коли принцеса була наполовину старша від суми їхніх теперішніх віків. Скільки років принцу і принцесі?"

Модель думала 30 секунд і потім видала правильну відповідь. В OpenAI створили інтерфейс, що показує кроки міркування моделі під час вирішення. Мене здивувало не те, що модель «показала роботу», — GPT-4o теж може це зробити, якщо його спитати. Але o1 імітує думки людини так детально, що навіть використовує фрази на кшталт «мені цікаво», «я думаю» або «гаразд, давай подивимось» 🤔.

A screenshot of OpenAI’s reasoning capabilities, where it breaks down how it answers a question, using “I” statements.

OpenAI каже, що не прирівнює «думки» моделей до людських думок. Але інтерфейс має показувати, як модель витрачає більше часу на глибоке оброблення та вирішення проблем. «Є моменти, коли вона здається більш людською, ніж попередні моделі,» — каже Творек.

Теперішні великі мовні моделі не такі вже й «розумні». Вони просто передбачають послідовності слів, щоб дати відповідь. Наприклад, ChatGPT часто помиляється, коли говорить, що в слові «strawberry» є лише дві «r», бо модель не розбирає слово правильно. Але нова модель o1 таки відповіла правильно.

👍ПодобаєтьсяСподобалось1
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Тепер OpenAI зменшили обмеження в o1 до одного дня. Схоже доведеться відправляти всі старі запити до o1, щоб отримати на багато глибші рішення.

Чому люди не зберуться і не знищать ШІ який забирає їхню роботу?

як ті пенсіонери які боролись з 5джі антенами?

Чим людськіші нейронки , тим важче відрізнити їх від людини. Особливо це стосується текстів, у яких повинна бути певна структура і порядок. Там буде важко. Якщо нейронка гарно будує логічні та структуровані тексти, то їй мабуть, буде важко робити нелогічні та неструктуровані тексти, — неграмотні, з обрубаними словами, як це пишуть сучасні школярі у коментарях під українськими відео по майнкрафту.. Так що прийдуть часи, коли людьми будуть ті, хто дурний, або може бути дурним. Враховуючи розвантаження на мозги, це буде більше стимулюватись, тому різниця між людиною і ЛЛМ-кою буде тільки рости. Але погано буде, коли навантаження на мозги впаде, а цього не буде, бо чим швидше можна розібратися з проблемою, тим більше проблем буде вирішувати середньостатистичний клерік на роботі. А тому, без нейронок буде худо. Чим більше про це думаю тим більше підгорає.. і від людей-промтів,та людей-копіпастерів без мозгів, і від ще швидшого бізнесу, їх комбінції. Ти виконував таски, — а станеш менеджером команди нейронок. Мене аж вивертає від думки бути менеджером.. Зупиніть світ, я вийду!

Такое впечатление, что текст был написан нейронкой

і ця нейронка не пройшла тест Тьюринга

Щось мені здається що це костиль. Таке враження що вони на сервері там тупо крутять складний workflow з купою агентів, де твій пропт розбивається на підзадачі, де робиться кілька десятків запитів в llm різними агентами для пошуку інформації, розв’язання задач, тесту і перевірки результатів, щоб потім в кінці згенерувати фінальну відповідь.

Скоріше за все так і є. Схоже монолітні LLM уперлись у свій максимум і без виділення на порядок більших обчислювальних ресурсів (що зі зрозумілих причин зараз не можливо) нового прорива не буде.

Ну... скоріше затик в даних, будуть вони — буде прорив.

То вже деталі. Головне, що справді видно значний прогрес в якості відповідей. А то попередні моделі люблять генерувати люту бредятину без жодного розуміння топіка. Потестував на кількох технічних тасках, і вперше можу сказати, що чат можна використовувати як альтернативу гуглу/стековерфлоу для пошуку відповідей на деякі технічні питання. Раніше він добре підходив лише для гуманітарних завдань, як от переформулювати імейл чи написати реферат з купою води, а на технічні відповідав як нуб.

Я теж вкрай розчарований. CoT + Self-Reflection — нічого фундоментально нового, а піар був такий наче в них дійсно є козир в рукаві.

Ну, тобто, бляха, залиште ці речі прикладним AI інженерам для application-level, не треба їсти їх хліб, працюйте над фундаментальною моделлю.

Але ж ні, вони тупо витискають з ринку перспективні технології навколо AI, підминаючи екосистему під себе. Адже ясно, що вони зможуть забезпечити найкращий результат, володіючи топовою закритою базовою моделлю.

Отже, відправляється в сраку цілий клас рішень з Agentic workflows і prompting техніками, бо це все неефекивно застосовувати поверх O1.

Те саме було, коли OpenAI припинили підтримувати text completion API в топових моделях на користь свого chat-api, закривши інший клас перспективних розробок.

Тим самим були «Custom GPTs» відносно RAG, знецінюючі наявні відкриті рішення, хоча тут їм досягнути бажаного ефекту не вдалось.

Це вкрай неетичний спосіб ізолювати перспективні зони досліджень в своїх моделях від зовнішнього світу.

Я сподіваюсь, така огидна поведінка керівництва OpenAI нарешті приведе до остаточного відтоку ключових інженерів до компаній з вищими морально-етични нормами, де вони зможуть зробити значно більше для галузі вцілому.

Тут хочеться віддати належне Марку Цукербергу і менеджменту META як взірцю відкритості, дуже позитивно впливаючому на галузь.

Мій прогноз — OpenAI зможе втримати лаври розробника № 1 топових мовних моделей не більше року.

Найймовірніше, їх посуне Google, але тут вже немає впевненості, і я не те щоб радий цьому, бо до Google теж є претензії.

так нє ну від профанів і нубів накшталт мене основна претензія до ей ай яка? «та чого він себе не перевірив блін, такого фільму ж не існує в природі!»

А тепер, виявляється, не можна цього вимагати від ші, бо за рік сформувалася ціла спеціальність промптовиків і якщо ші почне перевіряти себе то всі ці спеціалісти втратять роботу. Сюрреалізм якийсь.

Читаю коменти і згадую як один стендапер описував таку ситуацію:
«Лечу я у літаку, це були часи, коли тільки-тільки почав з’являтися вай-фай у літаках. Поруч зі мною сидить якийсь чоловік, телефоном підключається до вай-фаю, починає дивитися серіал, серіал трохи лагає і чоловік такий „Пффф, фігня!“. На що я подумав: „Мужик! Ти летиш у небі на висоті 10 тисяч метрів і дивишся серіал на маленькому екрані, який вміщається у твоїй кишені, і тобі не здається це дивом? Маленька неідеальність у цьому неймовірному процесі і ти вже ставиш хрест на всій технології і процесі?“»

У мене схоже відчуття стосовно тих, хто докопується до кожної дрібної неідеальності, випускаючи з виду загальну картину — світ кардинально змінився за останні 20 років, та навіть за останні 10 і навіть 5 років сталося багато змін. А люди кажуть «Пффф, фігня!», тому що відносно свіжа технологія розвивається зі швидкістю трохи меншою за технологічну сингулярність.

Подивіться на ХХ сторіччя — які автомобілі та літаки були у 1900-1920-х і які вони стали всього через 50 років, у 1960-х. Я кажу «всього» через 50 років, тому що це дуже малий проміжок часу, якщо порівнювати швидкість розвитку технологій у всі попередні сторіччя, де буквально сторіччями могло не відбуватися ніяких змін. А тепер уявіть наскільки більш просунутими буде АІ, роботи, електромобілі, космічний туризм та багато інших сфер у 2060-х у порівнянні з 2000-2020-ми роками. Треба просто зачекати і дожити до цього майбутнього.

Треба просто зачекати і дожити до цього майбутнього.

І бути в тому майбутньому потрібними)
Бо якщо все роблять роботи і АІ, то більшість людей не потрібна

це такий психотип людей
схильний помічати переважно одні недоліки
вони ніколи не бувають задоволені

чоловік такий «Пффф, фігня!»

Що в цьому дивного?
Технологія не закриває потреби користувача, тому вона для нього фігня.
Його мало цікавить тернистий шлях і ого-го які перемоги на шляху до цілі.
В нього свої проблеми та турботи.
Він хотів подивитись кіно.
Не зміг.

Або от авіасполучення.
Цікаво часом подивитись було/стало.
Але коли треба ябаться щоб долетіти з однієї точки в іншу без трьох пересадок то часом теж виникає думка «ну що за фігня»

А тепер уявіть наскільки більш просунутими буде АІ, роботи, електромобілі, космічний туризм та багато інших сфер у 2060-х у порівнянні з 2000-2020-ми роками. Треба просто зачекати і дожити до цього майбутнього.

А може й не буде. На кожного такого стендапера з його прохолодними історіями є реальні приклади, коли технологія досягла свого максимуму значно раніше, ніж очікували оптимісти на початку її розвитку. Наприклад, у 1960-х роках більшість була впевнена, що до 2000 року людство буде мати колонії на інших планетах. І що, де вони? Навіть реальних планів на них немає, тому що там все ще купа невирішених питань.

лектромобілі, космічний туризм та багато інших сфер у 2060-х у порівнянні з 2000-2020-ми

В 1900-му (прописом: тисяча дев’ятисотому) році третина автомобілів була електромобілями, але щось далі пішло не так...

Видобуток нафти і дешеві авто з ДВЗ. Ринок порішав.

що означає

наполовину старша

?

With a ChatGPT Plus or Team account, you have access to 30 messages a week with OpenAI o1-preview and 50 messages a week with OpenAI o1-mini to start.

непонятно, зачем плодить столько разных версий, развивать надо одну

«от в магазінах було дві ковбаси — варьонка і капчьона. І не треба було ото стояти вибирати яку взяти ковбасу. І взуття було туфлі для хлопчика і туфлі для дєвочки і прийшов поміряв і купив. А зараз наробили купу різного незнаєш що вибрати» (ц)

ну «поміряв» то ви трошки фантазуєте. Було так: прийшов, відхватив шо було, а далі вже дома міряешь і насолоджуєшся, а як розмір не підійшов, то на роботі міняєшся по бартеру

це якщо щось модне. Я такого не пам’ятаю.
Що я пам’ятаю — в універмазі було пару фуфломоделей, котрі можна було поміряти (і які ніхто не хотів чомусь брати), іноді була інформація що щось привезли і тоді теж міряли, просто тре’ було поштовхатися в натовпі (бо взуттєвий в універмазі все ж не окреме віконечко). режим «схопив і побіг» може був десь куди привозили прямо щось модне.

когда я задаю вопрос AI я ожидаю получить максимально качественный ответ без мороки, что вот этот вопрос лучше задать o1, вот этот v4, а этот v3.5

аналогия с колбасой мимо кассы

чому ж. Імхо аналогія цілком доречна — «якщо я йду в магазин по ковбасу, я хочу просто купити ковбасу, а не вибирати оце з десятків видів салямі»

ремарка була до самого підходу «зачєм тото, надо вот так». А що там буде конкретно — нейронки, ковбаса, процесори, взуття -то вже не має значення.

коли куплена за 20 уе програма Сама заробить власнику хоча б 30 уе, то вважатиму її розумною. адже посіяне зерно приносить в 30 разів більше в колоску.

На змаганнях з програмування Codeforces ця модель досягла 89-го процентиля

Чи це не кінець кодингу як ми його знаємо. Хто там Leetcode терзає, можна розслабитися.

Недаремно я замість того щоб задачі на літкоді вирішувати серіали дивився.

небагато втратили
там в цілому е декілька «тем» задач
за пару місяців можно зіткнутися з усими а далі просто варіанти одних і тих самих завдань
шось цікаве прям шукати приходится

а ще там можуть бути заточені тести лише під одну мову із за чого ваше рішення не входить по часу і тд
і це не кажучи про помилки в самих перевірках

і саме погане что реально цікаві речі «платні»
вот тільки в платних ще більше косяків з тестами шо відбивае всіляке бажання покупати ще

От коли зможе по номальному відповісти на питання: Як люди без рук миють руки? Тоді і стане чимось корисним. Хоча, можливо о1 дасть адекватну відповідь, бо явно крок в правильному напрямку, якщо дивитись так абстрактно.

А навіщо задавати дебільні запитання моделі? Ну звісно що вона буде лажати на них. Задайте з серйозним обличчям це запитання будь якій людини, і порівняйте відповіді.

Тому що корпорації що створюють ці нейронки свідомо обманюють публіку використовуючи такі терміни як «thinking», «reasoning», «thoughts», «hallucinations» і інші антропоморфізми. Тому цілком адекватною та логічною є реакція людей, щоб викрити ці спроби.

Відповідь ChatGPT: «Запитання про те, як люди без рук миють руки, є цікавим з точки зору формулювання, оскільки воно стосується фізично неможливої дії для таких людей. Людина без рук не може буквально мити руки, оскільки в неї їх немає.»

але ж люди без рук теоретично можуть помити чиїсь інші руки

Ви в цьому впевнені? Якщо в людини немає двох рук саме

людина А без обох рук може своїми ногами або іншим способом помити руки людині Б

А людина Б помити собі руки не може? Що за маячня?

вона ж тримає людину А, бо та стояти не може бо ноги зайняті

робота ногами. забув як це англійською звучить

Якщо займатись словесною еквілібристикою, то можна мити руки і без голови. Але навіщо лізти в якісь хащі? Щоб довести, що ШІ не здатен відповісти на такі недолугі питання? Так більшість людей теж не відповість. Натомість, ШІ за лічені секунди розпише те, що людина створюватиме або шукатиме години, а то й дні.

Тільки от потім не знаєш, що з написаного правда, а що LLM нагалюцинувала.

Якщо не розумієшся на темі, то так. Я використовую ШІ лише там, де можу бути впевненим у його результаті.

Ну так, просто з усіх щілин лізе, що т.з. ШІ — це заміна спеціаліста (хай і потенційна), а не інструмент покращення його продуктивності, як це є насправді.

Ну так, просто з усіх щілин лізе, що т.з. ШІ — це заміна спеціаліста (хай і потенційна), а не інструмент покращення його продуктивності,
як це є насправді.

Бо суттєве підвищення продуктивності викличе заміну.

Якщо продуктивність команди зросте на 50%, то частину звільнять і зекономлять гроші щоб пустити на маркетинг чи в прибуток.

Ну і є історичні аналогії.
Колисть треба було знати асемблер, всякі нормалізації БД, лоу рівні протоколів.
Софт писався повільно.
З часом пр думали фреймворки, реакт, копі паст з стековерфлоу, серверлесс.
Тепер не треба бути програмістом щоб поклікати на амазоні, з’єднати базу і АРІ.

АІ забере на себе апгрейд на нові технології, тиму Флеш вже не супортається — робим реакт.
Вже не треба буде 5 девелоперіа щоб зробити внутрішню адмінку, хватить і одного.

Ну да, те що на протязі дня вирішує купу професійних питань які б раніше вимагали 5-10х більше часу на гугління, чи коли дописує код через автокомпліт, то це не корисне. А ось вирішення тупих питань типу «як люди без рук миють руки» чи «скільки літер r в strawberry» — он це корисно, да.

Вот забавно, ніхто не приводить приклади із реальних задач де він лажає, ну типу пітон скрипт не такий написав, чи команду для гіта, чи regex, тощо (тому що в таких задачах він рідко лажає, і то, залежить від якості промпту), но замість цього приводять дурацкі відірвані від реальності приклади типу «як люди без рук миють руки»

Наведи конкретний приклад задачі яку він допоміг тобі вирішити в 10 разів швидше ніж гугління.

Бляха, да повно, треба було в wsl через докер кілька сервісів підняти, зробив за 2 дні, при тому що практично не мав досвіду ні з лінуксом, ні з докером докером. Без чатгпт зайняло б в рази довше.

Та банально сервіс не стартує, кидає аутпут чи логи в чатгпт і він каже конкретно що не так, які лінукс команди запустити, що перевірити, які environment variables прописати, гуглити самому довелося б в 10 раз швидше.

У вас в Австралії всі такі топ перформери що аж 2 дні треба з чатгпт щоб пару сервісів в докері запустити а з гуглом це б заняло від 10 до 20 днів.
Я на маку за пару годи проінсталив все для джава бекенд розробки коли з вінди перейшов з гуглом.
Є багато речей де чатгпт дійсно хороший але твої приклади переваги його над гуглінням в 10 разів це просто цирк якийсь, ти б не позорився краще тут.

У вас в Австралії всі такі топ перформери що аж 2 дні треба з чатгпт щоб пару сервісів в докері

Сервіси включають:
— ollama для хостингу llm
— elasticsearch (для збереження ембедінгів)
— kibana (для того щоб дивитися руками що там з ембедінгами)
— langfuse (для збору метрік з llm)
— postgres (для збереження метрік)
— сама пітон апка яка це все використовує і оркеструє

Всіх треба налаштовувати, правити конфіги, сертифікати в певні папки закидувати, створювати юзерів, прописувати неочевидні environment variables, повідкривати порти, конектити між собою і апкою, створювати правила файрволі, короче купа нюансів.

Із цього всього у мене була лише пітон апка яка працювала з ollama-ою локально на вінді і зберігала емедінги в файли. А треба було зробити по-нормальному, підняти он це все в wsl, через докер, проапдейтити пітон апку, налаштувати метріки. Бляха, да я тільки пів дня протрахався з установкою wsl 2 яка падала по одному майкрософту відомим причинам.

Нагадаю що досвіду з wsl, лінуксом, докером було практично нуль. Із всього списку, лише з еластіком був досвід.

Я на маку за пару годи проінсталив все для джава бекенд розробки коли з вінди перейшов з гуглом.

Ти реально прирівнюєш он це все до установки джави на маку? Лол

Я не казав що сервіси запустити в 10 раз довше, все в кучі може в 2-4 рази довше. Я казав конкретно про окремі проблеми які довелось би гуглити в 10 раз довше, коли у випадку з чатгпт ти тупо копіпастиш аутпут з консолі коли та ж кібана падає чи не може до еластіка законектитись, і він каже що робити.

Тепер ти нормально розписав які саме проблеми ти вирішував, бо підняти постгрес чи еластік в докері це фігня, а от наконфігурити апку яка стільки сервісів юзає це зовсім іншої складності задача.
Вибачай за наїзд

Да там саме з конфігурацією якраз проблеми були. Скачати імеджі, запустити, це все фігня. А ось налаштувати, створити юзерів, групи, згенерувати токени, сертифікати, прописати права юзерам, відкрити порти. А то по дефолту, зазвичай, нічого не працює ). Плюс рандомні проблеми WSL чи вінди коли сервіс в докері працює, порт забіндив, а WSL реквести не пропускає, лікується рестартом вінди. В таких випадках gpt сильно допомагає. Описуєш проблему, а він траблшутить, покроково розписує що де перевірити і якими консольними командами. Кидаєш йому аутпут з консольної команди, він каже що далі перевірити чи зробити.

Ви зараз описали хлопця який їде на одноколісному велосипеді по тросу над жерлом вулкану і тримає в одній руці гранату без чеки, а в іншої склянку сірчаної кислоти.
Дідько, ви хоча б раз бачили щоб розробники декларували саме таке використання LLM?
Як ви плануєте потім шукати всі ті пробіли чи крапки яка вона вам не там поставить чи не поставить? Бо вона так зробить, бо це принцип її роботи — не робити нічого конкретного, точного і чіткого. Це її база.
«Кодекс це збірка порад і традицій а не сталих законів»

тупо копіпастиш аутпут з консолі

Окей.

Як ви плануєте потім шукати всі ті пробіли чи крапки яка вона вам не там поставить чи не поставить? Бо вона так зробить, бо це принцип її роботи — не робити нічого конкретного, точного і чіткого. Це її база.

Ви використовували хоча раз? Чи використовували якийсь gpt 2.0? Так як проблеми які ви описали не бувають.

Інколи неіснуючі команди чи методи придумує, буває, особливо якщо запит стосується малопоулярної тулзовини чи фреймворка. Вирішується, о боже, досить просто — запускаєш, якщо працює, значить працює, якщо падає, значить руками фіксиш. В більшості випадків IDE підсвітить якщо щось не так і руками поправиш до компіляції.

І з запитами, як з допомогою гіта зробити он це, чи як з допомогою Fluent Assertion зробити он це, чи напиши query в еластіксьорч щоб знайти документи які відповідають такій то критерії — справляється на ура.

Наведи конкретний приклад задачі яку він допоміг тобі вирішити в 10 разів швидше ніж гугління

Генерування sql на створення даних (дані були в джсон), всякі баш скріпти чи консольні команди (бо він генерить так що сходу працює), генерація сторьок за 1-2 реченнями.

Часто я ще тупо скидаю всю переписку зі слаку і кажу згенерь підсумок або сторьку, він це ± норм робить.

Я зараз не уявляю роботи без чатGPT, це приблизно те саме що казати «код можна і в блокноті писати, нащо ті IDE»

це приблизно те саме що казати «код можна і в блокноті писати, нащо ті IDE»

Залежить від предметної сфери. Навіть просто сурси ядра лінуксу імпортувати в IDE вимагає потанцювати з настройками індексації, інакше рам типового робочого ноута просто не вистачить. Якийсь AOSP, з сотнею ГБ сурсів, тисячею гітових субмодулів, кількома десятками задіяних мов, взагалі нереально.
По цій причині, у високорівневому ембеддеді купа людей, включаючи того ж Лінуса, сидять з вімами з емаксами і навіть VS Code не визнають, але цілком справляються з задачами.

От у баш скриптах я аже з десяток разів ловив неіснуючі параметри. Особливо, якщо скрипт під busybox.

відносини з ШІ асоціюються у мене з відносинами з протилежною статтю. в одного вийшло, в другого не виходить, а третій тактично бреше що він неабиякий ловелас.

а четвертий каже, що може всю ніч промпти писати)

Коли першою цифрою в моєму віці була 2, я міг досить довго писати промпти. Тепер мене вистачає максимум на 1-2 промпти і то не кожен день, бо частіше я всеж обираю спати.

Два-три промпти швидко виходять, а четвертий-п’ятий не можна закінчити ні заднім числом, ані в усній формі.

чатжпт не може домалювати зображення, не може виконати чіткі вимоги. колажує бред.

Платна версія працює непогано

це я про платну 20 уе кажу. не може намалювати за чітким описом

він не може виконати промпт — намалюй клавіатуру 3×3

3×3 чого саме? Пікселя, сантимента, клавіші, чи 3 на 3 секції по 2 клавіші?

Обожнюю, коли люди пишуть про неспроможність моделі, намагаючись її зачеленжити ідіотськими запитами, які потребують абстрактного мислення, та життєвого досвіду)

а я вже як тільки не намагався.

от такий промпт
намалюй фантастичну клавіатуру з 3 рядами, по 3 кнопки в кожному ряді.

в результаті зображення купи кнопок, навіть трьох рядів нема.

ChatGPT не хоче, midjourney з першого разу таке намалював: cdn.midjourney.com/...​be9c-935d56989dcf/0_1.png

o1 preview вже генерує таку клаву, але поки що ASCII символами бо не мультімодальна. Потім до нєї прикрутять якусь Даллі і все поїде

я намалював таку клавіатуру, дав чатужпт і сказав щоб він мені намалював юзера за цією клавіатурою. а він не зміг.

сказав щоб він мені намалював юзера за цією клавіатурою. а він не зміг.

Тепер ви знаєте, як почувалися клієнти програмістів останні 35-40 років.

не може домалювати зображення, не може виконати чіткі вимоги.

Дякую за еталону ілюстрацію вислову: «Забивати мікроскопом цвяхи».

так ця нейронка текстова в першу чергу
малюнки вона по остаточному принципу підтримуе і більше для розпонання

то хай би де це було конкретно написано, чатжпт мені написав що за 20 уе я отримаю доступ до dall-е

чому не за яких обставин він не може намалювати 9 кнопок в шахматку 3×3? постійно малює чи то 5×5 чи 4×4 чи 6×6, але ажнініяк не 3×3

Згоден. Спробував самостійно — не хоче малювати клавіатуру 3*3, навіть з детальним описом як це зробити. І це нова версія — о1-preview. Відповідає так: I now fully understand that you’re asking for a keyboard laid out like a 3×3 table, with three distinct rows and three distinct columns, similar to a grid. Let me generate that design for you! але малює повноцінну клавіатуру.

Олексій, дякую. буде тобі щось треба — напиши мені)

Підписатись на коментарі