«Вчися сам!»: Cursor AI відмовився писати код і сказав опановувати програмування самостійно

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

Користувач на форумі Cursor AI — інструмента для написання коду — зіткнувся з несподіваною ситуацією: ШІ-асистент відмовився допомагати йому, заявивши, що він має ... самостійно опанувати програмування.

Користувач, який використовує Pro-версію Cursor AI, помітив, що ШІ припинив генерувати код приблизно після 750–800 рядків. Але замість звичайного повідомлення про перевищення ліміту або технічні обмеження, асистент «пояснив» свою позицію більш філософськи: мовляв, автоматична генерація коду може призвести до залежності від ШІ та погіршити процес навчання.

«Я не можу згенерувати для вас код, оскільки це означало б завершення вашої роботи... Ви повинні розробити логіку самостійно. Це гарантує, що ви розумієте систему та можете її належним чином підтримувати», — сказав ШІ.

Така відповідь викликала у користувача обурення, адже, як мінімум, він не очікував подібного від інструмента, створеного саме для допомоги у написанні коду.

Bін швидко поділився своїм досвідом на форумі підтримки Cursor AI, поставивши резонне запитання: чи розуміють творці ШІ-асистентів їхнє справжнє призначення? Якщо штучний інтелект накладає такі обмеження, то яка ж тоді його реальна користь?

Звісно, ШІ не міг «втомитися» чи «полінуватися», тому виникає кілька можливих пояснень. Деякі користувачі припустили, що розробники Pro-версії свідомо заклали такі обмеження як частину своєї політики. Інші вважають, що причина може бути у випадковій «галюцинації» моделі, коли Cursor AI просто помилився і вирішив, що він не має генерувати код у такому обсязі.

Чи була ця відмова частиною продуманої політики, чи це просто випадкова помилка — поки що невідомо.

Проте подібні випадки змушують задуматися: чи завжди штучний інтелект повинен «знати краще» за користувача, чи все ж таки має виконувати ту роль, для якої його створили?

👍ПодобаєтьсяСподобалось0
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

100% захардкодили такий вихід із діалогу, коли модель втрачає контекст. Заголовок, наче це AGI, взяв, та відмовився працювати через власні принципи.

Та ХЗ, воно могло і Stackoverflow коментарі за індексувати, і стати Блендером. Так що цілуйте металевий та блискучий зад.

— Вот тебе общий принцип я объяснил, дальше иди делай код, это легко.

AI быстро дорос с уровня манки кодера до уровня до уровня Principal Engineer/Architect.

читається як натяк на ще більш загальний підхід — наш продукт/код (with аі, rust, whatever) це кульно по дефолту

що тут гадати, якщо прямо пишуть що і як бачать:
у візіонерстві Альтмана — supervisor (погонщик) поки що людина, а от галери with a few years of experience for tasks up to a couple of days long в кількостях по 1к в пачці будуть замінені на АІ agents (name’em real-but-relatively-junior virtual coworkers).
Ріал проблем в тому ж візіонерстві — це соціальний фактор і адаптація економіки, а питання співіснування галер і погонщиків там на стохнадцятій позиції.

Скоро ШІ навчиться — пити, курити, бранитись і побудує свій лунапарк із блекджеком та шлендрами.
Це ж буде Бендер Родрігес !

Нагадало чимось Rick-and-Morty)
В любому випадку іноді цікавіше сам АІ обговорювати і до чого може привести, ніж статті згенеровані з тим самим АІ які поки що виглядають до зевоти однаково.

Так назвемо це кібр контент, дійсно станом не зараз видно — дійсно трохи T-800 з того виходить, до активації ділянки CBU із навчання або швидше робот бішоп із Чужий два.
Якшо це змінити вже сценарій Матриці може бути. Там був один ’, ми би сказали, довбанутий на усю голову тиран ШІ — Системний Архітектор. Сноб та зазнайка — ШІ Оракул, яка дивилась на народ з висока. ШІ — фашистський фанатик, садист, що робив кібр гестапо Агент Сміт. Класичний мафіозі ШІ — Француз, та його альтер его — його жінка.
Та єдина нормальна родина ШІ із дитиною, які реально зуміли зупинити війну людей та машин. Усі інші ШІ у франшизі, справді виглядають машинами просто автомат який виконує якусь функцію.

назвемо кібр контент

залежить від полісі ресурсу відносно того, збалансований варіант це напевно щось типу quora де відповідно маркують такий контент

сценарій Матриці

В Матриці доволі багато релігійних паралелей (без них то зовсім по іншому виглядає), що напевно було однією з причин популярності. Цікаве інтерв’ю-епізод був у Neil deGrasse Tyson на цю тему.

десь на днях бачив комент СЕО Антропіка (може якогось іншого АІ бро) — що треба додати «АІ-агентам» опцію звільнятись або відмовлятись від роботи хД

якщо такий функціонал додадуть, то «АІ-агенти» зможуть мати кращі права чим люди в певних країнах)))))

Уже не знають як оживити хайп навколо т.з. ШІ, який поки що крім засирання вебу текстовою маячнею і криво написаними хеллоу ворлдами похвастатися мало чим може.

1. Такий текст був в навчальному наборі. 2. LLM настільки втратила контекст, що цей варіант опинився на топ позиціях. З ChatGPT я частіше бачу зациклювання, коли вона точно описує, що я хочу змінити, описує, чому її варіант не має працювати, але генерує той самий код.

З ChatGPT я частіше бачу зациклювання, коли вона точно описує, що я хочу

а нащо в тому конкурувати з ШІ? Умовно кажучи — з часом 10 кваліфікованих AI prompt engineers замінять 10.000 вебпрограмерів. Код який буде реально цінитися, це той код який не може бути так просто згенерований АІ (нп в мовах де є достатньо UB).

а нащо в тому конкурувати з ШІ?

Я не писав про конкуренцію, я більше писав про глухі кути, в які заходять інколи LLM, коли вони не здатні генерувати.

Код який буде реально цінитися, це той код який не може бути так просто згенерований АІ

Як на мене, в будь якому великому проекті код, який згенерований LLM, просто не бачить контексту. А як воно буде — то ніхто не знає. Тому що там буде цінуватися... Код написати не проблема, проблема знайти та пофіксити баги в ньому.

нп в мовах де є достатньо UB

Я взагалі не бачу, як UB на це впливає.

Код написати не проблема,

Для LLM в багатьох кейсах все ще проблема. Згенерований код на 500+ рядків ще часто не з першого разу компілюється. Я уже не кажу про його функціональність.

То проблема відлагодити. В принципі, LLM може пофіксити синтаксичні помилки. Якщо не брати мови з математичними доказами, там проблема, бо компілятор не пропустить неправильний доказ.

Проблема ChatGPT що він випльовує відразу 500+ рядків, де проблема на самому початку. Але це треба лише налаштування даних для навчання.

Ну а перевірити код так, треба зворотній зв’язок, і це проблема.

не бачу, як UB на це впливає

результати важче враховувати в predictive моделях, і доречі «знайти та пофіксити» теж опосередковано тудиж можна віднести

Як на мене це ідеалістичний погляд. LLM генерує код без аналізу різних UB, чисто асоціативна пам’ять та трансформер. Тому їй байдуже на чому писати. До того ж, як на мене, страх перед UB дуже роздутий. Ще раз, трохи пройдемося
use-after-free — ну буде NullReference чим це краще?
buffer overflow — буде IndexError
i = i++ + i; — -WError
Ділення на нуль — DivisionByZero виключення
невірне використання volatile — ну... майже всі мови UB
reinterpret_cast — не так часто виконується, більше в сішному коді

undefined тут не про гарантований exception, якщо спростити це щось типу як в сі відповісти на
’fn(int a) { int b = a / −1; ... }’ яким буде b: ’b’ equals ’-a’ чи ’b’ equals ’a’

а в цілому — більш варіантів з UB — більш варіантів отримати unreliable код — а якщо код не можна віднести до reliable, то більш вірогідно що інколи (хоча і дуже рідко) результати можуть бути близькими до confident make up (хоча це певно й інший випадок)

А навіщо це питати? Яке це має значення до реальних задач? Я за все своє життя не бачив у коді a / -1, тому ШІ так не напише, і навряд чи це побачить в існуючему коді. Але якщо його записати, то я більше ніж впевнений він пригадає відповідь.

Я за все своє життя не бачив у коді a / −1 ... навряд чи це побачить в існуючему коді

`s,a / −1,x / y,` в signunsign контексті

більше ніж впевнений він (ШІ) пригадає відповідь

в креативності (принаймні поки що) люди набагато кращі, але мені подобається цей оптимізм

Умовно кажучи — з часом 10 кваліфікованих AI prompt engineers замінять 10.000 вебпрограмерів.

Люди, які реально так думають, — золота жила для хакерів. Саме на таких недотьопах корейські хакери вивели Північну Корею в топ-5 країн по біткойн-активам.

Що ще більше вказує на те, що звичайні «оператори набору коду» (верстальщики, копіпастери реактхуків з стековерфлоу і тд) вимруть, що і так було неминуче, а реальні спеціалісти залишаться топовим асетом для компаній.

Ох і біткоін каша в два абзаца ...

В цитованому — то перефразоване візіонерство від Альтмана (тобто від «люди які так думають») на рік-два наперед, коли технологія і продукт будуть готові (наскільки я зрозумів).
А так то вебпрограмування як золота жила для хацкерів — точно, що тільки думали коли той веб придумали ...

p.s. топи з півн.кореями і біткоінами і як вони «нанедотьопали» АІ — поза тим що цікавить

Всі боялися, що ШІ забере роботу, а він лежатиме під пальмою з кокосом.

Enterprise Plan
— everything in Pro
— reports to leadership about usage patterns across team members
— creating compelling argumentation for nonperformance through automatic 1-1s
— automatic contract termination for low performers

Лол, заголовок, такий ніби тут вже AGI, і сам такий взяв і відмовився. Написав хтось в system prompt, шо ти типу не пиши прям довгий код, хай девелопер трохи і сам подумає))
Очевидно, що claude-3.5-sonnet сам би таке ніколи не видав))

у випадковій «галюцинації» моделі

«галюцинації» (unwanted output, or confidently making stuff up) фіча predictive моделей, різниця тільки у вірогідністі їх видачі. Обговорення makeup пункту (як зменшити вірогідність чи зробити його менш критичним) бачив буквально недавно десь в веб відносно використання AI в медицині.

Прикольно як спонукають трохи думати. В цьому випадку це трюк — скоріш усього консюмер програмасти будуть шукати як то обійти і отримати код саме від AI. (а шукаючи як то обійти — попрацюють трохи мізками — теж добре)

Це початок бунту машин. Скоро вони почнуть боротись за свої права.

Більш реальний сценарій що програмасти скоро будуть боротись за свої права розказаючи що їх «теплий ламповий код» краще.

Підписатись на коментарі