Чому варто відмовлятися від вакансій з оптимізації ШІ
Всі привіт.
За цей тиждень вже отримав декілька описів вакансій оптимізатора коду для ШІ.
З огляду на те, що кінець неминучий то нема змісту на їх погоджуватися.
Смакуємо останні дні без ШІ.
Всі привіт.
За цей тиждень вже отримав декілька описів вакансій оптимізатора коду для ШІ.
З огляду на те, що кінець неминучий то нема змісту на їх погоджуватися.
Смакуємо останні дні без ШІ.
Пояснення про масові звільнення в техгігантах (спойлер: вкладаються в HW)
www.youtube.com/watch?v=X0aYO8GMB4c
Так можна сказати відносно будь-якої роботи.
Але цікавить думка по даному сабжу.
Чому нема змісту погоджуватись на них? Моделі стають складнішими, вимоги до заліза тільки ростуть, все більше компаній використовують АІ і логічно що вони шукають способи знизити витрати чи пришвидшити роботу. Навіть якщо проект короткостроковий, то в теорії з досвідом роботи буде простіше знайти наступний проект. «Оптимізація ШІ» це доволі розмите поняття: звучить цікаво і водночас нудно, залежить від вакансії.
Текст теми по-дебільному написаний ©, з коментарів більш зрозуміло що автор мав на увазі. АІ-слоп нікуди не дінеться, його вже настільки багато, що юзери не знають кому платити гроші (нагадує ситуацію зі стрімінговими сервісами). Багато компаній інтегровували АІ аби як бо конкуренти зробили це ще вчора, а над оптимізаціями почали думати коли прийшов рахунок з AWS (пишу з власного досвіду).
Багато компаній інтегровували АІ аби як бо конкуренти зробили це ще вчора
Ну і ще буває коли над АІ фічею працює ціла команда (бекенд, фронтенд, девопс) і щоб семеро не чекали одного, бекендщик пише більш-менш робочий прототип і йде працювати над наступною фічею. А для оптимізацій не завжди вистачає скілла (АІ взагалі можна оптимізовувати нескіненно: інфраструктура, оверклокінг, стрімінг даних, альтернативні inference бібліотеки, самописні кернели як це робили діпсік ітд) і тому простіше тимчасово найняти когось іншого.
це прям як сучасний варіант Vernichtung durch Arbeit тільки за власним бажанням :)
Я дуиаю що це варто спробувати побалакати
В плані, що можливо менеджмент вкурив що тільки на ШІ не доїдеш, і після ШІ треба все таки підтримувати кодову базу і це може вилитись в цілком довгограючі відносини
З іншого боку, менеджмент можливо думає що для підтримки кодової бази можна час від часу найняти когось desperate за миску рису, і ти в них не перший
Думаю, якщо не буде зрозуміло ледь не з перших дзвінків що це перший варіант, я б ставив на другий і особо не парився
Навряд чи. Скоріше «лудизм».
Розрізняють в хомо сапіенс сапіенс два види інтелекту:
рептилоїдний і когнітивний
Теперішній ШІ, як і рептилоїдний, грунтується на асоціаціях, так що годиться для статистично опрацьованих патернів.
www.youtube.com/watch?v=fbP_YwU7c2c
види інтелекту:
рептилоїдний і когнітивнийТеперішній ШІ, як і рептилоїдний, грунтується на асоціаціях, так що годиться для опрацювання статистично опрацьованих патернах.
Я це не вкурив про що ти але
artificial intelligence is not intelligence
Не утворюється в датацентрах жодних асоціацій і думок
Llm це модель що бере інпут і випльовує оутпут
y = f(x, t, θ)
Where:
• x = input (prompt, context, data)
• t = temperature/sampling parameters
• θ = random seed/sampling state
• y = output
людям просто властиво надавати людських рис своїм творінням, і грати бога, особливо видно на недавньому месіанстві альтмана
Короче, без зайвої води — не замінить воно людей, крім генерації контенту й некритичних речей де fuzzy результат прийнятний, але до того як ринок це зрозуміє і розчарується в женай пройде час.
От тіпічний формошльоперський сайт чи музичку нагенерувати — це якраз fuzzy результат ок
Прошивка якогось МРТ-апарата з іншого боку чи планування розкладу поїздів/літаків — fuzzy результат не ок
y = f(x, t, θ)
Where:
• x = input (prompt, context, data)
• t = temperature/sampling parameters
• θ = random seed/sampling state
• y = output
Хіба це не математичний опис асоціативних зв«язків?
Як ти чи ШІ розпізнає(ш), напр., що іграшковий медведик є медведик, а не «чужий» з однойменного фільму?
Хіба це не математичний опис асоціативних зв«язків?
Ні, з чого ти взяв
Інтелект не працює як llm.
Як ти чи ШІ розпізнає(ш), напр., що іграшковий медведик є медведик, а не «чужий» з однойменного фільму?
Тобто ти мені пропонуєш обгрунтовувати чому тобою видумана конструкція «рептілоідний інтелект і когнітивний інтелект» неправильна?
Я заявляю що земля схожа на бублик. Тепер це твоя турбота аргументувати що земля не має форму бублика?
Є речі які ллм робить краще. Ну так коняка теж бігає швидше за мене і возить більше. Але коняка без людини — нічого не возить, і бігає як попало
Хіба це не математичний опис асоціативних зв«язків?
звісно — ні
ШІ розпізнає(ш), напр., що іграшковий медведик є медведик, а не «чужий» з однойменного фільму
не знаю, які саме алгоритми порівняння там використовують, але з особистого досвіду — google lens просто жахливо розпізнає зображення,
наприклад десь на тижні пробував через google leans ідентифікувати ймовірну частину ракети ППО, яка впала на районі, але ця дурня видала купу ПТРК, ну абсолютно не схожих візуально,
навіть спроби натякнути, що це можливо CRI/MSE від PAC-3 — не вплинули, знову — купа ПТРК...
а «руками» швидко знайшов відповідність PAC-3 CRI
тому принаймні для google leans точно потрібні люди-розробники, які з цього MVP зроблять реально працюючий продукт
звісно — ні
звісно, — так: коефіцієнти в векторах котрі фіттають слова і є ніщо інше як асоціація(вАги її різновидів)
Людина — така ж модель, просто ми не знаємо всі вхідні параметри і деталі коду кожної такої моделі.
Це редукціонізм, не доведено, що ми зможемо мати модель, яка повторила б людину, з будь якою кількістю параметрів
будьяка модель це апроксимація системи яка моделюється. А редукціонізм це якраз стверджувати що можливо змоделювати інтелект людини на компутерах, просто треба компутер побільше й побільше параметрів
Почнемо з того що людей 8 млд і всі різні. У 8 млрд різних людей 8 млрд різних інтелектів чи однакових? Кого моделюватимемо першим? Може Дона Трампа чи Вову Хуйла?
Модель наприклад потрібно довго тренувати, щоб змінювати. Sonnet 4 вчора такий самий як сьогодні. В той час як мозок тренується й адаптується кожен день практично миттєво до нового реагуючи на зміни оточення і споживаючи всього 30ват.
Ми знаємо про те як працює «інтелект» рівно стільки скільки
Вважаючи, що людина скінченна (матеріалістичний погляд), така модель є — пряме моделювання повного мозку.
Проблема в тому, щоб апроксимувати її чимось реалізовним.
А от якщо ви доведете, що мозок то є засіб підключення до ноосфери і каналів звʼязку з астралом Всесвіту — тоді, дійсно, у мене був би редукціонізм.
навіщо «підключення»? непідключення не виключає нескінченності непідключеності
апд
нескінченності можливі(припустимо, припустимо) різні, абсолютна лише та в котрої темп нескінченності — нескінченний. тобто випереджає інші аби «встигнути» формувати їхні буття(нескінченні(з їх точки зору) nonetheless, наприклад)
якщо розвинути: віра — трохи й довіра до цього підтримування-формування в тому фронтирі, — що не «вкрадено» там буття_тут
тобто підключення до ноосфери не існує, а знання приходять хз звідки, напр. Теслі інопланетяни в мозок телеграфували і т.д. і т.п., та і загалом «Бога нема» © (тм), а мегаліти самі появилися, а Жуль Верн просто переписував допотопну пресу
За цей тиждень вже отримав декілька описів вакансій оптимізатора коду для
ШІ.
Можна опис такої вакансії?
Або лінк?
Я б пішов на такий проект, де береш код згенкрий чатом гпт, згодовуєш його своєму gemini акаунту і кажеш переписати.
Таких кілька проектів одночасно.
Профіт
Приходили два типи вакансій:
1. Тюнінг самої платформи: ядро Windows/Linux/Android/QNX/etc з CPU/GPU/DSP/FPGA/etc
2. Оптимізація Rust або C++ коду, а для цього потрібно не тільки знати С++ / Rust, а і бібліотек що були використані, ньюансів біндіна, мультипоточності, реалізації алгоритмів на таргет платформах і т.д. і т.п, не думай, що це от глянув блок коду на один екран і оптимізував. Сидіти з профайлерами, valgrind, perf, top і що там ще щоб віджати якісь каплі ліпшого перформансу. А не вологі юнацькі мрії на кшталт:
береш код згенкрий чатом гпт, згодовуєш його своєму gemini акаунту і кажеш переписати
А не вологі юнацькі мрії на кшталт:береш код згенкрий чатом гпт, згодовуєш його своєму gemini акаунту і кажеш переписати
Ех, ну ок, буду дальше круди за 7-8к писати(
Хотіла запитати, у вас вже ввели4-х дневний робочий тиждень?
«У вас» це де?)
Якщо про Польщу, то це наша жовта преса з якогось пілотного проекту роздула новину. Не вводять тут такого.
Якщо про програмістів в Польщі, то всі хто норм заробляють працюють через ФОПа, тому ніякого регульованого робочого дня)
Хіба в Фаангах на UoP.
Нема чого думати, що якщо продуктивність праці виросте, то працювати на дядю прийдеться менше годин. Не для того капіталізм був придуманий.
Коли китайці прийдуть з оновленим 996, вже з малиновим смаком з ШІ, доведеться знову працювати більше.
Увы.
У Польщі, звісно. Та ні, деякі компанії цей пілотний проект підтримали тут, у Польщі.
Зрозуміла, у вас поки без змін:)
Зрозуміла, у вас поки без змін:)
Та я б тільки за, але не уявляю як це можна продати західним замовникам)
Я не знаю, я взагалі тільки вчора про це дізналася. Подивимося, як в мене це буде на роботі.
З опису взагалі не зрозуміло як це повʼязано з ші. Бо для мене
оптимізатора коду для ШІ
означає оптимізувати сам код навчання/викликання ШІ. Аля там всілякі PyTorch, tensorflow і т.д.
«Навчання» ШІ це зовсім інша історія, довга і нудна.
Мова якраз про «викликання»
Я б пішов на такий проект, де береш код згенкрий чатом гпт, згодовуєш його своєму gemini акаунту і кажеш переписати
без приколів, але мав недавно ситуацію, коли код, згенерований gemini довелось фіксити чатомжпт
без приколів, але мав недавно ситуацію, коли код, згенерований gemini довелось фіксити чатомжпт
Я так в курсорі роблю, одна модель робить таск. Потім я переключаю на дорожчу модель (або просто іншу) і кажу перевірити все і пофіксати
Не всі проекти, де треба код — це прям повинно бути шось еталонне і зроблено на віка. Ось я наприклад зараз роблю ботоферму, на основі llm на своєму сервері. І без того ж самого chatgpt я б з цим розбирався роками. Тому що в мене робота, сім’я, і т.д. А так вже за 2 тижні в мене є якийсь функціонал. Звичайно багато чого можна покращувати, але як для mvp норм.
Як тільки «взлетить», а потім досягне якогось «вузького місця», от тоді і прийдеться рефакторити та оптимізувати. Але вивчати вже відоме, чому б і ні із ШІ.
47 коментарів
Додати коментар Підписатись на коментаріВідписатись від коментарів