Судячи по інтерв’ю їх головного: AI команда у MacPaw явно не DeepSeek)))
Може трохи датасету в ничку підзбирають... (продадуть комусь чи ні поки неясно)
Дуже сильно здивуюсь якщо випустять продукт який по якості перевищить середній світовий рівень.
P. S. В одному з своїх попередніх інтерв’ю(УТ-2), кілька років тому, Володимир стверджував що математика для AI не потрібна. Потрібно віддати належне судячи з усього він залишився послідовним і вірним самому собі.
Цілі зрозумілі. Але трохи запафосно. За півтора роки зробити «AI-First» звучить майже як посадити мільйон дерев.
Java в еру AI роазом з outsourcing йде на х*й)))
x.com/...tatus/1887866957023547480
Було.
Часктово через AI assitants.
Частково через зміну фокусу. Технологічні компанії зрозуміли що час змінився і конкурувати потрібно не стільки написанням нового софту а більше розробкою АІ фіч.
Ви — гуманітарій)
Тізер нобелівської лекції від новоспеченого нобелівського лауреата
Я став сіньйором після двох років досвіду в програмуванні))) З того часу пройшло багато років.
Так а що вони нового ці організації і їх дослідження можуть сказати? це нуби які не в темі...
Ось вам свіженький нобелівський лауреат розчехляє:
Який uplevel? Що це таке?
Голосують номальні контори ногами. Недавно Amazon скорочення провів)) це не просто так. А є наслідком впровадження AI.
Ну і борзі по поверненню в офіс теж не просто так, а розуміють конюктуру.
Та не процес потрібно оптимізувати... Вас потрібно оптимізувати))
На аргументи типу: паровий двигун, вода і драбини і тд. я пас, звичайно))
Чувак, напиши краще як звідти вимобілізуватись?
LLM якраз шлях до AGI. Навчене таким способом або подібним representation буде сладовою систем AGIs наступних поколінь. Викидати unsupervised pretraining на текстах ніхто не буде. Будуть щось додавати до цього.
P. S. Гуманітарії, шкільна програма, паровий двигун, вода, ко-ко-ко...
Тут не тільки особисті мотиви а ще й policy компаній що основний фактор для LeCun.
Крім того це питання openended. Але всі попередні тейки про те що системи AI мають бути побудовані як в мозку людини з тріском провалилися:
1) ввесь CV побудований на дуже примітивних блоках згортки, набагато примітивніших ніж нейрони в мозку і як виявилось працює не гірше
2) Llm спростували унікальність людського мозку, наприклад до процесінгу мови. Зроблені і навчені LLMs доволі просто, доречі
3) Швидше всього інші «людські/гуманітарні» вимоги по вдосконаленню AI будуть вирешені якимось дуже простим і неочевидним способом.
LeCun таке пише швидше від усього щоб не зарегулювали, він ж при посаді.
Ну і звичайно що тільки LLM не достатньо))
Доречі в Хінтона, який без посади, прямо протилежна думка))
x.com/...tatus/1843874006770110550
А ну так мабуть частина цих дрібничок може бути доведено. До оптимізації конструкцій здається ще далеко
Які теореми?))
Добре що люди які роблять AI не цікавляться думкою «ентузіастів ШІ» а також їхні дебільні статті не читають.
З мого досвіду, i за спостереженнями за навколишнім світом за місяць можна зібрати тільки команду яка «не полетить»))
P.S. Гроші взагалі не дуже багато значать в таких речах. Щодо звязків ми можемо зараз спотстерігати історію з Мета в якої звязків і грошей хоч відбавляй а щось все не складається з AI.