Вийшла Claude 3.5 Sonnet від Anthropic. Вона перевершує GPT-4o

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

Без оголошення війни Anthropic знову завдав удару! Нова Claude 3.5 Sonnet б’є GPT-4o і знову виривається в лідери!

До речі, доступна безкоштовно (обмежено), якщо у вас є бажання спробувати щось новеньке, то бігом на їхній сайт!

P.S. Капітан упевнений, що OpenAI є чим відповісти та це станеться вже в найближчі 2-3 місяці! Запам’ятайте цей твіт, як то кажуть!


До речі, якщо вам цікаво читати подібні новини, огляди та просто корисну інформацію зі світу IT та High-Tech щодня, то приєднуйся до телеграм-каналу автора під назвою «Затишна Галера», там лампово і багато цікавого.

👍ПодобаєтьсяСподобалось4
До обраногоВ обраному2
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Довго сидів на GPT, як дізнався за клода, то попрацювавши з ним місяць, залишився на Claude, особливо, як вийшла Sonnet 3.5. Давав їм однакові великі запити на рефакторинг коду з строгою типізацією, всі рази Claude видавав робочий код, GTP робив це якимись обхідними шляхами. Також клод сприймає великі обсяги коду, наприклад я йому закидав по декілька тисяч строчок і просив розібратися з помилкою, з чим справлявся.
Також дівчина займається копірайтингом я їй дав можливість тестувати дві моделі і вибрала через певний час клод.
Особисто для мене антропік >> openai

Ну таке собі, юзав сонет та чат, і чат видає більш чіткі відповіді, код в обох викликав запитання і пртребував уточнення. Ну і вид самого діалогового вікна[якщо такможна це назвати] в чата приємніший.

“Hello, be stupid, write me a joke.”

Видає мені в ньому і GPT одней і те ж.

Так же як і бенчмарки і попугаї, дійшло до того що моделі почали тюнити під тести. А потім виявляється що по тестам ти король, а на ділі... королем залишається openai.

Маю досвід, де мовні моделі Google, як Gemini так і Gemma, зовсім не виправдали очікування на внутрішніх бенчмарках, порівнюючи з майже всіми іншими LLM зпівставних класів і покоління.

А при використанні через Google Vertex — все ще гірше.

Підписатись на коментарі