Check Levi9 best QA positions to Backbase team!
×Закрыть

Apple silicon

Today was event day for Apple, with the company announcing more details on its transition to Apple Silicon processors in the Mac. The company announced its new M1 processor, a new MacBook Air, a new MacBook Pro, and a new Mac mini during today’s event.
Apple kicked things off today with the introduction of its new M1 processor, its first Apple Silicon chip for the Mac lineup. Apple says the M1 processor delivers up to 3.5x faster CPU performance, up to 6x faster GPU performance, and up to 15x faster machine learning.

10 раз вище сильніше краще. Треба чекати нормальних бенчмарків.

The M1 processor also allows you to run three different types of applications on your Mac:

iPhone and iPad apps on the Mac through the Mac App Store
Rosetta 2 translation allows you to run apps made for Intel Macs on Apple Silicon, and sometimes apps perform better in Rosetta with M1 than they did with Intel, Apple says.
Universal apps are apps built for Apple Silicon and Intel processors and are downloadable from the Mac App Store or from the web.

Цікаво, коли портують різні IDE, python/nodejs/jvm і нативні пакети.

Update 1:
Apple Silicon M1 chip in MacBook Air outperforms high-end 16-inch MacBook Pro
www.macrumors.com/...​book-air-first-benchmark

Update 2:
isapplesiliconready.com ( сайт не всюди доступний, ось копія web.archive.org/...​/isapplesiliconready.com )

👍НравитсяПонравилось0
В избранноеВ избранном0
LinkedIn

Похожие топики

Допустимые теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Допустимые теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

‘Completely Usable’ Version of Linux for M1 Macs Released
wccftech.com/...​nux-for-m1-macs-released

лень читать все комменты — уже вспоминали как эпл выпустила ипод и вроде было много похожих девайсов, но потом эпл добавила к айподу звонилку и тач скрин и все производители мп3 плееров + производители кнопочных телефонов ушли сосать лапу (привет нокия, сименс и эриксон). Потом эпл прикрутила 2е камеры и лапу идут сосать производители бюджетных + мидл фото и видео камер . Года два назад эпл выпустила аирподсы и на выход пошел аудиобизнес сони и панасоника. Счас в айфоне стало три камеры, на выход готовится никон и наверно фото бизнес сони. После выпуска эпплом своего проца, который оказался очень хорош для первого проца (сравниваю с эльбрусом)), уже ушел в отставку президент интела, и как я понимаю весь интел готовится на выход из консьюмер сегмента. В это пока тяжело поверить, но кто мог когда то подумать что с рынка уйдет нокия и экриссон. Жду что самсунг и ксиоми через пол годика тоже выкатят какой то лептоп на 10м андроиде и интел перестанут покупать тупо из за того то виндовс тормозной и на нем программ и игр меньше чем на андроиде. Зато на андороиде батарея будет жить 20 часов, оффис на андроид дешевле, игр дофига, греться почти не будет, короче интелу все.

кто мог когда то подумать что с рынка уйдет нокия

сними свои розовые яблочные очки. никто никуда не ушел

Nokia продала свій телефонний бізнес, хіба ні? І вже давно немає їх у топах виробників за прибутками.

Тут пишуть про те, що телефони зараз під їх брендом продає HMD Global: nokiamob.net/...​s-shipped-during-q1-2020
І продажі смартфонів — 1% ринку.

да, Нокия сама больше не делает телефоны, но за ними все равно сейчас основной r’n’d

ты не дочитал — 1% рынка у нокии.

похер уже на самом деле

Там усе керівництво і багато інженерів саме з Nokia Mobile.

Ну поінт був про те, що сьогодні ти безумовний лідер ринку, а через п’ять-десять років продаєш залишки бізнесу.

не, поинт был про то что у эппла получается выкатывать на рынок устройства которые не просто эволюция старых, а они смещают фокус рынка вперед и те компании которые пытаются жить на старом рынке — их доля уменьшается до 1 процента. А рынок занимается теми кто может быстро скопировать то что выкатил эппл.

А рынок занимается теми кто может быстро скопировать то что выкатил эппл.

не считая того, что эппл сам практически все скопировал или купил
после свайпа на нокия н9 смотреть на жалкие потуги гугля и эппл без слез нельзя

ты слишком молод что бы помнить кнопочные телефоны нокия и моторолла

и как я понимаю весь интел готовится на выход из консьюмер сегмента.

Писец. Intel laptop market share 86% -> 80% в чётвёртом квартале 2020. У эппла 10%, вот на это значение и опуститься доля рынка.

а вспомни нокию, сименс, эрикссон, мотороллу и блекберри. Кто из них не был гигантом в телефонах ? Эппл показала что так можна, счас прийдет самсунг с ксиоми и порвут всех ноутами на андроиде с временем работы 2-3 дня. Вот ты идешь в магазин купить ноут и тебе предлагают ноут с временем 30 часов без подзарядки и 4 часа без подзарядки. Первый на адроиде с миллиардом программ, второй на виндовс 10 с тысячей программ. Первый обновлять нада раз в 2а года с выходом нового андроида, второй ставит обновления каждые 3и дня. Оффис + броузер + скайп есть и там и там, цена одинакова, к андроиду дают терабайт в облаке, какой твой выбор ?

какой твой выбор ?

Win10, потому что кроме офиса и браузера есть ещё 100500 софтинок которые нужны для работы. Тот же microsoft surface и хроумбуки вообще никак не повлияли на интелловский market share, потому что с ними работать по-человечески невозможно — это для офисного планктона. А когда запускаешь что-то тяжелое, то, к примеру, батарея моего google pixel сдувается за 4-6 часов.

так ты не путай для работы и консьюмерский сегмент где сидят студенты, дедушки, бабушки и т.д котороым батарея важнее возможности запустить автокад.

Ну это как раз пол процента всех консьюмеров. Оно где-то так сейчас и имеет.

я это поделие с говномакосью и даром не куплю хоть оно и вечно работало бы от батарейки

Скоро эпл выпустит свои авто и немецкий/японский/корейский/кетайский автопром умирёт! Останется ток эпол и наш автоваз :-)))))))

злые языки утверждают, что они набирают людей в готеборге
а потом какойнить мобиль-мобиль на голубом глазу будет утверждать, что эппл пионер автомобилестроения и весь автопром появился благодаря эппл

У меня в трёх километрах от дома офис эппла, который занимается automotive. Он же через дорогу от нашего офиса. Офис настолько секретный, что даже вывески нет :D Я без сарказма, если что. Причём их решение очень меркантильное — просто переманивать сотрудников :D У нас уже четвёртая часть там работает, на их место приходят те, кто работал в эппле там же через дорогу. Круговорот девелоперов. Говорят, что делают убийцу теслы.

www.iphoneincanada.ca/...​pple-office-space-kanata

Офис настолько секретный, что даже вывески нет

в Гтб тоже все жутко секретно

Мне говорили, что они вывески нигде практически не вешают (кроме, наверное, самых крупных офисов) из-за того, что было много попыток краж со взломом.

астолько секретный, что даже вывески нет

Мої знайомі хто працював, або зараз працює в епл розказували, що там з секретності прямо культ зробили. Всередині секретних офісів ще більш секретні кімнати і все таке. Якщо тобі така атмосфера подобається — будеш кайфувати відчуваючи себе супер-агентом.

Скоро эпл выпустит свои авто

Поки що мова йде про випуски епл-авто на виробничих потужностях KIA.

недавно нахоботил себе такой девайс для музыкальных целей. как обычный юзер могу сказать, что все что рассказали — правда. Есть условно DAW Reaper и проект на 50+ дорожек с VST. На рабочем MacBook Pro 16 в топе (2019го года) вентиляторы взлетают на орбиту уже после 5 минут работы в проекте + подлагивает при редактировании. На М1 проце вентиляторы так и не включились. И это в режиме эмуляции. И черт возьми абсолютно спокойно в реалтайме все редактируется и играется. Вышло даже задержку до 5мс спустить на запись/игру через плагин(а это трудоемкая штука)

Примерно такая же история с играми(нативный Hades и третьи герои через Crossover)

От аккума 2 дня работает в режиме хром+всякое

Я в восторге.

Загальна цікавість: С DAW какой интерфейс: USB или интегрированый

Отличный маркетинговый ход, всех накормить какашкой, а потом дать конфектку. Объединили железо и бэк mac/ipad и поставили единый M1 ARM. iPad Pro работает так уже 2 года, когда чудо mac того же года перегревается от любого чиха, что стоило уже миллион человеко-часов, к тому, что он сам-то не дешевый

был бы про тулз/рипер на маке нативен 2 года назад — может бы и не было проблемы. и кто то б уже сводил 2 года треки на айпаде, пока маки грелись от каждого чиха. но как бы надо быть отбитым наркоманом, что б с такого уровня софтом и задачами работать на айпаде. мне, как юзеру, откровенно насрать как там шагнули маркетологи. я вижу, что железка работает — я ее покупаю и не парюсь несколько лет. что, к слову, именно с компьютерами эпл и происходит.

Разделение почему тулз не нативен тоже проблема корпорации. Зачем было делать iOSв 2008, когда был уже MacOs и железо тянуло линукс, а в 2020 объединить обратно? Проблема производства и проектирования — разные отделы и разный маркетинг, и тысячи девелоперов. Конечно хорошо, что получаются удачные продукты, а вот про неудачи не принято говорить, а еще за неудачи платят пользователи деньгами и временем. Я делаю софт на веб, десктоп, мобайл, и хочу сразу получать хороший продукт, а не разгребать чужие костыли. Я создавал аудио и видео софт, потому насмотрелся на все баги со всех сторон, как железа, так и софта. Например, M1 поломал много софта, как переход с x86 на x86_64 (тоже было в нескольких поколениях iOS). Теперь конечно этих проблем меньше, но есть новые, которые другие. Конечно, для юзера одной программы, которая хорошо работает это не видно, а значит хорошо и так должно быть, однако overpayment сделали разработчики, переписывая программу 5 раз работая на тормознутых компах. Издержки производства, а из-за этих издержек было потрачено время впустую, потому многие хорошие продукты небыли выпущены. Чистейшая математика

ну штож. когда то компудахтер занимал полквартиры, прежде чем попасть в карман. как и много людей под скальпелем помирало, прежде чем научились вырезать апендикс дыркой не длиннее пары сантиметров. таков прогресс. юзер приносит бабло. юзеру посрать чо там потрачено разработчиками. он голосует кошельком. и все будет подстраиваться таким образом. можно долго возмущаться на яблочников, однако они диктуют так или иначе. и если производитель софта заинтересован продать продукт — он будет подстраиваться. как и производитель носков, сыров, тд.

Все верно, но юзеры могут заплатить и жизнями, как в случае падения boeing 737 max из-за программной ошибки дважды, что достанет и до монополиста, потому стоит прислушиваться к юзерам на ранних стадиях. Все это проделки успешных топов ради сверхприбылей акций ICO (что есть курс биткоин) и фейковых деадлайнов для инвесторов. Возникают не оптимальные издержки пока монополист не проведет оптимизацию расходов, и результаты COVID-19 и M1 это хорошо показывают.
PS: Интересно сколько лишних профессий создано из-за ошибок высшего руководства. Конечно практику малых жертв ради больших изменений никто не отменял, вопрос в размере этих самых «малых» жертв.

сегодня «пятница», несмотря на субботу, так что
okorol.medium.com/...​ад-купертино-ed39cc9e30a5

CPU-Monkey такой себе источник, не тестят сами ничего а берут у других или придумывают сами результаты)

Apple books more than 80% of TSMC’s 5nm production capacity

Майте смачні процесори від конкурентів.

Huawei выпускает собственный ноутбук с ARM-процессором и китайским Linux для обхода санкций США
habr.com/...​any/selectel/blog/534280

А я ж казав, що тут ефект буде сильний, це не з Інтел на АМД перейти(:

Как сообщает Bloomberg, Microsoft решила последовать примеру Apple и занялась разработкой процессоров ARM для серверов и потребительских ПК линейки Surface.
itc.ua/...​itelskoj-linejki-surface

Apple Silicon Games — 400+ Game Performance Reports for Apple Silicon Macs
applesilicongames.com

Adobe выпустила ARM-версию Lightroom для Windows и macOS
itc.ua/...​oom-dlya-windows-i-macos

debugger.medium.com/...​chip-so-fast-3262b158cba2

Хз, статья для меня слишком техническая, но автор считает, что RISC архитектура даёт М1 возможность оптимизации для Out-of-Order execution (OoO) которую сложно повторить на CISC-архитектуре x86.

Че думаете?

Там полная статья неправды и технических неточностей. Например он пишет про четыре декодера команд в интел и АМД, гуглопоиск показывает дату статьи 2006 год. Их давно уже 5, причем по процессорам начиная с kabylake, информация не доступна для публичного доступа. И так практически по каждому абзацу — одни неточности.

4 или 5 декодеров — разница невелика (особенно по сравнению с заявленными там 8 для M1). Какие-то более принципиальные проблемы есть?
На стиль я бы не смотрел — это тошниловка от medium, придётся выфильтровывать вторичный продукт и тонны кэпства.

Какие-то более принципиальные проблемы есть?

1) Абзац про SoC очень странный, особенно если учесть линейку Intel Atom, да и по сути современный интелловский процессор — это не процессор, там сейчас на борту всё и контроллер памяти и PCI и GPU.
2) Абзац про UMA. Автора зациклило на копирование памяти, в то время как та же nVidia уже лет 20 как не копируют память, прямой доступ всегда существовал, просто его используют только для ограниченных целей. UMA тоже не такая однородная как кажется — я уже приводил пример тайловой организации, эта память хоть и находится в системной памяти, работа с ней идёт совсем по другому принципу. И в конце концов для трансформации тайловой памяти в линейную нужно копирование памяти (обычно BLIT операция или закат солныша вручную через CPU).
3) Multi-core or Out-of-Order processors? — одно другого не исключает.
4) Декодеры — интеловские процессоры можно посмотреть по аппаратным метрикам, нагрузка на декодеры большая только во время старта нового кода, через 200-300 тактов весь процессор будет заполнен очередью команд для выполнения, а она довольно-таки глубокая у Интела — очередь команд. Количество декодеров не показатель абсолютно. Их ровно столько, чтобы не было bottlenecks.

Спасибо, сложно было через его стиль продираться,
1) Согласен. Даже если бы автора приклинило на отдельном GPU, не должно было быть суперплача по сравнению со встроенным.
2) Ну ok (тайловость не щупал).
3) Таки тупой стиль для носорогов.
4) 200-300 это вообще дохрена. Если код уже в ближних кэшах... если ARM уже за 2-3 такта вытащил и отдекодил каждую, а вообще это почти впараллель идёт, а x86 должен искать хвосты команд... это на какой счётчик смотреть? Группа frontend_retired?

4) 200-300 это вообще дохрена. Если код уже в ближних кэшах... если ARM уже за 2-3 такта вытащил и отдекодил каждую, а вообще это почти впараллель идёт, а x86 должен искать хвосты команд... это на какой счётчик смотреть? Группа frontend_retired?

Тут есть детали по Skylake:
en.wikichip.org/...​t)#Fetch_.26_pre-decoding

Мы недавно пересматривали pre-emption в микроядре и стараемся как можно дольше не переключать контекст в современных x86, даже, когда время уже вышло (не сильно далеко). Это для обычных приоритетов, которые в первой 1/3 диапазона, в остальных 2/3 диапазона приоритетов для соблюдения real-time уже приходится делать принудительный pre-emption. Тоже самое с процессорами, стараемся шедулировать одни и те же ядра для одних и тех же потоков и процессов, ибо удар по производительности есть, когда процессор начинает с полного начала без предистории работы на этом участке.

x86 долго заряжает, но потом быстро едет. Касательно бенчмарков, по незнанию или по дурости x86 можно положить довольно легко. Из недавнего Intel Atom 2.4GHz, тот который с OOOE ядром — проход по двухсвязному списку из ~3500 элементов занимал ~700 миллисекунд, фактически каждый элемент списка был в новой странице, что сводилось к ~3500 доступам к рандом страницам, к которым процессор всегда промахивался, слишком нетипичный паттерн. Чтобы не менять вышестоящий код и логику, сделали аллокатор для элементов списка, который выделял заранее по 512 элементов линейным образом, ускорило работу в сотни раз. Я не ожидал, если честно, что такие маленькие числа элементов списка могут так сильно повлиять на производительность. А вот на Skylake падение производительности уже было не так драматично, но тот же подход ускорил доступ в разы.

Касательно другой темы, но в этой сфере. Ты случайно не видел в slang/llvm или gcc возможность запретить использовать какие-то команды процессора?

Мне чего-то подумалось, раз интел заявляет что они расчитывают, что в среднем код лезет в память в 40-60% случаев от общего среднестатистического кода, остальные — это операции над регистрами. И если это обычный средний код работы с переменными, массивами, а не какая-то специфическая алгоритмическая дробилка, то можно попробовать эмулировать RISC подход с load/store операциями и запретить все остальные операции над памятью. Я попробовал вручную, улучшения видны, но хотелось бы попробовать скомпилировать большое приложение с урезанным набором инструкций процессора и посмотреть что получится.

И касательно этой ветки обсуждения — декодинг команд для работы с регистрами будет гораздо прогнозированней, процессор может переименовывать регистровые файлы для оптимизаций out-of-order execution. Единственное что это раздует код где-то до двух раз по количеству команд, зато упростит сами команды.

Ты случайно не видел в slang/llvm или gcc возможность запретить использовать какие-то команды процессора?
можно попробовать эмулировать RISC подход с load/store операциями и запретить все остальные операции над памятью

Штатной через опции — нет (кроме и так тебе известных -mno-xxx для любого xxx), а если влезть в код (в заметной мере в md-файлы) — безусловно да. Для того, что ты описываешь — убрать описания команд в духе add %esi,(%edi) — с приёмником в памяти, всех, кроме собственно записи. Возможно, вообще этап свёртки в них. При SSA у тебя и так подобные оптимизации это уже дело поздних стадий (после перевода в MD-запись), если не вообще peephole: там идёт поиск характерных последовательностей чтения одного значения в памяти, понятной модификации и затем записи.

В clang, например, void foo(int *a, int b) { *a += b; } превращается в

define void @foo(i32* nocapture, i32) local_unnamed_addr #0 {
  %3 = load i32, i32* %0, align 4, !tbaa !2
  %4 = add nsw i32 %3, %1
  store i32 %4, i32* %0, align 4, !tbaa !2
  ret void
}

то есть чтение и запись характерно разделены даже для простейшего сложения. С этим идёт работа на всём этапе до машинных команд... объединение уже после — и отрубать его надо уже тут.

Единственное что это раздует код где-то до двух раз по количеству команд, зато упростит сами команды.

Ну насчёт раздувания таки перебор, мне кажется. Вот я взял /bin/bash. Просто objdump | wc -l даёт 175592, objdump -d /bin/bash | egrep ’\)$’ | egrep -v ’\b(mov|cmp|test|set|nop|idiv|call|vmov)’ | wc -l ответил — осталось 445. То есть одна из 300+ это чтение-модификация-запись. Больше всего там orl (с константой), заметно всяких andl, xorl, repz cmpsb, pushq.

Или /usr/lib/firefox/libmozavcodec.so: 1744 из 440608 — та же пропорция, около 1/300.

По-моему, если бы не легаси, можно было бы выкинуть все неатомарные команды модификации памяти и никто бы и не заметил :)

Ну насчёт раздувания таки перебор, мне кажется.

Если взять код умножения на матрицу констант (например RGBA8888 -> NV12), то он вставляет много неатомарных операций с памятью. Но в целом ты прав, что для среднего кода раздутие будет незначительным.

По-моему, если бы не легаси, можно было бы выкинуть все неатомарные команды модификации памяти и никто бы и не заметил :)

Это одна из целей. Потом выкинуть BCD команды (по-моему компиляторы про них и так не знают), круговые сдвиги, xlat, и прочие CISC образования. По сути все RISC инструкции в x86_64 имеют один-два байта в опкодах, что при 16 байтовом захвате инструкций позволит загружать 5 (или больше в последующих поколениях) декодеров всегда на 100%. Но это так, пока мысли в слух, я посмотрю кодогенерацию в Clang, может удастся сделать лёгкий cherry-picking инструкций, которые можно поубирать.

SoC — АМД делает на заказ для игровых приставок. Аргумент от человека не в теме. Как большая часть той статьи.

Два соседних абзаца :
If Apple wants higher performance they are simply going to add more cores. That lets them keep watt usage down while offering more performance.
Но когда пошла речь что Интел и АМД могут тоже докинуть ядер :
The problem with throwing in more cores is that for typical desktop workloads you reach diminishing returns with too many cores. Sure lots of cores are great for severs.

Не знал что они сделали гетерогенную память. Теоретически это позволит отдавать векторные инструкции видео ядру или другому ускорителю (с задержкой конечно, но её может не заметить пользователь.). Память на чипе — это круто. Но АМД делали такое с HBM достаточно давно.
В М1 нет возможности обрабатывать два потока на ядре

Вот тут автор аргументированно утверждает что нет смысла сравнивать однопоточную производительность процессоров с SMT и без.
wccftech.com/...​y-flawed-with-benchmarks

Не знал что они сделали гетерогенную память. Теоретически это позволит отдавать векторные инструкции видео ядру или другому ускорителю

А чем это отличается от интел атомов? Ну и UMA память не гарантирует когерентность кешей процессора и GPU. Наборот тайловая организация памяти как раз гарантирует некогерентность.

Там в статье описано что одну и ту же память без копирования могут читать и проц и видаха. Если это возможно без изменения структур данных, мы можем увидеть интересные инженерные решения. Но возникает вопрос координации. GPU is a new GPU )

Там в статье описано что одну и ту же память без копирования могут читать и проц и видаха.

это давно уже возможно

Но возникает вопрос координации

тоже все уже давно решено

С точки зрения API — да, физическая реализация — очень редко, в основном в приставках.

Почему вообще принимать что одна память доступная одновременно с CPU и GPU это обязательно хорошо.
Работая над сетевыми SoC где куча процессоров, сетевых интерфейсов и ускорителей обращающихся к многопортовому DDR контроллеру — четко видно на замерах что latency обращений к памяти растёт при увеличении количества портов и нагрузке, невзирая на всю умность шедулера в контроллере. Если данные обрабатываются разными процессорами и данные малосвязаны лучше их разнести вообще по разной памяти, если цена решения позволяет.
Вопрос насколько связаны данные.

Почему вообще принимать что одна память доступная одновременно с CPU и GPU это обязательно хорошо.

Потому что объемы большие для передачи между ними. Вот когда работаешь с CPU и GPU, то сразу же сталкиваешься с бутылочным горлышком по киданию данных между CPU и GPU памятью — по сути процы стоят всё это время. По итогу приходится достаточно сильно извращаться, чтобы не стояли.
Я вот надеюсь увидеть платформу для PC, где память будет одна и наращиваться планками. И процессор GPU ставиться в свой сокет, как CPU.
Кстати, первая же проблема с которой сталкиваешься с нейронками, что модель не влазит в память GPU или не влазит batch. Для CPU докупил планок и никаких проблем, а с GPU покупай карточку за 2 куска баксов или дороже.

Но я прикладной программист и не знаю нюансов в железе — возможно есть какая-то фундаментальная проблема с организацией доступа GPU и CPU к одной памяти на мамке.

вроде же есть ogl расширения для прямого доступа к текстурной памяти гпу. на юльшинстве платформ

Через медленный PCI3. PCI5 типа будет скоро, лет через 5, но к тому времени и запросы в нейронках вырастут и он также будет медленным в сравнении со скоростью доступа к памяти на мамке из CPU.
Кстати вот пример. MaskRCNN работает также быстро на CPU, как и на куче других движков на CUDA ~10 fps. Почему? Для нейронок GPU по определению гораздо быстрее. Пока предполагаю, что из-за хитрых слоев в части RPN.
Вот это Intel® Core™ i5-8600K и 1080 одинаково по скорости.

Когда сам пишу код, что юзает GPU, то всегда нужно придумывать хитрые обходы бутылочного горлышка в кидании данных между CPU и GPU.

Кидание данных в близкую память а потом работа с этой близкой выделенной и поэтому быстрой памятью.
Или постоянная работа с немного более медленной памятью.
Что будет быстрее заранее не сказать.

Два процессора обращающихся к одной и той же памяти это более медленно чем у каждого своя.

Когда сам пишу код, что юзает GPU, то всегда нужно придумывать хитрые обходы бутылочного горлышка в кидании данных между CPU и GPU.

При UMA архитектуре всё ещё хуже, почти та же PCI, например у ARM’ов она называется AXI Bus. Пусть даже притворимся что мы поверим, что у Apple 8×16bit честный контроллер памяти, который имеет теоретический максимум 68Gb/s. У тебя 4 ядра процессора, у тебя есть куча устройств сидящих на шее SoC и на этой шине памяти. Так вот 4 ядра используя запись 64 битных значений в память утилизируют эту шину на 200%. Ты просто смотришь на всё со стороны, как будто ты один пользователь контроллера памяти и тебе ни с кем не нужно делиться ею.

Та же nVidia для своих UMA решений использует более пропускные схемы: в Xavier чипах ~220 GB/s используя ту же LPDDR4X-4266 память.

Та же nVidia для своих UMA решений использует более пропускные схемы: в Xavier чипах ~220 GB/s используя ту же LPDDR4X-4266 память.

А PCI3 — 15.754 GB/s.
PCI5 будет 63.015 GB/s.

Или я не правильно понимаю эти цифры?

Или я не правильно понимаю эти цифры?

Почти правильно. В PCI-E 3.0 — 1Gb/s на 1x lane, и в PCI-E 5.0 4-8 Gb/s на 1x lane. Ты указал в конфигурации 16x. В случае с видеокартами на PCI-E они будут на отдельной шине и вся их пропускная способность принадлежит им. Пропускная способность PCI Host <-> Memory на четырёхканальной DDR4 2933 будет около 100Gb/s. Почти те же яйца, вид сбоку. За исключением того, что на UMA можно поймать моменты когда шина свободна и заюзать её всю, в случае с PCI-E 3.0 16x — 16GB/s максимум, но он же как правило и почти минимум, а в UMA могут деноминировать почти до нуля.

Пропускная способность PCI Host <-> Memory на четырёхканальной DDR4 2933 будет около 100Gb/s.

Поясни, если максимум PCI5 будет в будущем 64, у PCI3 сейчас максимум 16, то откуда 100 получается? Это один вопрос.
Второй, Нвидия на джетсонах делает 200 (пусть UMA). PCI до такого лет через 20-40 доберется, может быть. Так почему нельзя аналогичное Джетсонам для PC делать?

то откуда 100 получается?

Максимальная пропускная способность между PCI Host и memory controller. Это не транзакции по PCI шине.

Так почему нельзя аналогичное Джетсонам для PC делать?

nVidia Xavier — это high end embedded и AI — им это надо, это их ниша. А PC — универсальная платформа, зачем в лотке для котофф, который испольуется для просмотра видео с котиками такая пропускная способность? Бери Xeon со специализированным чипсетом для этого.

Бери Xeon со специализированным чипсетом для этого.

Понятно. Ну и кинь ссылку на такое, даже интересно.

Ну что-то типа такого: www.supermicro.com/...​cts/motherboard/X11DPG-SN

Я в серверных чипсетах не особо разбираюсь. Раньше supermicro делала свои чипсеты по лицензии от Интела, сейчас вроде Интелловские используют как есть.

Вопрос сколько стоит скопировать например DMA, а потом обращаться к близкой памяти. Причём DMA запускать пока ещё обрабатывается предыдущая порция данных.
А сколько стоит все время обращаться к более далекой памяти.
Я не спец в GPU.
Но например в сетевых SoC и тот и тот метод используется. И какой лучше зависит сильно от алгоритма поверх пакетов. И ещё от того насколько скорости к этим условным разным по близкости памяти различаются.

На таком уровне обычно прикладной программист не работает. Он обычно использует функции, что ему предоставляет та же CUDA.
Сказать, что эту часть в CUDA сделали криво я бы не рискнул.
А завязываться на какое не документированное поведение этих подобного API не хорошо.

Но у той же NVIDIA есть Джетсоны, в которых память одна и для CPU и для GPU. Да там есть нюансы с некоторымы накладными для управления чья эта память сейчас, но они быстро работают в сравнении с пиханием череp PCI.

Ну и с нейронками. Я еще не видел движка нейронок, где распараллелено вычисление слоев. Во всех слои только последовательно обрабатываются. Максимум параллельного — это батчем пачку картинок подать, но часто это хреново для обучения нейронок.
Но и с батчами мы часто упираемся в то, что видеопамяти не хватает, да и не всегда батцами получится видео поток обрабатывать — алгоритм такой.

Быстродействие GPU связано с высокой пропускной способностью специальной памяти. Она быстрее и дороже, паттерны доступа разные, поэтому для игр и нейронов лучше как есть — отдельная память. У серверных процессоров больше каналов памяти, но и эта пропускная способность всё равно ниже чем у видеокарт. Единственное что в такой системе с видахой в процессорном совете может заработать это два контроллера памяти, обычной и графической HBM2 например. Но там скорее всего возникает проблема питания, ни один серверный проц не ест 300Вт.

Но затыкb чаще всего на PCI. Она разве не сильно медленнее GPU и CPU памяти.
Я не спорю, что при распайке всего это нужно будет два контроллера памяти и два сокета для CPU и GPU и как-то согласовать работу этих контроллеров и питания больше для GPU и CPU сделать.

Но вот есть же Джетсоны, где всё это сделано уже.

ни один серверный проц не ест 300Вт

400W
ark.intel.com/...​r-77m-cache-2-60-ghz.html

Для простых GPU это делается очень давно (типовой вариант для встроенных Intel это забрать себе кусок DRAM). Собственная память у GPU делается там, где гонятся за производительностью и не хотят драться за доступ к памяти — ну так там оно и очевидно.

Там кстати сейчас одна компания утверждает что её RISC-V процессор мощнее M1 в производительности на ватт
Но есть нюансик — источник — внутренние тесты компании

www.eetasia.com/...​-outperform-apple-m1-soc

Только производительность сейчас ниже, а мы почему-то считаем что зависимость линейная, что не так?

Ну, Micro Magic разогнала свой RISC-V до 5ггц и получила 13000 в CoreMark (по их словам)
И вроде как, M1 в CoreMark набирает 10000.
Т.е. перегнали. И по энергопотреблению утверждают что он потребляет в 50 раз меньше энергии чем М1 (очень упрощенно)

С другой стороны, нужно независимое тестирование.
А то утверждать можно много чего)

А если мы про М1 и х86, то ждем год, выхода десктопных вариантов для десктопных маков
Там как раз подоспеет 6000 серия Ryzen (на 14++++++++ Рокет Лейк меньше надежд)

Хороший процессор, но революции не случилось, и вот почему :
www.anandtech.com/...​ac-mini-apple-m1-tested/5
Практически все обзорщики упустили маленький нюанс...
Apple M1 выполнен с использованием 5нм процесса.
Переход с 7нм на 5нм процесс даёт 30% снижение энергопотребления или 15% производительности.
В многопоточных тестах anandtech М1 показывает результаты сопоставимые с мобильным 8-ядерным процессором АМД 4900 (какие-то буквы) который потребляет 35 Вт. При этом оценка потребления энергии М1 на уровне 24-28. Если 28 — это это значит что они были бы равны если бы проц АМД был на том же производственном процессе. Но этоn процессор основан на старой архитектуре Zen 2. В том же тесте новый процессор 5950 в однопоточных задачах показывает сопоставимую производительность (прирост 19% по сревнению с предидущей архитектурой, без смены производственного процесса).
Это значит что при переходе на 5нм мобильный процессор АМД сможет вырваться вперёд на те же 19%. Производственный процесс — это не инновация Apple.
Можно так же сравнить количество транзисторов: 16 миллиардов в М1 против 9.8 в конкурирующем 8-ядернике АМД. В котором тоже есть встроенное видео, но нет нейросетевого модуля.
16 ядерный Ryzen 9 5950x содержит 19,2 миллиарда транзисторов, без встройки.
Для мощных ноутов с отдельной видео картой будут использоваться мобильные процессоры без встроенной видео карты.
Для того что бы адекватно оценить «инженерный гений» Apple сравнивать следует процессоры на одном техпроцессе с сопоставимым количеством транзисторов.
М1 следует сравнивать с 12 ядерным процессором на Zen 3 выполненным по 5нм процессу.
Вы конечно можете возразить что такого процессора пока что не существует, и будете правы.
Но уже в январе будут представленны мобильные процессоры на Zen 3 и 7нм.
Есть все основания считать что в многопоточных задачах где было отставание оно будет нивелировано, а в остальных они будут заметно быстрее чем М1, но никто не напишет об этом статьи с громким заголовком.
Так что не спешите заказывать очередное «чудо».

Так что не спешите заказывать очередное «чудо».

и в мыслях не было

а еще там какаято шустрая память прямо в упаковке, вот и весь прирост

Именно.
Анандех использует сомнительные бенчи.

В других программах/сравнениях видно что М1 конкурирует с low tdp x86
И конечно результат лучше, но это далеко не «порвал десктопные процы!11»

Мне кажется что всё вау от людей которые не понимают что такое аппаратное ускорение.

М1 следует сравнивать с 12 ядерным процессором на Zen 3 выполненным по 5нм процессу.

ну не, лучше сразу з тредрипперами на 24 ядра)

Переход с 7нм на 5нм процесс даёт 30% снижение энергопотребления или 15% производительности.

)) Это так не работает) Погугли как их меряют и что это значит. Не работает такая логика что 7 нанометров в 2 раза меньше чем 14, и там будет в 2 раза больше транзисторов на ту же площадь или 2 раза меньше потребления.

Для того что бы адекватно оценить «инженерный гений» Apple сравнивать следует процессоры на одном техпроцессе с сопоставимым количеством транзисторов.

Майк, перелогинись) это уже не смешно))

ну не, лучше сразу з тредрипперами на 24 ядра)

Ну Анандтех взяли сравнили M1 с i9-10900к в гикбенче, SPEC2006, SPEC2017 и у них получилось что M1 мощнее 10900k

Я поэтому и сказал что эти бенчи фигня.

Или твоя логика, что когда М1 сливает — это плохой негодный тест, а когда выигрывает — хороший годный?

Или твоя логика, что когда М1 сливает — это плохой негодный тест, а когда выигрывает — хороший годный?

Моя логика если большинство тестов показывают отличные результаты, side-by-side сравнение в запуске апликух и скорости в сравнение с прошками за 4К баксов показывает отличную скорость, то для такого уровня проца это круто, это очень круто.

Инфа о 30% и 15% с сайта TSMC странички о переходе с 7нм на 5нм, расскажи им как это работает.
Про сравнение с 12 ядерником — речь о размере кристала.

Не, тесты Geekbench, SPEC2006, SPEC2017 — фигня.
Надо смотреть на Cinebench, тесты в реальных приложениях (работа с видео, изображениями, звуком, компиляция)
Анандтех натягивают сову на глобус используя сомнительные бенчи.

А 5нм — дает преимущество, но не факт что существенное. «5нм» и «7нм» транзисторы по факту не особо сильно отличаются по размерам. Кавычки — потому что там по некоторым измерениям эти транзисторы больше и 5 и 7 нм

Для примера, тот же Интел на «14нм» — далеко не на свалке истории. Хотя у них проблемы с энергопотреблением.

Так в cinebench результаты тоже афигенные)
И мне так никто не ответил чем плох гикбенч, который тестирует кучу всего что юзается в real world app.
i.imgur.com/ibQy9bv.png

Я сейчас посмотрел, у меня судя по всему больше проблема не с Гикбенчем а с Анандтехом и подобными обзорщиками

У Анадтеха например, в гикбенче 5950х набирает 1655 баллов
images.anandtech.com/...​phs/graph16252/119160.png

я смотрю сайт гикбенча и там прошка на 5950х набирает 2121 баллов
browser.geekbench.com/v5/cpu/4758564

И как им после этого верить?

Так что только 100500 обзорщиков, 100500 тестов и только потом выводы.

Это синглтред, для многопотока ситуация аналогичная.
У анандтеха для 5950х — 15726
images.anandtech.com/...​phs/graph16252/119371.png

у прошки на 5950х — 17848
browser.geekbench.com/v5/cpu/4758564

browser.geekbench.com/v5/cpu/4758564

iMac Pro райзене это хакинтош какой-то видно, а те другие резалты на винде.
+ версии Гикбенча разные могут быть

Хакинтош — это хорошо. Это означает что ОС одна и та же — и там МакОс и там МакОс

а те другие резалты на винде.

Ага. Только самые хорошие результаты на МакОс.
Потом идет линукс, а на винде самые днищевые результаты.

Т.е. если сравнивали с виндой — уже плохое, неадекватное тестирование.

А так-то можно было еще частоты вниз подкрутить, ядра поотключать на райзене)
Чего мелочиться-то. Ведь конфигурация тестовых машин удобно не указана.

Хотя просто цифры дорисовать в статье — самое простое.

+ версии Гикбенча разные могут быть

Версия гикбенча самая последняя на этом хакинтоше ,)

Самый мощный мак мини на М1, на этой же, самой последней версии гикбенча
browser.geekbench.com/v5/cpu/4830485

Цифры такие же ± как и у Анандтеха для М1

Анадтех выпустил статью 17го ноября, Хакинтош тестился 16го ноября. (М1 — 19го)
Т.е. у Андтеха тоже должна была быть тоже самая последняя версия — хотя то что они конкретную версию не написали — еще один минус в их сторону.

как варик на хакинтоше разогнаный проц. Я тестил свой 9750H на винде и на макосе, результаты в пределах 1-4% разницы.

Во еще в местную копилку от эксперта из РБ с онлайнера «Intel и AMD посрамлены. Обзор MacBook на чипе Apple M1» tech.onliner.by/...​macbook-na-chipe-apple-m1

И этого купили проклятые огрызки!11

Иногда по собственной глупости пишут подобное.

Когда уже айтишники из dou сделают какой-то гайд по правильному тестированию ноутбуков, чтобы эти неучи смогли нормально протестить продукты.

Что-то типа:
1. Батарея имеет 6 параметров, если все они не одинаковые, тестировать автономность нельзя.
2. Можно написать бенчмарки где соснет и intel и amd и arm, поэтому тестировать производительность нельзя.
3. Атомы движутся хаотично, каждый такт неповторим, в мире нету ничего абсолютно одинакового, поэтому тестировать ничего нельзя.
4. Эпл говно.

Всё в твоих руках. Тебе никто не мешает и не запрещает. Делай.

Ага) Единственно правильные бенчи — те где процессор ойфона мощнее i9-10900k)

Наоборот. На одном ты кофе сварить можешь, а на другом нет.

Главное, чтоб не убежал

тестировать автономность нельзя.
тестировать производительность нельзя.
тестировать ничего нельзя.
Эпл говно.

Все так!

www.youtube.com/watch?v=y_jw38QD5qY

Особенно интересные результаты в спидометре, а также насколько падает перформанс в асуса когда он работает от батарейки) А потом говорят что они догнали макбуки по автономности, которые что от акума что сети не режут производительность.

p.s. Асус что то теряет форму, только 2 пестрых наклейки нацепили) Обычно 3-4 или одна большая размером с небольшую ладонь)

Как бы там не было, пластиковый лоток для котов взул Прошку, это уже другая весовая категория. Более интересно, что в 16″ поставят.

M1X поставят по слухам. 8 больших 4 маленьких ядра

Це в молодшу версію 16″... в старшій наче має бути 16 ядер...

16 ядер это вроде про gpu говорилось

Там скоро выйдут мобильные процы из 5ххх серии и они будут где-то 15-20% мощнее 4ххх серии и энергоэфективнее.
Главное не попасться на ребрандион (4ххх маркированный как 5ххх)

Скоро = в наступному році літом

On October 8, AMD launched its new processors using the Zen 3 architecture again offering a significant increase in performance, with +19%CPI compared to Zen 2 and frequencies up to 4.9 Ghz, these processors would be another good step forward for AMD. However, only desktop models have been announced, with mobile versions planned for CES 2021.

CES 2021 — это 11-14 января

www.hardwareheaven.com/...​be-a-source-of-confusion

Planned for announcement, а системи з‘являться — хз коли

Инициатива по поддержке чипа Apple M1 в Linux
www.opennet.ru/...​nnews/art.shtml?num=54181

Поддержка процессоров Apple M1 в .NET
habr.com/en/post/529190

Поки Docker не завезуть — будемо страждати на 16″ ;)))

Просто невыносимые страдания , сам страдаю, жене отдал макбук 2015 года для более комфортной работы.

О, Linus Tech Tips выпустили свой обзор — youtu.be/4MkrEMjPk24

Из забавного графики не совсем совпадают с тем что он говорит.
Например он говорит что в задаче Х встройка М1 почти достигла половину результата 5700XT в 27’’ маке, но по факту там видно что там в районе 30-35% от 5700ХТ

Еще забавно, что в основном, intel mac mini сливает m1 версии, кроме программного кодирования видео. Там наоборот выигрывает.

И наоборот, интеловская встройка чуть лучше видео кодирует, но хуже во всем остальном

Нативные аппы для M1 до 1.5 раз быстрее х86 версий через Розетту 2

самое прикольное, что одна из фич м1 — оффлоадинг кодирования-декодирования видео

Эту тему лучше не вскрывать %) У Intel’а очень быстрое кодирование и декодирование видео в MFX сопроцессоре внутри GPU. Но там довольно ограниченный набор поддерживаемых параметров и форматов, если захочется что-то с перламутровыми пуговицами, то будет ждать облом. Например VP9 только profile 0, VC1 только профили Main и Advanced, профиль Simple не поддерживается, HEVC только Main профиль. H264 почти 100% покрытия (это всё для Gen9 GPUs). Дохлая встроенная графика у Интела ложит на лопатки универсальные кодировщики от nVidia на поддерживаемых профайлах, потому что реализация в железе. nVidia и Apple пошли по другому пути — они поддерживать могут всё, но акселерация у них только частичная, например фильтры, iDCT, MC, colorspaces и прочее. Поэтому тут бенчармарк может быть как в одну сторону, так и в другую, вопрос в том, что кодировать или декодировать будут. Т.е. если надо показать превосходство Интела — не вопрос, сейчас организуем бенчмарк, если надо чтобы победил Apple — тоже не вопрос, за ваши деньги любой каприз. Вот так весь мир и живёт.

ну хз, может они там все софтварно делали. тогда отчего такие верески про крутость м1

Где Майк сказал про все софтварно?
И в том и в другом случае аппаратная поддержка.

И в том и в другом случае аппаратная поддержка.

где это написано?

Хм, по-моему там все написано однозначно. В одном случае имплементация в железе. В другом набор ускорителей. Ты это понял по другому?

там все написано однозначно

где?

Еще забавно, что в основном, intel mac mini сливает m1 версии, кроме программного кодирования видео. Там наоборот выигрывает.

И наоборот, интеловская встройка чуть лучше видео кодирует, но хуже во всем остальном

nVidia и Apple пошли по другому пути — они поддерживать могут всё, но акселерация у них только частичная, например фильтры, iDCT, MC, colorspaces и прочее.

ты же в курсе. что я отвечал на это сообщение:
dou.ua/...​rums/topic/31991/#2000664
да?

о боже, кисо обиделось?

но акселерация у них только частичная

Давненько я занимался set top box. Проигрывание видео с помощью чипов от разных производителей. Часто это была боль. Дофига существующего контента просто не проигрывалось нормально. Когда мы же и энкодили контент, то это ещё как то было можно использовать. Но и тогда вылезали периодически странности.
Поэтому я скажу что если система может работать с контентом пусть почти при полной загрузке, то дальше гораздо важнее поддержка всего, а не скорость.

В общем бенчи Geekbench, SPEC2006, SPEC2017 — ерунда.
M1 и А14 из нового ойфона занимающие место между i9-10900k и Ryzen 5950 — ни разу не палево)

Все остальное — похоже на правду.
Единственное нужно смотреть, что бы тесты в обзоре запускались хотя бы несколько раз, набор систем был один и тот же для всех тестов, ну и сама тестовая методика была корректной.

Вы верите в тест который говорит, что процессор в ойфоне — по производительности сильнее i9-10900k но слабее Ryzen 5950x? ))))))

Там в том же тесте, 28вт (!) мобильный i7 11 поколения рвет десктопный i9-10900k 10го поколения. Что вызывает много вопросиков.

Ну и потом, когда народ достает из широких штанин Cinebench, то начинаются крики что с i9-10900k и Ryzen 5950x сравнивать нечестно— другой TDP)

По остальным тестам, M1 маки мощнее старых маков с low TDP интеловскими процами — но это реалистично.
С учетом того что много у кого схожие результаты.
+ Народ показывает как в реальных приложениях новые модели себя ведут.

The low preset still shows a pretty big advantage for the 8-core GPU, but the results between the two models are very close in the more demanding quality presets. The comparison with the rivals is much more interesting. For starters, the old MacBook Pro 15 with the 560X is hardly any faster, and both the Nvidia GeForce MX350 as well as the Intel Xe Graphics (96 EUs) from the current Tiger Lake chips are clearly beaten in higher quality settings.

www.notebookcheck.net/...​8-GPU-cores.506105.0.html

Думаю ща кто-то придет и скажет что ресурс не авторитетный и тесты для хомячков, так как у ноутбуков разный вес.

Ну, это сравнение макбуков с макбуками, а не видюх с видюхами.

Потому что у видюх тож есть TDP внезапно. И в зависимости от заданного TDP производительность может спокойно отличаться на 30-50% на одной модели видюхи.

На самом деле интол недавно отожгла. Взяли два ноута, один с амд процом и 2060, второй с интол-процом и модификацией 2060 с TDP на 30% выше.
Внезапно, второй ноут набрал на 20% больше ФПС в игорях!11

Щок, победа интола!1 (nod really)

Ну, это сравнение макбуков с макбуками, а не видюх с видюхами.

45 ватт проц, и если не ошибаюсь 45 ват видео в той прошке с 560X)
ну и новая графика интела, которую все боготворят тож прогрывает)

+ не стоит забывать что ту игру они через розету запускали, и в целом на макоси игры показывают хуже fps)

а выводы уже пусть каждый для себя делает)

Я посмотрел внимательно статью — это херня какая-то.
Там где синтетика — у них в зависимости от бенча разный набор маков участвует.

Игровой тест — только 1 игра? Простите что?
И опять же другой набор маков по сравнению с синтетикой.

Алсо вопросы по методике тестирования.

Игровой тест — только 1 игра?

Для огрызков появились приличные игры? Когда? Какие?

Там они пишут что это DX11 игра.
Т.е. в режиме эмуляции запускали.
Значит можно и другие игры запустить.

Плюс есть игры чисто под Мак.

Там не статья с тестами, а какая-то ерунда.

Вот еще интересная статья на тему — jamesallworth.medium.com/...​now-complete-d4fa771f0f2c

Правда график с производительностью спорный. Вроде никто не утверждает что М1 перегнал 10900К

Кстати тема показательная достаточно вышла)

Большая половина людей в теме не юзает и не планирует покупать маки, но пришла доказывать и разоблачать новые процы и «дурачков» ябловодов, которые ж ведутся только на эмблемку епла.

Чего только и не было:
— предсказаний что Apple обанкротится из-за того что не наладит производство
— что вернуться обратно на интел
— интегрированная и дискретные графики одно и тоже, и m1 igpu почему то уступает 120-вт печке.
— сравнение с десктопными процами
— невозможность сравнения автономности, потому что в батарей есть 6 параметров))
— скам эпла чтобы повысить результаты бенчей
Разоблачения, отрицания всех тестов, уход от реальности в сухую теорию)

И потом говорят что яблодрочеры это фанатики))

Тут все просто. Были громкие заявления что «x86 — пока, пока, привет новый король ARM/M1»
Народ очень удивился и пошел разбираться.

Выяснилось, что есть много нюансиков.
Например, то что сравнение идет только для TDP 15Вт процов.
Так же то что там куча fixed function ускорителей.
Ну и в целом идут сравнения Мак против Мака.
Т.е. собранная система против собранной системы.
Встройку вообще сложно сравнивать т.к. М1 не поддерживает внешние GPU.

Т.е. победа есть, но только при заданных ограничениях.
И так-то в энергоэфективности ARM никто и не сомневался.

— что вернуться обратно на интел

Эппл до сих продает Маки на интеле. В том числе 32гб модели и многое другое.
Так, что пока нельзя сказать что они «ушли с интела».

Энивей, критическое мышление лучше слепого принимания всего на веру.

Слепого на веру было бы если бы поверили на графики из презентации епл)
Тестов как в синтетике так и в риал-ворлд аппах уже достаточно

Угу, ток чот никто в статьях и видео не проговаривает что это только TDP 15ВТ процы. Что это сравнение система против системы, и даже охлаждение может и влияет на результат.

Синтетика? Это Гикбенч и SPEC2006 где M1 между i9-10900K и Ryzen 5950X?
При этом тот же Анандтех скромно результаты Cinebench опускает.

Они какбэ не врут, просто умалчивают факты.

И рабочие аппы? Большая часть из них Мак-онли.
Если проца нет в маках — не сравнить. TDP и т.д. тож существующими маками ограничены.

Честно говоря если бы можно было запускать Windows 10 ARM на М1 было бы чуть проще — можно было бы заюзать виндовые бенчи с поправками на перфоманс хит от эмуляции.

Ну и про то что обзоры бывают купленными я говорить не буду — это известный момент.

Угу, ток чот никто в статьях и видео не проговаривает что это только TDP 15ВТ процы. Что это сравнение система против системы, и даже охлаждение может и влияет на результат.

потому что у m1 tdp 10 ватт, все вроде логично.

При этом тот же Анандтех скромно результаты Cinebench опускает.

на ютубе куче тестов в синабенче, и по ним он уделывает 16-inch прошку на с i9-9850H)

Честно говоря если бы можно было запускать Windows 10 ARM на М1 было бы чуть проще — можно было бы заюзать виндовые бенчи с поправками на перфоманс хит от эмуляции.

Синабенч, гикбенч кроссплатформенные и достточно точные бенчи, так как разниа на том же ноуте между ними в macos и винде пару % обычно.

Синабенч, гикбенч кроссплатформенные и достточно точные бенчи, так как разниа на том же ноуте между ними в macos и винде пару % обычно.

Консенсус про гикбенч — что это херня, плюс там есть bias в сторону arm/процов от apple
Cinebench вроде ок

потому что у m1 tdp 10 ватт, все вроде логично.

Угу потому, что «M1 побеждает х86 при определенном наборе ограничений» не так хорошо звучит как «М1 побеждает х86»
Причем большинство людей в треде стригеррилось на второе.

По сути это неявное введение в заблуждение.

У них уже есть успешный опыт перехода с одной архитектуры процессора на другую.

Даже если что-то будет ити не так, через год выпустят новые подправленные модели.
Далее добавят маркетинга и все потихоньку примут.

Кстати о вере — принимать на веру в древности означало — занести девайс в отдел тестирования и разместить на стенде, после чего бенч-марки, бенчмарки-бенчмарки
Вот это в древности значило слово — верить.
Сейчас остался краешек -> «поверка»
Про-верить -> не знаю откуда буква Р взялась.
До верие — еще не было осуществлено тестирование поэтому когда говорили — он ему доверился это значит «не принял на веру», «согласился без доказательств»
Доверие очень выгодная шутка для продавцов котов.
Верить это действовать (например, в религии верить это исполнять обязательные ритуалы)
Я не верю в Эппл. У меня его нет и не было.

Звідки ти всю цю маячню береш про те як було «в дрєвності» і як слова утворювалися?

— сравнение с десктопными процами

Не мы первыми начали, вот Анандтех например утверждает что в SPEC2006 и в Гикбенче

M1 между i9-10900K и Ryzen 5950X

www.anandtech.com/...​ilicon-m1-a14-deep-dive/4

Да, из за мощного single core он уделывает десктопы в некторых тестах. Тут же за сенсацию пытались выдать, что есть тесты где он им проигрывает, и выдать это за зраду)) 10-ти ватный soc)

Я перефразирую: есть мнение, что гикбенч и spec2006 — херня.
А вот в Cinebench вроде уже не все так радужно. И как раз на это идет ответ «ну это жи 10вт soc»

Еще раз. Заяву что М1 рвет десктопы выдал Анандтех и другие ресурсы. Первыми.
И на это уже есть опровержения.

И внезапно, если не перепроверять и спорить, то это вовсе не очевидно.

Т.е. по сути в этом треде много людей борятся с этой дизинформацией а Вы это обесцениваете.

Еще раз. Заяву что М1 рвет десктопы выдал Анандтех и другие ресурсы. Первыми.
И на это уже есть опровержения.

это они прям так написали?) а можно цитату из текста)

Или все таки они выложили цифры, у многих бомбануло, они сами себе придумали какие то заявления и с переменным успехом побежали их разоблачать?)

это они прям так написали?) а можно цитату из текста)

„During the release of the A7, people were pretty dismissive of the fact that Apple had called their microarchitecture a desktop-class design. People were also very dismissive of us calling the A11 and A12 reaching near desktop level performance figures a few years back, and today marks an important moment in time for the industry as Apple’s A14 now clearly is able to showcase performance that’s beyond the best that Intel can offer.”

Под этим текстом картинка с результатом SPEC2006 где Эппл побеждает 10900К

-----

Алсо там другие отжиги.
Например,
„There’s been a lot of criticism about more common benchmark suites such as GeekBench, but frankly I’ve found these concerns or arguments to be quite unfounded. ”

И там сразу над этим чарт с Гикбенчем, где мобильный 28Вт i7 из 11го поколения бьет десктопный 10900к в однопотоке

-----

Ну и последний гвоздь — это даж не M1 (A14X) а А14 — 6ядерный чип из нового айФона
Они вначале пишут, у нас нет М1, но есть А14. И М1 должен быть быстрее

www.anandtech.com/...​ilicon-m1-a14-deep-dive/4

я даже не знаю что сказать... ты процитировал статью за 10 ноября, где вообще нету реальных тестов М1, тестируют айфоны с А14 и просто пишут свои мысли про это все?)

Не чувак, все, удачи тебе в твоих разоблачениях там и т.д.))

Я тебе честно указал что это А14. И айФоны бьют интел в тех же бенчмарках что и М1 )
Алсо, даже интеловские процы там странно выглядят в том же гикбенче.

Это статью я нашел когда начал читать вот это — jamesallworth.medium.com/...​now-complete-d4fa771f0f2c

Меня заинтересовал источник инфы для их графика SPEC2006.
Это оказалась эта статья с анандтеха

Алсо статья про M1 не особо отличается

www.anandtech.com/...​ac-mini-apple-m1-tested/4

„In the overall new SPEC2017 int and fp charts, the Apple Silicon M1 falls behind AMD’s Zen3 in the integer performance, however takes an undisputable lead in the floating-point suite.

Compared to the Intel contemporary designs, the Apple M1 is able to showcase a performance leap ahead of the best the company has to offer, with again a considerable strength in the FP score.

While AMD’s Zen3 still holds the leads in several workloads, we need to remind ourselves that this comes at a great cost in power consumption in the +49W range while the Apple M1 here is using 7-8W total device active power.”

Те же булщит бенчи, „М1 бьет десктопные процы!”

А вот выводы в конце:

„What’s really important for the general public and Apple’s success is the fact that the performance of the M1 doesn’t feel any different than if you were using a very high-end Intel or AMD CPU. ”

По моему разоблачение успешно)

яблодрочеры
фанатики

разве нет?

Ну как тебе сказать, в темах про делы и асусы я что-то не видел как толпы яблодрочеров бежали доказывать какие это плохие ноуты\процы и смешили своими постами людей)

не видел как толпы яблодрочеров бежали доказывать какие это плохие ноуты\процы и смешили своими постами людей)

напомни, что там про засаленые ноуты было?

1. это был ответ
2. это не было в теме делов\асусов)

это не было в теме делов\асусов

т.е. в теме про маки толпам яблодрочеров можно

доказывать какие это плохие ноуты\процы

и смешить своими постами людей?

Можливо тому що раніше епл хейтери казали «ваш макбук такий саме по характеристикам, як делл чи леново, але на 500 баксів дорожчий».
А тепер схоже на найближчі пару років все, фініш(:.

«Та я в 2 раза дешевле куплю игровой асус с разноцветной подсветкой клавиатуры, 144 герца и GTX 1080M. Ну и что что 5 кг весит, зато спину накачаю!»

Ага.
Макбук 13 Про — 1.4кг
Dell XPS 13 — 1.2кг, 4к монитор с тачем, еще и дизайн симпатичнее
И 16 гб против 8 в макбуке, это при одинаковой цене ±

Соус — youtu.be/QgFd_w2n1es

Зато Макбук шустрее)))

Dell XPS 9-го поколения очень крутые, кайфую от их тонких рамок ) Но они и matebook-ки больше исключении из правил пожалуй)

Проклацав: виходить делл тільки в масі і розмірах виграє 200 грам (хоча чому б не порівнювати з ейром тоді, який легший, дешевший, ще і з пасивним охолодженням).
В усьому іншому мак кращий: потужніший, тихіший, набагато довше працює від батареї навіть у порівнянні з HD версією делла (4к мабуть вдвічі менше від батареї працюватиме взагалі).
Через півроку на мак ще адаптують і випустять нейтів застосунки з iOS і в реальних воркфлоу типових офісних користувачів віндові ноути будуть просто безпорадні

Через півроку на мак ще адаптують і випустять нейтів застосунки з iOS і в реальних воркфлоу типових офісних користувачів віндові ноути будуть просто безпорадні

У меня большие ожидания на счет мобильных процессоров AMD Ryzen 5ххх серии.
Плюс, новое поколение видеокарт от AMD и Нвидия — тоже достаточно энергоэффективны.

Ноутбуки с такими процессорами и граф.картами должны быть достаточно интересны

«Та я в 2 раза дешевле куплю игровой асус с разноцветной подсветкой клавиатуры, 144 герца и GTX 1080M. Ну и что что 5 кг весит, зато спину накачаю!»

Я думаю что не хватает вброса: Для игр купите Xbox, Playstation

У этого канала куча тестов, и вот конкретно этот интересный — youtu.be/59gAjXT7qyw
M1 против 6ядерного i7 с 64гб ОЗУ
А точнее вторая часть, где после того как 5700 XT подключили, результаты почти сравнялись.

Из этого можно предположить, что дело в
— x86 очень неуютно в рамках такого TDP
— M1 имеет кучу ускорителей, в том числе для декодинга/энкодинга видео — и это одна из причин таких результатов
(для трансляции x86 -> ARM тож есть аппаратный ускоритель)

бтв, прямое сравнение встройки М1 и 5700 ХТ не оч показательно, так как там по сути PCE-E x4 соединение, в то время как карта раскрывается полностью на PCI-E x16 (или x8 но 4.0)

В плане энергоэффективности очень хорошее решение.
Теперь вопрос — масштабируется ли оно на рабочие станции.

Так а в чому революція? ARM настільки ефективніший за х86? Чи то епли геніальний софт написали?

Пока не похоже на революцию.
ARM намного энергоэффективнее х86, поэтому х86 не удалось закрепиться в телефонах и планшетах.
x86 намного производительнее при намного большем TDP.
Оба пункта так и остались.

Зато Эпплу удалось выпустить шустрые ноутбуки на ARM — прогресс.
Софт тоже сыграл свою роль — т.к. старые приложения без проблем используют аппаратные ускорители в M1

Зато Эпплу удалось выпустить шустрые ноутбуки на ARM

Которые шустро могут выполнять только несколько стандартных задач, в любых других тормозят — не назвал бы я это прогрессом.

Например, разношерстная многопоточность, когда каждое ядро загружено своим тяжелым процессом, а не четыре потока одного процесса. Также загрузка процессора процессами и потоками активными которые превышают количество ядер.

Верующим в Святого Джобпса ничего не поможет, не напрягайся. Ну нравятся им огрызковые поделки, пусть купляют, это их выбор.

а можно пример такой задачи, а то из описания не очень ясно?

Да просто запусти четыре разных процесса, которые кушают CPU. И упадёт ли производительность. Например, четыре разных архиватора. Я понимаю, что исторически мак всегда был однозадачным и только одно рабочее окно, но всё же %)

Да просто запусти четыре разных процесса, которые кушают CPU. И упадёт ли производительность. Например, четыре разных архиватора.

И получил разницу КПД с x86 в пары процентов, которая будет незаметна даже в таком извращенном тесте)

Это ладно, но что такое ускорение JS и какие процессорные команды за это отвечают?

И получил разницу КПД с x86 в пары процентов

Там всё очень сложно. Например, в nVidia тоже не дураки сидят и восьмиядерный процессор у них не просто 8 ядер, а четыре пары по 2, чтобы не мешать друг другу во время работы. Apple хвастается увеличенными кешами. они же в этом тесте и ударят их назад. За всё надо платить.

оторая будет незаметна даже в таком извращенном тесте)

В чём извращённость? Четыря ядра — четыре логических процессора — гружу их чем хочу. Или можно проводить только тесты, которые показывают превосходство?

В чём извращённость?

Я про 4 разных архиватора) Видишь даже ты не смог придумать пример сразу из реальной жизни.

Да просто запусти четыре разных процесса, которые кушают CPU

я так понял это чисто теоретическое упражнение — не интересно.

Нет, я принимаю, что однозадачные люди выбирают однозадачный мак, но всё же есть люди работу работают. Та даже запусти make -j 10 и загрузи все процессоры.

однозадачный мак,

чушь какая-то

чушь какая-то

Ты же сам сказал, что многозадачность — это какое-то теоретизирование:

я так понял это чисто теоретическое упражнение — не интересно.
Ты же сам сказал, что многозадачность — это какое-то теоретизирование

Арм не способен на многозадачность, и даже одноядерники не способны(( прерываний не существует(

однозадачный мак

Это тоже из практики работы с риал тайм ос?))

Ты пытаешься организовать спецолимпиаду?

Дай угадаю, это из теории архитектур процессоров?)

Это из практики работы с real-time OS :) Я могу создать тест, в котором сосёт винда, могу создать тест, в котором сосёт линукс, могу создать тест, в котором все сосут. Чем больше они раскрывают деталей, тем яснее видны слабые стороны. Но тут яблофапперы всегда могут сказать, что маки они покупают ради светящегося яблочка на крышке.

Это из практики работы с real-time OS :)

real-time OS можно тестить автономность, только если 6 параметров аккум совпадает?)))

Я могу создать тест, в котором сосёт винда, могу создать тест, в котором сосёт линукс, могу создать тест, в котором все сосут.

Ломать не строить)

Но тут яблофапперы всегда могут сказать, что маки они покупают ради светящегося яблочка на крышке.

с 2016 года там не светятся яблочки :))
в так думаю берут из за удобства, юзерекспирианса (который правда хромает в последние годы), нормальной ОС)

У этого канала куча тестов, и вот конкретно этот интересный

Один из немногих, кто включает в обзоры тесты c компиляцией реального кода. Он использует бенчмарк нашего соотечественника github.com/...​vMEremenko/XcodeBenchmark
youtu.be/_MUTS7xvKhQ?t=981
Из поданных результатов пока только Mac Pro 2019 Xeon 2.5 GHz 28-core собирает быстрее M1 машин. Nuff said в контексте разработки под платформы Apple.

M1 имеет кучу ускорителей, в том числе для декодинга/энкодинга видео

С одной стороны это правильное решение вынести все специфические стандартные задачи в отдельные кристаллы, чипы или что там у них.
С другой стороны на нестандартных задачах получаются тормоза.
Т.е. они сделали специализированный чип под ограниченный набор задач. Наверное для смартфона и подобного это правильно. Для универсального компьютера такой чип не нужен.

С другой стороны на нестандартных задачах получаются тормоза.

в каких?

Не волнуйся для тебе ни в каких.

ты только очень сильно жди, скоро они обязательно будут)

А ты до Big Sur уже апнулся?

Там есть тормоза. Правда и на интеле и на м1 — проблемы в самой ОС
Можно на ютубчике видосы найти.

Я лично не замечал каких-то новых. Есть неплавная анимашка на инт. графике, которая была и на предыдущей версии. В целом после всех трешовых апдейтов последних годов, этот вышел pretty good)

images.anandtech.com/...​phs/graph16252/119365.png
Apple M1 8core 5nm на 8 потоках чуть лучше по FP и чуть хуже по Int
чем AMD Ryzen 9 4900HS 8core 7nm
к ноутбукам на последнем, память не по 200+USD за 8GB
так что расходимся

У нього ж 8 повноцінних ядер і TDP 35W, яка реальна автономність буде в ноутбука масою 1,5 кг з таким процесором?
Наскільки я розумію, Apple випустить конкурента в цій категорії пізніше, з великим макбуком.

У нього ж 8 повноцінних ядер і TDP 35W, яка реальна автономність буде в ноутбука масою 1,5 кг з таким процесором?

да не важно это все, сказали же что хуже по Int. тебе этого мало? расходимся.

Ноутбучные процессоры из серии Ryzen 5ххх должны быть довольно интересными.
Судя по результатам десктопных собратьев

давно не было разоблачителей в теме))

От ви судячи з біо маєте бути в темі процесорів і тд:
twitter.com/...​tatus/1331735383193903104

4/ So Apple simply cheated. They added Intel’s memory-ordering to their CPU. When running translated x86 code, they switch the mode of the CPU to conform to Intel’s memory ordering.
5/ With underlying architectural issues ironed out, running x86 code simply means translating those instructions to the Arm equivalent. This is very efficient and results in code that often runs at the same speed.
9/ Apple has made surprising choices. They’ve optimized JavaScript, with special JavaScript-specific instructions, double sized L1 caches, and probably other tricks I don’t know of.

Вони правда могли так зробити, це не спекуляція? Якщо так, чому ніхто до них не зробив подібний крутий процесор, міг би бути конкурентом Інтел і АМД на всіх платформах, не лише на маках.

Булшит касательно 4 и 5.

См en.wikipedia.org/...​etta_(software)#Rosetta_2
developer.apple.com/...​a_translation_environment

What Can’t Be Translated?

Rosetta can translate most Intel-based apps, including apps that contain just-in-time (JIT) compilers. However, Rosetta doesn’t translate the following executables:

Kernel extensions

Virtual Machine apps that virtualize x86_64 computer platforms

Rosetta translates all x86_64 instructions, but it doesn’t support the execution of some newer instruction sets and processor features, such as AVX, AVX2, and AVX512 vector instructions. If you include these newer instructions in your code, execute them only after verifying that they are available. For example, to determine if AVX512 vector instructions are available, use the sysctlbyname function to check the hw.optional.avx512f attribute.

Процессор тут не при чём вообще. Судя по compatibility list — Rosetta 2 только работает на более-менее простых вещах.

9/ Apple has made surprising choices. They’ve optimized JavaScript, with special JavaScript-specific instructions

Есть такая практика. Но вокруг неё слишком много пафоса и булшита, журналистской брехни и маркетинга, и доводит до реальной тошноты. И если копать это дерьмо очень и очень глубоко, то на проверку оказывается что в ARM ISA есть пара комманд процессора, которые что-то там ускоряют, что большинству нахрен не нужно, типичный пример инструкции процессора FCVTZS и FJCVTZS, которые вообще ортогональны ускорению джаваскрипта в среднем по палате:

developer.arm.com/...​oint-Instructions/FJCVTZS

Это для тех, кто по старой привычке считает, что ARM ISA — это RISC.

Rosetta translates all x86_64 instructions, but it doesn’t support the execution of some newer instruction sets and processor features, such as AVX, AVX2, and AVX512 vector instructions

А, лол. Это означает что поддерживают только инструкции на которые уже истекли патенты.

Я как раз думал на тему того как Эппл этот момент обошла.

Но вокруг неё слишком много пафоса и булшита, журналистской брехни и маркетинга, и доводит до реальной тошноты.

давно не было) Все тупые, журналисты, википедия, тесты неправильные, автономность низзя сравнивать)

Интересно где ты прям про оптимизацию js уведла много пафоса и чтобы это прям пиарилось так сильно. Про это единицы говорят вообше, все рендер видосиков тестят.

давно не было) Все тупые, журналисты, википедия, тесты неправильные, автономность низзя сравнивать)

Треггернулся на какое-то кодовое слово?

Интересно где ты прям про оптимизацию js уведла много пафоса и чтобы это прям пиарилось так сильно. Про это единицы говорят вообше, все рендер видосиков тестят.

Я понимаю, что тебя разморозили к выходу M1, но причём тут вообще Apple, ты способен текст осилить? Apple всего-лишь реализовала ARM ISA, а шум был про ARM’ы и их возможности акселерировать JS. Сейчас же просто абсорбируют всё, что имеют и поют оду Apple, даже если там её заслуг 0.

Вроде официальное заявление было, что там есть аппаратное ускорение для трансляции x86 -> ARM

Насчет 4) Вики говорит:
Conversely, little-endianness is the dominant ordering for processor architectures (x86, most ARM implementations, base RISC-V implementations) and their associated memory.

Там есть другие неточности, например, сравнение с 6-ядерным i7 в мак мини тож не сильно меняет результаты.

Вроде официальное заявление было, что там есть аппаратное ускорение для трансляции x86 -> ARM

Нет там его. Аппаратная трансляция — это возможность выполнения x86 кода напрямую. Там только программная Rosetta 2.

Насчет 4) Вики говорит:
Conversely, little-endianness is the dominant ordering for processor architectures (x86, most ARM implementations, base RISC-V implementations) and their associated memory.

щас бы en.wikipedia.org/wiki/Memory_ordering перепутать с en.wikipedia.org/wiki/Endianness

Нет. Здесь нет ошибки.
out-of-order execution и т.д. — не имеет значения для трансляции инструкций из одной ISA в другую (x86 -> ARM)
Это специфика имплементации процессора, которая не является частью интерфейса (инструкции и т.д.)

А вот порядок байт на трансляцию влияет.

Нет. Здесь нет ошибки.

в твите написано именно memory ordering.

А вот порядок байт на трансляцию влияет.

вот только живую bigendian систему нужно еще поискать.

в твите написано именно memory ordering.

Угу. Автор пишет

«4/ So Apple simply cheated. They added Intel’s memory-ordering to their CPU. When running translated x86 code, they switch the mode of the CPU to conform to Intel’s memory ordering.»

Что такое «Intel’s memory-ordering»?
ARM имели out-of-order execution еще 10 лет назад.
Оно там работает так же как и в х86.

Плюс наличие или отсутствие out-of-order execution никак не влияет на трансляцию.

По контексту похоже что имелась ввиду именно Endianness, т.к. влияет на трансляцию и в ARM переключается, если нужно.

Процессоры где можно включить/выключить out-of-order execution мне не известны

Что такое «Intel’s memory-ordering»?

Там просто мегаэксперт на той стороне. Сейчас таких много.

Там просто мегаэксперт на той стороне. Сейчас таких много.

ахахах) Опять определение неточно написали)

Нет, автор твита ерунду написал.

Алсо эти твиты так-то «разоблачают» Яббл и обвиняют в мухлевании (наращивание L1 и L2 кешей и т.д.)

мухлевании (наращивание L1 и L2 кешей и т.д.)

ну да, это звучит как бред, почему большие кэшы мухля а не осознанное архитектурное решение

Что такое «Intel’s memory-ordering»?

www.cs.cmu.edu/...​tel_Reordering_318147.pdf

и в ARM переключается, если нужно

а в ARM какой endianess?

www.cs.cmu.edu/...​tel_Reordering_318147.pdf

Не подходит по контексту:
— не влияет на трансляцию
— не выключается/включается

а в ARM какой endianess?

Bi-endianness.
Можно переключаться между big-endian и little-endian програмно

я конешно понимаю что у Java програмистов другой skillset но нужно иногда напрячся и подумать

не влияет на трансляцию

если на интеле есть какие никакие гарантии а на ARM как они пишут в доке weakly ordering и судя по всему гарантий меньше то значит транслятор должен взять исполнение этих гарантий на себя

Можно переключаться между big-endian и little-endian програмно
вот только живую bigendian систему нужно еще поискать.

примеры живых bigendian систем в студию? шо там на ios?

я конешно понимаю что у Java програмистов другой skillset но нужно иногда напрячся и подумать

А. Ну т.е. идея была попытаться самоутвердится за счет собеседника?

Простите, но это скорее показывает Ваш низкий уровень и недостаточную зрелость как личности.

если на интеле есть какие никакие гарантии а на ARM как они пишут в доке weakly ordering и судя по всему гарантий меньше то значит транслятор должен взять исполнение этих гарантий на себя

Не имеет значения. Это просто очередная трансляция инструкций одной ISA в другую. Одни инструкции в другие, одни барьеры памяти в другие.

примеры живых bigendian систем в студию? шо там на ios?

Без понятия. Даже смысла гуглить нет.
Обсуждаемый твит не имеет смысла в обоих трактовках.

Но Endianness ближе по смыслу — оно хотя бы переключается.

Или Вы намекаете, что в М1 weakly ordering можно выборочно отключать для транслируемых х86 приложений? ))) Или хотя бы просто отключать?

А. Ну т.е. идея была попытаться самоутвердится за счет собеседника?

да не просто искренне недоумеваю как можно упорно затирать дич про endianess

Одни инструкции в другие, одни барьеры памяти в другие.

а также ставить дополнительные барьеры чтобы соблюдалась тот самый intell memory ordering

Без понятия.

x86 window linux — little endian
ARM linux android ios — little endian
да даже на айфонах little endian но нет на M1 с какого то перепугу должно быть big endian чтобы потом в рантайме для x86 переключать, для приложух под ios которые можно запускать на M1 тоже нужно не забыть переключить.

Даже смысла гуглить нет

ну так если не без понятия и гуглить не получается то зачем писать шлак в коментах.

да не просто искренне недоумеваю как можно упорно затирать дич про endianess

Вам кажется, что я пишу дичь. А мне кажется что Вы пишете дичь.

Автор твитов судя по всему не особо разбирается — поэтому что он там имел ввиду на самом деле — большой вопрос.

Вы думаете что он имел ввиду модель памяти, я думаю что эндиану.

Я со своей стороны продемонстрировал что моя точка зрения вполне обоснована.

Но так-то это чисто гипотетический спор.
Потому что, что там в голове автора твитов мы не узнаем.

а также ставить дополнительные барьеры чтобы соблюдалась тот самый intell memory ordering

Во первых нет никакого intel memory ordering
Потому что x86 — это не только Intel, но так же AMD, VIA и другие производители.
Это раз.
(То что интел любит переименовывать amd64 как intel64 и т.д. и делать вид что больше никого нет — это их проблемы)

Во вторых, сам термин memory ordering не очень удачный. Т.к. перестановка байтов в Эндиане вполне себе «упорядочивание памяти».
x86 memory model — более удачный термин как по мне.
И не допускает неоднозначности, даже если использующий его человек не очень технически силен.

Это если Вам так уж хочется показать что Вы что-то знаете.

Что до барьеров памяти. Вы там выше пишите что Розетта 2 что-то там должна гарантировать. Так вот мало того что Розетта 2 не гарантирует, что все х86 приложения будут работать, Эппл явно проговаривает что часть приложений не будет работать хотя бы потому что не все х86 инструкции поддерживаются.

Скорее всего, если нужны дополнительные барьеры памяти, то они могут ставиться в основном только в самых простых случаях. По скорости это как обычная трансляция одного набора инструкций (x86 без барьера) в другой (arm с барьером)

По скольку это ahead of time translation, там скорее всего при инсталяции создается arm бинарник. Т.е. можно еще 30-60 секунд потратить на дополнительный анализ и попробовать найти какие-то более сложные кейсы.

Если этого не достаточно — то софт просто маркируется как не работающий на Розетте 2 и все.
И да, по факту далеко не все программы работают в Розетте 2.

x86 window linux — little endian
ARM linux android ios — little endian
да даже на айфонах little endian но нет на M1 с какого то перепугу должно быть big endian чтобы потом в рантайме для x86 переключать, для приложух под ios которые можно запускать на M1 тоже нужно не забыть переключить.

Что там в реальности не имеет значения, важно что в голове автора твита. Не факт что он все это знает.

С большой вероятностью — не знает.

А так Big Endian использовалась в МакОс на PowerPC, так же используется в сетевых протоколах, роутерах, некоторых серверах (UltraSPARC, PowerPC)

И на момент перехода MacOs с PowerPC на х86, у разработчиков и не только, были вопросы как повлияет эндиана. Так-то проблем вроде не было. Но возможно автор запомнил этот момент.

Во вторых, сам термин memory ordering не очень удачный.

тем не менее он очень широко употребляется
вот например в крестах en.cppreference.com/...​w/cpp/atomic/memory_order

А так Big Endian использовалась в МакОс на PowerPC, так же используется в сетевых протоколах, роутерах, некоторых серверах (UltraSPARC, PowerPC)

это все не попадает в категорию «живая система» которую легко найти

это все не попадает в категорию «живая система» которую легко найти

Не вопрос. PlayStation 3 — тоже Big Endian

ну ок, живую третью плойку можно найти, хотя она уже утратила актуальность лет пять как

тем не менее он очень широко употребляется
вот например в крестах en.cppreference.com/...​w/cpp/atomic/memory_order

Я этот термин очень редко слышу. Memory Model — намного чаще.
Java Memory Model, C++ Memory Model

Причем, что интересно, Java Memory Model появилась на несколько лет раньше чем C++ Memory Model

И она учитывает архитектуры со слабой моделью памяти.

Так, что Вы зря недооцениваете джавистов.

я знаю что в плюсы все это потянули с жавы но вот не представляю зачем это в жаве

я знаю что в плюсы все это потянули с жавы но вот не представляю зачем это в жаве

1. Потому, что без этого невозможна нормальная многопоточность.

2. Джава крутится почти на всем — x86, ARM, MIPS, RISC-V
Очень урезанные имплементации джавы — даже на сим-картах.

Даже в начале 00х были разные приставки для телевизоров и прочие гаджеты которые работали на джаве.

3. Джава — задумывалась как убийца С++, поэтому нормальная многопоточность была просто необходима.

Причем это цель была выполнена и большой рынок у С++ Джава отъела.

Сейчас менее радужная ситуация, но в том числе из-за С# который так-то начинался клон Джавы от МС

System/Z aka s390x (в gcc) (потомок «больших ЕСок», точнее, их оригинала) вполне живая и доступная — есть места где можно купить шелл на линуксе на такой машинке. И их до чёрта в местах типа толстых банков. Есть знакомый в Киеве, что пишет под них (на одной из крупнейших галер).
Но простому человеку оно нафиг не сдалось.

Кстати, если про модель синхронизации памяти, у них sequential consistency чуть ли не во всём (попробуйте-ка вызвать через gcc на них барьер памяти — даже атомики с seq_cst не получают барьерных команд). Но для их целей им пофиг возможное замедление от этих.

Но если вернуться к твиту, то там

4/ So Apple simply cheated. They added Intel’s memory-ordering to their CPU. When running translated x86 code, they switch the mode of the CPU to conform to Intel’s memory ordering.

Если допустить, что Вы правы и речь идет о модели памяти х86, то этот текст означает, что Розетта 2 отключает weak ordering в M1 во время выполнения транслированного х86 кода и только для транслированного х86.

Это откровенный бред.

Если допустить, что имелась ввиду Эндиана — то тоже бред получается, но хотя бы более реалистично выглядящий. Потому что согласно Вики Эндиана в АРМах переключается.

Хотя Майк указал, что в реальных системах переключение часто не имплементировано.

Если допустить, что Вы правы и речь идет о модели памяти х86, то этот текст означает, что Розетта 2 отключает weak ordering в M1 во время выполнения транслированного х86 кода и только для транслированного х86.

динамически отключать не обязательно

The ARMv8 architecture employs a weakly-ordered model of memory. In general terms, this means that the order of memory accesses is not required to be the same as the program order for load and store operations. The processor is able to re-order memory read operations with respect to each other. Writes may also be re-ordered (for example, write combining)

употребляется may и able это не означает что реордеринг должен обязательно происходить, поэтому более строгие модели вполне укладываются в weakly-ordered

Окей. Т.е. имеется ввиду строгая модель, без переключения.
И Вы предполагаете что это имплементировано в M1.

Но.

4/ So Apple simply cheated. They added Intel’s memory-ordering to their CPU. When running translated x86 code, they switch the mode of the CPU to conform to Intel’s memory ordering.

Твит говорит именно о «переключении memory-ordering только для х86 приложений». Я не вижу как это связано с предположением что в М1 — строгая модель памяти без всякого переключения.

Переключение модели памяти — бред.
Единственное что можно переключить — эндиану (только в теории) — тоже бредово но это хотя бы теоретически возможно.

Поэтому я именно в контексте Эндианы ответил на цитату изначального твита.

Я же говорю, не стоит считать других людей дураками. Возможно это Вы что-то не так поняли.

Ну и Ваше предположение неверно. В М1 и А14 — weak ordering.

Пруфы с сайта Эппла:

" A weak memory ordering model, like the one in Apple silicon, gives the processor more flexibility to reorder memory instructions and improve performance, but doesn’t add implicit memory barriers. To ensure the correctness of your code on both platforms, add explicit synchronization primitives to your code. "

Источник: developer.apple.com/...​rences_in_your_macos_code

Твит говорит именно о «переключении memory-ordering только для х86 приложений»

могли запилить переключение через какой нибудь неиспользуемый флаг в регистре состояний

Пруфы с сайта Эппла:

это как раз подтверждает проблемы при трансляции между разными ордерингами, вот например детально расписаный пример какой код может привести к проблемам
news.ycombinator.com/item?id=23615375

могли запилить переключение через какой нибудь неиспользуемый флаг в регистре состояний

Переключение модели памяти в рантайме выглядит как технически супер сложная задача. Особенно если только для отдельных приложений.
Даже если это возможно сделать, это будет занимать приличный транзисторный бюджет — т.е. дорого не только в разработке, но и даже в производстве.

И главное — никаких профитов.

Поэтому выглядит как очень глупая идея.

Проще поменять модель памяти глобально и не парится.

это как раз подтверждает проблемы при трансляции между разными ордерингами, вот например детально расписаный пример какой код может привести к проблемам
news.ycombinator.com/item?id=23615375

Посмотрев статью от Apple, я понял что они скорее всего решили проблему очень просто. Намного проще чем я думал.

Они пишут
«Always protect shared data with locks, memory barriers, and other synchronization primitives present in macOS. »

Так же в Apple экосистеме есть простое правило: если использовать инфраструктуру от Apple, то миграции будут проходить без проблем.

Розетта 2 почти наверняка просто транслирует/компилирует все операции с примитивами синхронизации МакОс в барьеры памяти на ARM.

Ну а кто не использовал примитивы и не следовал Apple Way — гуляет лесом.

Причем примитивы в текущем виде доступны где-то года с 2014
Т.е. было время.

И главное — никаких профитов.

профит в том что чем слабее модель тем больше пространства для оптимизаций, именно поэтому в си есть UB чего нету в жаве

и таки да, там есть переключатель, уже расковыряли
github.com/saagarjha/TSOEnabler

профит в том что чем слабее модель тем больше пространства для оптимизаций, именно поэтому в си есть UB чего нету в жаве

В Джаве слабая модель памяти. Поэтому нет абсолютно никаких проблем с выполнением одного и того же кода на х86 и ARM

UB в джаве нет, потому что он не нужен.

Поведение определенно для всех платформ

Это один из основных плюсов джавы — одинаковое поведение везде, означающее переносимость.

Причем в случае джавы, не только не нужно править код. Его даже перекомпилировать не нужно.

Один раз написан, скомпилен — работает везде.

и таки да, там есть переключатель, уже расковыряли
github.com/saagarjha/TSOEnabler

Угу, вопрос что флаг делает.

Основное предположение — если флаг есть, абсолютно все операции с памятью просто синхронизируются по дефолту.

Тоже простой подход, объясняющий откуда 30% потеря производительности

«Because the likely thing is that the design simply isn’t optimized for x86-TSO, so setting the MSR will just make a lot of memory operations go into a slow mode.

In fact, I’d guess it mostly affects just the decoder, and makes it just turn every LDR into LDAR, and every STR into STLR. That’s a fairly trivial thing, and should pretty much get you the x86 semantics.

Then the question becomes how much they bothered to actually optimize their memory units for LDAR/STLR. And the answer may be „not much“.»

(бтв это Линус Торвальдс)

www.realworldtech.com/...​d=193883&curpostid=193897

что Розетта 2 отключает weak ordering в M1 во время выполнения транслированного х86 кода и только для транслированного х86.

Это откровенный бред.

Почему бред?
Это делали, например, в SPARC — там было три уровня — фактически, отсутствие OoO, средний уровень, и полный (на котором уже precise exceptions не соблюдались).
В x86 и базовом ARM уровни зависят от типа памяти, к которой идёт доступ. А IO операции вообще автоматически являются полными барьерами.
Снабдить каждую операцию барьерной меткой согласно текущему режиму — это банально и не даёт существенного завышения затрат. Часть из них и в доступном программисту коде имеют aсquire и release метки, ну так будет чуть больше.

Но это мы пока обсуждаем без деталей — а вот подробнее технические спеки интересно было бы посмотреть. Потому что x86 исполнение TSO — штука дороговатая.

примеры живых bigendian систем в студию?

AIX — Big Endian
Linux на таком же POWER — Little Endian

Вообще, если это не аппаратный режим, то у меня сомнения — или же в нейтиве он должен быть ещё быстрее.
Потому что у x86 из четырёх пар R->R, R->W, W->R, W->W перестановка допускается только в W->R, а у ARM без зависимостей по адресу и без флагов — все кроме W->W. А это как раз тот вариант, что флагами команд не выставишь, потому что acquire на чтении запретит R->Ra и W->Ra, а release на записи — Wr->R и Wr->W, то есть то что нужно запрещать — не будет запрещено, а то, что не нужно — будет.
Это в рамках стандартной теории, разумеется. Но если они ничего супернового не изобрели, то ждём аппаратного флага в статусе процессора...

Bi-endianness.
Можно переключаться между big-endian и little-endian програмно

Это не правда. Благодаря интелу в своё время когда они кромсали DEC — ARM уже давно стал LE. Инструкции процессора могут быть записаны только в LE, там нет никакого bi-endianess.

В армах можно переключать endianess данных и только данных на лету.
developer.arm.com/...​thumb-instructions/setend

Цитата:
developer.arm.com/...​/alignment-and-endianness

Endianness
In Armv8-A, instruction fetches are always treated as little-endian.

For data accesses, it is IMPLEMENTATION DEFINED whether both little-endian and big-endian are supported. And if only one is supported, it is IMPLEMENTATION DEFINED which one is supported.

For processors that support both big-endian and little-endian, endianness is configured per Exception level.

И если учесть, что 99.9% использования ARM только LE, то вот это вот IMPLEMENTATION DEFINED часто оказывается выкинутым нахрен для экономии.

А. Не знал.

Вики врет значит.

Инструкции процессора могут быть записаны только в LE, там нет никакого bi-endianess.

Как инструкции вообще могут быть записаны не в LE, если у них не фиксированная длина? Как я понимаю, в ARM длина инструкции 16 бит или 32 бита.

32бита и в 32-битовом и в 64-битовом режиме, thumb режим мы не рассматриваем — он давно уже отсох. 32 бита может быть сохранены в памяти как LE и как BE. Так вот инструкции хранятся только в LE.

Как инструкции вообще могут быть записаны не в LE, если у них не фиксированная длина?

Что тебя удивляет? Посмотри на S/360 и вплоть до наследников типа нынешнего SystemZ, они полностью BE. Два старших бита старшего байта команды (в BE это биты 0 и 1) определяют длину команды.

про

simply cheated

самый известный пример из истории
Sun Microsystems в SPEC CPU2000 Benchmark нашли неоптимальный алгоритм и просто замещали его в исходном коде подтеста 179.art в собственном компиляторе
за счет чего показывали невиданное количество попугаев
но только в подтесте 179.art
www.google.com/...​BAIHVwwDGcQ4dUDCAw&uact=5

Самый подозрительный момент: все тесты с чудесными победами на поле производительности — от не особо известных/достоверных источников.

Ресурсы к которым я прислушиваюсь пока молчат.

А что до «не особо достоверных источников», то из того что я видел — тесты по 1му разу всего запускаются. Или вот ютубер рассказывает как он запускает компиляцию на 8гб модели — и все ништяк.

Хотя моя первая мысль: «лолшто? кодинг на 8гб машине в 2020?»
16 гб — это просто минимум имхо.

Ситуация выглядела бы лучше если бы там было 16гб в не-про и мини и 32 гб в про модели.

Самый подозрительный момент: все тесты с чудесными победами на поле производительности — от не особо известных/достоверных источников.

AnandTech, ZDNet, The Verge, ars Techinica — невідомі і не достовірні, ок. А хто достовірний, кого чекаєте?

Из 4х перечисленных только AnandTech и ars Techinica имеют бенчи (или я проглядел)
У АнандТех вообще только Geekbench и Cinebench. Причем, первый оч спорный.
У ZDnet вроде как больше, но все равно хотелось бы еще больше.

Жду Linus Tech Tips и GamerNexus и других ютуберов из этой компании.

Бтв Linus Tech Tips несколько месяцев назад проделали эксперимент с Mac air 2020 на интеле — пытались проверить можно ли улучшить производительность путем улучшения охлаждения.
Смогли получить прирост 5% довольно простым способом и 10% более сложным, который имел смысл только как эксперимент.

Сложности добавляет то что в M1 есть несколько fixed function ускорителей и в бенчах не ясно где они юзаются, а где нет.

Жду Linus Tech Tips

О да)) экспертный эксперт)

Там команда.
Линус только говорящая голова — тестируют другие люди.

Видео про охлаждение Мак Эйр 2020 на интел — было достаточно интересным.
Изначальная гипотеза — Эпл гимпала самые последние модели, что бы М1 выглядел лучше.
Гипотеза не подтвердилась.
Но +5% получили просто заменив теплоинтерфейс + отвод тепла на еще один радиатор/корпус.

Т.е. Эпл вполне реально могла сделать это сама.

Т.е. Эпл вполне реально могла сделать это сама.

Все так, ютуберы лучше знают как нужно сделать; не то что инженеры эппла.

Если у них получается, то таки да.
Инженер эпла — это 8 часов на работе побыть и домой, а там жена, дети, машина сломалась и куча другого важного.
А тытрубер, у которого получилось — он фанатик, он может в силу фанатизма и самолет из соломы сделать и тот летать будет.

Если у них получается, то таки да.

поделки ютуберов не имеют никакого отношения с серийному производству.

У Эпла не стоит задача выжать максимум производительности из железа.
Задача Эпла — максимизация прибыли.

Т.е. тут может влиять маркетинговое сегментирование.
Или вещи типа желаемого целевого веса. Возможно лучшее охлаждение означает 100 грамм превышение целевого веса.
Или другие факторы. Например себестоимость.

Не говоря о том, что на момент проектирования этой модели уже было известно что Эпл переходит на ARM.

Единственный вывод который можно сделать это то, что сравнение двук макбуков эйр на x86 и M1 — не равноценно сравнению процессоров в них.
Потому, что х86 явно может на +5-10% лучше выступить в рамках того же TDP (своей модели)

У Эпла не стоит задача выжать максимум производительности из железа.
Задача Эпла — максимизация прибыли.

Вместо apple можно подставить любую другую, хоть чутка крупную компанию)

Про теплоинтерфейс это да.
У Max Yuryev вроде был видос где они термопасту поменял на прошке 13 2018 года или 2019, и тот стал меньше тротлить, шуметь и температура упала.

Более того, эти конченые мудаки видно тестируют охлаждения в типичных американских комнатах с кондиционерами где без кофты трудно сидеть, так как летом у моей прошки 16 греется VRM и Forza 4 начинает дико тротлить.

Более того, эти конченые мудаки видно тестируют охлаждения в типичных американских комнатах с кондиционерами где без кофты трудно сидеть

А должны тестировать для украинских сеньоров, которым после трёх хрущей не хватает денег на кондиционер?

Должны тестировать для работы в разных условиях думаю, и без кондиционера тоже.

К чему тут хрущи и нехватка денег на кондиционер, хз :) Комплексы оверпрайснутой недвижки в канаде что ли)

Должны тестировать для работы в разных условиях думаю, и без кондиционера тоже.

Use your Mac notebook where the ambient temperature is between 50° and 95° F (10° and 35° C).

К чему тут хрущи и нехватка денег на кондиционер, хз :) Комплексы оверпрайснутой недвижки в канаде что ли)

Я просто не понимаю кейса — нет кондиционера. Если это ради мазохизма, то ок. Если же это принципиальная позиция — don’t blame, enjoy it.

Use your Mac notebook where the ambient temperature is between 50° and 95° F (10° and 35° C).

35 целсия) у меня при 20 тротлит gpu с 1200 до 500 мгц)
На редите люди клеили на VMR термостики и это полностью решало проблему. Поэтому я считаю это полным зашкваром со стороны контроля качества эпла.

Я просто не понимаю кейса — нет кондиционера. Если это ради мазохизма, то ок. Если же это принципиальная позиция — don’t blame, enjoy it.

Кондиционер есть. Просто включать его когда темпа комфортная и так не хочется, да и жару я норм переношу.

Вони продажні всі
Тре дивитись LTT або Gamers Nexus

Если вы им не верите, ок.
Но в любом случае нужно больше бенчей.

Текущие результаты выглядят оч подозрительно.
Если там fixed function ускорители против расчетов на CPU (Intel) — то уже более понятно.
Если сравнение ток с 15вт процами — то тож — 15вт та линия, где х86 могут не очень хорошо перформить. Хотя с приходом Зен3 в ноуты все может сильно измениться.

Сравнение ноутбучных процов — оч широкое поле для разных манипуляций.
Потому что сравниваются целые ноутбуки. И тут начинаются интересные вещи:
— TDP конфигурируется по разному на разных моделях для одного и того же процессора
— Очень сильно влияет система охлаждения. Если она плохая — производительность упадет (тротлинг)
— Разные частоты других компонентов. Разные версии других компонентов.

Алсо, мне просто интересно откуда такие результаты и что там на самом деле.
А многие люди будут планировать покупку на основании всей это информации.
И если там манипуляции в результатах — то уже не оч хорошо получается.

Хотя всегда можно вернуть девайс в магазин, конечно)

Я скажу так, мне как конечному юзеру и думаю 99% процентам юзеров абсолютно пофик каким образом там все работает быстро и ноут круто держит батарейку.

Такое ощущения что люди пытаются найти этому объяснения и доказать что это не магия) Конечно это не магия и быстрый ssd играет роль, и память и вообще много чего. Но это все неважно, я покупаю продукт и если он быстрее, качественнее приятнее выполняет мои задачи, то это самое главное.

Тут самый главный риск, что за пределами юз-кейсов показанных в бенчах, производительность может быть хуже.

А может и нет, поэтому нужны более обширные бенчи.

Кстати насчет The Verge, они где-то год назад выпустили позорненькое видео про сборки пека. После массивной критики, они его удалили, а потом начали абюзить систему жалоб ютуба, что бы убрать пародии на это видео с ютуба

Полная история здесь — www.notebookcheck.net/...​build-video.407746.0.html

В общем, тот еще уважаемый ресурс)

Самое интересное, что в прошлом сам The Verge порицал подобный абюз системы ютуба

че мелочиться.
Давай 128гб сразу ставить. 10 рейд на ssd и 2 ксеона по 12 ядер.
Для кодинга будет чуть подтормаживать, но жить можно

Православним епловцям достатньо б і 4гб.

Гейфоны с 3 гигами за счет сжатия нагибают ведра с 6гб) Думаю с амр чипами похожая ситуация будет.

Угу, в сети уже есть отзывы счастливых покупателей 8гб модели которые сдали её уже на следующий день.
Потому что на их задачах она хорошо тормозит еще и свапится постоянно на ssd.

8ГБ базовой версии ноута хватило не всем 100% юзерам, а 95% только?) блин как неожиданно.
Уж винда то при 8 гигах покрыла бы потребности любого человека))

Ну, каждому по потребностям)
Мне хватит 32гб)

Алсо, я пока не видел девелоперов c 8гб маками. У всех знакомых ребят — 16гб модели. Причем если бы можно было 32гб заиметь, то думаю у много кого было бы 32гб.

если бы можно было 32гб заиметь

у них типа денег нет?
берешь старшую модель и ставишь 64гб, какая проблема. Если хочешь на новых процах, надо подождать пока завезут. Че за нытье?

У них память распаяна и не апгрейдится достаточно.
Там где апгрейдится уже проблема с процом будет — слишком старые модели.

Подожди, а че сразу не взять столько сколько надо. Или это все джуники которые незнвют?

Когда покупали — не было.
А сейчас есть только на интеле.

О том-то и речь, что неплохо бы и на M1 иметь 32гб модель.

Ну, каждому по потребностям

был у меня случай, когда тимлид начал говорить что скайп лагает, сеть у нас не та и интернет бы поменять, а еще лучше ещё какой-то подключить и сразу 200 мбит давай (надо больше, лучше)
в наказание я ему каждый день зажимал скорость на порте в двое меньше
удивительно, но на 1 мбит/сек ничего не лагало, все просто летало. Спалился я когда ему понадобилось 100 гигов по сети бросить

Алсо, я пока не видел девелоперов c 8гб маками

ну вот, увидел

в наказание я ему каждый день зажимал скорость на порте в двое меньше

Я подозреваю, что по должности у Вас полномочий «наказывать» не было и это был просто саботаж его работы с Вашей стороны.

Так же, то что у Вашего тимлида не было таких реальных потребностей, не означает что у других людей их нет.

Кстати, другим людям и отсутствие 10гбит порта на новом мак мини не нравится. И у них в нем тоже есть реальная потребность.
Внезапно.

Я подозреваю, что по должности у Вас полномочий «наказывать» не было и это был просто саботаж его работы с Вашей стороны.

срать я на это хотел ))
Претензия была в том, что сеть у нас плохая и интернет лагает. После того как он узнал что он на зажатой почти в 0 скорости уже 2 недели — претензий больше не было

Я подозреваю, что по должности у Вас полномочий «наказывать» не было и это был просто саботаж его работы с Вашей стороны.

До карантина, когда я покупал пару коробок assorted донатсов для тима по случаю или без, первым делом после чекина на входе я заходил к админам и угощал их донатсами, давая право первого выбора. Они как домовые — их не видно, но они есть и их лучше всего поддерживать в хорошем настроении %)

давая право первого выбора

Это типа права первой ночи?

Как же хорошо, что постсовковые одмины предпочитали пиво и мы с ними отлично бухали. А для собутыльника всегда всё самое лучшее.

Так же пожалуйста учитывайте, что Ваши потенциальные будущие работодатели вполне могут нагуглить Ваши посты и комменты на ДОУ (и не только)

И конкретно этот может оказать достаточно негативное впечатление.

Вот и отсеются те, с кем ему будет работать не комфортно.

в наказание я ему каждый день зажимал скорость на порте в двое меньше

Это кулстори аж смердит башоргом. Суровые сисадмины, которые «наказывают» тупых бухов зажимая им скорость. Надеюсь на этой шлюпке нашёлся хоть один человек с яйцами, который дал тебе леща.

при чем тут кулстори и лещи ?
когда человек орет что тут все не то и вы все гомно — мне на поводу у него идти ?
когда человек говорит что ему нужен i7 и 64гб памяти чтобы писать кодик — мне ему слепо верить ? Деньги не печатаются на станке, по крайней мере у нас
особо упертых — да надо наказывать, не надо ко всем с пряниками ходить, некоторым надо и под сраку давать, и не важно что они повыше тебя

Если Вы не понимаете зачем программистам мощные машины — то это Ваши проблемы.

Всегда, и сейчас и 20 лет назад (исключая СНГ) имело смысл давать программистам мощные компьютеры.

Потому, что внезапно у программистов высокие зарплаты. И их простой, когда слишком долго компилируется/медленно работает, по факту обходится компаниям намного дороже чем рабочий компьютер.

А еще нанять нового программиста — довольно дорого. В Украине — обычно в районе 2х месячных зарплат.
Рабочая машина даже по сравнению с 1й месячной зарплатой — не особо ощутимо. А тут сразу две зарплаты.
И нужно понимать, что если хорошему специалисту дадут i3 с 4ГБ ОЗУ — то он хлопнет дверью в тот же день.

Кроме того, если посмотреть на корпоративные ноутбуки которые выдают лидеры рынка в Украине — тот в этот бюджет спокойно вписывается десктоп с 8 ядерным процессором и 32ГБ ОЗУ. И еще вероятно деньги останутся. Потому что внезапно мобильные компоненты дороже. А за бизнес-уровень ноутбука — дополнительная наценка.

Но да, если компания маленькая, зарплаты низкие — то это другой разговор.

Правда хороший специалист с опытом в такую компанию не пойдет — потому что внезапно плюс маленьких компаний именно в том что зп может быть выше чем в больших.

дай угадаю — тебе тоже кто-то что-то зажимал ? может злые одмины заходили к тебе на комп и отключали ядра ?

И нужно понимать, что если хорошему специалисту дадут i3 с 4ГБ ОЗУ — то он хлопнет дверью в тот же день.

для того чтобы запустить jetbrains + виртуалку с 512м на которой только веб сервер крутится нужно i7 + 32гб памяти ? Есть потребности а есть хотелки. Мне вот нужна стриптизерша и джакузи на работе к примеру

Но да, если компания маленькая, зарплаты низкие — то это другой разговор.

нет, просто не все компании разбрасывают деньги и дерибанят бюджеты
зарплаты чуть выше рынка

Сейчас это уже кластер Кафки, пару ide, вместе с приложениями, и какую-то db

для того чтобы запустить jetbrains + виртуалку с 512м на которой только веб сервер крутится нужно i7 + 32гб памяти ?

512мб на веб-сервер? Простите Вы из какого года к нам? 2005го?

Например, 3 модуля среднего размера открытых в IntelliJ Idea — и она уже отжирает 2 гига оперативной памяти.
Хром — 1.5гб.
Если запустить сами модули — каждый из них съест в районе 3-4гб.
А еще есть ОС, мессенджеры и другие приложения.

Это только часть большого энтерпрайз приложения а 16гб на девелоперской машине уже забиты.

Если Вы имели дело только с маленькими приложениями, это вовсе не значит что Ваш опыт можно проецировать на всех остальных.

IntelliJ Idea

не знаю как она на винде работает, но под mac os это просто лютейший ад в плане всего. имхо

На винде, если памяти хватает — ок, исключая некоторые привычные баги.
Если памяти не хватает — интерфейс начинает хорошо так лагать)

Я ж не просто так за память агитирую)

А так знакомые ребята на маках на ней работали — вроде не жаловались.

Кстати на М1 через Розетту тоже работает.

Ixbt опубликовал 1 часть.

Сейчас бы, в 2020 г., читать украинофобский ресурс, где влажно хором дрочат на пуйло, и за любые негативные комментарии на рашку банят, а Украину поливают всеми цветами гуано.

А по делу сказать что хотел?

И не хотел — сказал, и политику приплел. Уровень

Вторая часть www.ixbt.com/...​pple-m1-review-part2.html
Автономность порадовала

Не успел эплло-проц выйти — а баги уже здесь. :)

„Apple has instructions on using Configurator 2 and a secondary Mac to revive or restore an ‌Apple Silicon‌ Mac that has become unresponsive. This method requires the newest version of Apple Configurator 2, a functional Mac, and an appropriate cable to connect the two Macs.

Restoring in this way restores the firmware, updates recoveryOS to the latest version, and erases and installs the latest version of macOS on internal storage, thereby erasing all data. This method was successful for two MacRumors readers who had the recovery problem.

Apple may have a fix coming for this issue in the future, but for now it’s best to avoid restoring an ‌Apple Silicon‌ Mac. For those that have already done so and are running into trouble, the Apple Configurator solution may be worth trying.”
www.macrumors.com/...​ring-installation-errors

емм, цей баг вже був на Intel-івських машинах. Суть в тому, що ROM-фірмваря T2 чипа може ресетнутись. M1 тут ні при чому

Судя по выделенному — это касается именно «Apple Silicon‌ Mac».

подожди это еще мелочи, щас его и в хвост и в гриву проверят на спектру с метдауном вот что интересно

там на підході Apple M1X

> According to a source who used a prototype, „if you think M1 is fast, you haven’t seen M1X”

звідки дровішки?

снова прощай виндовз на макбуке

буткамп только...
паралелс будет обещали

Віндовз нарешті зможе повноцінно перелізти на ARM
На цей раз получицця
Треба тільки вірити

we’re going to take a closer look at the raw performance of the new M1 in comparison to more traditional x86 systems..

Висновок:

If Apple’s M1 isn’t the fastest single-thread—and quad-thread—consumer-available processor on the planet, it certainly isn’t missing it by much.

arstechnica.com/...​usly-fast-x86-competitor
(:

Нет эта всьо ниправда, это их личнае мнения, праклятые журналюги продались огрызку, бенчмарки не имеют смысла, другие результаты накручены, кагда уже будут правильные тесты. эта провал!!

Ахах, і не ясно чому так хейтять цей процесор тут. Ну зробили в Епл топовий проц, ну молодці, показали іншим можливості АРМ для десктопів. Тепер інші потягнуться, як свого часу з айфоном було.
Більше конкуренції — краще споживачам (нам), більше платформ — більше роботи для програмістів (нас). Треба тільки радіти, а не біситися від того, що хтось там обігнав Інтел чи АМД.

Хто потягнуться, куди ? І навіщо ? Коли є інтел і АМД ?

Surface, Graviton. Мабуть є причини, в MS і Amazon не дурні люди працюють(:

Ринок пк і ноутбуків не розвивається. З віндою фіг зна що буде. Arm моделі не потрібні споживачу, як срані гуглівські хромбуки. Який виробник буде ризикувати з випуском arm пк ? На них що ігри підуть ?

Arm моделі не потрібні споживачу, як срані гуглівські хромбуки

Ахах, ви серйозно? Мені здається тут багато хто повторює одну і ту ж помилку: «мені щось (макбук, хромбук, айфон) не потрібне, не підходить, тому воно точно нікому не потрібне». У нас же є світова мережа Інтернет під рукою:

Google Chrome OS-based Chromebooks have been by far the fastest-growing category in the PC market in 2020’s third quarter. Chromebook shipments have grown 122% year on year to a total of 9.4 million units in Q3 of 2020.

www.zdnet.com/...​igh-but-desktops-plummet

хромбуки очень недооцененные железки, имхо. просто реализация хромает + конкуренция со стороны дешманских андроид/вендовых планшетов.
это очередная реинкорнация MID, которым был nokia 770, первый айфон и другие.

зробили в Епл топовий проц

так пока неясно — в чем же он топовый...
особенно, когда сравнение SSD выдают за разницу в производительности процессоров

Тобто всі ці журналісти і окремі користувачі, які вже мабуть встигли потестити все що завгодно (і синтетичні тести, і ігри, і компіляцію, і архівацію і навіть джаваскрипт) — всі тестували SSD?
Що треба протестувати для аналізу швидкості процесорів? Який тест?

Об чём кипишь, кодерки?

АМД последние лет 20 регулярно «убивает» Интел — но Интел всё ещё отлично живёт, а АМД фиг знает.

Потому как, проц с хорошими бенчмарками — не означает довольных пользователей. Когда эти бенчмарки идут бок о бок, с кучей системных багов проца и прочих процессорных крэшей (больная тема АМД).

В итоге, качество/стабильность решает. B качестве/стабильности интеловских поделок — лично я вполне уверен. А окажется ли качественной/стабильной быстродействующая новоявленная хипстерщина — будем поглядеть.

Яка така якість на ринку лимонів? Кодерок, не сміши.

B качестве/стабильности интеловских поделок — лично я вполне уверен.

І ця впевненість базується на фан вірі.

І ця впевненість базується на фан вірі.

На том, что я интенсивный пользователь интеловских поделок уже более 20 лет (с тех пор, как начал покупать компы себе сам). Да и на проектах — не-интеловских писюков не припоминаю.

И за это время, не было проблем типа внезапных немотивированных крэшей (едва ли не норма для АМД).

А разница в том, что Интел выдаёт оттестированное, которое даже особо не нужно патчить (разве что, если хочешь закрыть какие-то секьюрити дыры). А АМДшную быстрослепленную баго-хипстерщину приходится патчить неоднократно — прежде чем проц начнёт работать похоже на интеловский. А без этого — крэши...

Что в этом смысле будет с эппло-процами — поглядим...

типа внезапных немотивированных крэшей (едва ли не норма для АМД).

На АМД Райзен вже 3 роки десь, проблем не було. Розігнаний з 3200 до 3700.

А про якість інтел, привіт дирі доступу до пам’яті, через яку патчили з втратою потужності до 20%.

А про якість інтел, привіт дирі доступу до пам’яті, через яку патчили з втратою потужності до 20%.

Такого рода проблемы («секьюрити уязвимости») — на АМД не то что не патчатся, а даже не фиксируются. :)
(не потому, что их там нет)

АМД последние лет 20 регулярно «убивает» Интел

20?) я думал последние пару лет. Ну zen там и т.д.)

20?) я думал последние пару лет. Ну zen там и т.д.)

С 2000-х, как минимум, начал «убивать». Если не раньше...

Но, как видно, интел оказался живуч. :)

Ну уже потеряли премиум партнера в лице Apple, другие вендоры тоже н стесняются юзать в ноутах процы от амд, чего раньше практически не было.

Ясно что интел никуда не денется, но свою долю рынка они теряют и будут терять

Ну уже потеряли премиум партнера в лице Apple

Когда-то, эппловские поделки крутились на процах от Моторолы. Но потом ушли на интеловское.

Теперь начнут крутиться на эппловском. Посмотрим, чем это закончится...

процах от Моторолы

ну и где та моторала теперь? то-то же )

качество/стабильность решает

© Владимир Владимирович

АМД последние лет 20 регулярно «убивает» Интел — но Интел всё ещё отлично живёт

про отличный Itanium нам еще расскажите
тот самый, которому кингстоны открыли после попадания торпеды AMD64

АМД последние лет 20 регулярно «убивает» Интел — но Интел всё ещё отлично живёт, а АМД фиг знает.

Оба они хорошо живут, просто раздели еще лет 20 назад ниши.
Но за последние года АМД сделала одно доброе дело. Заставила Интел немного начать шевелиться.

В итоге, качество/стабильность решает. B качестве/стабильности интеловских поделок — лично я вполне уверен.

In June 2020, former Intel principal engineer François Piednoël said Intel’s «abnormally bad» quality assurance in its Skylake processors, making Apple «the number one filer of problems in the architecture», helped Apple decide to migrate.

Это все ниправда ты засланый казачок!!! Это все зависники интела придумали!!!11

Жаль, что подробностей нет.

там в коментах был срач про сравнение мобильных и не мобильных процев. А я накину и начну новый тред.
А надо ли вообще делать десктопные процы? зная любовь епла к «тонкому и стильному», не удивлюсь, что imac будет в виде 2 чипов m1 с какой-то супершиной, а мак про в итоге станет кластером из мак мини. Я всё утрирую, но всё же.
Я к чему — вот что такое у интела core процы? интел спотыкнулся, что частоты не помогают на 4 пне, и дальше начал развивать решения, когда по сути два мобильных третих пня на одном кристале и пошло-поехало. В итоге в последний десяток был «прогресс» только в мобильных, а что у десктопов? кто скажет разницу между 3 и 6 поколением в десктоп серии? прирост начался только, когда начали докидывать ядра (когда было? в 8 поколении?)

На ядро теж є приріст, що у інтела, що у АМД. А ще покращується енергоефективність. А ще, вбудовані потужні відео чипи амд вега.

Ну, все зависит от рабочих задач и нагрузок.

Я бы предпочел десктопный проц с 8-16 ядрами, который может спокойно буститься до 4.5-5ггц и 32гб оперативки.
Это для разработки.

В ноутах проблема, что сильно режутся частоты везде.
+ система охлаждения менее эффективная.

В случае с процами, современные модели от интел и амд хорошо масштабируются по частоте.
Т.е. буст до 2.6ггц вместо буста до 5ггц — это будет разница почти в 2 раза.
Причем, если система охлаждения ноута не очень, то по факту, проц быстро нагреется и будет бустить до меньшей частоты/тротлить.

А еще есть GPU — с такой же ситуацией. Ну и пониженные частоты для памяти тоже на пользу не идут.

Насчет кластера — не взлетит. Достаточно посмотреть на двух-процессорные системы и малый процент их присутствия на рынке.
Двух-процессорные системы еще более-менее сравнимы с 1 процессором с тем же количеством ядер при условии, что разные приложения на разных процессорах крутятся.
Но это как раз редкий кейс, а вот в ситуациях когда приложение крутится сразу на обоих процессорах производительность резко падает.
И это частый кейс.

посмотрим на m1x или как там его — там обещают 12 ядер (8 быстрых + 4 сберегающих).
просто смотрю на разборку мини и понимаю что столько места пропадает — там еще 1 плата могла быть...
на тему кластера — епл сильно пушит, чтобы использовали их апи для планирования задач и вообще завязываться на их фреймворки. По iOS знаю, что это не спроста и если не изобретать велосипеды, то все миграции проходят более-менее гладко.

Быстрых- это как? А сберегающих — это как?

Что там угадывать. Это просто лапша лохам на ухи их.

А детальнее. Где флопсы, ватты хотя бы, и флопсы деленные на ватты?

Не угадал. Давай следующую попытку.

В смысле те же слова по ангельски?

Отличная лапша, отборная, я бы сказал.

4 сіньйора, 4 джуна. Разом — шлюпка.

А гребут вместе, как самый слабый джун.

Разом — шлюпка

Titanик

Я бы предпочел десктопный проц с 8-16 ядрами, который может спокойно буститься до 4.5-5ггц и 32гб оперативки.
Это для разработки.

Я сразу после этих строк понял что ты пишешь на джаве))

Сейчас к этому добавились еще бек и фронт на тайпскрипте)
Но потребности в памяти и проце остались те же)

Наконец-то появляются тесты поинтересней, чем «ой, как быстро» и «смотрите он поставил мой Xeon на колени».

info.crunchydata.com/...​e-arm-m1-macbook-pro-2020

Методика и выводы у автора так себе, но некоторые циферки заслуживают внимания. По его замерам M1 (8 ядер) примерно на ~40% быстрее, чем i5-10210U (4 ядра), при этом стоит учесть, что SSD у M1 гораздо быстрей, что для этого теста, скорее всего, важно.

Из интересного — похоже, что под нагрузкой в М1 работает только 4 ядра.

Из интересного — похоже, что под нагрузкой в М1 работает только 4 ядра.

У них 4 performance ядра и 4 low power — они этого и не скрывают.

Да, не скрывают, но в той же А серии все ядра могут работать одновременно.

Наконец-то появляются тесты поинтересней
Методика и выводы у автора так себе,

ахахах) выводы такие себе, потому что не сошлись с твоими) Вот если бы обосрал и сравнил с ксеоном — вообще крутой автор был бы.

По его замерам M1 (8 ядер)

рукалицо

SSD у M1 гораздо быстрей, что для этого теста, скорее всего, важно.

Ты наверное не знаешь что постгрес скорее всего за десятки лет разработки имеет разные микрооптимизации под x86 и и.д. Но тебе понравилось что разница «всего» 40% а не в разы, как во многих предыдущих тестах) Ты кстати можешь еще ML ядра учитывая, тогда не 8 будет а намного больше у M1). Чего уж там.

i5-10210U 4 ядра

TDP 10-25 ватт по сайту интела. Это чудо с пассивном охлаждении в ультрабуке будут работать? Если да, то через сколько минут затротлит до 800 мгц?)

Из интересного — похоже, что под нагрузкой в М1 работает только 4 ядра.

Я даже не знаю что тут сказать. Может хоть 10 минут погуглил бы что-то чем бежать на доу, строчить пост и смешить людей...

Я понимаю, тяжелый понедельник, хочется желчью побрызгать и все такое, но может потрудитесь объяснить кое что?

ахахах) выводы такие себе, потому что не сошлись с твоими) Вот если бы обосрал и сравнил с ксеоном — вообще крутой автор был бы.

Выводы такие себе, потому что непонятно, что автор хотел измерить. Вам, как специалисту по микрооптимизациям постгресса, не кажется, что проводить тест СУБД без оглядки на доступный IO ресурс, как минимум, неверно? А ксенон-то тут зачем, не думаю, что результаты будут сильно отличаться от десктопного райзена. У вас другое мнение на этот счёт?

рукалицо

Их не 8?

постгрес скорее всего

Так имеет или вы не уверены? Можно рассказать какие оптимизации есть под х86 и какие из них отсутствуют для арм?

TDP 10-25 ватт по сайту интела. Это чудо с пассивном охлаждении в ультрабуке будут работать? Если да, то через сколько минут затротлит до 800 мгц?)

У М1 тоже 10 ватт. Где, как и когда будет тротллить интел я не знаю. Но все эти «что если», «как» и «почему» как раз и являются вопросами к методике и выводам, поэтому непонятно чем вам не понравилась моя оценка того, что сделал автор.

Я даже не знаю что тут сказать. Может хоть 10 минут погуглил бы что-то чем бежать на доу, строчить пост и смешить людей...

Погуглил что, простите? Может вы меня просветите?

Ок, постараюсь пояснить.

Наконец-то появляются тесты поинтересней,
Выводы такие себе, потому что непонятно, что автор хотел измерить

Вы сначала пишите появились тесты поинтереснее, потом сами себя опровергаете что непонятно что автор хотел измерить и тесты такие себе. И да, непонятно, так как тест сильно завязан на i\o sdd. Так смысл писать про 40% и вообще обсуждать это?))

Но странный тест на i\o вам показался более интересным чем другие (та ж компиляция вебкиита, гикбенч), который тестируют чисто CPU\гпу.

Постите уже скорость вайфая, чего уж скромничать)

Их не 8?

О, началась демагогия. Вы пишите:

M1 (8 ядер) примерно на ~40% быстрее, чем i5-10210U (4 ядра)

А это манипуляция. Так как работают 4 ядра одновременно (4+4). Это как бы большая разница.

Можно же сразу сказать, что просто повелись на маркетологов эпла про 8 ядер, не разобрался и сразу побежал искать разоблачения. Потому что для человека, который хотя бы 10 минут почитал про новый проц, это:

Из интересного — похоже, что под нагрузкой в М1 работает только 4 ядра.

Не было бы интересным открытием) Это еще даже до тестов было известно.

Так имеет или вы не уверены? Можно рассказать какие оптимизации есть под х86 и какие из них отсутствуют для арм?

Вы даже не потратили пары минут, чтобы узнать что там биг литл 4+4, а не 8 ядер. Но хотите чтобы я тратил часы на этот ресерч?) Не вижу смысла, если интересно сами можете это сделать.

Так смысл писать про 40% и вообще обсуждать это?))

Смысл в том, что разница, в производительности CPU, похоже, не такая уж сумасшедшая, как пишут журналисты-истерички. Плюс в этом тесте все же видно, куда уходят дополнительные ватты в десктопах.

та ж компиляция вебкиита, гикбенч

Гикбенч, вот совсем не интересен. С компиляцией вебкита тоже совершенно непонятный тест — автор проводил не все тесты самостоятельно, а собирал результаты в твиттере. Во сколько потоков производилась сборка? Запускал ли он этот вебкит после компиляции? Не зависит ли сборка вебкита от пропускной способности памяти, которая у М1 куда выше, чем у всех остальных устройств в тесте? Я не отрицаю, что M1, как SoC, получился, скорее всего, неплохим, но в чепуху «посмотрите, он уделал Xeon» я как-то не верю и тестов, которые бы это дейтвительно показали не видел.

А это манипуляция. Так как работают 4 ядра одновременно (4+4). Это как бы большая разница.
Вы даже не потратили пары минут, чтобы узнать что там биг литл 4+4, а не 8 ядер. Но хотите чтобы я тратил часы на этот ресерч?) Не вижу смысла, если интересно сами можете это сделать.
Не было бы интересным открытием) Это еще даже до тестов было известно.

Так может покажете где же почитать, как в М1 реализован биг-литтл? В А-серии все ядра могут работать одновременно. Сам Эпл об этом пишет www.apple.com/...​-future-is-here-iphone-x
Про М1 ни слова и рекламируют его, как 8-ми ядреный процессор. Так кто же манипулирует тогда?

Смысл в том, что разница, в производительности CPU, похоже, не такая уж сумасшедшая, как пишут журналисты-истерички. Плюс в этом тесте все же видно, куда уходят дополнительные ватты в десктопах.

окей, один «очень крутой» тест постгреса перекрывает большинство других тестов)
Я вот жду когда сравнят Air с пас. охл. с каким то ультрабуком на интеле тоже без куллера. Тесты как тротлят даже последние интелы без куллера куча.
Air же после 6-х тестов по 10 минут каждый потерял «аж» 14% score.

Гикбенч, вот совсем не интересен.

Ваше право) Если тест постгреса вам интереснее, то удачи в поисках подтверждения своей правоты. Уверен что-то будет юзать какие-то легаси x86 инструкции, которые будут медленные на arm, и тогда можно будет с уверенностью сказать, что М1 медленнее старого целерона.

«посмотрите, он уделал Xeon»

Вы опять увидели один какой-то тест где в single core он побеждает в бенчах xeon и решили разоблачить?) Ну так это как бы бенчи, есть результат, если он выше то выше. В одноядерных тестах десктопы не так вырываются вперед как в мульти.

Про М1 ни слова и рекламируют его, как 8-ми ядреный процессор. Так кто же манипулирует тогда?

2020 год, маркетологи всех компаний пытаются манипулировать, это новость для вас?) Тот же 20х зум на камерах смартфонов как пример. Это ж не значит что стоит слепо верить что там будет оптический зум.

В А-серии все ядра могут работать одновременно. Сам Эпл об этом пишет www.apple.com/...​-future-is-here-iphone-x

В последнем А14 4+2 ядра отдельными блоками.
Да и где по вашей ссылке пишет, что они могут одновременно работать?

i.imgur.com/JBSpQmH.png
На том же офф сайт даже епл говорит что 4+4. Из соотношения single\multi core bench это видно. В обзорах это пишут)

Уверен что-то будет юзать какие-то легаси x86 инструкции

Подскажите, какие легаси х86 инструкции использует постгрес скомпилированный для ARM?

Вы опять увидели один какой-то тест где в single core он побеждает в бенчах xeon и решили разоблачить?)

А вы точно читаете то, на что сами же ссылаетесь? В тесте вебкита М1 есть сравнение с зионом, там что в один поток все компилировалось? Тогда да, результат будет неудивительным.

Да и где по вашей ссылке пишет, что они могут одновременно работать?

Не, точно не читаете

A new, second-generation performance controller can harness all six cores simultaneously, delivering up to 70 percent greater performance for multi-threaded workloads
На том же офф сайт даже епл говорит что 4+4.

И где же там написано, что работает или один кластер или другой?

А вы точно читаете то, на что сами же ссылаетесь? В тесте вебкита М1 есть сравнение с зионом, там что в один поток все компилировалось? Тогда да, результат будет неудивительным.

Я ж не нострадамус чтобы догадаться про какие именно вы тесты говорите.

Ок, тогда будем считать, что тесты неверные, потому что... вам не хочется в это верить. А тесты постгреса верные и более точно показывают реальную картину, потому что вам хочется в это верить. Давайте на этом остановимся)

A new, second-generation performance controller can harness all six cores simultaneously, delivering up to 70 percent greater performance for multi-threaded workloads

я этого не знал, не очень интересуюсь айфонами, почему-то думал что они одновременно не работают по аналогии с снэпами\эксиносами. Но если бы собирался кого то разоблачать, то узнал бы при поиске инфы.

И где же там написано, что работает или один кластер или другой?

Вы правда считаете, что Apple будет прямо на своем офф. сайт писать типа «ну технически там 8 ядер, но на самом деле одновременно может только 4 работать. ».

Я ж не нострадамус чтобы догадаться про какие именно вы тесты говорите.

Про те, на которые вы ссылаетесь ;)

Ок, тогда будем считать, что тесты неверные, потому что... вам не хочется в это верить. А тесты постгреса верные и более точно показывают реальную картину, потому что вам хочется в это верить.

Неверные и те, и другие. Но в тестах постгреса можно увидеть интересные факты, о которых нигде не прочтешь.
Так что там про оптимизации и инструкции, кстати? Очень уж интересно.

я этого не знал, не очень интересуюсь айфонами, почему-то думал что они одновременно не работают по аналогии с снэпами\эксиносами

В некоторых эксиносах тоже работают одновременно. Вот странно, не знали вы, а гуглить советуете (да резко так) мне.

Вы правда считаете, что Apple будет прямо на своем офф. сайт писать типа «ну технически там 8 ядер, но на самом деле одновременно может только 4 работать. »

Ну то, что Apple любит испражняться потребителю в глаза и в уши — это известный факт. Но Intel и AMD, например, не считают зазорным написать, что есть настоящие ядра, а есть какой-нибудь HT, и не всегда от них будет прирост, а иногда даже наоборот.

Так что там про оптимизации и инструкции, кстати? Очень уж интересно.

Я ж уже писал, вы все еще надеетесь что я ща закатаю рукава и буду ресерчить?)
Давайте так, тест постгреса самый правильный, базы пишут без учета x86, закрыли тему)

В некоторых эксиносах тоже работают одновременно. Вот странно, не знали вы, а гуглить советуете (да резко так) мне.

Зачем эти манипуляции снова? Какое отношения имеют мои знания эксиносов к текущему обсуждению?) Или может из-за этого базы данных будут меньше disk i\o юзать?)

Резкость в сообщения не вкладывалась, если сложилось такое впечатления — извиняюсь.

Ну то, что Apple любит испражняться потребителю в глаза и в уши — это известный факт. Но Intel и AMD, например, не считают зазорным написать, что есть настоящие ядра, а есть какой-нибудь HT, и не всегда от них будет прирост, а иногда даже наоборот.

Я даже не знаю что тут сказать) Если человек думает что маркетологи интела (да и любой другой компании большой) интересует что-то другое кроме эффективности маркетинга и прибыли, то тут мои полномочия все)

Удачи)

Вам никогда не говорили, что вы обладаете удивительной способностью терять нить обсуждения вбрасывая факты, а потом удивляясь почему оппонент к ним апеллирует?

Я ж уже писал, вы все еще надеетесь что я ща закатаю рукава и буду ресерчить?)

Думаете, я запостил ссылку, чтобы прочесть:

ахахах)
рукалицо

Может лучше помолчать тогда? Даже за адекватного сойдете.

Думаете, я запостил ссылку, чтобы прочесть:

А как еще на этот треш реагировать как не смехом, когда человек постит ссылку и пишет

Наконец-то появляются тесты поинтересней, чем «ой, как быстро» и «смотрите он поставил мой Xeon на колени»

и потом сам же себя опровергает)

Вы правда не видите в этом ничего смешного, парадоксального?)

Не ну да, конечно же такой глубокий аналитический пост с откровениями про 4 ядра и спор с самим собой про io достоен глубокого уважения ресерча.

под нагрузкой в М1 работает только 4 ядра

да вот похоже что в их реализации bigLittle — нет, если есть чем загрузить, то могут все 8 работать
в других тестах при переходе нагрузки от 4T к 8T — попугаи немножко подрастают, вместе с энергопотреблением

Да, выше есть ссылка на gzip, там есть небольшой прирост. Здесь же он на уровне погрешности, поэтому не ясно, то ли в SSD уперлось, то ли действительно только 4 ядра задействованы.

всем свидетелям Apple посвящается берём ваш популярный тест
browser.geekbench.com/v5/cpu/singlecore?page=1
смотрим производительность на ядро видим кто в топе, пытаемся найти M1 чип находим его на 4й странице
browser.geekbench.com/v5/cpu/4830485 фиксируем результаты
находим такой процессор на первой странице от AMD
browser.geekbench.com/v5/cpu/4758564
он максимально близкий по частоте что я там нашёл видим что он по производительности на ядро лучше
дальше он 16ти ядерный делим его многоядерную производительность на 2 видим опять получилось больше чем у M1 видим что даже при грубом сравнении а M1 на самом деле это 4+4 процессор а не 8мь одинаковых ядер

ещё упражнение на дом рекомендую запустить Geekbench тест на своём компьютере и посмотреть что именно и как он меряет (задумываемся во всех ли тестах можно эффективно задействовать все ядра, и в каких тестах правильные библиотеки могут решать)

ещё момент на счёт TDP там всё сложно сравнить с одной стороны мы имеем процессор с адресуемым пространством 64GB с другой 16GB читаем какие блоки нужны процессору для доступа к адресному пространству, какие блоки управления памятью при этом нужны, какой разрядности должны быть шины данных и понимаем что высчитать эквивалентный TDP очень сложно

теперь в целом M1 безусловно хороший процессор и шаг в правильном направлении для мобильных устройств и ноутбуков, но трубить на каждом шагу что AMD и Intel умерли это рано

самым любознательным рекомендую почитать что такое SoC и CPU и чем они отличаются от обычных процессоров, и подумать почему плохо сравнивать бананы и картошку

ОМГ ты серьезно предлагаешь сравнивать десктопные и ноутбучные процессоры?

минутку там написано iMac :-) там процессор задача которого стоять в десктопе

ну он и стоит в десктопе. Ты же знаешь что такое iMac? Это не MacBook

iMac это десктоп или нет?
какая то глупая софистика пошла

iMac это десктоп. В нем стоит десктопный AMD процессор.
Еще раз: ты предлагаешь сравнивать результаты десктопных процессоров с ноутбучными?

там идёт сравнение Mac Mini и iMac это оба варианта десктопов, внимательно пожалуйста смотрите линки

омг...
M1 это мобильный процессор. Да, его можно засунуть в десктоп (как в Mac Mini, в который уже давно мобильные процессоры ставят), а можно в ноутбук, поэтому он мобильный. А десктопный процессор в ноутбук засунуть нельзя

iMac это десктоп. В нем стоит десктопный AMD процессор.

не стоит там амд, это хакинтош

та не позорься ты уже)
М1 это мобильный процессор, несмотря на то, что он стоит в мак мини) Этот чип БЕЗ куллера работает в еире)

а M1 на самом деле это 4+4 процессор а не 8мь одинаковых ядер

пасибки кэп) а никто и не догадывался...

ещё момент на счёт TDP там всё сложно сравнить с одной стороны мы имеем процессор с адресуемым пространством 64GB с другой 16GB читаем какие блоки нужны процессору для доступа к адресному пространству, какие блоки управления памятью при этом нужны,

это сколько же надо бахнуть чтобы такое выдать)

но трубить на каждом шагу что AMD и Intel умерли это рано

сам себе придумал, сам опроверг) кто такое тут писал, я хз)

ознакомьтесь вообще с анализом где он без кулера а где нет, а потом пишите ваши мысли
из той информации что я видел он без кулера только в Air в MacBook Pro и Mini он с кулером!!!

MacBook Pro и Mini он с кулером!!!

и это значит что сравнивать его нужно десктопным процом)) ну все логично) ахах)

только на той же прошке он включается через пол часа 100% нагрузки, и работает на ~2K оборотов что его не слышно)

Я уже почти уверен что он просто троллит. Это слишком даже для не-айтишника.

та да, походу гонит беса чувак просто

там 16ти ядерный проц, я предлагал посчитать TDP на ядро (105/16) и делать выводы
но видимо это слишком сложно, ниже есть мой пост с линком на

www.cpu-monkey.com

сравнения производительности M1 и Ryzen 7 4800u
там более доступно и наглядно видно что чуда не произошло, есть просто хороший процессор и отличный маркетинг
так где именно я гоню?

TDP на ядро (105/16)

tdp не имеет линейного соотношения с ядрами, особенно в soc)

16ти ядерный проц не SoC ну да ладно забыли о нём
что с M1 и Ryzen 7 4800u? тоже не репрезентативно? и тесты лгут? :-)

ещё линк для тех кому не нравится сравнение TDP у чипов одинаковое 15 Ватт

www.cpu-monkey.com/...​vs-amd_ryzen_7_4800u-1142
в одноядерном тесте чуть лучше M1 (100% vs 82%) в многоядерном лучше Ryzen 7 (74% vs 100%)

ещё один тест доказывает что революции не случилось
кому интересно можно поискать ещё тесты, от более менее независимых источников
понимаем, что правильный маркетинг в 21 веке это всё

Только прикол в том что из-за специфики задач одноядерный тест намного важнее многоядерного (ты ведь не матрицы на ноуте перемножаешь)?
И 18% разницы это очень много и таки-да, революция. У Интела вроде на каждом поколении +5% на сингл коре было.

Плюсом энергоэффективность: ноут с этим райзеном в Wi-Fi тесте (брожение по сайтам без видео) вытянул 10 часов
www.notebookcheck-ru.com/...​chii-monstr.489598.0.html
В то время как МакБук Про на М1 — 16 часов (в Mixed Web and Video test).

я именно что перемножаю матрицы, и мне важна производительность и одноядерная и многоядерная

актуальность брожения с райзеном мне не интересна, потому что зависит ещё от чипа WiFi в первую очередь, в тех маках что я юзаю отключение WiFi сильно поднимает автономность при чтении или просмотре видео

те характеристики которые заявляют производители или подобные тесты, мне в домашних условиях воспроизвести как правило не получается

вашу точку зрения я понял, предлагаю закрыть тему надеюсь в нашем споре каждый узнал что то новое и полезное, а то становится скучно

дабы вы не усомнились в моей преданности Apple у меня 2 макбука дома и iPad

я перемножаю матрицы

лучше бросай это дело

вызывает зависимость или привыкание? я пока вредных эффектов не ощущаю :-) рекомендую другим попробовать много интересного можно научиться и узнать :-)

www.youtube.com/watch?v=wuvZQOUDCKY — Тест батареек по сравнению в AMD\Intel

Дисклеймер: результаты данного видео могут оскорбить чувства некоторых слоев людей на DOU или заставить писать разоблачающие комментарии.

Если данное видео у вас не открывается, рекомендуем обновить все драйвера, почистить системный реестр, сделать дефрагментацию и запустить полное сканирование диска «С» на вирусы.

ага очень умно сравнивать ноутбуки 16GB и 8GB типа память святым духом питается, энергопотребление к тому же зависит от нагрузки зависимость не линейная но для x86 лучше высокая загрузка
в целом норм если новый процессор окажется лучше предыдущих, Ryzen уже долгое время лучше Intel но чего об этом на каждом углу трубить как о космическом прорыве? :-)
Nvidia уже в DGX A100 использует процессоры AMD

ага очень умно сравнивать ноутбуки 16GB и 8GB типа память святым духом питается, энергопотребление к тому же зависит от нагрузки зависимость не линейная но для x86 лучше высокая загрузка

Даже Майк тебе скажет, что 16 и 8 гб при lpddr4 на общую автономность существенно не повлияет.
А если в тех писишниках обычная ddr4, так кто же виноват что в премиум лэптопы производитель поставиль поставил обычную память)

в целом норм если новый процессор окажется лучше предыдущих, Ryzen уже долгое время лучше Intel но чего об этом на каждом углу трубить как о космическом прорыве? :-)

ну потому что разница в производительности на ват в разы лучше, чем была разница между amd и intel.

откуда информация про производительно в разы лучше? она выше безусловно за счёт более эффективной системы команд
но на обещанные 9ть ватт не похоже
images.anandtech.com/...​phs/graph16252/119344.png
данные отсюда
www.anandtech.com/...​/mac-mini-apple-m1-tested

Это ж tdp 10 ват, брать он может больше.
У меня на прошке tdp проца 45 ват, но кушает и 60+ при нагрузке всех ядер)

По поводу тестов — загугли тесты macbook air и попробуй найти что то подобное на x86 c пассивным охлаждением.

45 и 60+ это 1.2 раза, а там 2-3 раза больше энергопотребление под нагрузкой
TDP вполне может быть занижено из маркетинговых соображений, как и рассказы про 8ми ядерный процессор, там процессор 4+4 а не 8мь, и 8ми ядерная видеокарта не пойми что за зверь :-)

и 8ми ядерная видеокарта не пойми что за зверь :-)

Когда-то была PowerVR Furian GPU до переработки, что от неё осталось — хз.

возможно, просто сейчас видеокарты меряются количеством различных блоков, мега/гигафлопсами в FP16/FP32
а это как из параллельной вселенной

если память мало ест почему ноутбуки Apple не сделала сразу с 32Гб памяти или возможностью нарастить до 64? :-)
если TDP радикально лучше то почему формфактор 13й прошки и система охладения остались те же? :-)
d3nevzfk7ii3be.cloudfront.net/...​igi/CKQtcJFiDAvNM2Pj.full
www.ifixit.com/...​mething-old-something-new

если память мало ест почему ноутбуки Apple не сделала сразу с 32Гб памяти или возможностью нарастить до 64?

Я я не скажу, потому что не знаю)
Но причин может быть много, ограничеснность контроллера памяти, какие то лимитации в дизайне M1, тут же все таки soc а не впаянная в плату память. Lpddr не играет решающую роль, така память в смартфонах стоит.
+ скоро будут тесты моделей с 16 гигими озу, уверен что там результаты такие же будут по автономности.

По поводу системы охлаждения прошки, я тут где то кидал видео с тестами, там ее не слышно даже при часе полной загрузки. Ну и плюс Air на M1 работает без куллера вообще.

Эпл походу диз маков в 21 году обновлять будут.

ну так если не знаете почему судите о энергопотреблении памяти и контроллеров? вы понимаете что в данном сегменте устройства относительно малой мощности высокая интеграция это правильное решение
но попробуйте сделать такой же чип с современным процессором на 200 Ватт и видеокартой на 300 Ватт пусть даже вы будете в 2раза более энергоэффективным (что весьма сомнительно в данном кейсе) как говорит эпл
у вас получится кристалл минимум на (200+300)/2=250 Ватт гигантских размеров который вы не сможете использовать :-)

ну так если не знаете почему судите о энергопотреблении памяти и контроллеров?

Суждения о энергопотреблении памяти и суждения о том, почему Apple не поставила ее больше это как бы о разном не?) или вы уже сами себя убедили что причина именно в автономности?)

как нет? они проектировали чип для специализированных целей для определённого сегмента и он закономерно оказался лучше потому что чем специализированней чип тем он лучше

закономерно оказался лучше

в 2-3 раза лучше, про это и маркетинг, не понятно чего Вы возмущаетесь.

хз как тут скопировать мой пост

www.cpu-monkey.com/...​vs-amd_ryzen_7_4800u-1142
в одноядерном тесте чуть лучше M1 (100% vs 82%) в многоядерном лучше Ryzen 7 (74% vs 100%)

ещё один тест доказывает что революции не случилось
кому интересно можно поискать ещё тесты, от более менее независимых источников

А ненадо копировать он в 2–3 раза лучше

для специализированных целей для определённого сегмента

причем тут десктопный проц

теплопакет один и тот, же о каком десктопном проце вы говорите? :-) или это заклинание такое, отгоняет бесов? :-)

теплопакет один и тот, же

откуда инфа?

www.cpu-monkey.com/...​vs-amd_ryzen_7_4800u-1142
открываете этот линк в браузере
см. колонку
слева 15W TDP (PL1) 15W справа

тут же все таки soc а не впаянная в плату память

Кто сказал что память в SoC???

или возможностью нарастить до 64?

а как тогда маклоухи будут покупать новый макбук?

а как тогда маклоухи будут покупать новый макбук?

Признавайся, юзаешь очистку оперативы в андроиде потому что она быстро заполнятся?)

юзаешь очистку оперативы в андроиде

фейцпалм

Юзаю закривання апів в останньому андроіді, аби батарею менше садило. Пам’яті 6гб, на даний момент забито 3.1гб. Проблем не помічав.

Ты пивка бухнул сегодня. Смог ответить на бред бредом.

Дисклеймер: результаты данного видео могут оскорбить чувства некоторых слоев людей на DOU или заставить писать разоблачающие комментарии.

Это видео оскорбляет людей у которых просто есть мозг. Это тоже самое, что сравнивать производительность процессоров на частоте 2GHz. Как и батареи, допустим на 8000mAh, пусть даже все литий-ионные, которых с десяток типов, одни лучше тянут малую нагрузку, другие лучше тянут резкие пики нагрузки и т.п. У каждой батареи шесть базовых параметров — capacity, power, safety, life span, cost, performance.

Я не знаю, но хочу надеятся что это ты так сам себя троллишь а не в серьез пишешь)

И я не знаю как такое можно хавать — тест вкусовых характеристик между яблоками и грибами показал, что стейки с кровью вкуснее.

Подскажи пожалуйста, как правильно тестировать автономность, чтобы проверить разницу при одинаковых сценариях использования? Твое мнение. Как бы ты это делал. Спасибо.

купить девайс и ним пользоваться в соответствии со своими сценариями :-) у меня есть разные девайсы и маки в том числе
в целом старые маки тащили за счёт большой батарейки (которая объяснялась премиальной ценой девайса)
были когда то мифы что MacOS супероптимизирована по сравнению с виндой но потом оказалось это не так и т.д.
достаточно поставить дуалбут винду и самому потестить :-)
по числу мифов и домыслов Яблоко безусловный лидер на все 200% :-)

Не, имею ввиду провести адекватный тест чтобы можно было сделать какие-то выводы о автономности без покупки устройства)
Как по мне, в видео по тесту можно сделать какие-то выводы. Другие тесты батарейки показывают схожие отличные результаты.

автономность будет хорошая, но я уверен это не решающий фактор при покупки продукции Apple :-)
и вообще истерика насчёт этого процессора это как современный крестовый поход, надо всех перекрестить в маколюбов :-))))))))

Та нету никакой истерики)
Но то что до этого ноутбуки с пассивным охлаждением показывают такой перформанс — это этого еще не было. Ближайший трешак на интеле будет в разы медленние. За 10 лет хоть какое то кардинально новое решение появилось в мире ноутбучных цпу, и это радует.

Говорят есть грибы от который кайф ловишь.

именно при этом для теста берут оптимальный режим для своих процессоров и не оптимальный для чужих, иначе как объяснить 2х в середине малопонятного графика без конкретных единиц на шкалах

важно понимать что на низких нагрузках энергоэффективность x86 архитектуры падает

Так после компиляции вебкита (пиковая загрузка) у Интела остается 24%, а у М1 91%
techcrunch.com/...​-that-will-blow-you-away

я хз что там за компиляция такая и девайсы, что так батарейку просадили и смотреть влом, очередная чушь
но как минимум компиляторы там разные GCC и Clang как я понимаю? :-) при этом Clang на базе LLVM а GCC на базе legacy backendа :-)

не удержался посмотрел ваш линк, вы видимо хорошо разобрались в статье можете объяснить как так получилось что время компиляции на Air с M1 в 2 раза меньше чем на Pro 13″ 2020 c M1
techcrunch.com/...​time.jpg?resize=2048,1152
может у автора руки не оттуда? или драйвер кривые руки.sys со старых времён не обновлял? :-)

секта не иначе :-) секта последователей великого Яблока :-) прозрейте слепцы и узрите мощь яблока, а те кто не прозреют будут ней испеплены :-)

секрта разоблачителей подоспела. Это мак на интеле) Стоит не только картинки смотреть)

как так получилось что время компиляции на Air с M1 в 2 раза меньше чем на Pro 13″ 2020 c M1

На твоем же скрине у Air с M1 — 25 минут, у Pro с M1 — 20 минут.
Ты наверное перепутал с Про на Интел — у него да, 46 минут

ниже линк с цитатой автора какие девайсы в тесте :-)
кстати а вебкит точно успешно собирается под ARM M1 когда его успели портировать? или он через 20 минут компиляция выпал в ошибку, но автор не заметил? :-)

ниже линк с цитатой автора какие девайсы в тесте :-)

Ниже ты скинул список из 4 ноутбуков, на скрине и графиках сравнивается 6.
Там где написано «М1» — ноутбук с М1. Там где не написано — ноутбук с Интел

кстати а вебкит точно успешно собирается под ARM M1 когда его успели портировать? или он через 20 минут компиляция выпал в ошибку, но автор не заметил? :-)

Троль?

посмотри статью, автор сам привел железо, я хз как у него из 4х получилось 6ть в следующем графике, что за железо он брал тоже не знаю
неплохо бы увидеть

Там абзацем ниже он пишет, что остальные 2 он не тестил, а взял данные с чужих бенчмарков (и дал ссылки на них).
Что за железо предельно ясно, спецификации есть в инете.
Те о которых я писал изначально:
13 дюймовый макбук про на Интел — Intel Core i7-8569U
13 дюймовый макбук про на М1 — Apple M1

Processor Number
i7-8569U
Status
Launched
Launch Date
Q2’19
Lithography
14 nm
ark.intel.com/...​cache-up-to-4-70-ghz.html
окей пусть даже так вас не смущают эти цифры в частности 2й квартал 19й год и 14 нанометров техпроцесс? они вам не о чем не говорят?

а еще забыл цену указать 431 доллар это половина или 1/3 стоимости компа более эффективный или интересный процессор нельзя было поставить иначе бы стоимость в космос ушла
п.с.: я не в коем случае не фанат Интел и считаю их сбитым боингом в текущее время, так что оправдываться этим фактом не получится

Проблема в том что какой проц не возьми, он будет хуже M1.
Например там же проц из 16(sic!) дюймового мака — i9-9980HK
Хуже и по времени, и по батарейке (при огромном аккуме 16 дюймов).

А тут ультрабук с пассивным охлаждением, о чем разговор вообще...

Я вот тоже удивляюсь, люди называют кого то сектой, хомяками а сами уходят от реальности цепляются за какие-то детские странные аргументы лишь бы «идти против системы») Как те трудные подростки-нигилисты при переходящем возрасте)

хомяками никого не называл, сектой назвал потому что уж очень похоже на секту, цитаты и примеры только с лояльных ресурсов

без анализа что и почему, как в религии там не задумываются что и почему там просто дано что плохо, а что хорошо

Так приведи пример с нелояльного ресурса. Типа «вот конкретно у этого ноутбука от Х, производительность и/или энергоэффективность лучше чем у Macbook Air M1».
Пока ты предложил только с десктопными процессорами производительностью меряться

«идти против системы»

гг. система Ж)
мне вот стало грустно на 32гигах, я купил себе за 200 баксов память и сейчас сижу на 64х
расскажи свой путь по апгрейду макбука на 64гб. (this is the way)

Так в даний момент Епл випустила на М1 тільки «молодші» (традиційно слабші) моделі, Air, 13″ Pro з двома Thunderbolt портами, Mac Mini.
Моделі, в яких можна поставити 128 гіг оперативки все ще на Інтел і вийдуть на АРМ протягом двох років.
І всі позитивні реакції від «секти» (насправді ні, від усіх інтернет-видань про комп’ютери) викликані тим, що раптом виявилося що новий Air з пасивним охолодженням за 1000 баксів часто працює щвидше ніж прошка за 3к.

Епл випустила на М1

да я вообще не про М1, а про эппл как таковую
вон жена у меня хнычет на 32х гигах на прошке: икскод+симулятор+андроид студия+симулятор + скайп + слак + и броузер еле шевелятся. память проапгрейдить низзя. новый ноут с 64г памяти в районе 4-5к баксов

Ну така в них улюблена концепція, що поробиш(:. Читав що ще у 80х у Джобса була ідея комп’ютера як кухонного приладу, а не складної модульної системи. Тоді ринок цю концепцію не прийняв, зараз, схоже, свої мінімум 10% в штуках і відсотків 50 в прибутку вони мають і не хочуть ніякої модульності.

вон жена у меня хнычет на 32х гигах на прошке: икскод+симулятор+андроид студия+симулятор + скайп + слак + и броузер еле шевелятся. память проапгрейдить низзя. новый ноут с 64г памяти в районе 4-5к баксов

ты уверен что 64 озу решит эту проблему?
Только не говори что ты сделал вывод по тому, что в activity monitor увидел своп и сжатую память)

я уверен. ты уверен что хочешь это обсуждать?

не думаю что есть смысл тратить на это время, пускай будет что проблема именно в количестве озу

Мой путь? Мне пока 16 с головой хватает.
Ты ж покупаешь мак и знаешь что в нем апдейтить ничего низзя как в телефоне.
Это как приводить в пример крутости лады 9-ки, что к ней легко можно запчасти найти и насос самому поменять в гараже у соседа за бутылку водки)
Кому нужно 64\128 озу наверное ПК будет лучшим вариком. Тут вопрос многим ли это нужно?

Ты ж покупаешь мак и знаешь что в нем апдейтить ничего низзя как в телефоне.

это ты покупаешь мак который самый супер-пупер в мире, а потом оказывается что не очень

мак который самый супер-пупер в мире,

Человек верит в магическую особенность маков и смеется с яблодрочеров, который часто как раз таки понимают за чем им маки)) Мне кажется это апогей этой темы))

І для чого програмісту, крім віртуалок, стільки пам’яті ?

3 вкладки в хромі

Firefox вже лідер по цьому, хром у порівнянні з ним економа. Але або він, або в анальні раби корпорації добра.

потому, что есть в мире прогромизды, которым лень выучить маллок-фри, и они рождают монстрообразных уродцев типа андроид студии, скайпа, слака и тп

Хіба в тому, що написано на електроні є malloc ?

Человек просто хочет показать что он олдскул и настоящий программист, не то что эти джаваскриптере со своими электронами)

А хз, я вот только что перегрузил ноут с 16Gb на Win10 — 100500 процессов (включая корпоративный софт, который не отрубишь) всё по 100-200Mb. Итого 10Gb отожрано при старте, а я ещё не приступал к работе. 3-4 открытых PDF, хром с 10 вкладками, 3-4 терминальных клиента, пару Far’ов и 16Gb уже нет.

Это что за говна ты при старте поднимаешь? Не смотрел сколько у меня выжирается, но как-то не заметно, где-то около 2 гигов. Меня больше напрягает, что xfce гиг в gpu выжирает.

Не знаком с менеджментом памяти в винде, но может это часть памяти всякие кэша и прочий треш, который будет сжат\освобожден при недостатке озу?
По крайне мере в mac os похожая тема, уже при запуске есть compressed memory и около 4 ГБ занято.

Ты про программистов или сыроедных смузихлебов? Хотя мне 32 гига пока выше крыши. Мне PCI 5 нужно и подешевле.

я написал детально здесь
dou.ua/...​ign=reply-comment#1994301

теперь конкретно по макам в маках используются не самые лучшие и самые свежие процессоры, вы можете поискать ноутбуки на процессорах 2020года и увидеть что они по тестам на ядро лучше чем мак

просто маки 2020г используют процессоры начала 2019г

про пассивное охлаждение не так оно пассивное только в Air в Pro варианте там есть кулер

Факт в том что Macbook Air без куллера компилит быстрее чем мой 16″ Macbook Pro 2019 который заметно шумит при нагрузке. И я не думаю что если бы там процессор был на поколение выше, результат бы кардинально отличался.
Тесты на ядро это конечно хорошо, но реальные задачи репрезентативнее.

Установка быстрого SSD тебя спасет.

На 16 дюймовой прошке SSD быстрее чем на макбук эйре с M1

Здесь я уже ничем не помогу. Точнее, посоветую выкинуть то, что нельзя апгрейдить и пользоваться тем, что можно апгрейдить.

Спасибо за ценные советы — они очень важны для нас)

или он через 20 минут компиляция выпал в ошибку, но автор не заметил? :-)

гг. никто не проверял результат :)

не удержался посмотрел ваш линк,

Слушай, а какие линки ты вообще смотрел? Это один из базовых и самых популярных.
Или ты ничего вообще не смотрел, а только тут комменты про секту пишешь?

много смотрел, хочешь не хочешь весь FB рекламой маков завален, не знаю как отключить все сми дают жару
смотрел что производительность с Rozetta 2 падает на 20%, что важно, потому что много legacy кода надо юзать

“Here are the machines I used for testing:

2020 13” M1 MacBook Pro 8-core 16GB
2019 16″ Macbook Pro 8-core 2.4GHz 32GB w/5500M
2019 13″ MacBook Pro 4-core 2.8GHz 16GB
2019 Mac Pro 12-Core 3.3GHz 48GB w/AMD Radeon Pro Vega II 32GB"

сделать дефрагментацию и запустить полное сканирование диска «С» на вирусы.

Что сделать?
Где взять диск «С»?

не открывается. значит not ready

Electron 11.0 released with support for Apple Silicon
www.electronjs.org/blog/electron-11-0

Епл навкидає тепер сенсацій, а потім виявиться що все не так однозначно. Але продажі вже виросли.

Ну. А стадо потім біжить куплят макбучькі, замість того щоб взяти в 3 рази дешевше асус з засаленого пластика, голубими наклейками «Intel Inside» ы dvd-rw)

где можно взять новый асус с засаленым пластиком и dvd-rw?!?!

Нашел такое,
hotline.ua/...​etbuki/4635-82513-294404
правда есть только фильтры по бренду, наличию dvd и пластиковости корпуса, а фильтра по засаленности нет :(

надо стартап открывать по засалке асусов: «Засаливаем асусы разной степени засалки по желанию заказчика. самые лучшие сорта сала»

Засаленность это скрытый приятный сюрприз от производителя :)

Будет заметен через полгода-год когда пот от пальцев впитается в дешевый черный пластик клавиатуры (параллельно затемнив белую гравировку на самых частоюзанных клавишах). Аналогично и с тачпадом — тут эффект будет меньше, из-за того что их все равно невозможно юзать. (поэтому у виндовода всегда должна быть с собой мышка).

Если вам просто фотографии и видео со свадьбы посмотреть — можно купить просто обычный внешний привод

жду новый Asus и Dell после многих лет работы на MacBook Pro (громадный тачпад в новых дико мешает при наборе вслепую)
сектанты Apple уже готовят костёр для еретика? :-)

жду новый Asus и Dell

ты два заказал или просто ждешь чтоб они что-то годное выпустили? )

не я выберу лучший, если в новом Мак Про вернут MagSafe (который пропал кудато) и нормальный тачпад, клавиатуру и он будет не АРМе то могу и его взять, систему переставлю :-)

когда у маков был тачпад ненормальный?
у меня при наборе руки лежат на тачпаде частично, он не реагирует на это, так что не парся по этому поводу. (прошка 16 icnh)
МагСейф есть переходники.
Клава нормальная в моделях от 2019 года, когда они начали уходить от этого убогого батерфлая.

про новую клаву не знал
у меня один мак 2018г там клава не удобная и громадный тачпад который мешает, другой 2015 клава была ок и тачпад удобный, но после замены батареи по гарантии они и клаву поменяли, оно блоком там идёт теперь очень неудобно на нём набирать

а как это не реагирует? у меня реагирует, перескакивает каретка :-)

у меня один мак 2018г там клава не удобная

да, там этот трешовый батерфлай. У меня такая же была на прошке 16 года, ход клавиш маленький и она может залипать.

а как это не реагирует? у меня реагирует, перескакивает каретка :-)

это на винде может?
на макоси все четко, если касаешься частью ладошки там и т.д. а не пальцем то не реагирует.

мне леново как то больше зашел

— Benchmarks are rigged!
— If you count benchmark legal results, we easily win. If you count illegal benchmark times, they can try to steal victory from us.
— We were winning in all the key benchmarks by a lot, actually. And then our number started miraculously getting whittled away in secret.
— ANY BENCHMARK THAT CAME IN AFTER M1 ANNOUNCEMENT DAY WILL NOT BE COUNTED!
— STOP THE PERFORMANCE TESTS!

Таки, в мире инженеришек — сложно вкинуть миллионы фейковых тактов в ущерб конкуренту, незамеченными.

Accelerating TensorFlow Performance on Mac: blog.tensorflow.org/...​w-performance-on-mac.html

On my models currently in test, it’s like using a 1080 or 1080 TI.

twitter.com/...​tatus/1329168059647488000

Майк, теперь твой ход — разоблачай)

Зачем? Хоть бы один задал вопрос что значит Accelerated Tensor Flow 2.4 on Mac(Intel), что там включено и как оно accelerated. Про M1 написали достаточно как. Если там OpenCL, то нужно приводить выхлоп, на каких дивайсах запущено. Потому что с интелловскими драйверами они шипят GPU + CPU, криво написанная акселлерация подхватывает оба дивайса и параллелят задачи, GPU стоит 95% времени и ждёт когда CPU закончит. В общем ноль входных данных, причём эта тенденция во всех сравнениях с M1 — никаких технических деталей.

Хоть бы один задал вопрос что значит Accelerated Tensor Flow 2.4 on Mac(Intel)

По сути ничего не значит, но для рекламных словей пойдет для хомячков.

а что разоблачать в одном случае юзается аппаратная поддержка чипом а в другом голый проц
M1 SoC это комбайн из частей наподобие AMD APU

«Преимущества APU перед классической моделью интеграции GPU в системную логику материнских плат в видении AMD:

Пропускная полоса между GPU и памятью увеличилась в три раза;
Отпадает необходимость в некоторых коммутационных узлах;
Существенное уменьшение необходимой разводки;
Уменьшается размер GPU;
Уменьшаются задержки и энергопотребление.
Расширенный интерфейс между центральным процессором (CPU) и графическим ускорителем открывает новые возможности:

Расширенное управление напряжением для CPU и GPU;
Поддержка GPU высокоуровневых языков программирования;
Единое адресное пространство для CPU и GPU;
Страничное использование памяти для GPU;
Новые возможности для общих вычислений (GPGPU).»
ru.wikipedia.org/wiki/AMD_APU

в целом ход правильный для данного класса устройств весьма оправданный, но подавать это как космические технологии и визжать как блондинки это сомнительно :-)

визжать как блондинки

эпплофаны всегда так делают во время конференций эппл. чтобы им там ни впаривали

Друг, так ты может латентный яблочник?) Конференции их смотришь, все новости знаешь, в теме про Apple на доу сидишь)

Я вот не знаю как там призентации леново делает... а, может потому что они нафик никому не интересны))

у меня жена иос девелопер. до меня периодически долетают волны ненависти

Ну да, то то я смотрю девелоперы на ведре все веселые, никогда гугл и джаву не проклинают.
А андроид студио, такая удобная, и памяти немного кстати кушает.

На костер еретика! Ибо усомнился червь)) в праведности андросвятыни... ;))

они оба гуано
эппл меняет апи с каждым релизом, икскод не работает нормально пока кэши не вычистишь
у гугля свои тараканы.
хорошо, что я ни одним ни другим не пользуюсь :)

у меня жена иос девелопер. до меня периодически долетают волны ненависти

Пускать волны ненависти в сторону Apple в кругах iOS девелоперов — это правило хорошего тона, почти что цеховое правило. Каждый релиз Xcode и SDK обязательно должен сопровождаться шутками и троллингом. Такое комьюнити.
Аутсайдерам же воспринимать это слишком всерьёз не советую, а то может возникнуть впечатление, что там сущий трэш, угар и ни лучика света. Что совсем не так.

может возникнуть впечатление, что там сущий трэш, угар и ни лучика света

лучики только когда unpacking. потом начинается трэш и угар

Аутсайдерам же воспринимать это слишком всерьёз не советую, а то может возникнуть впечатление, что там сущий трэш, угар и ни лучика света. Что совсем не так.

Да, только вот трэш и угар никто не отменял.

Из того что слышал, то с М1 все очень и очень хорошо.

В целом, у меня сложилось впечатление что Интел периодически принимает странные стратегические решения и из-за этого стоит на месте.

почему странные, премия в пару десятков лямов борду это вполне логичный ход если ты у руля корпорации

они современный боинг напоминают, видимо сомнительный маркетинг и менеджмент давно взял своё дело

Я так понимаю собирать опять нужно Universal Binary (помню когда такое же было с PowerPC). В какой XCode это завезут? И какую версию OSX нужно ставить что бы этот XCode туда установить?

Я так понимаю собирать опять нужно Universal Binary (помню когда такое же было с PowerPC).

да

В какой XCode это завезут?

Xcode 12.2

И какую версию OSX нужно ставить что бы этот XCode туда установить?

10.15.4 или выше

Была похожая ситуация когда Amazon после смешного Graviton выкатил Graviton2 с зверскими спеками, оставив топовые Intel Xeon в одном месте.

Все выглядит так, что достаточно иметь немного мотивации, взять какую-от открытую или условно открытую спеку и IP, забалшять денег какой-то тайванской компании, чтоб они ее запилили в силиконе и можешь рвать чуваков из Intel, которые большую часть бабла тратят хрен знает на что (на лоеров и бонусы руководству?)

Торвальдс ще писав, що важливо, щоб у розробників були машини на такій же архітектурі як сервери. Я не дуже вловив його думку, але підозрюю що скоро побачимо синергетичний ефект: за пару років всі будуть на АРМах(:

А ще Торвальдс показував фак Нвідіі.

Торвальдс — это индикатор, если он показывает фак — значит всё правильно делают.

фак торвальдса это поинтер, а не значение

Ещё помогает выпустить перед этим миллиард или два устройств :-) Я конечно про айфоны с айпадами. Насколько я понимаю, вся PC industry выпустила за 20 лет в разы меньше устройств.

Насколько я понимаю, вся PC industry выпустила за 20 лет в разы меньше устройств.

citation needed

Да, наврал. 🤷‍♂️

Вот тут пишут про 1,3b PC in use worldwid
www.statista.com/...​computers-installed-base

Т.е их сейчас примерно поровну в использовании, но выпущено конечно сильно больше.

Я наверное чересчур экстраполировал этот график twitter.com/...​s/421442577749929984?s=21

Базовая модель Air (без куллера) неплохо так тянет фортнайт в нэйтивном разрешении)

www.youtube.com/watch?v=CbGyG1VBtzo

Недолго им осталось, сейчас Epic запилит обновления для серверов и все маковские клиенты отсохнут %)

И вообще это монтаж, он играет на облаке через карту nvidia)

там 3d resolution 49% у него стоит, дальше все дотягивается изочренными апскейлами

Google запускает нативную версию браузера Chrome для компьютеров Mac на ARM-процессорах Apple M1
itc.ua/...​ompyuterov-apple-arm-mac

It’s hard to believe, a hot running fan blasting i9 loses by a factor 2 in a real world Rust compile from a passively cooled M1 macbook air. This has consequences.

twitter.com/...​tatus/1328598935380910082

внезапно: This is not available to you

А как будет с поддержкой ml/ds библиотек и фреймворков никто не в курсе? Хочу перекатиться в это направление и выглядеть стильно в то же время.

сейчас весь ML на cuda сделан, альтернатива только opencl и то не все фреймворки поддерживают.

OpenCL is deprecated, but is available on Apple silicon when targeting the GPU. The OpenCL CPU device is not available to arm64 apps.

developer.apple.com/...​cos_apps_to_apple_silicon

У яблока как всегда особое мнение и свой API будет (или уже есть) для ML.

Который никому нафиг не будет нужен.
Вот ты готов написать свой движок нейронок под OpenCL (AMD) или нечно от огрызка и бесплатно выложить и поддерживать?

У них он уже есть: ML Compute (developer.apple.com/documentation/mlcompute)
И там нет OpenCL.

Он и используется как бекенд для их пропатченного TensorFlow. (github.com/apple/tensorflow_macos)

Я проверил, TensorFlow наконец использует GPU на моем MacBook.

И еще вопрос, а как по скорости в сравнении с чем-то от нвидии?

Та ясно что сливает по-полной.

Но я проверял на прошлогоднем Маке на мобильной ATI, нужно проверять как работает на тензорных ядрах M1 .

ATI это поиграть в игры, к ML они никак.
Но если бы кто-то выложил движок под ATI (OpenCL), то было бы интересно, в синтетике они типа крутые и дешевые в сравнении с нвидией.

З.Ы. Ну тут по восхищенным отзывам я уж подумал, что огрызки что-то крутое сделали.

З.Ы. Ну тут по восхищенным отзывам я уж подумал, что огрызки что-то крутое сделали.

Всё, что делают огрызки у определённого круга вызывает мультиоргазм:
news-cdn.softpedia.com/...​the-iphone-x-518198-2.jpg

Это их проблемы. Никогда с огрызками дела не имел и иметь не собираюсь.
Но Джобса уважаю, так раскрутить хомячков отдавать ему деньги за говно — это уметь надо, это гениально.

Но Джобса уважаю, так раскрутить хомячков отдавать ему деньги за говно — это уметь надо, это гениально.

Он правильно подобрал ЦА, например телефоны Vertu за 10-15К имеют ничтожную целевую аудиторию, и предназначены только для отбитых наглухо от современных технологий. А он же дал возможность каждому рядовому хомячку чувствовать себя ылитой, не таким как все и чем-то особенным, каких-то год-два выплат в кредит и он твой.

Постфактум это просто. А вот вначале — это для меня фантастика или гениальность Джобса.
Но без Джобса огрызку осталось лет 5-7 до жопы. Кстати они такое уже проходили.

Но без Джобса огрызку осталось лет 5-7 до жопы

смешно. Пох конечно что с его смерти контора выросла в 3 раза по выручке и раз 8 по стоимости. Конец близок!

Но без Джобса огрызку осталось лет 5-7 до жопы. Кстати они такое уже проходили.

Спасибо за твою аналитику, всегда приятно почитать умных людей)

каких-то год-два выплат в кредит и он твой.

Бесплатно же
dou.ua/...​rums/topic/31931/#1984516

А если не iPhone XR? :D

Мне больше всех нравится модель SE, она недорогая, можно без кредита покупать:
comfy.ua/...​ne__apple-iphone-se-2020

Взагалі-то apple роками робив красивий в усьому ПК, не здаючися під натиском IBM PC з досом і був на межі банкрутства. Потім зробив красивий mp3 плеєр. Створив смартфон, в який пальцем без стілусу тикати. І всі смартфони тепер такі. Не можна не віддати їм належне за наполегливість в створені чогось, що йшло проти мейнстриму колись, як не можна не стєбатись над «яблачними рабами» тепер, коли apple сам мейнстрим.

Додав би ще перший 64-бітний арм soc, сміливий тренд на відмову від DVD в ноутах, перехід на type-c. Ті ж AirPods.

AirPods

эталонное ненужно, лучи ненависти яблу за это

Найзручніша гарнітура зі всього, шо я пробував. Відкрита гарнітура, через яку все чути і яку не помічаєш у вусі — геніальна ідея.

Не для музики, звісно.

Кому не нужно? Десятки мільйонів покупців щороку, лідер в сегменті true wireless headphoes(:

перехід на type-c

В нынешних айфонах то хоть type-C есть уже?

Конечно нет! Иначе хомячки не будут покупать кабель из кожи лысой дохлой крысы © (tm) за 25$.

Додав би ще перший 64-бітний арм soc,

Wat? %)

Что-то не так?)

Apple A7, habr.com/ru/post/193278

Кстати, там на хабре первый комент круто, тоже видно что эксперт по архитектуре, гений ассемблера и повелитель системного реестра писал:

«При существующей архитектуре армы не догонят x86 даже если доползут до 2-3ГГц по частоте. Если мы посмотрим на то количество титанических усилий, которое было вдыхано в этот убогий процессор из клавиатур (4004), чтобы получить современную скорость работы, то увидим, что арму нужны какие-то нереальные подвиги для этого.»

Что-то не так?)
Apple A7, habr.com/ru/post/193278

Первый процессор в потребительском продукте != первый процессор.

Кстати, там на хабре первый комент круто

Написано всё правильно, просто когда человек не владеет анализом, то и появляется жёлчный сарказм. Ты же не будешь спорить, что у Apple не ARM’овская архитектура? Если будешь, то указывай на каком Cortex ядре они построены.

Первый процессор в потребительском продукте != первый процессор.

О боже, какой вы занудный демагог) Ведь понятно что имелось ввиду это, но надо прицепиться что не написал слово «потребительском».

Написано всё правильно, просто когда человек не владеет анализом, то и появляется жёлчный сарказм

Ага, ты уже показал уровень своего анализа когда написал какая разница дискретный GPU (вроде на 120 ватт, боюсь ошибиться, а то ща напишешь что там 119 поэтому я не прав) или интегр. Параллельно выстраивая конспирологические теории как огрызок накручивает бенчмарки)

Ты же не будешь спорить, что у Apple не ARM’овская архитектура? Если будешь, то указывай на каком Cortex ядре они построены.

))) Самсунг тоже юзает кастомные арм-ядра к примеру, а не cortex. Они уже тоже не арм?

en.wikipedia.org/wiki/Apple_M1

«The Apple M1 is the first ARM-based system on a chip (SoC) designed by Apple Inc»

Наверное это можно назвать кастомной архитектурой основаной на ARM, как бы apple не старалась не употреблять это слово. В любом случае это risc.

О боже, какой вы занудный демагог) Ведь понятно что имелось ввиду это

Кому понятно? Сорри, чувак, хрустальный шар поломался, телепаты на карантине. Под фразой:

перший 64-бітний арм soc,

можно понимать всё что угодно.

Ага, ты уже показал уровень своего анализа когда написал какая разница дискретный GPU

Разница только в головах хомячков.

вроде на 120 ватт,

О чём с тобой говорить, ты не понимаешь что такое TDP, это не утюг и не обогреватель на 120 ватт, это мощность которую система охлаждения может рассеять без нагрева кристалла до критической температуры (Tjunction). Разницы между дискретной видеокартой и встроенной может быть нулевой с аппаратной точки зрения. Во встроенной нужно находить баланс производительности и потребления из-за существования с другими компонентами. Только и всего, мобильный вариант GPU о котором шла речь имеет те же самые ограничения что и встроенная GPU.

))) Самсунг тоже юзает кастомные арм-ядра к примеру, а не cortex. Они уже тоже не арм?

Ты понимаешь разницу между ARM ISA и ARM Core?

«The Apple M1 is the first ARM-based system on a chip (SoC) designed by Apple Inc»

О хоспади, когда в спор включаются цитаты из педивикии — можно сливать воду.

Наверное это можно назвать кастомной архитектурой основаной на ARM, как бы apple не старалась не употреблять это слово. В любом случае это risc.

Они не спроста не употребляют это слово ибо от ARM архитектуры там только ARM ISA.

Кому понятно? Сорри, чувак, хрустальный шар поломался, телепаты на карантине. Под фразой:

Ну как бы обычные люди когда говорят там к примеру «самый мощный процессор» то вроде как все понимают что имеется ввиду потребительский сегмент, если не сказано иное) Все весь поняли это, только у тебя вызвало недоумение.
Я просто представляю, тебе коллега говорит «закрой пожалуйста жалюзи» а ты наверное начинаешь уточнять в какой именно комнате, в какую позиции их закрыть и на сколько %. Ведь нету хрустального шара.
Ты лучше заканчивай с этими драйверами, не доведут до добра они :)

Разница только в головах хомячков.

Друг, если разницы при написании драйверов нету, то это не значит что разницы нету) Ты ж живешь в физическом мире где играет роль потребляемая мощность, кол. транзисторов на см2 квадратный как минимум.

Во встроенной нужно находить баланс производительности и потребления из-за существования с другими компонентами. Только и всего,

Только и всего)) подумаешь.
Ну давай тогда я продолжу: Разница между RTX 3090 которая не влазит в некоторые корпуса и Intel Celeron какого то технически может не быть, и то и то принимает input и отдает output.
Давай еще опустимся до уровня атомов чтобы нивелировать архитектурные ограничения в igpu (та же память, термо) и dgpu. Все атомы и все 0 и 1.

Ты понимаешь разницу между ARM ISA и ARM Core?

Ну основную суть понимаю конечно же.
А теперь посмотри на что я отвечал и задай этот вопрос себе) Не я же кортекс приводил в пример)

О хоспади, когда в спор включаются цитаты из педивикии — можно сливать воду.

Ну да, бенчмарки все плохие, тесты все плохие, вики плохая. Только я единственный хранитель истины в этом темного мире хомяков-яблодрочеров. Такой себе Ван Гог из мира кристалов.

Они не спроста не употребляют это слово ибо от ARM архитектуры там только ARM ISA.

А, только то набор инструкиций? всего лишь такая маловажная деталь как ISA...
Теперь давай я задам вопрос: в чем основное отличие между x86 и arm архитектурами?

И так к слову, apple старается не упоминать технологии экранов называя все это ratina display и еще много чего. Это обычный маркетинг, чтобы как ты говорил «хомяки» думали что это что то уникальное, кардинально отличающееся от конкурентов.

Ну как бы обычные люди когда говорят там к примеру «самый мощный процессор» то вроде как все понимают что имеется ввиду потребительский сегмент

Да ну?

Только и всего)) подумаешь.

Как я уже указал — мобильные версии GPU подвержены тем же самым проблемам. потребляемая мощность в пиках может превышать номинальный в некоторых случаях до 2 раз.

А, только то набор инструкиций? всего лишь такая маловажная деталь как ISA...

В данном случае ARM ISA — это своего рода стандартизация. На внутреннюю архитектуру она имеет минимальный эффект.

Теперь давай я задам вопрос: в чем основное отличие между x86 и arm архитектурами?

Только в том, что ARM ISA — это load—store architecture, x86 ISA — register—memory architecture. Я ж надеюсь, что ты понимаешь, что с таким количеством расширений в ARMv8.6 эппловский процессор можно назвать чистым RISC’ом с большим кредитом.

Как я уже указал — мобильные версии GPU подвержены тем же самым проблемам. потребляемая мощность в пиках может превышать номинальный в некоторых случаях до 2 раз.

Поэтому разницу там только хомяки видят?)
Попытаюсь пояснить последний раз, не знаю правда зачем я это делаю. если не поймешь то тут мои полномочия все.

TDP Apple M1 — 10 ватт. Всего soc, это ж не только графика. Ясно что он может в пике брать больше. Air имеет чарджер на 30 Ватт, то есть учитывая что есть экран еще и прочая мелочь, врядли весь soc сможет больше 20-ки кушать в пике (про battery drain в тестах пока никто не сообщал, значит все таки в пределах 30 общее энергопотребеление).
Может все таки есть разница между тем, что ты можешь запихнуть в здоровенную дискретную херню TDP которой 120 ватт (а может и больше юзать) с активным охлаждением (плюс ddr6 наверное или что там стоит) и блин всей системой на чипе, где cpu, memory gpu и прочая хрень имеют на все tpd в 10 ватт, и которая ну пускай хавает 20 ватт на пике?)
Нравиться кому то или нет, M1 имеет сейчас наверное в разы лучший показатель производительности на ватт. Это факт.
Я где то не прав?

В данном случае ARM ISA — это своего рода стандартизация. На внутреннюю архитектуру она имеет минимальный эффект.

В этом же вся суть)))

Я ж надеюсь, что ты понимаешь, что с таким количеством расширений в ARMv8.6 эппловский процессор можно назвать чистым RISC’ом с большим кредитом.

Это уже философия. Важно какая база. Ясно что эсли бы епл просто скопировала бы все, то был бы не такой крутой резултат.

А он же дал возможность каждому рядовому хомячку чувствовать себя ылитой, не таким как все и чем-то особенным, каких-то год-два выплат в кредит и он твой.

Человек на машине времени прилетел нам из 2010 года, когда айфон был чем то необычным и элитным в СНГ))
Человек из прошлого, если ты меня слышишь, покупай акции эпла и биткойн!

CUDA стала стандартом де-факто и если кто хочет выйти со своим железом на этот рынок, то ему придется лицензировать куду и поддержать.
Лет 10-15 назад у Интела и АМД были возможности посоревноваться в этой области с NVIDIA, но они их просрали, причем старательно просирали.

Вангую, що буде відстійно. Дуже відстійно.

Для стильності я юзаю МакБук Про, щоб не подумали що я ніщеброд якийсь, який тільки на Ейр накопити зміг. Ну а вже з МакБуку підключаюсь по ssh/jupyter’у до свого headless desktop’у з потужною (але вже мабуть застарілою) відяхою з дохреніщем оперативки. Колись прокидував настройки через домашній раутер так, що до нього можна було з інтернету доступатись — афігенна тема: і стильно, і працювати можна, і ще як мамкин кулхацкер виглядаю коли htop через ssh запускаю. Рекомендую, короче.

авторизація по ключику?

ssh точно по ключу, а jupyter прокидував через проксю (ssh -ND 1080 home-ip).

Ща глянув — jupyter досі стирчав на весь світ D:, але я з того часу його переустановлював і він трохи небезпечно це робив... Добре, що на ньому хоч пароль був...

В таком случае, «не очень-то и хотелось».

Так нормальний МЛ ти навряд на любому ноуті зможеш зробити — тупо немає сенсу. Відносно старий ImageNet займає 150гб. Тобто оперативки було б непогано мати не просто багато, а саме дохуїща. Та ж сама ситуація з відео пам’яттю — чим більше пам’яті тим однозначно краще, бо оптимізовувати загрузку-вигрузку даних досить сумнівне задоволення.

Якщо ти серйозно заматимешся МЛ, то наступним нетривіальним кроком буде те, що ти рідко тренуватимеш одну модель за раз. Тобто це досить тупо запустити модель на треніровку на, скажем, 1 годину і там сидіти чухати яйця поки вона дотренується. Відповідно крутий десктоп, який тренуватиме модель за 30хв замість 1 години на ноутбуці окупиться набагато швидше. Але взагалі найпродуктивнішим буде написати штуку, яка дозволяє перебирати структури і/або гіперпараметри автоматично, а от саме тренування моделі відсилати на треніровку на кластер/aws-spot-instances (там буквально пару десятків рядків пітону + башу) і одночасно тренувати хоч з десяток моделей. Для такого сетапу навіть десктоп не потрібен.

Але взагалі найпродуктивнішим буде написати штуку, яка дозволяє перебирати структури і/або гіперпараметри автоматично, а от саме тренування моделі відсилати на треніровку на кластер/aws-spot-instances (там буквально пару десятків рядків пітону + башу) і одночасно тренувати хоч з десяток моделей. Для такого сетапу навіть десктоп не потрібен.

3-4 месяца и я тебе напишу. Захерачу туда ГА (муравьиный, отжига) и все он тебе подбирать будет. Но доооолго. Но если у тебя тесл 40-200 в кластере, то будет достаточно быстро. Если с оптимизацией по кластеру, то это уже дольше и год может занять на разработку
Всё в нейронках прекрасно параллелится, но вот параллелить нету на что.

3-4 месяца и я тебе напишу.

Дякую, але я вже на колінці склепав за пару годин і воно успішно працює. Там реально пару десятків рядків.

Захерачу туда ГА (муравьиный, отжига) и все он тебе подбирать будет.

Дякую, але я вже hyperopt був прикрутив. А для нейронок це взагалі ціла тема — NAS (Neural Architecture Search), але я безпосередньо нічим готовим не користувався — просто перебирав собі певний тип архітектур.

Но доооолго.

Ееее...

Никак. Его там не будет, кроме того, что сделает сама Эпл и будет продавать.

Ну хєр з ним швидше він інтелів чи ні. Достатньо швидкий. А який був взагалі сенс у епла переходити ? В чому фішка ? Зекономити ? Чи об’єднати айпади, маки і айфони під єдиною ос, як мікрософт намагалась колись ?

А який сенс випускати ноутбуки повільніші за смартфони?

Ну не повільніші, навіть якщо їхні arm проци так успішно розвиваються, то завтра amd піднатисне і буде швидше. А заміна архітектури не дешева справа. Для юзерів же епла в принципі яка різниця якої швидкості процесор, вони ж не по цим дєлам.

Швидше вони може і зроблять, а от енергоефективніше? Реальні тести показують, що на нових макбуках можна дивитися 4к відео з 60 fps 20 годин. Дуже сумніваюся, що х86 процесори найближчим часом покажуть подібне.

Для юзерів же епла в принципі яка різниця якої швидкості процесор, вони ж не по цим дєлам.

Довше працюють від аккумулятора і менше гудуть крім швидкості
techcrunch.com/...​-that-will-blow-you-away
i.imgur.com/bxCdOHS.png

Как это зачем? Увеличение маржи и хороший вендор-лок еще никому не повредили.

Автономність сильно виросла. Далі зможуть ще більше своїх хардварних фіч додавати. Ну і уніфікація застосунків: тепер на маках на відміну від вінди з туплячими веб-сторінками дуже дешево для розробників можна буде випускати нейтів клієнти для сервісів.

кому нафіг потрібні нейтів клаєнти на компє ? фейсбук і гугль давить жаба, що з браузера незручно подсєкать за юзером, якщо цей боаузер не хром ?

Ну так(: і уявіть скільки ще таких компаній, он для айос чи андроід не так і важко зробити нормальний сайт. Але ж усі, від інтернет магазину до газети хочуть щоб ти поставив їх застосунок. Є причини значить.

MacBook Air M1 review: Faster than most PCs, no fan required
Apple’s M1 chip redefines what an ultraportable can be.
www.engadget.com/...​-m1-review-140031323.html

вообще прикольно — сидели дядьки в интелах, амдах и пр, пилили десятками лет чипы, и не знали, что можно так — вжух, и быстрее всех, причем с первой попытки
чтото слабо верится

Просто разные весовые категории.

Ну дядьки выдалвали по +3% производительности в год на протяжении последних 10 лет, вот и навыдавались

т.е. саботажничали реальный прорыв? ууу, редиски

Если оставить x86 в стороне, нечего сравнивать яблоки с грушами, то вот что реально непонятно — это что с nVidia — вот кто реальный игрец на ARM поле.

Если взять их предпоследний релиз (последний ещё не в продакшене)
en.wikichip.org/wiki/nvidia/tegra/xavier

То видно, что контроллер памяти в два раза шире, производительность памяти тоже в два раза быстрее, чем у M1. Процессоры построены по NUMA принципу, они мало мешают друг другу.

Xavier — $2 billion R&D and 8,000 engineering years.

Так ему ж 3 года уже? и тока 9млрд транзисторов

оно спроектировано для автомотива (конкретно для автономус драйв) и стоит безумных денег

Не только для аутомотива, вообще high end embedded весь. И стоит безумных денег потому что оно для safety сертифицировано. И если nVidia не переходит на меньший техпроцесс, значит всё там очень плохо с надёжностью.

Они два лярда вложили в то, чтобы выжать из него всё. А эппл играючись выжала в три-четыре раза больше? У nVidia виртуализация вообще на высоте — там оверхед менее 3-5% для VM.

А эппл играючись выжала в три-четыре раза больше?

лично я в сказки не верю

И если nVidia не переходит на меньший техпроцесс, значит всё там очень плохо с надёжностью.

Если интел не переходит на меньший техпроцесс, значит всё там очень плохо с надёжностью. Да?)

Они два лярда вложили в то, чтобы выжать из него всё. А эппл играючись выжала в три-четыре раза больше?

Они арм soc-и не первый год не выпускают)

Пока эти сообщения звучат как «ниверю, нехочу в это верить это не правда, бенчмарки подделаны, этого не может быть, это все фейк. напишу очередную теорию почему это не реально.»

Если интел не переходит на меньший техпроцесс, значит всё там очень плохо с надёжностью. Да?)

Мы сейчас говорим об high-end эмбеддед нише, Intel тут спорадически представлен, а nVidia и QC фактически забрали себе весь рынок.

Они арм soc-и не первый год не выпускают)

А nVidia и QC за это деньги получают.

Пока эти сообщения звучат как "ниверю, нехочу в это верить это не правда

Тогда почему эпл не отожмёт весь рынок у nVidia и QC? Вот то-то и оно...

Тогда почему эпл не отожмёт весь рынок у nVidia и QC? Вот то-о и оно...

Например, потому что у Эпла нет интереса до рынков с маржой меньше 300%.

Собівартість їхнього чудового проца може бути неконкурентною. Одна справа ставити його в свій ноутбук за який лупити втридорога, а інша вийти на ринок з лише процесором.
Я так розумію, що в смартфонах був сенс робити своє, бо там така ситуація, квалкомів на всіх не вистачає, самсунг же теж не дарма свій ексінос зробив. Не перевод макбука на арм був метою.

Тот случай когда не важно технология Х или У, важно качества конечного продукта, а производителю маржинальность, и абсолютно не важно, что они не заработают именно на процессоре, важно что заработают на продукте в целом.

самсунг же теж не дарма свій ексінос зробив

Який останні роки люто зливає снапдрагону. Ось в S10 Lite самси поставили снепдрегон 800 з чимось, і тому я смарт взяв.

Вони ж наче для різних ринків на різних процах один і той же телефон продають. І Exynos навіть на пару процентів виграє — www.androidauthority.com/...​55-vs-exynos-9820-967562

Собівартість їхнього чудового проца може бути неконкурентною. Одна справа ставити його в свій ноутбук за який лупити втридорога, а інша вийти на ринок з лише процесором.

Ну да, ведь в бизнесе обычно так и происходит, когда ты убираешь из цепочки поставок компонентов слабое звено, то тебе это так не выгодно становится. Тим Кук не только гей, но и еще оказывается корпоративный мазохист.

Не перевод макбука на арм був метою.

Просвіти мету будь-ласка тоді

Например, потому что у Эпла нет интереса до рынков с маржой меньше 300%.

Доля мирового рынка айфонов и эппловских процессоров — 13.5%, доля QC процессоров на рынке смартфонов — 51-52%.

Доля мирового рынка лептопов у эппла — около 7%, четвёртое место.

Доля мирового рынка айфонов и эппловских процессоров — 13.5%, доля QC процессоров на рынке смартфонов — 51-52%.

Доля мирового рынка лептопов у эппла — около 7%, четвёртое место.

Майк, ключевое слово ’маржа’ : www.forbes.com/...​lucky-13/?sh=496fcdb72ff3

А nVidia и QC за это деньги получают.

Блин ну это круто, Apple то последний сухарь доедает. Говорят на следующий апдейт макоси будут на патреоне собирать деньги.

Круто, но кака разница, если в потребительский сектор PC она пока попасть не может?

Не было смысла. Сейчас ARM только в хромбуках и в эппле, если появится винда под ARM, то выйдут легко.

Вона давно є, Windows RT, Windows S, нафіг не потрібна, бо не це вже не справжній Wintel

Это не то. Если нет цыфры 10, то и винда — не винда, а такое себе...

І така є. Microsoft Surface Pro X з Windows 10 на ARM рік тому вийшов. Настільки нікому не потрібний, що багато хто і не чув.

Пора пилити нову Вінду. Хтось підскажіть їм!

Готово! Что-нибудь, ещё, сэр?
docs.microsoft.com/en-us/windows/arm

Ага, только работает оно настолько коряво, что смысла в этом аж 0.

если появится винда под ARM

Микрософт билдит вин10 под x86, amd64, arm64 начиная с TH1, как здесь заметили Surface Pro X сейчас на arm64

Так стаття ніфіга не про реальні заміри продуктивності.

У дядек уже куча бюрократии и прочей херни, дядькам надо поддерживать 100500 спецификаций и обратной совместимости, дядькам таки все еще не завезли 7nm, или они в них пока что не могут. Может если им бы дали время и разрешили бы похерить 50250 спецификаций из этих 100500, то может они сделали бы и лучше.

То есть кучу бенчей, тестов в реальных аппах и даже крутые показатели в играх тебя все равно не убедили?)

да мне фиолетово, в общем. просто такие «вжухи» подозрительны. в эппловую магию я не верю. гдето должен быть под?%;б

Кмк тут не магия, а годы тихого вджобывания. Поезд арм уже давно чухал, m1 — просто большой и важный рывок в потребительском сегменте.

причем с первой попытки

А то, что они делали процессоры для телефонов и планшетов не считается?

en.wikipedia.org/...​Apple-designed_processors

Параллельно еще macOS становится все более похожей на iOS и наоборот наверное.

Что интересно, Microsoft пытались провернуть этот фокус ещё лет 10 назад, «но что-то пошло не так»

Не соглашусь. Я держал в руках Tablet PC, это совсем не такой же форм-фактор, как в iPad и планшетах на Андроиде.

Tablet PC были хоть и переносными, но толстыми и увесистыми кирпичами. Поэтому, неудивительно, что они не взлетели как массовые устройства. Хотя и лично знаю людей, которые ими пользовались.

Логично. Микроэлектроника не стояла на месте.
Второе появились емкостные экраны, что позволило тыкать в него пальчиком.

Но то, что мелкомягкие протормозили — это личная их проблема. Джобс не протормозил.

Они не то, чтобы протормозили. Скорее, стали жертвой собственной нацеленности исключительно на enterprise рынок.

У MS был концепт довольно инновационного по тем временам планшета en.wikipedia.org/wiki/Microsoft_Courier, который руководство мелкомягких похоронило тупо потому, что концепт предполагал взаимодействие через тыкание пальчиком и стилус — а это не вписывалось в столь любимые топами MS enterprise сценарии использования а-ля «ответить на электронную почту»

Вже нижче відповіли, що Епл багато років робить ці процесори.
І от швидкість: twitter.com/...​74802413548474368?lang=en
Вже рік-два тому айфони були швидші ніж комп’ютери на процесорах Інтел в деяких задачах.

І от швидкість:

«javascript test» (facepalm)
это вообще ниочем

А які тести вам потрібні? Напряму порівнювати телефони з їх розмірами, батареєю і охолодженням з комп’ютерами важко. А от комп’ютери на АРМ як бачимо кладуть на лопатки усі існуючі маки на інтелах.

так они тестируют одну яваскрип ВМ с другой. на разном железе. еще раз — это вообще ниочем. хрен с пальцем

ну да, всего какой-то райтайм JS, где они по сути то юзается сейчас. Вообще не показатель.

Ждем какой-то один тестик где x86 будет рвать всех) Пока же удачного отрицание реальности господа))

откуда информация про первую попытку? эпл давно делает свои мобильные чипы, а тут взяли свой чип скорее всего A14 (по крайней мере очень похоже, многие источники об этом тоже говорят) и доработали до ноутбучного варианта
дальше не забываем про разницу в декодере команд, возможности подключения внешней памяти и т.д. и никакой фантастики
хотя в целом интеграции кучи чипов в один это правильно в данном случае и даёт свои плюсы
аппаратная поддержка многих решений экономит батарейку

Как показывают тесты
wccftech.com/...​ch-r23-benchmark-results
Интел 14нм и амуде 7нм уделывают эйпл м1 5нм. то есть чип эйпла уже находится на технологическом пределе и отстаёт при этом. Можно представить что будет, когда два основных игрока перейдут на более тонкие тех процессы.

Нет, там или универсальный бинарник или трансляция во время инсталляции.

Unlike Geekbench, which runs multiple algorithms and then takes a geomean (which can skew results if algorithm-specific optimizations are present on an architecture), Cinebench measures the brute force power of a processor

Это конечно мило, но именно благодаря аппаратным акселераторам iPhone конвертирует видео быстрее x86 десктопов.

Intel’овский медиа-процессор один из самых быстрых на рынке, вопрос в том, почему все пользуются софтом без акселерации.

Intel’овский медиа-процессор один из самых быстрых на рынке, вопрос в том, почему все пользуются софтом без акселерации.

— Это потому что... (checking notes...), ага, потому что под Интел дрова нечестные, они замедляют, а не ускоряют.

Да, это всем известный факт, что интел производит аппаратные 3D замедлители.

Я хз что они производят, но подозрительно много отмазок проигрыша интела в бенчмарках было выложено в этой теме. Я уже даже хз что думать. То бенчмарки неправильные, то результаты подменили, то не с теми дровами тестили, то неправильная фаза луны.