ARM, как убийца x86

Вполне ясно, что архитектура x86 которая была создана в 80-х и берет свое начало с 70-х годов уже крайне морально устарела. При это поддержка нескольких тысяч вариаций команд требует огромное количество транзисторов на ядро, что для сегодняшних процессоров составляет около 200 млн транзисторов на ядро. Ситуацию с отсталой архитектурой x86 спасает только огромный кеш по 4-8-16 Мб, но и он уже не панацея.

Между тем большим вызовом для x86 архитектуры является risc-архитектура ARM или новый проект NVIDIA Kal-El. Где 4-ядерный процессор с потреблением около 2W на 1.5 ГГц или 0.5W на 480МГц по производительности соответствует 25% производительности i7-2600. Но необходимо учесть, что в эти 2W входят и графический чип и 4G и WiFi и куча других контроллеров. К сожалению я не нашел данных о количестве транзисторов на чипе, единственно что поставляться он будет в виде микросхемы 14×14мм.

Что является совсем удивительным — это 32 fps на этом чипе в lost planet 2, для сравнения топовый APU со встроенной графикой от компании AMD на Full HD разрешении показывает около 60 fps, но при этом потребляет 100W или в 50 раз больше.

Кроме того с выходом технологии WARM (Windows8 + ARM) возможность портирования текущих приложений довольно грандиозна, так как вся роль портирования при отсутствии ассемлерных вставок (которых довольно мало в современных приложениях, где мало — это менее 1%) будет состоять в обычной перекомпиляции кода. Причина этого в 100% совместимости API между Wintel и Warm архитектурами. Java и .NET приложения, которых довольно много, будут работать без какой-либо адаптации. Нативный ARM-компилятор для VS уже доступен. Для того же Delphi — есть в roadmap.

Мое мнение таково, что архитектура ARM в конце концов задавит архитектуру x86, так как она более чем 10 раз производительнее при тех же затратах.

Підписуйтеся на Telegram-канал «DOU #tech», щоб не пропустити нові технічні статті

👍ПодобаєтьсяСподобалось0
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

так.
Минпромторг РФ заказал разработку семейства отечественных процессоров Baikal, которые должны будут стать альтернативой микрочипам AMD и Intel в компьютерах для государственных структур. Об этом сообщает газета «Коммерсант», ссылаясь на документы российского ведомства.
В России появятся многоядерные процессоры Baikal собственной разработки

я тут подумав: х86 архітектура помре після і51 і мови С
як тут не понятно:
х86 — процесор
АРМ — контролер

коли АРМ стане процесором тоді продовжим холівар, а так — бовтання води в ступі, порівняння теплого з круглим

Сегодня у Intel достаточно проблем в плане его процессоров:

1. Рынок PC тает в пользу рынка мобильных устройств (а PC — это основной рынок процессоров Intel).
2. На рынок мобильных устройств войти у Intel не выходит, там сидит ARM и очень прочно сидит.
3. Теперь Intel’у уже нельзя удвоить частоту перейдя на суперновую технологию и оставив конкурента в прошлой эре (именно так ранее x86 били конкурентов).
4. Теперь скорость проекта выполненного на базе стандартных ячеек (см. ARM) не так уж и сильно отличается от проекта нарисованного ручками (см. Intel). Зато стоимость и скорость разработки различается на порядки.
5. Решения Intel нельзя интегрировать на чип со своим решением. А сегодня дешевле сделать все в своем кристалле нежели рассыпать элементы по плате.
6. Архитектура x386, с которой должны быть обратно совместимыми все процессоры Intel и программы тянет их производительность назад. Так, например, fanout’ы в декодере нескольких тысяч инструкций дикие и неразводимые или нужно добавлять этапы в конвейер, или дублировать регистры .... — в любом случае ни к чему хорошему это не приведет.
7. Архитектура сегодняшних кортексов — это не архитектура RISC процессоров десятилетней давности. Та и по стоимости добавить менеджер памяти, удлиннить конвеер, добавить предсказание ветвлений, стек возврата или доп. процессор и т. д. — это все-таки не фабрику новую построить. Это может каждый. Поэтому кортексы сегодня не так уж и плохи.
8. Интел может положить больше внутрь своего кристалла нежели пользователи ARM, но пока инженеры сами не знают что туда класть и поэтому тупо увеличивают кэш (который кстати внутри так же содержит RAM). Поэтому начинка кристаллов с АРМ не сильно отличается от начинки Intel, влияющей на быстродействие, разве что объемами кэша, как было сказано выше.
9. Как уже много раз отмечалось, потребляемая мощность у Intel процессоров несколько высока в сравнении с ARM.
10. И последнее по списку, но не по важности. Microsoft анонсировала поддержку ARM

в своей будущей OS — с учетом всего выше сказанного, это удар ниже пояса по Intel.

Рынок PC тает в пользу рынка мобильных устройств
Ложь.
Рынок PC НЕ расширяется. это правда.
Рынок мобильных устройств активно расширяется — да.
А мобильные устройства НЕ покупаются вместо PC, чтобы говорить о «в их пользу».
Значит — рынок PС просто приблизился к насыщению.
В отличие от рынка мобильных устройств.
Рынок PС и без их существования вообще — приблизился бы.
На рынок мобильных устройств войти у Intel не выходит
Пока не выходит.

С остальными пунктами технических деталей когда согласен, когда считаю спорными.

Но рынок то они — НЕ интересует. Ни лучшая, худшая платформа, ни кака там длина конвеера команд, ни архитектура кортексов и декодеров команд.

Для мобильного устройства важнее всего — время работы на автономном источнике питания. Не быстродействия. Оно может быть — никакусеньким как у первых мобилок.

Просто часть задач ПК уже сегодня можно решить на мобильных устройствах, ну и эта часть постепенно расширяется, поэтому рынок ПК так и тает. Я уже молчу о соотношении рынков ПК и мобайл в плане объема денег, тенденции которого явно не в сторону ПК.

Просто часть задач ПК уже сегодня можно решить на мобильных устройствах, ну и эта часть постепенно расширяется, поэтому рынок ПК так и тает.

Нужно вначале установить факт таяния. Тает, как понимаю — уменьшается? То есть сейчас стали покупать меньше ПК чем X времени тому?

Вы же, получается под непроверенный, а по мне — ложный тезис, начинаете подгонять объяснение, нечто вроде: «Если вампиры боятся креста, то ведь значит Господь существует!»

Широкие народные массы разговоры из замедления роста рынка ПК, и бурного роста рынка сматрфонов плюс планшетов делают ложный вывод о таянии рынка ПК.

Конечно когда-нибудь ПК уйдет в прошлое. Но очень может быть что вместе с смартфонами и планшетами одновременно :)

А планшет воткнутый в докстанцию, к которой подключены: монитор, клавиатура и мышка — как по мне все тот же «ПК».

Уменьшается. Проноз на 2012: снижение от 3% до 6%.

Ссылку бы :)

Дело в том что массово, даже в статьях, не говоря о чтении пропускают что же именно снижается.
А вообще-то (art-science.com.ua/...spektivy.html)

Согласно мнения аналитиков Garther, рост рынка компьютеров для дома и офиса в мировом масштабе снизится в текущем году. Он будет составлять 3,8%, хотя годом ранее данный показатель был на уровне 9,3%.

Понимаете?
Вот разъяснение (МАЙКЛ ДЕЛЛ: «ПК ВСЕ ЕЩЕ ВАЖНЫ ДЛЯ БИЗНЕСА». www.ulyssys.com/...l/news_id.244)

«В мире полтора миллиарда ПК, и в то время как аналитики Gartner меняют свои прогнозы насчет того или другого, они все же полагают , что к 2014 г. их будет 2 млрд., — заявил Делл в интервью газете Financial Times. — Исходя из этих прогнозов, я считаю, что разговоры о том, будто ПК пришел конец — абсолютный нонсенс. Есть ПК, планшеты, смартфоны... Но новые устройства не заменяют собой ПК полностью, поэтому мы продолжаем уделять внимание нашему компьютерному бизнесу, который является важной частью нашей огромной компании, производящей комплексные ИТ-решения».

По поводу могучести ARM

Бесспорно ARM становятся все мощнее и мощнее.

Китайцы собирают суперкомьютер на 16тиядерных MIPSах и Nvidia Tesla.

Могу предположить, что на больших задачах при распараллеливании мы получаем простую работу каждого потока, и тогда все навороты по оптимизации от Intel становятся лишними.

Коментар порушує правила спільноти і видалений модераторами.

О, на DOU появились интересные темы.

По факту ARM уже давно впереди x86 на рынке CPU, так как почти во всех мобильных устройтвах (та и в переферии к ПК) стоят именно ARMы. Сегодня, число ядер ARM в современной электронике в значительной степени превышает число ядер x86. К вышеперечисленным преимуществам могу добвасить, что любой, у кого есть несколько сотен тысяч баксов может интегрировать ядро ARM в свой чип. Про x86 такого не слышал — там по-моему вообще жесткие ядра, привязанные к конкретной технологии и топологии.

Intel уже давно бьется в истерике, пытаясь выпустить свою альтернативу ARMу. Но че-то не получается (см. Atom).

Другое дело, что не во всех сегментах ARM впереди. Но и здесь у ARMа сегодня грандиозные замашки (см. Neon, Jazelle и т. д.). Так что все может быть. Последние годы об этом много разговоров, смотрю и до DOU эти разговоры добрались.

Об успехах в серверном секторе думаю мы узнаем очень быстро:

Google использует процессоры х86 и не делает преференций для какого-либо производителя микросхем, устанавливая на платах чипы как от Intel, так и от AMD.
...
Согласно New York Times, всего у Google 25 серверных ферм во всем мире, общее число серверов в которых составляет 500 тысяч. Это один из крупнейших распределенных кластеров в мире. Только электроэнергии вся эта инфраструктура потребляет на 200 миллионов долларов в год. — очень бы им понравились более экономичные CPU

...

Ну а насчет мобильных устройств:
«Новая эра. Обзор прототипа телефона на Intel Medfield. x86 в кармане»

www.ferra.ru/...-telefon-Intel

Может статья заказная, не выяснял.

Далее просто копипаст из нее (явных преимуществ ARM не вижу, даже в эноргопотреблении. если опять — тест не проплачен):

SunSpider JavaScript Benchmark.
Телефон Результаты (в мс, меньше — лучше)
Intel Medfield Prototype 1347
Samsung Galaxy Nexus 1988
Motorola Droid RAZR 2056
Apple iPhone 4S 2250

Galaxy Nexus S2 3727

Быстродействие GPU

Никаких особых сюрпризов — 35 кадров в секунду в GL Benchmark Egipt Standard. «Скорострельность» чуть больше, чем у TI OMAP 4460,

результаты тестирования от портала Anandtech в зависимости от задач для прототипа телефона Intel Medfield.

Бездействие (3G) Разговор (3G) Интернет-серфинг (3G) Воспроизведение видео 720p
Референсный Intel Medfield ~18мВт ~700мВт ~1.0Вт ~850мВт
Apple iPhone 4S ~38мВт ~800мВт ~1.3Вт ~500мВт

Samsung Galaxy S II ~19мВт ~675мВт ~1.2Вт ~650мВт

Google использует процессоры х86 и не делает преференций для какого-либо производителя микросхем, устанавливая на платах чипы как от Intel, так и от AMD.

Есть достоверный источник информации?

Есть только за 2007-2009 года, на youtube есть ролики от google про кастомные блоки питания от google и про содержимое google platform. Что стоит сейчас — неизвестно.

Мне кажется пихать армы в большие сторадж системы сейчас вполне может иметь смысл.

Какой именно?

Не в курсе, но вроде применяют: google for arm storage server

С какой целью?

Снижение энергопотребления, тепловыделения и возможно цены.

Есть несколько проблем.

Проблема первая — это производительность хост интерфейса PCI-X и/или PCI-Express шин, для того, чтобы присоединить к шине SATA и/или SCSI контроллер. Грубо говоря 5-10 дисков могут полностью положить систему, т.к. контроллер памяти будет только и делать, что обрабатывать запросы Bus master DMA.

Проблема вторая — контроллер памяти, он отстаёт лет 10 от x86 платформы даже у самых новейших ARM SoC’ов. Т.к. для применения во встраиваемых системах это было раньше достаточно.

Проблема третья — вытекает из первой и второй — подключить два гигабит эзернета и система ляжет опять.

Т.е. чтобы запихнуть ARM внутрь сервера, необходимо переделать всё окружение процессора. Допустим, это было сделано, тогда в чём принципиальное отличие от x86? Даже если материнка плюс проц потребляют вместо 200Вт всего лишь 10Вт, то стойка с дисками свёдет всю экономию на нет.

Проблема третья — вытекает из первой и второй — подключить два гигабит эзернета и система ляжет опять.

По моим наблюдениям приложения актвно сношающие диск получают трафик на максимальном уровне 35мб/с на диск, т.е. до 2 гигабит далековато, даже если пихать в сервер по 6 дисков(в ютуб видео на которое выше ссылались вроде пихают по 2 или 4 диска).

Даже если материнка плюс проц потребляют вместо 200Вт всего лишь 10Вт, то стойка с дисками свёдет всю экономию на нет.

Я думал что хдд потребляют в районе 10 ват на диск, я не прав?

По остальным пунктам не скажу, ибо не разбираюсь.

По моим наблюдениям приложения актвно сношающие диск получают трафик на максимальном уровне 35мб/с на диск

Дело не в скорости чтения, а в скорости сбрасывания данных из кеша винта в память компа. Допустим это stripe raid на SCSI Ultra 320, который в пике даст до 320Mb/s. SCSI контроллеру необходимо успеть перебросить залежавшиеся данные максимально быстро, иначе начнутся задержки с обработкой новых данных.

Возьмём SCSI Ultra 320, и возьмём самый злой ARM Marvell Armada XP, у которого самый развитый контроллер памяти, способный складывать в память с пиковой скоростью 1.6Gb/s. Т.е. один SCSI контроллер займёт в пике 1/5 пропускной способности контроллера памяти. Два гигабит эзернета откушают ещё по 100Mb/s каждый. Необходимо также учитывать, что произвольный доступ к памяти стоит дорого, в отличии от последовательного, контроллер памяти никогда не будет работать со своей пиковой скоростью, реальная скорость будет чуть ли не в два раза ниже. Работающий процессор будет забирать полученные данные из памяти, что заставить контроллер памяти выполнять двойную работу, вначале записать, потом считать обратно. Вот и уперлись уже в потолок производительности. Надо сказать, что Armada XP как раз и предназначается для различных home NAS и мелких веб серверов.

Я думал что хдд потребляют в районе 10 ват на диск, я не прав?

SCSI 10000rpm около 15Вт, когда просто вращает блинами. Каждому винту полагается охлаждение, что даст в купе около 20Вт. При позиционировании и чтении рандомных данных будет около 30Вт.

Там где будут экономить на процах, охлаждении и электроэнергии скази очевидно стоять не будут, а будет обычный сата

Сейчас вместо SATA и SCSI появился SAS. В SAS можно втыкать как родные SAS (приемник SCSI), так и SATA диски, они пин-совместимые. Поэтому такого большого различия как раньше уже не будет.

Ну так сата диски от этого быстрее не станут?

Это называется:

Объяснение чем производительный компьютер отличается от сервера.

Сисадмины частенько вынуждены это объяснять менеджерам, а также и почему у Xeon’ов частота ниже чем у десктопных процессоров.

А для экономии электроэнергии есть:
Intel Xeon E3-1220L v2 — 17 Вт.
2.3 GHz (Turbo Boost- 3.5 GHz)
ark.intel.com/...Cache-2_30-GHz

Но и правда интересно, если набрать ARMов на 17 Вт, то может будет экономия хотя бы в цене покупки?

Собрать правда придется их в:
Micro Server:
Power per rack: 5.0kW total. 3×1U switches at 240W per switch = 720W, 119 nodes at 36W estimated per node = 4284W

www.intel.com/...-resources.html

А для экономии электроэнергии есть:
Intel Xeon E3-1220L v2 — 17 Вт.

2.3 GHz (Turbo Boost- 3.5 GHz)

Ага:

Рекомендуемая цена для покупателей TRAY: $189

Рекомендуемая цена для покупателей TRAY: $189

«Товар стоит столько, сколько за него платят» (закон рынка)

А еще у каждого товара своя ниша.

сервер да, в карман не положишь.

Да и дома он нафик не нужен.

Предполагается же, что у того кому он нужен — есть деньги.

У ARMа же ниша — «мобилочки». (опускаю тьму сетевого оборудования на них, мелкой и не очень периферии, пром оборудование, ..., ..., потому что там где — НЕ нужна производительность Intelу ничего не светит)

На устройствах чуть посерьезней, планшеты, смартфоны — продвижение ARMов и закончится. И то, может оттуда их Intel вытеснит.

Так мне думается.

Предполагается же, что у того кому он нужен — есть деньги.

Это если серверов 5 штук. У гугла масштабы поболее, и одна из причин по которой они поднялись -использование commodity hardware вместо дорогих серверов.

У гугла масштабы поболее

Да. У Гугла — уникальные потребности. Поэтому как понимаю они и пошли путем самоделкиных.

Но — производительность им нужна. Они работают не с физическим миром.

ARM или MIPS не сковырнуть с ниш где физ мир сильно ограничивает. Например станок с ЧПУ — нельзя увеличить скорость вытачивания болванки. Значит можно ставить простой и медленный чип управления. В таких секторах у Intelа — никаких шансов. Только если цену китайского производителя, выпускающего 90nm чипы, перебить.

Это если серверов 5 штук.

А с потребностями гугла — не так уж много компаний.

Компаний нынче много, бигдата, облака и все такое. А по поводу мощностей, то я поэтому и говорил исключительно про storage, есть куча задач где все упирается в скорость доступа к диску, которая растет далеко не так быстро как скорость сетей и проца, а проц при этом простаивает.

Компаний нынче много, бигдата, облака и все такое.

бигдата, облака — им нужна производительность. Они не ограничены физическим миром.

Кому нужно тормозное облако? В его услугах как раз и нуждаются, когда есть потребность больших выч ресурсов, покупка и содержание которых не окупится.

биг же дата у биг же компаний.

А по поводу мощностей, то я поэтому и говорил исключительно про storage ... а проц при этом простаивает.

Сомневаюсь что биг сторедж сможет управляться одним (любым) процом, который еще и простаивать будет. Но, пара ватт в idle режиме у Intelовских процов. Итого, какая экономия получается, на проце, на фоне сотен хардов?

Это в домашних компьютерах не смасштабируешь, есть 2 харда и 1 проц который их ждет. Не отрежешь от него четвертинку.

бигдата, облака — им нужна производительность. Они не ограничены физическим миром.
Кому нужно тормозное облако? В его услугах как раз и нуждаются, когда есть потребность больших выч ресурсов, покупка и содержание которых не окупится.

биг же дата у биг же компаний.

Я же написал, есть куча задач которые не CPU bound. Например хранить а потом изредка парсить сотни терабайт логов.

Сомневаюсь что биг сторедж сможет управляться одним (любым) процом, который еще и простаивать будет.

A big storage и не должен управлятся одним процом, с чего ты взял?

Но, пара ватт в idle режиме у Intelовских процов.

А там режим не совсем idle, проц все время что-то считает просто не интенсивно.

Это в домашних компьютерах не смасштабируешь, есть 2 харда и 1 проц который их ждет. Не отрежешь от него четвертинку.

ничиго нипонял

не CPU bound. --- парсить сотни терабайт логов.

??
То есть нужна пиковая вычислительная мощность. Не год же их парсить.

Ну так выдернули с розетки вычислительный кластер.

A big storage и не должен управлятся одним процом, с чего ты взял?

Тогда зачем ARMы для управления им вместо Xeonов?

ничиго нипонял

Твой тезис был что процы простаивают.
Я подводил тебя к дилемме:

Что лучше в этой ситуации — малое число мощных процов, или большое число слабых процов.

Дилеммы же этой не существует для домашнего компьютера.

То есть в серверном решении мы можем играть количеством процессоров, а не только выбором по производительности, энергопотреблении и отношению этих параметров у одного процессора.

То есть нужна пиковая вычислительная мощность. Не год же их парсить.

Как я уже выше писал МНОГО раз в таких задачах все упирается частенько не в проц а в скорость к диску, поэтому какой у тебя проц на время парсинга никак не влияет.

Я подводил тебя к дилемме:

Что лучше в этой ситуации — малое число мощных процов, или большое число слабых процов.

Думаеццо мне число может быть одинаково

Как я уже выше писал МНОГО раз в таких задачах все упирается частенько не в проц а в скорость к диску

Значит имеет смысл наращивать эту скорость. Что и делается всяко-разными райдами. Или вообще, что у гугла собственно и есть — в ОЗУ эти большие данные стараются держать.

Потому что в большинстве задачах все упирается в скорость обращения к внешним ресурсам. Даже ОЗУ для процессора — медленное. И особенно хранилища информации.

А там где не упирается, почему-то требуются гигантские выч ресурсы.

Думаеццо мне число может быть одинаково

А мне вот так не думается :)

Мне сложно представить что есть огромный массив данных но которые не участвуют нигде в сложных же расчетах.

Бывают наверняка и такие случаи. Чего в жизни только не бывает. Но как норму, средний случай — не представляю.

P.S.
Да, а в NAS нередко используются ARMы. Для домашних пользователей, преимущественно.

И Atomы, и круче, для более серьезных потребностей.

Значит имеет смысл наращивать эту скорость. Что и делается всяко-разными райдами.

рейды в облаках не модны, так как если нагнется сервер то все данные потеряются, модно фигачить просто голые диски, и раскидывать реплики между разными серваками, рэками и датацентрами. Но это к топику не относится.

Или вообще, что у гугла собственно и есть — в ОЗУ эти большие данные стараются держать.

Память само собой, но ведь все на ней не уместится?

Бывают наверняка и такие случаи. Чего в жизни только не бывает. Но как норму, средний случай — не представляю.

Ну я привел пример — парсинг логов, пример очень распространенный к слову.

Ну и если почитать например гугловский bigtable paper, по которому написали хадуп и hbase, то можно увидеть что у них storage и вычислительные мощности разнесены по разным сервакам с разными ролями.

рейды в облаках не модны, так как если нагнется сервер то все данные потеряются

Гы. Что-то вы не то о рейдах говорите. ru.wikipedia.org/wiki/RAID

Память само собой, но ведь все на ней не уместится?

Гугль старается уместить — побольше.

Ну я привел пример — парсинг логов, пример очень распространенный к слову.

А я вас спросил — разрешается парсить до бесконечности? Получение результата физическим временем не ограничено?

И взял крайний случай, представим что данные нам нужны очень редко и скорость получения может быть низкой. Настолько, что хватит любого и 1го процессора для удовлетворения наших требований. Но они большие.

И что мы сэкономим заменив в шкафу с десятками, сотнями хардов, Intel Atom на АRM из моей Nokia S40?

у них storage и вычислительные мощности разнесены по разным сервакам с разными ролями.

Не только у них. Это давно разносимые вещи. Архивные и оперативные данные хранятся обычно в физически разных устройствах.

Гы. Что-то вы не то о рейдах говорите. ru.wikipedia.org/wiki/RAID

Спасибо кэп, и что я должен там прочитать?

Гугль старается уместить — побольше.

И че, помещается? Инфа 100%?

И что мы сэкономим заменив в шкафу с десятками, сотнями хардов, Intel Atom на АRM из моей Nokia S40?

Ну вот когда появится шкаф с сотнями хардов и одним атомом, тогда и поговорим.

Не только у них. Это давно разносимые вещи. Архивные и оперативные данные хранятся обычно в физически разных устройствах.

А бигтейбл это все не оперативные данные?

Спасибо кэп, и что я должен там прочитать?

Я понял, вы о дублировании данных в разных дата-центрах говорили.

Да, тогда рейд не нужен.

И че, помещается? Инфа 100%?

Не помещаются конечно. Но чтобы справляться с пиковой нагрузкой при обработке алгоритмами MapReduce — медленные хранилища плохо подходят.

Влом гуглить, тем более интернет — не 100% надежный источник.

Ну вот когда появится шкаф с сотнями хардов и одним атомом, тогда и поговорим.

Так это к вам вопрос, а не ко мне. Вы утверждаете что бывают такие задачи. С такими требованиями к железу — огромные данные, но меееедленный к ним доступ. Я тоже думаю что — бывают. Какая-нить федеральная(в США) медицинская база данных с данными хранимыми десятилетиями.

А теперь вы меня спрашиваете справится ли единственный Intel Atom с поиском по ней?

Так если он не справится — какой тогда ARM его заменит?

Я понял, вы о дублировании данных в разных дата-центрах говорили.

Да, тогда рейд не нужен.

Та не только, в облачных хранилищах рейды вообще не используют, репликация, избыточность и все такое делаются на уровне распределенной файловой системы, читать про hdfs, gfs и все такое.

Не помещаются конечно. Но чтобы справляться с пиковой нагрузкой при обработке алгоритмами MapReduce — медленные хранилища плохо подходят.

Под map reduce именно медленные хранилища и подходят, т.к. нужно прочесать кучу данных с диска и все упирается именно в диск.

А теперь вы меня спрашиваете справится ли единственный Intel Atom с поиском по ней?

Где я такое спрашиваю?

Где я такое спрашиваю?

Мне кажется пихать армы в большие сторадж системы сейчас вполне может иметь смысл.

Какой именно смысл?

С какой — целью?

И это тоже самое что

медицинская база данных с данными хранимыми десятилетиями

А теперь вы меня спрашиваете справится ли единственный Intel Atom с поиском по ней?
?

Ну ну

Мне третий раз переспросить?

Копипаст:

Мне кажется пихать армы в большие сторадж системы сейчас вполне может иметь смысл.

Какой именно смысл?

С какой — целью?

И ты считаешь что это тоже самое что обрабатывать огромные данные ОДНИМ процом?

Вижу шиза косит наши ряды.

Я просто довел гипотетический пример немасштабируемости до крайнего случая. Всего то. Это обычный способ для выяснения ограничений рассматриваемого явления, или для выявления изъянов в чьихто рассуждениях.

Но какой бы бред я не писал, где ответ на
Какой именно смысл?

С какой — целью?

Электроэнергию и охлаждение для больших сторадж системах уже рассматривали. ARMы ничего не дадут заметного.

Еще?

Я просто довел гипотетический пример немасштабируемости до крайнего случая.

В случае твоего гипотетического примера арм наверное действительно не стоит применять, но наверное ж могут быть другие примеры когда может быть стоит?

Электроэнергию и охлаждение для больших сторадж системах уже рассматривали. ARMы ничего не дадут заметного.

Не увидел аргументов что бы так считать.

но наверное ж могут быть другие примеры когда может быть стоит?

я о них и спрашиваю.

Парсинг логов рассмотрели, ARM не дает там выгоды.

Еще?

Не увидел аргументов что бы так считать.

Доказать что увидел, но ради принципа стоишь на своем не могу :)

Парсинг логов рассмотрели, ARM не дает там выгоды.

Лично тебе наверное не делает.

Доказать что увидел, но ради принципа стоишь на своем не могу :)

Чистой воды вброс.

ну не просить же перечитать мои рассуждения, даже если я их скопирую сюда.

Зато сам почитал и только узнал подробности о и о Medfield о ксеонах о 17 ваттах.

Оказывается я сам был во власти стереотипа что процессоры Intel многопотребляющие без шансов на существенное снижение.

А на самом то деле процесс сейчас встречный:

ARM наращивает сложность своих процессоров вместе с энергопотреблением, Intel нарезает простые процессоры снижая энергопотребление.

Интересная будет встреча, уж точно.

ну не просить же перечитать мои рассуждения, даже если я их скопирую сюда.

Не просить, наверное потому что как и в случае с мед базой на одном проце, ксеоном для удешевления всего за 180$ и рейдами в облаках рассуждения являются досужими и не имеют отношеиня к реальности.

ксеоном для удешевления всего за 180$

Ну тогда назовите порядок цены остального железа в большой сторадж системе. Ну хотя бы стоимость жестких дисков — какая минимальная, по вашему для «большой сторадж системе»?

и большая — это сколько в терабайтах?

По электроэнергии — считаем 10 ватт на диск. чтобы сравнить с 17ю.

Для storage server проц материнка корпус память могут поместится в 100$, обслуживать они смогут 2-4 диска по 2тб каждый и стоимостью 200-400$. Это так, прикидки, может можно и дешевле. Таких сераков можно собрать в кластер много и хранить там сотни терабайт.

Это так, прикидки, может можно и дешевле.

То есть описана одна блейд-секция.

Такая цена пустит по миру не столько Intel, сколько HP, Dell и неслабо стукнет по IBM.

я тут нагуглил — 2009г
Домашний Linux-кластер из 20-ти серверов, всего за 1000$
habrahabr.ru/post/52872

разместите в стойку маленький Marvell`овский сервер, стоимостью всего 50$

Мировой заговор налицо.

Для storage server проц материнка корпус память могут поместится в 100$, обслуживать они смогут 2-4 диска по 2тб каждый и стоимостью 200-400$.

У обычных (home or office usage) дисков наработка на отказ очень маленькая по сравнению с enterprise линейками. Для сравнения могу сказать, что WD green, а затем WD blue серия жёстких дисков на кэширующем прокси сервере, за которым сидели 30 юзеров жили по 9 и 14 месяцев соответственно. Для storage такое поведение врядли допустимо....

Допустимо, если речь идет о облаках где в основном используют commodity hardware а надежность и производительность обеспечивают с помощью ПО раскидывая реплики по разным серверам.

Вот старая информация про google за 2009 год.

news.cnet.com/...0209580-92.html

Картинка кликабельна. Можно увидеть, что используются бывшие IBM диски Hitachi Deskstar, но enterprise серии. Видать проще один раз переплатить, чем часто менять.

Почему? По большому счёту у SCSI очень много работы выполнял контроллер, то с приходом SAS разница между SCSI и SATA сходит на нет. Технологии производства enterprise дисков одна и та же со SCSI. Те же SCSI тоже имеют широкий диапазон надёжности, пользователю есть из чего выбирать. Я бы только согласился с утверждением что топовой SATA enterprise != топовому SCSI.

Так что, скази стали вдруг стоить столько же за гигабайт?

С приходом SAS нет разницы между SCSI и SATA. Есть разница в надёжности жёсткого диска с SAS интерфейсом.

Ну так а все таки есть scsi за 100$ за ТБ?

К тому же возвращаясь к дискуссии, эти дешевые скази будут показывать скорость 350мб/с?

Ну так а все таки есть scsi за 100$ за ТБ?

На момент отмирания SCSI не было.

К тому же возвращаясь к дискуссии, эти дешевые скази будут показывать скорость 350мб/с?

В страйп рейде нефиг делать получить такую скорость. А в конфигурации, где один диск, быстро не будет даже у дорогих 7200-10000 rpm SCSI.

Возьми 15000 — 22000 rpm SAS диски начального уровня — там пиковый transfer rate 400-600Mb/s у каждого.

Вот посмотри вот эту модель:

www.amazon.com/...HUS156060VLS600

Вот эту, тут конечно пиковый transfer rate будет около 250Mb/s, но и цена меньше

www.amazon.com/...ords=WD5000HHTZ

Я все это понимаю, я говорю о варианте облачного стораджа на комодити hardware когда на один бакс хочется выжать по максимуму места на диске. Понятно что быстрые скази это совсем другая ниша, и никакие армы там работать не будут.

Сорри, я думал ты оставил это в подветке про САТА вс Скази, думаю black caviar оптовикам все равно обходится в 2tb/$100

Так black это для юзеров, а enterprise, это WD RE4 и WD RE SAS. Те за 2Tb идут по $300.

а как ты кстати определил что у гугла на картинке винты энтерпрайз класса?

В том месте где должна быть модель красуется семёрка, модель выглядит как x7xxxx, полностью не читается, но семёрка видна чётко.

Вообще то 7-ка должан быть на первой позиции, а во вторых Deskstar — это как раз десктопные драйвы, так что твоя теория развалилась.

Ты знаешь, иногда с тобой можно беседовать, а иногда совсем нет.

Как пример, 7K1000 раньше была модель для enterprise под тайтлом Deskstar, затем Hitachi выпустила отдельную модель в линейке Ultrastar для entry сегмента.

Читай тут:

techreport.com/...rticles.x/16130

Ещё вопросы?

Ты знаешь, иногда с тобой можно беседовать, а иногда совсем нет.

Вброс опускаем.

Ещё вопросы?

Вопросы есть, на сайте хитачи Deskstar — это таки десктопная модель, а ultrastar — энтерпрайз а не энтри левел.
На всех картинках в интернете серия Е7 не маркируется как Deskstar как это сделано на твоей картинке гуглевого сервера.

На твоей картинке гуглевого сервера на винте справа вполне отчетливо видно что перед цифрой 7 стоит совсем не буква Е а скорее Т.

Вопросы есть, на сайте хитачи Deskstar — это таки десктопная модель, а ultrastar — энтерпрайз а не энтри левел.

Сейчас да, раньше нет. Раньше не было Ultrastar. Сейчас модель 7K присутствует в обоих разделах, в enterprise она entry в десктоповых она топовая. Разница между ними минимальная.

На всех картинках в интернете серия Е7 не маркируется как Deskstar как это сделано на твоей картинке гуглевого сервера.

Раньше она маркировалась только так.

На твоей картинке гуглевого сервера на винте справа вполне отчетливо видно что перед цифрой 7 стоит совсем не буква Е а скорее Т.

На гуглевской картинке модель HDE7, i.e. E7.

Раньше она маркировалась только так.

Ну вот я поюзал гугл image search и как то ничего не нашлось. И по твоей предыдущей ссылке на фотке Е7 так не маркируется.

На гуглевской картинке модель HDE7, i.e. E7.

А помоему там перед 7 не 3 буквы а вообще 4, и последняя совсем не Е. Ты внимательно посмотрел?

Даже если я где то ошибаюсь, у тебя вся теория строится на том что в модели есть буква Е, которую тоже рассмотреть трудноватенько, т.е. доказательство еще более хлипкое.

Ну вот я поюзал гугл image search и как то ничего не нашлось. И по твоей предыдущей ссылке на фотке Е7 так не маркируется.

Тут я ничем тебе помочь не могу. На фотке модель винта 2007 года.

А помоему там перед 7 не 3 буквы а вообще 4, и последняя совсем не Е. Ты внимательно посмотрел?

Сколько ты видел в своей жизни Hitachi винтов? :)

Даже если я где то ошибаюсь, у тебя вся теория строится на том что в модели есть буква Е, которую тоже рассмотреть трудноватенько, т.е. доказательство еще более хлипкое.

На обоих картинках чётко видно HDE72xxxx, похоже на модель E7K1000, только она имеет такое начало.

Сколько ты видел в своей жизни Hitachi винтов? :)

А это как то улучшит качество картинки?

На обоих картинках чётко видно HDE72xxxx, похоже на модель E7K1000, только она имеет такое начало.

Я только одну картинку вижу где что-то можно рассмотреть, ну и про четкость консенсус не достигнут.

А это как то улучшит качество картинки?

Нет, но проще распознавать образы по паттернам, зная что там может быть, и чего быть не может.

WD RE4 и WD RE SAS. Те за 2Tb идут по $300.

На амазоне за $230, оптовикам еще на баксов 50 дешевле скорее всего.

Так то уже распродажа старых моделей.

И что? Такие же распродажи на всех сайтах.

Смотря какие модели, WD RE4 не одна модель, есть

WD2002FYPS есть WD2003FYYS.

Предположим, есть возможность переплатить непонятно за что $10 — www.buy.com/.../212985117.html

Все равно оптом это не $300 будет.

На момент появления винтов в продаже разница в цене на них была выше. По мере выпуска новых моделей, типа WD XE, цена на старые опускается. Сейчас да, возьмёшь оптом менее чем за $200, два года назад врядли.

Ну я же свою оценку сторадж сервера писал на сегодняшний момент а не на 2 года назад?

Ну отлично, что сейчас за копейки можно взять жёские диски enterprise уровня. Я у себя в памяти отметил этот факт. Правда в Украине на них ещё старая цена и новые модели не продаются пока, я видел только единичные предложения.

Это потому, что Hitachi/IBM всего-то реализовали в своих дисках спецификацию SMART на 90%, следующий в этом топе идет WD со своми 30%, а остальные производители на нее почти забили. Ну и потом японцы — это вам не пиндосско/корейско/китайское железо, там люди отвечают за свою продукцию. У меня есть пару дисков Hitachi многолетней давности (80GB) — пашут до сих пор.

S.M.A.R.T. никак не влияет на надёжность устройства, это просто возможность мониторинга.

Отключите проверку ошибок в своих программах -и они всегда будут работать. Именно это и сделали производители других HDD брендов — только данные почему-то у их юзеров пропадают чаще чем у пользователей дисков Hitachi.

... и замена дисков обходится бесплатно!

Ну а как же, по твоим рассуждениям так и выходит:

пусть диски сыпются, какие пробемы? Никаких!

За цифры же спасибо.
Я столько раз присутствовал при выбивании денег на серверное оборудование, когда директор тыкал пальцем в пожамканный «прайс» с барахолки — «вот это покупайте, а не то что вы мне тут принесли, афигеть просто!», и как оно потом работало, вместе с гирляндами домашних хабов, что неинтересно.

Экономия — наше все!

у а как же, по твоим рассуждениям так и выходит:

пусть диски сыпются, какие пробемы? Никаких!

Все правильно, раз в год вытащить диск из сервера и выбросить в мусорник менее затратно чем платить за энтерпрайз решения.

Статистика выхода дисков из строя — другая.

Утрировано — есть некая вероятность выхода диска из строя. При большом числе — эта вероятность реализуется не раз в год, даже если все диски новенькие.

Была как-то нашумевшая статья, отчет гугловцев о дисках, статистика выхода из строя, как отрабатывает SMART.

Но мы уклонились :)
Речь то была
о соотношении стоимости процессора и остального железа, чтобы имело смысл экономить на нем.

а теперь случайно и на стоимость его обслуживания вышли. Так как процессор это наверное самое живучее в блейде, то соотношение его в процессе эксплуатации будет только снижаться.

Вобщем ладно, в этом году Dell и HP выпускают блейды на ARMах, увидим.
Правда их рекомендации по использованию:
в гибридных стойках, где часть блейдов на x86ых.

Потому что для веба или иных хорошо распараллеливаемых И простых задач, там за сотню ядер ARMовских в одном блейде.

Статистика выхода дисков из строя — другая.
Утрировано — есть некая вероятность выхода диска из строя. При большом числе — эта вероятность реализуется не раз в год, даже если все диски новенькие.

Была как-то нашумевшая статья, отчет гугловцев о дисках, статистика выхода из строя, как отрабатывает SMART.

Да, я считал операцию замены диска в расчете на сервер. Это как то меняет стоимость владения в пользу hard core enterprise?

Так как процессор это наверное самое живучее в блейде, то соотношение его в процессе эксплуатации будет только снижаться.

Замечательно, и что дальше?

Потому что для веба или иных хорошо распараллеливаемых И простых задач, там за сотню ядер ARMовских в одном блейде.

Я как бы не раз писал что рассматриваю АРМ как решение для стораджа. Дел и хп для них выпускают блейд сервера с сотней ядер на сервер?

Это как то меняет стоимость владения в пользу hard core enterprise?

Конечно меняет. В облаке ж не один сервер, чтобы рассчитывать «в расчете на один сервер».

Замечательно, и что дальше?

Все тоже — цена покупки не решающий фактор.

Та же энергофективность важна именно для экономии в процессе эксплуатации. Энергоефективные процессоры могут даже стоить дороже, но если покупатель посчитает что окупится — то купит более дорогой.

Я как бы не раз писал что рассматриваю АРМ как решение для стораджа

А я уже писал что давно применяются. Для домашни х NAS — ARM или Intel Atom.

Но действительно, решил проверить предложение.
Картина у меня вышла такая, есть компании типа LaCie, SuperMicro — которые предлагают стореджи как на ARMах, так и на Intel. С корреляцией — меньше дисков в юните — вероятнее всего будет ARM, больше — Intel, причем дешевле Xeonов.

У HP есть модели Storage Servers на Pentium’е.

Понимаешь, я смотрю на основании своего опыта как и ты.
Опыта зам нач ИТ отдела промышленного предприятия. И умножаю известную мне сложность и проблемы. Потому что у меня то было всего-то около 200от раб мест и 3 «серверные» группы.

Но если быстро отучился верить чистым расчетам — «пропускная способность такая-то, умножаем на 4 = в 4ре раза будет итог!» то тем более в более в сложных системах так не считают. (как не умножают частоту ядра на количество ядер)

И к экономии денег по таким расчетам тоже. Потому что экономия на закупке почему-то норовила приводить потом к превышению бюджета ИТотдела.

Просто скепсис у меня к таким расчетам. Без них никак, но будет все не так радужно в действительности.
А так — может ты и прав.

Поживем — увидим.

Конечно меняет. В облаке ж не один сервер, чтобы рассчитывать «в расчете на один сервер».

А что нужно считать если не количество замен на сервер?

Опыта зам нач ИТ отдела промышленного предприятия. И умножаю известную мне сложность и проблемы. Потому что у меня то было всего-то около 200от раб мест и 3 «серверные» группы.

Ну понятно что для производства и прочих энтерпрайзов такие решения делать не будут, ПО еще не доросло. Я про облачные стораджы говорю.

Я про облачные стораджы говорю.

Если нам не нужен быстрый доступ к ним, то имеет смысл экономить и на системной логике, и на плате, и на количестве блоков питания и на корпусе.
Мы ведь пытаемся удешевить юнит, блейд в целом.

Уменьшение элементов уменьшает и вероятность выхода из строя системы в целом, и упрощает(=удешевляет) ее обслуживание.

Как уже упоминал, типичные энтерпрайз стореджи содержат 10ки HDD в одном блоке. Не 2-4, то домашние NASы, по USB.

Для облачного стораджа думаю емкость еще важней чем для энтерпрайзного.

А значит — там еще выгодней уплотнять элементы стораджа и их количество.

Почему Гугль так не делал, глядя на опубликованные юниты? А наверное потому что производительность оказалась все же важна. У них там и памяти немало, хотя энтерпрайз стореджи частенько ограничиваются 2мя, на все обслуживаемые десятки HDD.

Интересно будет попытаться нагуглить типичный амазоновский блейд-юнит, амазоновцы тоже, насколько слышал, очень экономные в расходах. Даже столы не покупают, а делают их из дверей.

Так же, из материалов гугля по эксплуатации HDD выходит что колебания температуры на градусы, приводит к существенному уменьшению времени эксплуатации HDD. То есть — в охлаждении в стореджах нуждается не столько проц, сколько жесткие диски. И опять получается — при малом числе HDD в юните нам нужно дублировать систему охлаждения, какая бы она простая и дешевая не была.

Как уже упоминал, типичные энтерпрайз стореджи содержат 10ки HDD в одном блоке. Не 2-4, то домашние NASы, по USB.

2 года назад когда я этим занимался 1тб в типишном энтерпрайз сторадже нам стоил 10к баксов.

У них там и памяти немало, хотя энтерпрайз стореджи частенько ограничиваются 2мя, на все обслуживаемые десятки HDD.

Как раз нарастить память на 5-10 дешевых серваков обходится в разы дешевле чем на один большой.

Так же, из материалов гугля по эксплуатации HDD выходит что колебания температуры на градусы, приводит к существенному уменьшению времени эксплуатации HDD.

In the
lower and middle temperature ranges, higher temperatures
are not associated with higher failure rates. This is
a fairly surprising result, which could indicate that datacenter
or server designers have more freedom than previously
thought when setting operating temperatures for
equipment that contains disk drives. We can conclude
that at moderate temperature ranges it is likely that there
are other effects which affect failure rates much more
strongly than temperatures do.

research.google.com/...sk_failures.pdf

Главная проблема цитат в интернете в том что им все сразу верят. (ц) В.И.Ленин.

Открою секрет — большинство высокопроизводительных NAS устройств используют ARM SoC’и от Marvell, и гигабит портов там по 3-4 штуки — www.marvell.com/...sors/armada-xp

Если внимательно читать тред, то можно увидеть, что я об этом писал.

Так я читал, просто ссылку добавил для верности ;)

Одно из двух: либо я что-то не знаю об ARM либо вы об x86.

Если архитектура x86 за последнее десятилетие «убила» почти все RISC процессоры, использовавшиеся на серверах, оставив ARM-ам нишу мобильных устройств, то это, как минимум, интересная архитектура.

Что значит «оставив»? ARM-ы что когда-либо использовались в серверах? Они всю свою жизнь были embedded процессором/контроллером.

Что значит «оставив»? ARM-ы что когда-либо использовались в серверах
Наверное имелось ввиду «ARM как известный представитель RISC». MIPS еще есть, тоже вполне живы. Причем у них 64ех разрядный процессор есть давно.

Из серверных
Sun SPARC, DEC Alpha и другие DECoвские. Когда DEC разорился — у многих челюсти отпали: «DEC умер, да как же это? »
Sun SPARC еще встречается в суперкомпьютерах, поддержка Oracle и Fujitsu держат на плаву.

Добавлю что не только с серверов вытеснен был RISC.
Apple долго сидела на PowerPC. Но несмотря на имена IBM и Motorola — перешла на x86. Упомянул, потому что это был последний участок в мире десктопов, где был был не x86.

А с мобильными устройствами да, интересно будет посмотреть.
Как и на появление 8 и выше ядерных, 64ех разрядных, с 3,5GHz и выше — ARMах.
Тогда да, схватка Intelа и ARMа будет зрелищем. Потому что это минимальные внешние характеристики для CPU — с которыми можно наступать на территорию Intel-AMD

Пока же наоборот Intel предпринимает усилия еще расширить охват — повторить свой успех после десктопов и серверов и на мобильных платформах.

ИМХО О наступлении ARM на исконную территорию x86 говорить, во всяком случае в ближайшее десятилетние, бессмысленно. Равно как и наоборот. Только приграничные конфликты воде планшетов с Atom или нетбуков с ARM. :)

И я так думаю.

Вот пишу с десктопа с 95ти ваттным феномом. Меня беспокоит его энергоэффективность? Нет. Даже если планшет с докстанцией и подключенным монитором будет о 5ти ваттах, но медленее на 30% — я останусь на феноме.

И подозреваю что тьма менее искушенных пользователей поступят также. Потому что и раньше покупали ненужные им мегагерцы. (кстати утилита от Asus показывает что мой феном трудится основную массу времени на 800 MHz и потребляет от 9ти до 12 ватт в этом режиме)

P.S.
Владельцы же датацентров скорей будут вести более агрессивную рекламу по продаже избыточной мощности, чем снижать ее.

Не удивлюсь если даже непрофильные компании, владельцы кластерочков сугубо для себя, будут предпринимать попытки по продаже излишков. Им снижать мощность еще меньше резону, потому что им она нужна для пиковых нагрузок. Они скорей из розетки выдернут часть серверов, до «часа Х — расчет квартальных фин результатов OLAP кубом в BI», чем заменят все на слабонькое зато «энергоэффективное».

Фишка арма в том, что сервер на его базе (без диска) стоит 35$. В качестве диска можно использовать SD-карты. Тоесть можно будет арендовать в датацентре выделенный сервер всего за 5$ и не думать про процент загрузки процессора своими скриптами на хостинге и проблемы при этом.

Фишка арма в том, что сервер на его базе (без диска) стоит 35$.

А НЕсервер стоит 0$. Не купил да и все.

В мире же бизнеса принято оценивать полезность приобретения по степени его прибыльности. Ну, или необходимости, если нечто сугубо статья расходов.

Тоесть можно будет арендовать в датацентре выделенный сервер всего за 5$

Или нанять за 1$ голодающего из Африки и дать ему счеты.

За какое физическое время будет выполнять требуемую работу этот сервер? Вот что важно заказчику. И если это время его не удовлетворит — он и бесплатно им пользоваться не будет.

А распродать по 5$ можно и 1 сервер за 35 000$. И если будет выгодно владельцу такого сервера — то будет покупать за 35 000$.

А покупателю 5$вого сервера точно без разницы, что там, на том конце крутится, за 35$ или за 35 000$

Рынок рассудит.

P.S.

Скорей какие-нить 4096-ядерные Epiphany от Adapteva будут стоять на распродажу выч ресурсов, чем смешной Raspberry Pi

А распродать по 5$ можно и 1 сервер за 35 000$.

Только купите ли вы сервер на 8 ядрах от интела или такой же по цене и в 32 раза выше по пиковой производительности (4096 ядер) на арме за те же деньги.

Практически все серверные задачи практически линейно распараллеливаются.

Только купите ли вы сервер на 8 ядрах от интела или такой же по цене и в 32 раза выше по пиковой производительности (4096 ядер) на арме за те же деньги.

При прочих равных — выбирается то что стоит дешевле.

А вы еще и сказали что пиковая производительность выше — за те же деньги.

Практически все серверные задачи практически линейно распараллеливаются.

Но так как доминирует x86ая архитектура, то значит нет другой такой же производительности за те же деньги.

Ждем-с. Потребитель с удовольствием купит за те же деньги в 32 раза более высокую производительность. Еще в очередь придется записывать.

P.S.
Вы меня вывели на хлопский тезис:
Если по одному из трех параметров, при равенстве 2ух остальных, в серверном секторе:
Пиковая производительность
Цена приобретения

Эксплуатационные расходы (основная статья: потребление электроэнергии, в том числе и на охлаждение)

какая-то платформа даст выигрыш, (думается в десятки процентов, а не в разы будет достаточно) то очень быстро станет доминирующей. Время ей нужно будет только для адаптации ПО, ну и для разворачивания физической реализации.

Пока x86ая платформа вытеснила остальные. По какому параметру можно обсуждать.

Но пока ее никакая другая платформа не вытесняет. Есть громкие обещания. Но к ним пора бы привыкнуть. Убийцу iPad и iPhone уже как-то перестали ждать например.

Конечно ARM не вытеснит x86, а вот потеснить точно сможет !!!

Что является совсем удивительным — это 32 fps на этом чипе в lost planet 2

TEGRA 3
Графический процессор
Архитектура ULP GeForce

Ядра 12

NVIDIA GeForce GTX 690
Ядер CUDA 3072

Потребление энергии 300 W

Молодцы NVIDIA, умеют же впаривать тыщи ядер вместо чуть больше 10ка.
Причем в тестах видеокарт lost planet 2 и не всякая видеокарта на десктопе потянет с 32fps

Видать из-за x86 кода самой игры.

Современный ARM такой RISC как современный x86 — CISC. С каждым годом их сосуществование все ближе к «те же яйца».

Єдине — це дуже не скоро.
Але так я згідний що міняти архітектуру треба бо там зараз стільки треба мучитися над зворотньою сумісністю що ну його.
Red hat i Dell — вже пропонують свої рішення на ARM.

Для датацентрів теж плюс — менше електроенергії + простіше охолодження.

бо там зараз стільки треба мучитися над зворотньою сумісністю що ну його

Тобто?

Хто саме і з чим мучиця?

Для датацентрів теж плюс — менше електроенергії + простіше охолодження.

То може краще просто закрити ті датацентри?

Ще й земля під садочок звільниця.

Розробники самих чіпів і драйверів під них.
У кожному поколінні x86 є свої баги які виправляють софтово і потім це все треба підтримувати в наступних поколіннях.
За 30 з чимось років там уже назбиралася величезна кількість таких багів а це все веде до збільшення складності + розмірів + споживання енергії.

Розробники самих чіпів

Тобто сам Intel?

А хто вам сказав что вони мучаця?

У кожному поколінні x86 є свої баги які виправляють софтово

У кожній программі є багі, які виправляють софтово.

То може вже тра припинити писати програми. Щоб не мучитись їх виправляти?

За 30 з чимось років там уже назбиралася величезна кількість таких багів

Е-е-е, за 30 років? Це у якому пристрої, чіпі?

Конкретно.

У якому чіпі є 30річні багі які виправляють зараз софтово?

У кожному поколінні x86 є свої баги які виправляють софтово і потім це все треба підтримувати в наступних поколіннях.

Баги исправляются в микрокоде с лохматых времён...

Red hat i Dell — вже пропонують свої рішення на ARM.

Например?

Да. у HP останні рокі справи не дуже.

Пробують здивувати хоть ось такою пропозицією.

А Red Hat вже стала виробником апаратних засобів, що опинилася у таборі «рішень на ARM»?

І все ж я не зрозумів щодо датацентрів.

Якщо їх створюють з метою споживання електроенергії та підігріву атмосфери, то може краще їх знищувати і більше не будувати?

Если вам предложат сервер А и Б, одинаковые по производительности, но сервер А потребляет в 10 раз меньше, то какой сервер вы купите?

Якщо їх створюють з метою споживання електроенергії

Нет более высокоэффективной альтернативы

Который меньше потребляет естественно.

Что называется — «при прочих равных» смотрим на остальные характеристики.

А сервера на процессорах ARM уже одинаковые по производительности с серверами от Intel и AMD? Значит я что-то основательно пропустил...

А что думают по этому вопросу владельцы датацентров?

Сервера на каких процессорах предпочитают?

А если мне предложат Star Destroyer то я перейду на темную сторону и стану властелином галактики. Два сервера сделанные примерно на одном технологическом уровне имеющие одинаковую производительность но в 10 раз отличающиеся по энергопотреблению это фантастика.

А вы уверены, что если ARMы по всем параметрам догонят x86 то кушать они будут намного меньше? Я вот не уверен.

Если те же
транзисторы, кремний с арсенидом галия и частоты
то получается что x86ые делают много какой-то ненужной работы.

Отрывочек:
10 мая 1992 года четверо инженеров Intel в аэропорту Сан-Хосе ожидали самолета из Орегона. ...

Разумеется, речь идет о микропроцессоре Pentum — детище разработчиков 5-й Орегонской фабрики,
...
Pentium с тактовой частотой 66 МГц работал со скоростью, практически не уступавшей RISC-процессору Alpha Digital.
...
При этом, одна команда CISC заменяет десятки элементарных операций RISC, а значит, и работает быстрее. Кроме того, CISC более приятна и проста в программировании. Это был конец RISC как идеализированной концепции. Но король умер — да здравствует король! Ведь ядро самого популярного микропроцессора на сегодня — Pentium — построено не на чем ином, как на RISC-машине.

«RISK vs. CISC» 07 сентября 1999 года
www.computerra.ru/.../1999/314/3211

Вобщем очень свежая свежая тема, об

ARM в конце концов задавит архитектуру x86,
По поводу колл-ва транзисторов, то тут у Nvidia GPU и Тесл(как производных от них) не все так радостно. Если посмотреть эту страничку — en.wikipedia.org/...stor_count#GPUs , то становиться ясно, что по числу транзисторов, чипы Nvidia на 30-40 процентов превышают своих современников от Nvidia (x86).
Например , взято с табличек на википедии...
8-core Xeon (2010) — 2,300,000,000

GF 100(Nvidia) (2010) — 3,000,000,000

А если в двух словах, то мне здается, что ближайшие лет 10 никто никого убивать не будет, а будет продолжаться мирное сосуществование x86 и CUDA решения от Nvidia.

В статье речь шла о ARM процессоре NVIDIA Kal-El, который и является дальнейшем развитием технологии Tegra2/3 (ошибся, там процессор не тигра а тесла называется), поэтому я тут и привожу пример того же GF100.
Но вот судя по этой статье — www.ixbt.com/...iew.shtml#intro между Tegra и Kal-El будет больше отличий чем общего.

Все бы ничего, да только что-то уж слишком все... © один рок-музыкант

Во-первых, у ARM-процессоров до сих пор очень много проблем с floating-point операциями. То же аппаратное деление добавили совсем недавно. Схема «CISC вокруг RISC» в данном случае куда более масштабируема.

Во-вторых, та же ситуация с аппаратной виртуализацией.

В-третьих, быстро удастся портировать только то, что портировать можно почти на все, т.е. все, что работает исключительно через вызовы API операционной системы. Количество костылей и фокусов в том, что ниже слишком велико.

Так что архитектура ARM если и задавит x86, то только потому, что сменится сама парадигма использования персонального компьютера -

ще забув написати, що ARM — то лише код, який описує процесор і його причандалля:
uk.wikipedia.org/wiki/ARM
«...ARM Ltd, не виготовляє і не продає CPU пристроїв на основі їхнього власного дизайну, але набагато охочіше, продає ліцензії процесорної архітектури для зацікавлених сторін...»

тобто у різних вендорів будуть різні результати, які залежать не тільки від архітектури АРМ, а від силіконієвих технологій і багато чого іншого.

Intel продоет чипы, а ARM мягкие ядра, которые покупатель впоследствии интегрирует в свой чип. Будущее именно за вторым подходом — т. е. снова Intel не в лучшей позиции.

Интересный факт: 55% отчислений за лицензию на ARM заплатила в прошлом году Intel.

==покупатель впоследствии интегрирует в свой чип.
Ось-ось, одні на лампах, інші на npn / pnp транзисторах, ще одні на MOP CMOP FET транзисторах, ще деякі думають про квантові та фотонні тригери.
Може в цьому одна із проблем.

Шо це в лісі здохло?
На ДОУ начали появлятсо технические темы!

-Уже обосрали всех работодателей?-

Третья часть аналогичной темы на ixbt насчитывает уже 156 страниц флейма...
forum.ixbt.com/…cgi?id=77:14295

PS: как по мне - тема из разряда, что раньше умрет - Ланос или Майбах.

Третья часть аналогичной темы на ixbt насчитывает уже 156 страниц флейма...

Они забыли SuperH архитектуру, которая завалит всех :)

Судя по всему ты открыл для себя ARM, поздравляю :)

Ну по остальному тебе навешали лапшы. Kal-El пятиядерный, пятое ядро работает на пониженных частотах и судя по всему данные даны только по пятому ядру, и то занижены. Если завести четыре основных ядра + акселератор, то потребление будет большое.

Статья у ixbt — это перевод статьи, где показаны данные анонса Tegra3. На пятом ядре на пониженной частоте 0.5W (<600mW) — это нормально.

Да вроде нет. Там написано "each core running at 480 MHz" если речь идет про 5-е ядро то почему "each core"?

Если, честно, то не верится. Доверия к coremark'у тоже нет, он показывает эффективность кешей и предсказаний ветвления больше, чем производительность. Если будет сэмпл на руках, я обязательно потестурую это чудо под реальной нагрузкой.

У меня второй трансформер на этой Ka... 5-е ядро только для deep sleep, при просыпании 5-е вырубается, но включаются все остальные, которые OS (Android) может на лету включать/выключать и менять им частоту — именно по-этому и «each». Успех платформы определяют соотношение цена/производительность, ее открытость, поддержка популярными OS и количество ошибок в вышедших чипах. Здесь Интел проиграл по всем параметрам: его чипы дороже и медленнее, за редким исключением свои чипы выпускают только они сами, об Android они вспомнили только в этом году а толщина их errata уже давно сравнима с талмудом. Также основная проблема Интел, что со времени i[23]86 они до сих пор так ничего и не смогли предложить миру нового. Даже технологию x86_64 придумала AMD, так как Интел позорно провалил свой Итаниум и вынужден был лицензировать x86_64 у конкурента. Их встроенная графика — это тихий ужас, уж лучше заносчивая Nvidia ;) Мое IMHO — они очень поздно вспомнили что уже N лет как наступила мобильная эра — эра планшетов и смартфонов. Т.е. теперь им надо все начинать с начала но уже в окружении конкурентов. Что-то не особо верится в этот быстрый взлет ;)

Здесь Интел проиграл по всем параметрам: его чипы дороже и медленнее

Ну на счёт дороже — я бы так категорично не утверждал. А вот по поводу открытости — Intel открыла спецификаций больше чем все остальные полупроводниковые компании вместе взятые. А nVidia даже крупным партнёрам отгружает только бинарники, открытости нет совсем. Да и не с Intel’ом в этом сегменте конкурирует nVidia, а с Freescale, Qualcomm, etc, Intel свою линейку PXA уже давно прикрыл. А NFP линейка ARM процессоров создана для других целей — это flow процессоры.

Их встроенная графика — это тихий ужас

Ну а это совсем безаргументированное высказывание...

Речь шла за Intel vs ARM — открыт больше ARM. На нвидии свет клином не сошелся — полно SoC’ов на ARM’е от других вендоров (TI/Qualcomm/etc.).

Ну а это совсем безаргументированное высказывание...

Рекомендую изучить спецификации телефонов на Medfield. Сапожник без сапог — это обычно так называется.

Medfield

А встроенная именно туда графика? Ну так она практически ничем не отличается от продуктов Freescale/Qualcomm/TI, так как там используется IP core от Imagination Technologies. Она ничем не отличается от них :)

Так и я об этом, где же эта фильдеперсовая графика от Intel ? А ее просто нет ... ;)

Так и я об этом, где же эта фильдеперсовая графика от Intel ?

Она слишком быстра для современных аккумуляторов :)

Что и требовалось доказать ;)

Мое IMHO — они очень поздно вспомнили что уже N лет как наступила мобильная эра — эра планшетов и смартфонов

И это вы написали с смартфона? Или планшета?

Т.е. теперь им надо все начинать с начала но уже в окружении конкурентов.

IMHO — стоить смотреть на потенциал этих конкурентов. И на прибыльность их бизнесов ( прибыль — разница между доходами и затратами на производство).

не особо верится в этот быстрый взлет

Мухи да, летают быстро.

На велосипед запрыгнул и поехал!

Остальное, про «ничего нового не дали миру» (ARM очень свежа), «встроенная графика слаба» (а вы на ней собрались батлу с скайримом гонять???), просто ерунда какая-то, в стиле обсуждения «поделий мелкомягких».

Именно этот пост печатаю с трансформера на Tegra3 — прям невидаль кака-то. С прибыльностью у ARM все впорядке — им как-бы заводы не нужны.

Мухи летают быстро в отличие от мобильного Интел — купите ноут на Атоме или телефончик на Медфилд и прозреете.

Мой сын без проблем играет с Bluetooth джойстиком на моем планшете в 3D игры. Вы к нам из прошлого прибыли ? :)

Именно этот пост печатаю с трансформера на Tegra3

А я пока не прикупил. Все не придумаю — что же на нем я делать то буду. :)

То есть зачем покупают другие — наслышан. Но тогда он у меня просто пылится будет.

Мухи

стартуют быстрее боинга.
Моя аналогия была на тезис что Интел опоздал. Потому что этот тезис основан на «быстроте старта».

А в бизнесе мировых масштабов «первый стартовал» — вовсе не означает победитель.

купите ноут на Атоме или телефончик на Медфилд и прозреете.

Ни первое ни второе не знаю зачем мне :)

Мой сын без проблем играет с Bluetooth джойстиком на моем планшете в 3D игры.

Скромные запросы у вашего сына.

192 ядер Cuda — в детских кругах уже вызывают «фи, всего-то?»

Вы к нам из прошлого прибыли

Может быть. Я даже для смартфона не придумал задач :) У меня потому древнейшая нокия :)

Но убедили. Если вы на Tegra 3 еще и программируете, то точно настала мобильная эпоха :)

Но возвращаясь собственно к теме.

На практике все противостояние преимуществ сводится к энергопотреблению. Все эти рассуждения об архитектурах и бенчмарках не имеют большого практического значения. Потому что программисты избавлены узким кругом системных программистов от забот об архитектуре, а приложения должны удовлетворительно для пользователя работать (а не мгновенно-идеально)

Значит картина противостояния Intel-AMD vs ARM резко изменится

при появлении новых технологий изготовления аккумуляторов и снижения энергопетребления x86ых до удовлетворительного уровня (как и с бенчмарками — «вечная игла для примуса» не нужна).

И если кто-то уверен что такого никогда не произойдет, что это невозможно, а именно на этом неявном предположении основан прогноз скорой смерти Intel вместе с x86ой архитектурой

то я — не знаю. А вот о финансовых и интеллектуальных ресурсах Intel — наслышан.

P.S.
То что мобильная эпоха надвигается — да.
Хотя, и тут иногда думаешь:
Ведь большинство взрослого населения все равно прикованы к своему рабочему месту. Материальное производство — станет ли «мобильным»?
Да и не материальное.

Вот нас программистов возьмем, мы что, днями подряд перемещаемся географически и программируем в метро, самолетах, гостинницах?

Коментар порушує правила спільноти і видалений модераторами.

А в бизнесе мировых масштабов «первый стартовал» — вовсе не означает победитель.

Поживем увидим — пока все наоборот — Интел с трудом поддерживает все правдами и неправдами (см. последний иск) древний x86 и плетется позади мобильной индустрии. Но чем черт не шутит — может вдруг и родит каменный цветочек ;)

Но убедили. Если вы на Tegra 3 еще и программируете, то точно настала мобильная эпоха :)

Так для того собственно и брал, чтобы поковыряться в ядре ;)

На практике все противостояние преимуществ сводится к энергопотреблению

Весьма противоречивое и спорное утверждение. Соотношение цена/производительность более значимый фактор, особенно учитывая что он не зависит от уровня технологий выпускаемых аккумуляторов.

А вот о финансовых и интеллектуальных ресурсах Intel — наслышан.

Финансовых — не спорю, второе наполовину правда — Интел хорошо умеет владеет техпроцессом изготовления микросхем, не более того. Проектировать архитектуры они не умеют что ясно показало время (полные провалы с i432, i860, Itanium, Atom, никому не нужный Medfield, etc.)

Единственное, что они смогли создать в свое время — это i[23]86, остальное куплено/лицензировано у AMD, DEC, Transmeta и других компаний и доработано своим напильником до уровня, который мы сейчас и наблюдаем.

Да на счет того, что интел частенько лезет куда не надо — это факт. Помнится лет 15 назад была история с видеочипом интел 740. Они долго его делали ,в итоге сделали чип, который, по характеристикам, превосходил все видео-чипы того времени. Но в итоге получился продукт , который тупо вис в любом 3-Д режиме, и эта история для интел тогда бесславно закончилаь...

Помнится лет 15 назад была история с видеочипом интел 740.

Диверсификация продукции — естественное стремление у того у кого есть возможности.

У Intel и с Larrabee не вышло.

Тот кто никуда не лезет, в конце концов будет затерт тем кто частенько лезет куда не надо :)

Да на счет того, что интел частенько лезет куда не надо — это факт. Помнится лет 15 назад была история с видеочипом интел 740.

После этого родился чипсет i810 с первой интегрированной графикой, который был копией i740, что позволило уменьшить стоимость ПК для офисных нужд.

Но в итоге получился продукт , который тупо вис в любом 3-Д режиме, и эта история для интел тогда бесславно закончилаь...

Она закончилась захватом около 50% сегмента рынка графических акселераторов в наши дни.

Она закончилась захватом около 50% сегмента рынка графических акселераторов в наши дни.

Ага, только Nvidia и AMD об этом не знают ;)

древний x86 и плетется позади мобильной индустрии.

Я не очень понимаю по какому критерию — «плетется позади».

Так для того собственно и брал, чтобы поковыряться в ядре ;)

Понятно. Для работы если и буду брать, то только — а как веб часть моего приложения крутится на Tegra 3. Ядро или что там будет, «коннект к процессору ближайшего здания, ради получения вычислительных ресурсов» — меня не интересует, по большому счету.

Соотношение цена/производительность более значимый фактор

Если одно мобильное устройство будет работать 4 часа, а другое сутки, то сложно представить успех первого устройства, несмотря на его более лучшее соотношение «цена/производительность». Конечно, если не сравнивать ноутбук c 17′ и с i7 и смартфон.

Вообще, противопоставление относительных и абсолютных величин — весьма скользкое.

Например о «цена/качество» — а если цена — миллион, но и соотношение цена/качество на миллион пунктов лучше чем у устройства с ценой — копейка, то очевиден ли успех первого устройства?

тоже самое и соотношением «производительность на ватт». Если она на порядки лучше у устройства с потреблением 100 МегаВатт, то как?

второе наполовину правда

Не имеет особого значения какие патенты у кого куплены. Под интеллектуальным потенциалом я понимаю возможность генерировать знания.

Провалы — тоже не показатель. Их полно у любой корпорации. Как-то даже сборник начал читать, под названием что-то вроде «Крупнейшие ошибки ведущих корпораций». Типа как Самсунг решили автомобили делать и сколько убухали денех, продав потом за гроши Рено и остальным то что успели построить пока не опомнились.

И что, Самсунг провалившаяся корпорация?

Проектировать архитектуры они не умеют

Если в ключе «программисты на PHP не умеют программировать» — то может быть.
Но я смотрю на ситуацию в практическом ключе — сайтов то полно на PHP.

Успех Intel мне как-то сложно отрицать. Практический. Коммерческий.

То есть на практике побеждает вовсе не лучшее «по теории».

Я не очень понимаю по какому критерию — «плетется позади».

Берем количество проданных планшетов, смартфонов и ноутбуков, а потом считаем CPU какой фирмы в них стоят. Я конечно могу ошибаться, но в марте месяце этого года ARM CPU имели 70% проданных мобильных устройств. Думаю эти цифры нагуглите сами.

Если одно мобильное устройство будет работать 4 часа, а другое сутки, то сложно представить успех первого устройства, несмотря на его более лучшее соотношение «цена/производительность». Конечно, если не сравнивать ноутбук c 17′ и с i7 и смартфон.

Ну ноутбук тоже работает 2 часа, но их же используют. Все потому что параметр цена/производительность тут важней. Также можете спросить многострадальных юзверей платформы Windows Mobile — сколько там телефон держал работу любого приложения ? Кажись, как раз 4 часа в прыжке. И ничего — юзали же люди, потому что любимый windowz грел им нагрудный карман ;)

Провалы — тоже не показатель.

Согласен, а где же тогда их взлеты ? Где инновации, новые продукты ?

Мир уже давно изменился — никто не купит и не поведется на дешевую рекламную хрень, которую пытается впарить Intel, только потому, что какие-то там инвесторы хотят отбить вложенное бабло. Миру уже давно подавай то, в чем он реально нуждается, а для этого нужно уметь слушать, видеть и замечать, а не тупо впаривать. Неумение следовать современным тенденциям рынка является основным провалом Intel — из него вытекают все вышеприведенные ;)

Нам юзерам-то в принципе все равно — если вдруг они предложат что-то стоящее — мы попробуем на зуб и если выдержит — то с удовольствием купим. А пока на полках магазинов и в карманах у людей ARM’ы — вот такая суровая правда жизни.

Берем количество проданных планшетов, смартфонов и ноутбуков, а потом считаем CPU какой фирмы в них стоят.

ноутбуков? на ARMaх?

По поводу количества. А маржу — считать будем?

А на то что покупатель смартфона или планшета имеет часто даже не одно устройство на x86 купленные ранее — то есть нет вытеснения — обращать внимания не будем?

Согласен, а где же тогда их взлеты ? Где инновации, новые продукты ?

У кого, у Intel? Вы прикалываетесь :D

У вас какие-то неизвестные мне критерии.

Мир уже давно изменился — никто не купит и не поведется на дешевую рекламную хрень, которую пытается впарить Intel

Мы в каких-то разных мирах живем. Вокруг меня сплошные компьютеры на x86ых процессорах. У самого дома 2. Да, пока обновлять не планирую, хватает.

Миру уже давно подавай то, в чем он реально нуждается,

А по данным ООН он нуждается в питьевой воде, и все острее в еде.

Или какие у вас предположения о том в чем мир нуждается?

Неумение следовать современным тенденциям рынка является основным провалом Intel

Знаете, я еще часто в рунетах слышу о полном провале ООП.

До меня пока оба провала никак не добрались.

Поясните, как вы высчитали провал Intel. В каких единицах, или опишите качественные характеристики. Что они не производят CPU для смартфонов, но хотят?

А пока на полках магазинов и в карманах у людей ARM’ы — вот такая суровая правда жизни.

А при чем тут продукция Intel, если она тоже на полках стоит, и дома и в офисах?

У меня много чего такого есть что в карман не положу.

То есть, вы вводите второй по важности критерий(после потребляемых ватт и нагрева воздуха) — то что помещается в карман победит то что туда не помещается?

Планшет в ваш карман помещается?

P.S.

... провал у Intel такого размера, что у меня иногда вызывает удивление как их антимонопольные комитеты не прищучили.

И если посчитать в тоннах количество проданного угля и алмазов, то ДеБирс — жалкий африканский лоточник.

чистая прибыль Intel по итогам 2011г. выросла на 13% и составила 12,94 млрд долл. Выручка Intel по итогам года увеличилась на 24% и составила 54,00 млрд долл. против 43,62 млрд долл. В 2010г. Операционная прибыль компании выросла до 17,48 млрд долл.

Читать полностью: top.rbc.ru/...12/646821.shtml

Где провал?
Чистая прибыль южнокорейской компании Samsung Electronics за 2011 год снизилась на 15% — до $12,2 млрд.

Подробнее: www.rosbalt.ru/.../27/938271.html

Это Вам на финансовый форум нужно — здесь немного другое обсуждается.

Слив защитан.

Я так понял лично вас Intel чем-то обидел, или оскорбляет какие-то религиозные чувства.

Уход в оfftop защитан еще раньше. Мне интел как-то до спины — я его просто не использую ;)

Мне интел как-то до спины — я его просто не использую ;)

Чукча для ловли тюленя тоже не использует.

Что никак не уменьшает влияния «IBM PC» совместимых компьютеров на сегодняшнюю цивилизацию.

Вы явно что-то курите — на «сегодняшнюю цивилизацию» компьютеры не влияют. Это сродни тому что «на сегодняшнюю цивилизацию» влияют микроволновки и сноповязалки.

Вы явно что-то курите — на «сегодняшнюю цивилизацию» компьютеры не влияют.

???
Убери компьютеры никто и не заметит?

Что еще НЕ влияет, электричество? Интернет?

Это я что-то курю?
А может по мне еще и зеленые чертики прыгают?

Вам как — видно их?

микроволновки, сноповязки

не знаю. А вот холодильники — ого-го как влияют.

Не, народ из чумов на dou в желании высказать оригинальность просто умиляет :D

Не поверите — чукчи и тюлени

А я думал земледелие. Выращивание пшенички, риса, кукурзки.

А вы вона как, охоте влияние на цивилизацию приписываете.

Просто переворот в антропологии, истории, культурологии, ..., ...

Слушайте, а сколько вам годиков что вы ни разу персоналкой не пользовались.
Вернее — что обходитесь без нее, при работе с чипами от Atmel.

А те кто торгуют ими, тоже без персоналок учет ведут? А сами Atmelовцы? И ПО для разработки, у них под какое железо?

А Вы не покушайте с месячишко, посидите там за любимым компом с лейбом Intel — поглядим как он на Вас повлияет ... ;) А я с чукчами на тюленей поохочусь, вот и проверим чья тут правда, моя или Ваша.

Эх, слабоватый вы партнер постебаться.
Так замахнулись, я уж было подумал...

и банальностями закончили :)

Ну что ж, значит вы на себе уже проверили, не кушали с месяцок сидя за компьютером с лейблом Intel — вот она и ассоциация у вас возникла, Intel виноват? Вот такая причина нервной дрожи от слова Intel?

А я с чукчами на тюленей поохочусь

Atmel вам в помощь! В глаз тюленю метьте, а то может шкуры не пробить.

Было бы над кем стебаться, а то какой-то интел и его псевдо-любители. Вы все-таки купите ноут на атоме и сразу к чукчам — вот это и будет настоящий обмен опытом по влиянию на цивилизации ;)

А я когда-то купил Sony Vaio VPCW22Z1R, батарея держит 6-8 часов, eclipse + cdt запускаются, gcc компилирует шустро. Что я делаю не так? ©

Коментар порушує правила спільноти і видалений модераторами.

А я купил ноут на AMD и планшет ARM — все то же самое, только планшет держит 10 часов без док станции и 16 часов с док станцией. Что с ними не так ?

И сколько держит батарея на AMD ноуте ? :) А по поводу планшета — у сына телефон HTC sensation xe держит 12 часов под нагрузкой, вопрос в другом, нахрена мерять ноут, нетбук, планшет и телефон, вот этого я понять не могу.

10 часов планшет держит при проигрывании video. (!) AMD ноут у меня старенький — Acer Ferrari 1100 еще на Turion X2, поэтому — 2 часа в прыжке. Мерять интересно современные сопоставимые чипы всех трех компаний, по linpack’у там, GL тесты и потребление. Просто на планшете gcc тоже шустро компилит, в 4 потока ;)

10 часов планшет держит при проигрывании video. (!)

А сможет ваш планшет проиграть H264 High 4:4:4 или AVC Intra или ARRIRAW? :)

Легко. Вопрос в том как будет производится декодирование, аппаратно и программно. Например звук у меня всегда установлен в «программно». Неизвестные форматы video программно он тянет, но батарея жить будет скорей всего меньше. В моей коллекции нет MKV файла, который бы он не смог проиграть, включая вывод по HDMI на ящик со звуком 5-1.

Складывается впечатление, что вы не очень понимаете о чем говорите. аппаратный h264 — это base profie, максимум main, аппаратного high профайла не было и не будет, а значит ваш планшет либо скажет вам слово из 3-х букв вместо того чтоб проигрывать high 4:4:4 или заюзает софтовый декодер который будет давать максимум 10 фпс ну даст соответствующий CPU usage.

Я уже молчу про то что весь мир движется в сторону 4K (а некоторые юзая драфты HEVC уже 8К стримят), а вы все радуететсь base profile h264

Если уж очень неймется — давайте ссылку на файл, я проверю. Параметры Tegra3 hardware декодера я тут уже приводил, все что он не может декодируется программно. 1080р H264 40 Мбит/с он может — это более чем достаточно на сегодняшний день. 4k и 8k — это японский космос — где Вы телевизоры такие видели ?

нет, вы таки не понимаете о чем говорите... дело ведь не только в битрэйте а и в том за счет чего он достигается (бэйз профайл это как правило CBR на каждый кадр), а еще удел бэйз профайла(это то что может ваш дэкодер) — 4:2:0 т.е. одна цветовая компонента на 4 пикселя. Кстати, а ваш декодер умеет включать выключать deblocking filter? а занет он что-то b-frames как референс фрэймс?

4k и 8k — это японский космос — где Вы телевизоры такие видели ?

«японский космос» — это утверждать что арм убийца х86, а вот мониторы на новых макбуках будут 2880×1800, а это anamorphic 4K

P.S. вот вам high profile 4:2:0 расскажите сколько на нем проживет ваша батарея:

www.hulkshare.com/smwt9pujax1c

P.P.S: линки на 4:4:4, avc intra и даже mpeg2 (4:2:2) с которым nVidia так и не научилась справляться будут вечером :)

Даля Вам этот high-profile, держит Tegra3 его аппаратно — “New video engines with support for 1080p high profile video at 40 Mbps”, взято с pressroom.nvidia.com/...jsp=release_157

Файл по ссылке чудесно играет в аппаратном режиме (через MX Player) — никаких артефактов и тормозов не замечено. Кстати а с чем сравнивать будем этот аппаратный декодер от Nvidia ? С каким продуктом от Интел ? ;)

MX Player разве поддерживает tegra 3?

Раз играет, значит поддерживает.

Откуда такой вывод? Оно себе тихо использует NEON для декодера.

1. По установке в самом MX Player’e

2. По загрузке CPU (CPU Monitor)

может он b-framы дропает?

Не в курсе — мотает на любую позицию, что вперед, что назад моментально и без артефактов. Кстати в MX Player если нажать на верхнюю часть экрана (или поставить на паузу) то показывается какой режим декодера включен — hardware или software. Так что ошибки тут никак быть не может. Более того, он аппаратно декодит и звук в этом клипе. Чего нельзя сказать за некоторые фильмы из моей коллекции — там приходится ставить звук на software.

Вечером попробуете 4:4:4, AVCIntra и mpeg2 (4:2:2) :)

С каким продуктом от Интел ? ;)

любой Sandy Bridge (только не говорите что это не мобайл, так как убить х86 подразумевает совершенно другое)

P.S. На Medfield этот файл тоже играет :)

Не вопрос — только время работы от батарей please в студию, для Sandy Bridge и Medfield соответственно. Файл просто зацикливаете и меряйте ;)

ok, а потом такой тест:
вы декодируете файл делаете color space conversion из NV12 в R210 кодируете в DNxHD и пишите на любой сторедж. Интересуют результаты:
1) скорость декодирования
2) скорость csc
3) скорость кодирования в DNxHD

4) сколько проживет ваша батарейка

еще такой тест:

вы со своего девайса получаете стрим RAW делаете debayering и жмете в AVCIntra 50 (не забудьте что сначала нужно сделать скэйлинг к 1440 multi tap фильтром) и пишете в MXF

Давайте для начала закончим первый тест, с low level API hardware decoder’а я все равно не знаком. Надеюсь заявленные Intel железки у Вас под рукой ?

дэвайсы на руках, правда про Medfield мне NDA много не позволяет говорить :(

Кстати а как вы докажите что у вас видео воспроизводится и используется аппаратный декодер?

пы.сы.: только что попробовал NVidia Cuda h264 декодер на этом видео и он сказал что не в состоянии такое декодировать :)

пы.сы.: только что попробовал NVidia Cuda h264 декодер на этом видео и он сказал что не в состоянии такое декодировать :)

Моя домашняя GeForce GTX 580 через стандартные фильтры тоже отказалась играть аппаратно. Хотя, думаю, можно найти плееры, которые через CUDA/OpenCL смогут декодировать аппаратно.

Я тоже верю что MainConcept (нынче известные как Rovi) знакомы с видео кодированием лучше чем nVidia, хотя ходят слухи что и нВидиа начала им что-то аутсорсить :)

Ну ответить смог/не смог NDA позволит ? Могу снять «видео проигрывания видео» с показом установок MX Player и состояния CPU Monitor ;)

Ну ответить смог/не смог NDA позволит ?

я и так вам скажу 4:4:4 и AVCIntra в реалтайме не сможет, но я не питаю надежд что мэдфилд поработит мир :)

а вот то что sandy bridge даже G840 справляется знаю по личному опыту...

i7 успевает захватывать с 2-х камер 12-ти битное труколор FullHD делать дескрамблинг и inverse LogC после кодировать в AVCIntra100 еще и текст на каждом фрэйме рисовать.

И я не питаю этих надежд ;) Просто как и большинство юзеров _уже_ могу юзать low power устройство с аппаратным ускорителем, а не ждать пока некая супер-пупер фирма разродится очередным fail’ом.

«японский космос» — это утверждать что арм убийца х86

AMD намерена использовать микроядра ARM Cortex в своих будущих процессорах

www.cybersecurity.ru/...ard/153208.html

Хе-хе, допрыгались инноваторы, блин ;)

А еще, АМД открыла ресерч центр в Киеве (Люксофт) где они будут заниматься ГПУ оптимизацией video processing алгоритмов ))))) У амд как и у интела и у прочих крупных игроков очень много утопических идей

Ну-ну, поглядим кто утопнет первый ;)

Кончено посмотрим :) а пока мы проверяем как ваш hardware да и software декодеры справятся с казалось бы с банальным mpeg2 (причем не 10-ти битным):

hu.lk/r3zbplvp1zsk

P.S. IPP справился, CUDA говорит что может но показывает мусор какой-то :)

Это видео играется только в software режиме. Играет норм, только пришлось aspect ratio вручную выставить — а то у дикторши физиомордию вытянуло.

еще не видел ни одного хардварного декодера который бы справился с 4:2:2 :) и какой же у вас CPU usage на обычном PALе?

Выставил в MX Playere 1 CPU max, получилось : ~51 sec total, 21 sec — 1GHz, 1 sec — 800MHz, 22 sec — 620 MHz, 6 sec: 475 MHz. Система в low power режиме, т.е. исключены клоки > 1GHz. Судя по всему Tegre хватило всего «пол-ядра» в low-power mode чтобы проиграть это видео.

многовато, но в принципе не плохо... сейчас попробую порезать 10-ти битное видео или могу записать если ваш девайс читает MXF

Не проще купить в контору трансформер, а то я как-бы дорогой тестер ;)

:) валяется у меня где-то тегра 2-я но так как она с неоном не дружит уже под слоем пыли сложно найти :)

Это как у меня OpenMoko телефон, уже наверное и батарейка сдохла ;)

Реально тиков ушло меньше, так как часть ушла на запуск плеера, часть на открытие видео и часть scheduler думал стоит ли понижать частоту. В идеале это все нужно мерять kernel профайлером и powertop’ом.

10 часов планшет держит при проигрывании video. (!)

Вот тут я открою маленький секрет, как это сделано у Intel, так как то, как сделано у nVidia тут рассказывать нельзя, но можно себе представить.

У Intel есть медиа конвеер, как часть 3D акселератора, который может делать обратную трансформацию, деквантизацию и т.п., а также делать полное декодирование определённых форматов, типа MPEG4 AVC, VC1/SMPTE. Когда работает медиаконвеер, 3D акселератор спит, вместе с ним спит 90% видеакселератора. Процессор со всеми ядрами тоже спит большую часть времени, т.к. его задача просто периодически поставлять данные для декодирования. Такой режим работы мало чем отличается от обычного активного standby.

Если проигрывается формат, не поддерживаемый медиа конвеером, то медиа конвеер отправляется в глубокий сон и вместо него просыпается 3D акселератор с двумя-четырьма активными 256-ти битовыми SIMD VLIW процессорами. В это время оставшиеся несколько десятков процессоров спят. Активные процессоры способны разрывать данные со скоростью 1024-2048 бит за такт. Программа дли них либо заранее написана, для поддержки какого-то из кодеков, либо генерится на лету в зависимости от входного видео потока. Во время такого проигрывания спит около 85% видео акселератора.

Поэтому удивляться, что долго держит батарея во время проигрывания видео, совсем не стоит. В это время ноутбук, планшет, как и практически любое современное устройство, практически ничего не делает.

Никто и не удивляется, ежу понятно что используется аппаратный декодер, в Tegre3 поддерживается HD видео формата 1080р с битрейтом до 40 Мбит/с, кодеки H.264, MPEG-4, DivX, WMV и VC-1. Вопрос — насколько эффективно это может быть реализовано в мобильной платформе. Nvidia это доказала, очередь за Intel, правда сначала им придется научиться делать свои мобильные графические чипы. Ну или как вариант купить [у] Nvidia ;)

Nvidia это доказала, очередь за Intel, правда сначала им придется научиться делать свои мобильные графические чипы.

Уже, см. проект Silvermont.

2013 год, это после «конца света», а нужен ли он будет тогда ? «Совершенство наступает в момент краха» ;)

Те, кто верит в Intel в этой жизни, попадут в валгаллу с кучей быстрых мобильных устройств с бесконечной батареей :)

Не факт, могут отмолить фаны Nvidia и AMD ;)

А еще у интела еще есть QuickSync а с Ivy Bridge появится AVX2 (256-ти битные регистры), ARM ничего подобного не анонсировал :) а интел уже говорит о возможности расширения до 512 и 1024 бит

кстати а в Sandy Bridge есть AVX (тоже 256-ти битные регистры правда только с возможностью fp операций).

AVX Оптимизированные аудио декодеры/энкодеры просто летают :) чего не скажешь о NEON версиях для армов

Было бы над кем стебаться

Да как же — есть над кем. Вот у вас ноут на Atmel. И сервер на Atmel.

Вы все-таки купите ноут на атоме

А почему на атоме? Core 2 Duo — продукция от Atmel потому что?

Нетбучек да, подумываю, на Brazose от AMD. Пока вы atmel’щики разродитесь на достойную платформу и жизнь пройдет.

Чтобы предметно спорить о достоинствах мобильного интела нужно его сначала иметь. Насобирайте денег, купите, а потом и продолжим.

С Вами я могу пока дискутировать только о влиянии на «сегодняшние цивилизации», так что увольте.

(полные провалы с i432, i860, Itanium, Atom, никому не нужный Medfield, etc.)

И тем не менее они родили следом в 90-х i960, который был прорывом в производительности встраиваемых микроконтроллеров. Его лепили везде.

Itanium никогда провальным не был.

Medfield — это проба пера, каким в своё время был i860, интел может себе это позволить.

Этот «прорыв» был похоронен самой Intel через несколько лет, как только она смогла получить разрешение на производство StrongARM от DEC.

Насчет Itanium, спасибо, посмеялся ;)

Medfield — это очередная лажа, которая если и будет продаваться то только так как это обычно привыкла делать Intel — через откаты и взятки.

Этот «прорыв» был похоронен самой Intel через несколько лет, как только она смогла получить разрешение на производство StrongARM от DEC.

Оно никак не связано, i960 — это flow процессор, а XScale — дребедень. Это абсолютно разные ниши, как для назначения, так и для применения.

Насчет Itanium, спасибо, посмеялся ;)

Ну и в чём провальность?

Medfield — это очередная лажа, которая если и будет продаваться то только так как это обычно привыкла делать Intel — через откаты и взятки.

Первые nVidia Tegra APX тоже были чудовищными, это был пробный заход на рынок, никто в здравом уме не ждёт от Medfield никаких достижений. Это тестовая платформа, и ничего больше.

Еще раз — «прорыв» (после провала i860) в виде i960 был тут же похоронен в угоду Xscale. Почитайте педивикию хотя бы (ru.wikipedia.org/wiki/I960)

А что Itanium занял хотя бы 1% процент серверного рынка ? Или by default считается, что если еще жив хоть один сервер на Itanium — то это еще не провал ? ;)

Вот-вот, в здравом уме никто не ждет ;)

Еще раз — «прорыв» (после провала i860) в виде i960 был тут же похоронен в угоду Xscale. Почитайте педивикию хотя бы

Я таки ещё три года назад перестал читать педивикию. Чего и Вам искренне желаю :)

А что Itanium занял хотя бы 1% процент серверного рынка ? Или by default считается, что если еще жив хоть один сервер на Itanium — то это еще не провал ? ;)

В том то и проблема, а на десктопах доля ARM 0.0001% — это полнейший провал этой платформы. Удел itanium’а — это суперкомьютинг.

В том то и проблема, а на десктопах доля ARM 0.0001% — это полнейший провал этой платформы. Удел itanium’а — это суперкомьютинг.

Опять рассмешили — сколько там всего мире суперкомпьютеров на этом чипе ? 3 или 5 ? А может «Изя все» ? ;)

Кстати «прорыв прорыва» они тоже похоронили (продали Marvell) чем подставили многих заложивших Xscale в свои разработки. Кидалово своих юзеров — это нормальная тенденция у Intel, чего только стоит жонглирование CPU сокетами на десктопах.

Кстати «прорыв прорыва» они тоже похоронили (продали Marvell) чем подставили многих заложивших Xscale в свои разработки.

Я тихо смеюсь над этим. Время жизни xscale процессоров было гораздо больше, чем время жизни современных ARM процессоров. На современных процессорах выпускают одно, максимум, два устройства и процессор снимают с производства.

Время жизни Xscale CPU было < 10 лет, что и является чистой подставой для embedded сегмента.

А современные ARM процессоры живут год, максимум два — это не подстава?

Это сильно от компании зависит — for example у меня в проектах Atmel SAM* серия прекрасно себя чувствует уже как много лет, еще парочку — и будет 10 ;)

Это только часть правды :) Вы являетесь мелкооптовым покупателем комплектухи, которая продаётся ещё лет пять после того, как она снимается с производства. А теперь поставьте себя на место производителя устройств, которому надо 2 миллиона чипов на этот квартал.

Ошибочка — эта «мелкооптовая» серия все еще не снята с производства самой фирмой производителем, в отличие от почившего с миром xscale.

Какой чип?

Atmel SAM*, который Вы по незнанию назвали мелкооптовым.

Какой именно SAM? По поводу мелкооптовости, перечитайте сообщение ещё раз.

Я немного неверно выразился — имелись ввиду дословно Ваши слова — «остатки чипов для мелкооптовых покупателей». SAM’ов используется 3 разных типа, вопрос не в SAM’ах, а в том что можно быть уверенным в фирме Atmel и сроках поддержки/выпуска ее чипов, чего не скажешь об Интел.

Также основная проблема Интел, что со времени i[23]86 они до сих пор так ничего и не смогли предложить миру нового

xScale
uk.wikipedia.org/wiki/XScale

«XScale — мікропроцесорне ядро, реалізація Marvell (раніше — Intel) п’ятого покоління ARM-архітектури, і складається з кількох сімейств: IXP, IXC, IOP, PXA та CE. Сімейство PXA було продане Marvell Technology Group в червні 2006.»

Это типа намек что Intel создала ARM ? ;)

Не — слегка поматросили и бросили ;)

значит,ь вирішили що «не перспективно»

і не «бросили», а перепродали

Если посмотреть по этой таблице производительность i7-720QM

Далее, здесь производительность Atom N550 в PCMark = 560

Далее здесь производительность i7-720QM в PCMark = 7776

То получаем что Tegra3 практически в 7 раз производительнее атома N550. Причем с 2W на 1.5 Ггц против 8.5W на на 1.5 Ггц. В результате преимущество производительности на TDP = 29 раз.

если все так хорошо, почему Apple и не сделала macbook air на ARM?

А OS X и софт кто портировать будет?

автор пишет:

вся роль портирования при отсутствии ассемлерных вставок (которых довольно мало в современных приложениях, где мало - это менее 1%) будет состоять в обычной перекомпиляции кода

Кроме того с выходом технологии WARM (Windows8 + ARM)

-FreeBSD- OS X — это не винда :)

будет состоять в обычной перекомпиляции кода

Это "если программисты все правильно напишут, а тестировщики все правильно протестируют" :)

iPhone и iPad на арме. Выход в свет WARM архитектуры сделает единую платформу на базе MS Windows для настольных и мобильных приложений. Это и загонит Apple там где она должна быть — в 5% от рынка мобильных устройств.

До этого долгое время была Windows CE, которая до некоторой степени была совместима с Windows для x86 с точки зрения API. Почему Windows RT должна стать другой?

сделает единую платформу на базе MS Windows для настольных и мобильных приложений.

Возможно кор (бизнес-логику), но УИ!
— УИ для маленького экрана и для большого — разный;

— УИ для тач и не тач — разный.

Можно сделать 1 УИ на все случаи жизни, но он будет одинаково ненавистен всеми юзирами на всех платформах (вспомните историю про Джава УИ, или менее известное про КуТе)

Погодите трубить в трубы. Быстрое ядро это конечно хорошо но это еще далеко не все. Не слишком хороший контроллер памяти может запросто помножить производительность системы на 0. Кроме того есть еще FPU которому в A9 еще далеко до core/athlon.

Понимаешь, голое перебрасывание данных между регистрами с периодическими чтениями/записями в память в одном маленьком регионе памяти, который с ногами залез в кэш первого уровня - это ещё не всё. Для начала посмотри исходники coretest, чтобы иметь представление, что он делает, и почему это не очень хороший тест. Например, там нет теста подсчёта хеша MD5 на 16-64 мегабайтном участке памяти, и т.д.

А затем потестить производительность SSE2 и NEON, то разница в производительности увеличится на порядок, а то и больше. Вася прав, если ещё добавить тест FPU, то разница будет плачевной.

Ну вообще-то даже сам производитель позиционирует Tegra как процессор для мобильных устройств. PS C ростом производительности потребляемая мощность растет нелинейно так-что насчет 10 раз это сильно преувеличенно.

>> ARM, как убийца x86
Енергосопживання дуже важливе для мобайл пристроїв, і не факт, що АРМ є плацебо. Причому там АРМ є допоміжним процесором, на якому виконується в основному ГУЙ, крім того там ще є ДСП, радіочастотний канала і т.д., які жеруть немало енергії.

Так що тема не розкрита.

АРМ є допоміжним процесором, на якому виконується в основному ГУЙ

А кто основной если не секрет?

Т.е. роль процессора в системе определяется его энергопотреблением? Я Вас правильно понял?

Бред. x86 давно не каноничный CISC, это раз. А во вторых - использовать бенчмарк, созданный специально для АРМоподобных процессоров для того, чтобы сравнить производительность тегры и x86 - чистой воды маркетинг. НВидия деньги так зарабатывает. Давайте вместо этого возьмем бенчмарк, который активно использует арифметику чисел с плавающей точкой и будем говорить что разные Cortex A8 это такой мусор.

Я конечно понимаю что процессоры с малым энергопотреблением зайнимают свою нишу, но не надо пожалуйста голословно провозглашать их скорую победу над стандартными i5-i7.

Підписатись на коментарі