Обучение нейросетей. Мощный GPU на Core i3

Добрый день!

Хочу проапгрейдить свой комп (intel core i3) для обучения нейросетей.
В планах:
1. Установить блок питания мощный.
2. Установить видеокарту GeForce GTX 980 ti. Может даже что то более мощное.

Вопрос: насколько сие «изобретение» будет справлятся с обучением глубоких нейросетей — Сверточные сети (Tensor flow, GPU)?

👍НравитсяПонравилось0
В избранноеВ избранном0
LinkedIn
Допустимые теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Допустимые теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Обратите внимание на последнее поколение Nvidia GPU, оно заметно лучше для обучения глубоких нейронных сетей. См. Which GPU(s) to Get for Deep Learning: My Experience and Advice for Using GPUs in Deep Learning

Спасибо,интересный пост. Хороший комментарий

Generally, I would recommend the GTX 1080 or GTX 1070. They are both excellent cards and if you have the money for a GTX 1080 you should go ahead with that. The GTX 1070 is a bit cheaper and still faster than a regular GTX Titan X. These cards currently have poor half-float performance and thus do not have any other advantage than speed over a regular GTX Titan X. Both cards should be preferred over the GTX 980 Ti due to their increased memory of 8GB (instead of 6GB).

Очень хорошо подойдёт. Он почти не отличается от титана по мощности (10% разница в гигафлопсах), а последний считается классикой для различных научных статей и на нём спокойно запускаются почти все современные сети. Если вы не будете работать с датасетами >50 гигабайт, то едва ли будут какие-то проблемы.

Спасибо большое за Ваш топик. То есть у Вас ьыо реальный опыт работы на такой «несбалансированной» системе, и при этом ничего нигде «нежало»?

Все училось быстро?

Обучалось относительно быстро, но это зависит от задачи и архитектуры. Я пробовал на Титане обучать DCGAN, там был датасет на 200к изображений, за ночь результат был визуально почти не отличим от лучшего возможного при такой архитектуре сети. Но, конечно, для максимально лучшего нужно обучать уже дня 2-3. А вот на другой системе с чуть более слабой видеокартой пробовал обучать сеть FCN для сегментации изображений (когда она выделяет людей, технику, животных и прочее, но только не обводит прямоугольниками, а именно закрашивает пятнами), так там за ночь почти ничего не получилось, нужно было хотя бы полный день для минимального результата. На Титане оно бы тоже день обучалось.

А по поводу «ботлнеков» и других узких мест проблем не было. Фреймворки для машинного обучения хранят все переменные на видеокарте и там же обрабатывают, так что процессор нужен разве что бы быстрее читать изображения из выборки и передавать их на обработку на видеокарту.

Спасибо Вам, и Viktor Chyzhdzenka, большое.
Вы реально мне помогли. Надеюсь Ваши советы будут в пору. Буду покупать 980ti.

Проц тебе мощный может понадобиться для того, что не реализовано еще в GPU. Первоначальную разработку чего нового чаще проще вести на CPU, но, я могу в этом ошибаться.

980ti очень хорошая для игр, при условии разогнанного проца i7-го последнего поколения. Для нейронных сетей хз, может есть смысл брать дешевый радеон как для майнеры делали, потом его выкинуть.

Нет. Только не Радеон и вообще любое от АМД. Они красивы только в рекламных буклетах. В реальности же просто не работают или гарантированный длительный трахач с их железом с неизвестным результатом и закатыванием Солнца ручками.
Радеоны еще для игр могут подойти, потому как с ними трахаются разработчики игр.

Для игр я уже лет 12 радеоны не беру, ну их. Но для всяких майнингов why not?

Ну вот. И для игр уже не подходят :))).
Для GPGPU — они однозначно не годяться, только Нвидиа с Кудой подойдет.

Все от конкретных задач зависит
У амд и нвидии разные подходы

У АМД — это просто гарантированный таней с бубном.

Интересно, что я делаю не так? :)
Вот у нвидии дрова при работе с опенцл не единожды сдыхали
А с амд такого не было

І3 може не вистачати для розкриття повного потенціалу 980ti. Тут потрібен проц серії хоча б І5. Для І3 беріть 960тку чи 970 в крайньому випадку....чи апгрейдніть проц перед цим.

Зачем? Объяснить можешь? Он же не для игр спрашивает.

Відверто скажу, в нейронках ніц не шарю, однак я так розумію, але з того що знаю, такого роду операції по нейронці, обмін даними між GPU і CPU все ще відбувається стандартним чином (навіть тоді, коли операції зі сторони GPU виконуються здебільшого т.з. CUDA процессорами). Для підстраховки я б радив брати I5 щоб точно уникнути різного роду "bottleneck"ів зі сторони процесора.

При обмене данными нагрузка на шину и тут рулить начинают Теслы и мамка с контроллером (немного CPU).
Ну и зависит от задач ТС, многие на одном компе просто не решишь и нужно делать кластер.

Краще на Amazon AWS спробуй орендувати обчислювальні потужності.

Я как-то считал стоимость. Амазон получается дороже покупки железа.

Я хочу что была возмоность «играться» с нейросетками. Так понимаю что всякие экспиременты на амазоне дело не дешевое. Я пока ничего не заработываю на DML :(

А так хочеться ...

Урезай размеры сетей, урезай обучающую базу. Для того чтобы поиграться этого часто достаточно. Побочный эффект, придеться детально разобраться в применяемых алгоритмах.
Очень часто базу можно урезать без потери качества обучения, но для этого нужно в деталях понимать, что проиходит при обучении сети.

Я писал несколько реализаций нейросетей. Своих специально для того что бы понимать из чего они состоят на самом низком уровне. Теперь когда имею представление об устройтстве. Решил перейти на серьезный фреймворк. Только с железом засада....

Что касается урезание выборок. То действительно дельный совет. Меня это часто спасало. Немного точность падала обученной сети. А так все норм работало.

на амазоне весьма старые мощностя.

Даже и древний Селерон справиться.
Ты вопрос корректно поставь. А то может тебе и нескольких тысяч Тесл не хватит.

Насколько быстро такая система будет работать? Каков будет КПД мощьного GPU на таком процессере. Вот тут топик с которого все начиналось. Тут мы обсуждали «текущую сииуацию» dou.ua/forums/topic/17818

Что такое "

Каков будет КПД мощьного GPU на таком процессере
".

Если вычисления в основном в GPU, то и процессор не сильно важен. Данные гонять между видео и системной памятью, там проц мало что делает.

а сейчас с обучением какие проблемы? не справляется?

Очень медленно идет обучение :( Вопрос вытекает из этого типика — dou.ua/forums/topic/17818

Там же и один из вариантов ответа:

Если быть точным, для нейросеток у меня стоит Lenovo ThinkStation C30 в чифтековском корпусе, с водой на процессоры, 128G памяти и GTX 980 Ti + quantum satis флешек и спин-дисков. Именно такая конфигурация пока нигде не жмет, однако, рискну предположить, что для эффективной обработки изображений потребуется не одна, а 2-4 GPU карты хотя бы с 12G RAM каждая (GTX Titan X, ну или новые Pascal’и уже). Это значит уже стоечный корпус и серьезное охлаждение. Иначе получается какое-то вечное ожидание пока там что-то доучится толком.
Да и вот тебе там ответили:
graphific.github.io/...p-learning-dream-machine
Но и этого хватит только для определенных задач, а не вообще.
Для многих задач тебе может понадобиться кластер из десятков, сотен, тысяч и более таких машин. И поэтому многие задачи пока в силах пытаться решать только Гуглы, Майкрософты, Амазоны и подобные конторы со своими «фермами».

Спасибо за Ваши ответ. Задумался.
Вопрос: я могу временно поставить

GTX Titan X,
На core i3. И в будущем прикупить к нему мощьный камень?
Смогу при этом какой нить «простой» дасет гонять? Или слабый CPU будет «бутылочным горлышком»? И профита от такой карты не будет.

Без понятия. Там же по ссылкам и есть указание на предполагаемые бутылочные горлышки. Если большая часть кода будет выполняться в GPU и пересылок между GPU и CPU будет мало, то CPU не будет тормозить. А в применении к конкретному инструменту надо пробовать и разбираться в его исходниках, как он работает с CPU и GPU. Ну можно еще мучать такими вопросами разрабов инструментов, но вероятнее всего они тебе или не ответят или пошлют лесом.
Для какого инструмента может быть вообще 90% работы на CPU и ему может оказаться желательно вообще кластер на ксеонах, а GPU там сбоку-припеку. А в каком может быть всё наоборот.
Я бы для подобных игр не гнался за топовым железом, а ориентировался на свой бюджет. Или уже собирал того монстра, если бюджет большой.

Спасибо за наставления. И совет!

карту берите с большим числом cuda ядер насколько сможете себе позволить. роль проца тут второстепенна. i3 вам хватит. поэтому не заморачивайтесь.

О, HR-спец???
Хотел постебаться, но, подумал, может это эйчарство у тебя хобби.

А что за сексизм? Если девушка и если HR, то на вашем уровне рассуждать не может? Гребаный патриархат...

На основе чего сделано такое суждение? :)
Может, программист подсказал, специалист по CV/CNN/DML?

Подписаться на комментарии