Обучение нейросетей. Мощный GPU на Core i3

Добрый день!

Хочу проапгрейдить свой комп (intel core i3) для обучения нейросетей.
В планах:
1. Установить блок питания мощный.
2. Установить видеокарту GeForce GTX 980 ti. Может даже что то более мощное.

Вопрос: насколько сие «изобретение» будет справлятся с обучением глубоких нейросетей — Сверточные сети (Tensor flow, GPU)?

Підписуйтеся на Telegram-канал «DOU #tech», щоб не пропустити нові технічні статті

👍ПодобаєтьсяСподобалось0
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Обратите внимание на последнее поколение Nvidia GPU, оно заметно лучше для обучения глубоких нейронных сетей. См. Which GPU(s) to Get for Deep Learning: My Experience and Advice for Using GPUs in Deep Learning

Спасибо,интересный пост. Хороший комментарий

Generally, I would recommend the GTX 1080 or GTX 1070. They are both excellent cards and if you have the money for a GTX 1080 you should go ahead with that. The GTX 1070 is a bit cheaper and still faster than a regular GTX Titan X. These cards currently have poor half-float performance and thus do not have any other advantage than speed over a regular GTX Titan X. Both cards should be preferred over the GTX 980 Ti due to their increased memory of 8GB (instead of 6GB).

Очень хорошо подойдёт. Он почти не отличается от титана по мощности (10% разница в гигафлопсах), а последний считается классикой для различных научных статей и на нём спокойно запускаются почти все современные сети. Если вы не будете работать с датасетами >50 гигабайт, то едва ли будут какие-то проблемы.

Спасибо большое за Ваш топик. То есть у Вас ьыо реальный опыт работы на такой «несбалансированной» системе, и при этом ничего нигде «нежало»?

Все училось быстро?

Обучалось относительно быстро, но это зависит от задачи и архитектуры. Я пробовал на Титане обучать DCGAN, там был датасет на 200к изображений, за ночь результат был визуально почти не отличим от лучшего возможного при такой архитектуре сети. Но, конечно, для максимально лучшего нужно обучать уже дня 2-3. А вот на другой системе с чуть более слабой видеокартой пробовал обучать сеть FCN для сегментации изображений (когда она выделяет людей, технику, животных и прочее, но только не обводит прямоугольниками, а именно закрашивает пятнами), так там за ночь почти ничего не получилось, нужно было хотя бы полный день для минимального результата. На Титане оно бы тоже день обучалось.

А по поводу «ботлнеков» и других узких мест проблем не было. Фреймворки для машинного обучения хранят все переменные на видеокарте и там же обрабатывают, так что процессор нужен разве что бы быстрее читать изображения из выборки и передавать их на обработку на видеокарту.

Спасибо Вам, и Viktor, большое.
Вы реально мне помогли. Надеюсь Ваши советы будут в пору. Буду покупать 980ti.

980ti очень хорошая для игр, при условии разогнанного проца i7-го последнего поколения. Для нейронных сетей хз, может есть смысл брать дешевый радеон как для майнеры делали, потом его выкинуть.

Для игр я уже лет 12 радеоны не беру, ну их. Но для всяких майнингов why not?

Все от конкретных задач зависит
У амд и нвидии разные подходы

Интересно, что я делаю не так? :)
Вот у нвидии дрова при работе с опенцл не единожды сдыхали
А с амд такого не было

І3 може не вистачати для розкриття повного потенціалу 980ti. Тут потрібен проц серії хоча б І5. Для І3 беріть 960тку чи 970 в крайньому випадку....чи апгрейдніть проц перед цим.

Відверто скажу, в нейронках ніц не шарю, однак я так розумію, але з того що знаю, такого роду операції по нейронці, обмін даними між GPU і CPU все ще відбувається стандартним чином (навіть тоді, коли операції зі сторони GPU виконуються здебільшого т.з. CUDA процессорами). Для підстраховки я б радив брати I5 щоб точно уникнути різного роду "bottleneck"ів зі сторони процесора.

Краще на Amazon AWS спробуй орендувати обчислювальні потужності.

В районі кількох $ година.

Я хочу что была возмоность «играться» с нейросетками. Так понимаю что всякие экспиременты на амазоне дело не дешевое. Я пока ничего не заработываю на DML :(

А так хочеться ...

Я писал несколько реализаций нейросетей. Своих специально для того что бы понимать из чего они состоят на самом низком уровне. Теперь когда имею представление об устройтстве. Решил перейти на серьезный фреймворк. Только с железом засада....

Что касается урезание выборок. То действительно дельный совет. Меня это часто спасало. Немного точность падала обученной сети. А так все норм работало.

на амазоне весьма старые мощностя.

Насколько быстро такая система будет работать? Каков будет КПД мощьного GPU на таком процессере. Вот тут топик с которого все начиналось. Тут мы обсуждали «текущую сииуацию» dou.ua/forums/topic/17818

Если вычисления в основном в GPU, то и процессор не сильно важен. Данные гонять между видео и системной памятью, там проц мало что делает.

а сейчас с обучением какие проблемы? не справляется?

Очень медленно идет обучение :( Вопрос вытекает из этого типика — dou.ua/forums/topic/17818

Спасибо за Ваши ответ. Задумался.
Вопрос: я могу временно поставить

GTX Titan X,
На core i3. И в будущем прикупить к нему мощьный камень?
Смогу при этом какой нить «простой» дасет гонять? Или слабый CPU будет «бутылочным горлышком»? И профита от такой карты не будет.

Спасибо за наставления. И совет!

карту берите с большим числом cuda ядер насколько сможете себе позволить. роль проца тут второстепенна. i3 вам хватит. поэтому не заморачивайтесь.

А что за сексизм? Если девушка и если HR, то на вашем уровне рассуждать не может? Гребаный патриархат...

На основе чего сделано такое суждение? :)
Может, программист подсказал, специалист по CV/CNN/DML?

Підписатись на коментарі