научились оптимизировать правильно написанный на C/C++ код в подавляющем большинстве случаев не хуже человека
Они не способны оптимально использовать инструкции векторизации (типа AVX), они не способны учитывать кэш, они не способны распараллеливать вычисления, заменять брэнчинг на спекулятивные вычисления и использовать оптимальный аллокатор объектов.
UPX — это ленивая оптимизация. В таких демках жесткий ассемблер и математика. Можете поискать еще .kkrieger — там 96к и очень нехилая графика для такого размера. Просто тратить сотни мегабайт на что? Чтобы у дерева шевелились листики, а тучка капала дождиком?
Это, кстати, хорошая шутка над автором статьи, потому что эта программа занимает 64к памяти )
В том-то и дело, «и эти люди запрещают мне в носу ковыряться!»
Вы еще забыли, что раньше кроме 5% ФОПа надо было еще 5% заплатить банкам за двойную конвертацию (доллары на счету ФОПа -> гривны на руках -> доллары на руках).
Тогда откажитесь от bounding box — и опа! — ваша нейронка стала еще легче и еще быстрее.
А зачем использовался YOLO — вам что, нужен bounding box?
Как получить работу в геймдев-компании
По классике надо написать свой движок. А вообще, в геймдеве ты больше сталкиваешься с необычными людьми и можешь показать окружающим, чем занимаешься.
У меня претензии к палитре тепловой карты. «Радуга» не является хорошей палитрой для представления данных по очень многим причинам, но вы можете легко это исправить, взяв что-нибудь отсюда:
matplotlib.org/users/colormaps.html
Benchmarking Edge Computing — сравнение таких одноплатных компьютеров для ML
По ссылке сравнение корпусов eGPU
Свою работу автор успевает сделать за 60% времени, а 40% остается на семью. Не забывайте, что автору не надо ездить в офис.
Под линухами, кстати, хром можно загружать из-под докера как нативное приложение, при этом выделив ему, скажем, не больше одного CPU и 512 Mb памяти — и пусть вертится как хочет.
Например, каждая входная переменная возводится в степень (для вектора — поэлементно) или применяется exp() или другая нелинейная функция. Такую систему сложнее обмануть, но ее экспрессивность будет под вопросом.
Абсолютно верно. Но обмануть их так же легко, потому что на входе они — линейные.
Разумеется, ведь нейросети основаны на линейных моделях.
Выиграть это соревнование весьма почетно, но если вас интересуют деньги, то зачем соревнования? Устройтесь на работу в IT, выберите что там сейчас самое востребованное и пилите бабло.
Вот здесь ставят очень интересные математические челленджи: azspcs.com
Если знаешь коэффициенты линейной модели, то для изменения предсказания, скажем, 0.05 гиббон на 0.95 гиббон надо изменить каждое из входных измерений на небольшое число. Причем чем больше размерность входных данных, тем меньше надо сделать изменение относительно каждой размерности.
Модели, основанные на линейных моделях, легко обмануть, причем чем больше размерность входных данных, тем легче: чтобы сдвинуть предсказание на желаемое надо только твикнуть каждый из входных параметров на чуть-чуть в нужную сторону. В итоге входные данные как будто такие же, а выход совершенно неожиданный.
Нет