У поточної роботи Gitlab.
У попередньої Youtrack основний, і рештка Request Tracker (сильно кастомізованого), мігрували з останнього.
Всюди де мав справу с JIRA — це було якесь жахіття. Боюсь, її навмисно налаштовують так, щоб було зручно тільки менеджерам, а решті — страждати.
Нарешті для Єдиного Марафету не треба буде живих людей!
Почему не гибрид?
«При влаштуванні» — може бути. Звісно, якщо роботодавець цінує цей показник.
А так — після набору 500 у мене відкрились нові права, після 3000 — ще якісь, і так далі. Гейміфікація на марші.
Спробуйте хоча б задати якесь запитання не отримуючи при цьому як мінімум3-5 дизлайків і репортів без будь-якого пояснення.
Ну у мене на основному SO сім запитань (і 183 відповіді).
На жоден не було репорту, наскільки я знаю. Не було дізлайків. (Були два, здається, на відповіді. Один — точно від проблемного співбесідника.)
Також бісить купа бажаючих «відредагувати» твоє запитання чи відповідь, просто тому що за це дають трішки репутації, а не тому що є реальна потреба.
Редагували — часто, але тільки мову, моя англійська дійсно не ідеальна.
В коментарях з’являється купа перфекціоністів, які розповідають що не так з моїм варіантом розв’язку, незважаючи на те що його відмітив як правильну відповідь сам автор запитання.
Дискусії були. Але всі по справі.
Здається мені, що проблема десь чи у вас персонально, чи в специфічному домені. Не підкажете свій логін на SO?
І де це ви все це знайшли на stackoverflow?
Можна хоча б два приклади?
Ну шахи і Go ж перемогли на автогенерації моделі?
Так і тут зроблять, сама питання задала, сама відповіла, в базу для навчання і пішли далі...
Про те, що редакція плутає все на світі, і називає словом «xPON» всю оптику, вже казали, мабуть, разів двадцять у таких статтях. Проте їм як по барабану, не чують.
PON відрізняється від класичних FTTH саме кількістю портів у провайдера. Але TDM вимагає відповідного обладнання у клієнта теж, воно має вміти так розділяти, ну і швидкість на одного абонента значно більше обмежена у такому випадку.
ash теж є: en.wikipedia.org/wiki/Almquist_shell
Використовується, коли треба ну дуже малий шелл (initrd, докерські імаджі...)
Спроб виконати nazg під ним я, звісно, не робив :)
Скрипти напевно написані на мові Саурона — у ній взагалі нема голосних літер.
«Аш назг гімбатулук» — голосних досить.
Після декількох днів експериментів зі скриптами Убунту перезавантажилася і показала мені консоль.
:)
Думати треба з будь-якою ОС.
Проблема вінди в тому, що при проблемах з нею в рази складніше.
Я вже не памʼятаю, на Паскалі свої ліби писати можна було, чи ні?
В лінії TP — BP — Delphi все було.
В стандарті ANSI (досить пізньому) теж було, але інакше.
В базовому зразку
Паскаль согласно позиции того же Вирта был дальше улучшен в направлении Modula (аж до
Паскаль же сам вырвался на свободу по известному принципу — в IT побеждает не лучшее, а первое минимально приемлемое (впрочем, такое много где).
Если сейчас смотреть в ту сторону, то нужно сделать нечто среднее между Modula-3 и Ada, без особых тяжеловесностей последней, но с максимальной защитой от типовых граблей, для чего упор на мощную типизацию.
Я втратив нитку бесіди
Це помітно: ви втратили її десь вже в третій раз.
Криптографічність для хеш-функції це просто наявність ефекта лавини і все.
Якщо подивитись в вікі, то криптографічність вимагає 1) preimage resistance, 2) second preimage resistance, 3) collision resistance, 4) приблизно равної імовірности будь-якого результату (image) для довільного входного аргументу (preimage). А те, що ви кажете про лавинний ефект — це вже наслідок (1), і його абсолютно недостатньо. Давайте ви спробуєте вже спиратись не тільки на власні фантазії?
Я вам про визначення, ви мені про назву.
Проте, secure hash — одна з загально відомих назв для того, що для чого офіційна перша назва — «cryptographic hash».
MD5 на моєму віці був актуальним, потім актуальним бути перестав. Питання є?
Є — чому крім актуальности ви не звертаєте уваги більше ні на що, і помʼякшуєте вимоги до рівня, який не є достатнім для реальних застосувань.
Так передумайте xDxDxDxDxD
Навіщо? Я писав на q, але зараз у мене нема, і, сподіваюсь, і не буде такої потреби.
тільки а навіщо його робити, навіщо комусь ламати Джавку або Пітухон?
Ломають не мови, а програми на них.
Підсумовуючи, я намагався отримати щось корисне-конструктивне з дискусії з вами, але це виявилось неможливим.
Проапгрейдив десктопи (попередні були на актуальному стані за
Не вигадуйте визначень, а почитайте що таке криптографічна хеш-функція. «secure hash» це якась галюцинація, таких хеш-функцій не буває.
Стандартне скорочення для cryptographically secure hash. Наприклад, в назві всього сімейства SHA. Не треба казати про галюцинації, коли ви самі далекі від реальности.
Буває криптографічний хеш актуального алгоритму і криптографічний хеш неактуального алгоритму.
Чим/як визначатимете актуальність?
Той хеш що в hashmap може бути нестійким до атаки на знаходження колізії, бо там мінімум раундів — але він все одно криптографічний.
Ніт. Він не має вимоги ні preimage resistance, ні тим паче second preimage resistance, і у більшости реальних реалізацій і не відповідає їм. А без цих вимог він не може бути криптографічним.
Планіметрія.
Ні, дайте результат згідно вашої попередньої класифікації, або визнайте, що вона неповна.
Луска собача. Де ви бачили такий криптографічний хеш у якого нуль колізій? Такого чуда чудесного теорія кілець ще не народила :(
Для множини аргументів такого ж розміру, як і множина результатів — тривіально: беру якісний симетричний шифр (наприклад, AES) з тим же розміром блоку і конкретним секретним ключем. А для довільної довжини аргументу — звісно, не буде, але і не очікувалось.
Але я про те, що навіть при тому ж розмірі множини аргументів (наприклад,
Мені щось ваш підхід до стилю аргументації перестає подобатись.
Кен Іверсон це бог мов програмування. Дивуватися правда є причини.
APL це було красиво, згоден. Але це тільки один аспект програмування. Ой не все можна укласти на довгі масиви.
А ось що і як Уїтні зробив після нього — мені зовсім не сподобалось.
Ну і зараз те ж саме пишуть без синтаксису APL просто на словах. Особливо воно вистрілило зі всякими SSE, «дякуючи» сучасному дизайну оперативної памʼяти (саме на цьому колись «виїхала» kdb+, але зараз таких time series вагон і маленький візок).
І засновані павутиною Форт/Лісп це теж для реальної роботи, ога. Реальна робота в раю хіба що.
Раєм це точно не було б, в Forth можна повіситись через ручний контроль за стеком, в LISP — через лічення дужок. Проте саме Forth як зразок мови для VM, а LISP — гомоіконічного універсального представлення даних, дає розуміння навіть там, де напряму це не використати. А ще S-expressions це універсальна мова конфігурації з виправленими дитячими хворобами синтаксису.
Чому «засновані павутиною»? Якою саме павутиною, і чому?
Я маю на увазі вимоги до hashmap по о-великому для таких і сяких випадків вхідних даних. Там треба розуміти хоча би тільки що чим більше hashmap набивається під зав’язку — тим частіше про чудові властивості приходиться забувати.
А тепер дивимось на те, для чого колись в Python вводили hash seed, а в Java — піддерева в HashMap. «Криптографічність» у вигляді preimage resistance тут би все одно не допомогла, бо вирахувати колізії, наприклад, для набора в 10↑9 елементів, зараз зможе школяр зі смартфоном.
Удовольствие от X
Теорема зонтика
От мозаик Пенроуза к надёжным шифрам
Ну теж цікаво, але вже інше.
Алгоритми бувають:
Цілочислені
Сортування
Пошуку
Навіть якщо так, пошук числа в масиві і пошук відрізку в інтервальному дереві це вже суттєво різні речі. А куди віднесемо, наприклад, триангуляцію багатокутника? Це сортування чи пошук?
Камон, криптографічна хеш-функція це не криптографія?
Ви писали про hashmap, а не про secure hash. Спільного у них приблизно те, що у карʼєрного самосвалу і ракетного двигуна: ну да, в обох паливо.
Пошук ідеального хеша у викладенні Івана Петрушенка — це сука голівудський блокбастер, детектив, трилер, погоня за бест-кейс, втеча від вёрст кейс, піу-піу атата і парадокс днів народження у всі отвори.
Неважливо, у чиєму викладенні. Прямого звʼязку тут немає. Ідеальність хеша не потрібна для того, щоб відповідати головним вимогам про стійкість до preimage attack, second preimage attack, і навіть до collision attack: навіть якщо буде на порядок менше, ну наприклад 2↑245 замість 2↑248, дивитимуться на сукупність характеристик. SHA-2 досі головний варіант у світовому продуктині, хоча йому вже 20 років.
З Блумом те ж саме — максимум, допоміжна технологія 2го рівня віддалености.
Це тільки одна із здоровенної множини фішок. Наприклад, з Ліспом тут спільне використання універсального розділювача (пробільний символ), з Фортом тут спільний спосіб організації команд — стек.
Еее все це ще про array programming?
у нас є тільки бродячий буфер від команди до команди і однопроходний (sic!) інтерпретатор. Нектар і амброзія.
Памʼятаю я таке в sendmail. Ні, краще я той scope юзатиму у класичному стилі.
То для реальної роботи така книжечка потрібна, а для освоєння CS достатньо:
Я казав про навчання для реальної роботи, а не для заліковки.
Нарешті, треба освоїти дебагер, бо він в принципі один і той самий хоч в C хоч в Lisp хоч ще десь.
Те, що спільне у дебагерів, це за пів-дня з перекурами.
А ось далі починаються особливості кожної мови і кожного дебагера.
Поки що я продовжую дивуватись вашим твердженням.
Що заважало зробити флаг компіляції regexpʼу? Як зараз присутні, зазвичай, ignore case, multiline. Якщо вже нема можливости надійно проконтролювати джерело (так буває?), то якщо такі небезпечні розширення вимкнені по дефолту, це менш насильно, ніж зовсім не давати.
Про термінологію — ну а якщо 95+% реалізує саме розширений варіант, дивно було б чекати іншої інтерпретації.
а помилку незрозуміло як обробляти.
Незрозуміло у якому сенсі?
У вас є правило, воно не спрацювало. Якщо це
на правилі редиректу HTTP-серверу
значить, 503 клієнту, і аларм кудись у моніторінг.
Ну ось я не бачу в тому, що він один, жодної переваги.
Або ж якщо це тільки перегрупування ніг при вже успішному запиті на трансфер, там взагалі нема про що думати в плані автомата.
Чудова стаття. Щонайменше, дає вход в тему в цілому.
Коментарі і зауваження:
1. LRU це, звісно, база, але проблема вимивання важливих значень вирішується більш складними адаптивними алгоритмами. Наприклад, 2S, або S3-FIFO. В них головною ідеєю є то, що дані, яких питали менше ніж k разів, вважаються тимчасовими і видаляються поперед постійних.
Це і коментар до формули «візьмемо WSS і домножимо на 2» (чи інший коефіцієнт зі стелі).
Ну а MRU це у 99.99+% випадків — жарт або «хлопчик для биття» для теорії. Рандомне видалення (з нього колись починала AMD в своїх процесорах) вже краще.
2. TTL для даних, що не устарівають за визначенням, не має сенсу. Тому саме LRU чи щось тонкіше — головне, а TTL вторинне. Є специфічні винятки, як DNS.
3.
> Уся логіка TTL активується лише тоді, коли ми читаємо або записуємо ключ.
Ніхто не заважає робити код типу «на кожний запит з кеша робити два кроки перебору старих даних на предмет вичистки», ну і на доданок якийсь фоновий процес, якщо запити раптом зупинились.