.NET Fest: полная программа конференции на сайте. Присоединяйся к самому большому .NET ивенту
×Закрыть

Data & Analytics Meet-up in Ciklum Kyiv

Відбулось
14 вересня (субота)
Час
10:00 — 18:00
Місце
Київ, вул. Амосова, 12, Ciklum
Вартість
безкоштовно
Підуть

14 вересня ми раді запросити вас взяти участь у Data & Analytics Meet-up у Ciklum Києві, який ми організовуємо разом з Data Science UA.

Участь у заході безкоштовна! Обов’язковою є реєстрація за лінком до 9 вересня.

Кількість місць обмежена, тому підтвердження реєстрації та запрошення будуть надіслані з 9 по 12 вересня.

Попередній розклад заходу:

10.00 — 10.30 — Реєстрація
10.30 — 10.40 — Вступ
10.40 — 11.20 — Спікер 1
11.20 — 12.00 — Спікер 2
12.00 — 12.30 — Перерва на обід
12.40 — 13.20 — Спікер 3
13.20 — 14.00 — Спікер 4
14.00 — 14.20 — Coffee break
14.20 — 15.00 — Спікер 5
15.00 — 16.00 — Panel discussion
16.00 — 17.30 — Спілкування & піца

Спікери заходу

Євген Недашківський
DBA/Developer — AllStars-IT Ukraine

Тема: Узгодженість, паралелізм та блокування в сучасних базах даних.

Давайте поговоримо про теорію та практичну реалізацію багатопоточної обробки даних в сучасних СУБД та розберемо кілька практичних прикладів.
Спробуємо розібратися та обійти потенційні проблеми та на прикладі Microsoft SQL Server.
Під час доповіді ми торкнемось тем паралелізму, затримок, блокувань та взаємоблокувань, а також різних рівнів ізоляції.

Про спiкера: Microsoft MVP, Database Administrator/Developer with 10+ years of experience, university teacher, Ukrainian Data Community Kyiv co-organizer

Євген Полонiчко
Senior Software Developer — ELEKS

Тема: Архітектура сучасного сховища даних
Традиційний DWH служив нам добре протягом багатьох років, але нові тенденції змушують його руйнуватися чотирма різними способами: зростання даних, швидкі очікування запитів від користувачів, нереляційні / неструктуровані дані та дані, що виникають у хмарі. Як можемо запобігти цьому? Ввести сучасне сховище даних, яке призначено для підтримки цих нових тенденцій. Цей підхід обробляє реляційні дані, а також дані в Hadoop, дає спосіб легко взаємодіяти з усіма цими типами даних за допомогою однієї моделі запитів, а також може обробляти «великі дані», забезпечуючи дуже швидкі запити. Як це зробити використовуючи платформу Microsoft? Microsoft Azure може надати набір повністю керованих сервісів, які дозволяють створити сучасний DWH за кілька хвилин. Як, де та скількі це буде коштувати? Відповіді на всі ці питання ви можете знайти на доповіді Архітектура сучасного сховища даних.

Про спiкера: Євген Полонічко має понад 7-річний досвід роботи з SQL Server. В основному він зосереджений на BI-проектах (SSAS, SSIS, PowerBI, Cognos, Informatica PowerCenter, Pentaho, Tableau). Євген є пристрасним спікером та волонтером спільноти SQL, регулярно представляє події у PASS SQL Суботу та в місцевих групах користувачів по Україні та Європі. Євген — один з PASS Chapter лідеров та має статус Data Platform MVP.

Євген Бобров,
Розробник платформних сервісів, YouScan

Тема доповіді: Літаємо з Великими Даними економ класом
Big data = Big money?

Як заощадити на роботі з великими даними, використовуючи знання предметної області та особливостей бізнес-моделі? Яку альтернативу Hadoop можуть дати хмарні сховища та чому використання ДатаЛейк більш вигідно з економічної точки зору?
Все це та набагато більше в доповіді Євгена про оптимізацію архітектури даних YouScan.

Іван Драгун
Principal Data Analyst, Frag Lab

Тема: Інженерія даних в ігровій індустрії

Основний акцент доповіді буде на архітектурі даних та data pipelines у контексті ігрової розробки. Що таке data pipeline? Чому вам може знадобитися Confluent Schema Registry та AVRO? Що таке Streamsets Data Collector і чому він крутий? На чому краще зосередити зусилля при розробці data pipelines? На ці та інші питання спробуємо знайти відповідь.

Про спікера: Більше 15 років у розробці ігор. Був ігровим дизайнером на проекті Warface від самого початку. Аналізом даних займається з 2014. Останні роки зосереджений на інженерії даних.

Олександр Бондаренко
Big Data Engineer, Ciklum

Тема: Як побудувати ETL та CDC на основі Kafka

Що означає підхід Кафка як публічний API і які задачі він вирішує? У якому випадку не потрібен сторонній change data capture, а краще написати власний? Ми розглянемо приклад архітектури, що втілює вищенаведені та деякі інші рішення, та оцінемо її з погляду досягнення нею своїх цілей.

Про спікера: Більше 8 років у софтверній розробці на Java/Scala. Розробляв веб-сервіси та ETL продукти у банківскій сфері, сфері фінансів та спортивних змагань. Останні роки працює з ETL та BigData.

У розкладі можуть бути зміни. Побачимось на заході!

Зареєструватися

Google Calendar iCal
LinkedIn

Нет комментариев

Подписаться на комментарииОтписаться от комментариев Комментарии могут оставлять только пользователи с подтвержденными аккаунтами.

Подписаться на комментарии