Компанії масово впроваджують AI, не завжди розуміючи, як працюють моделі та чи можна їм довіряти.
🔍 Чому модель надала саме такий прогноз? Який був датасет? Чи можу я пояснити це рішення користувачу або регулятору?
На вебінарі AI & Cybersecurity ми розберемо, як будувати explainable AI, чому це must-have у кібербезпеці, та які підходи практикують компанії в ЄС і Україні.
У програмі вебінару:
— Як довіра до алгоритму стала новою зоною ризику
— Як виглядає «прозорість» моделей у практиці (XAI, аудит, політики)
— Що вимагають регулятори — і як це вплине на вашу систему (DORA, EU AI Act)
— Які кейси вже є в Україні — приклад національної LLM
— Інтервʼю зі студентом Neoversity — як знання InfoSec допомагають у продакшені
🎙 Спікер — Сергій Борона, Head of Information Security у Ciklum
✔ Побудував системи безпеки в топових українських компаніях
✔ Має глибоку експертизу у правовому та архітектурному аспектах впровадження AI
✔ Автор магістерської програми з кібербезпеки в Neoversity
+ інтервʼю зі студентом Cybersecurity у Neoversity, який розкаже, як адаптує свій код до вимог сучасного InfoSec
📅 22 квітня, 19:00
🧩 Онлайн, безплатно
Реєстрація: i.goit.global/CoUkj
Немає коментарів
Додати коментар Підписатись на коментаріВідписатись від коментарів