Як з безвідповідального ШІ зробити Responsible AI проєкт
Вітаю, спільното DOU. Я — Шереметєва Анна, R&D Product Manager з понад 10 роками досвіду в ІТ-індустрії.
В цій статті я продовжую ділитися досвідом із R&D проєктів, в яких я брала участь. Цього разу, на прикладі інновації, що поєднувала в собі багато технологій, в тому числі, GenAI та embedded, розглянемо гарячу сьогодні тему створення Responsible AI рішень.
В цьому матеріалі висвітлені основні чинники, що підігрівають важливість Responsible AI; як головні гравці BigTech визначають для себе це поняття та їхні підходи до побудови фреймворку. Стаття буде корисною продактам і розробникам, які працюють з AI-powered рішеннями та потребують розуміння, як створити свій підхід Responsible AI в компанії та вбудувати його в процес розробки.
Вступ
Чим більше розвивається ринок рішень з використанням АІ, тим більше зростають ризики і занепокоєння стейкхолдерів. Згідно зі свіжим звітом Аrtificial Intelligence Index Report 2025 від Стенфордського університету, глобальний АІ-оптимізм у розвинених економіках залишається досить низьким: Канада (40%), США (39%), Нідерланди (36%). Для порівняння в КНР та Індонезії — понад 80%.
Cеред причин, які наводить той самий звіт, можна виділити:
- економічні (більшість компаній інвестують в АІ більше, ніж отримують від нього фінансових переваг);
- технічні (АІ-моделі стають кращими, дешевшими і швидшими, але старі «хвороби» усе ще присутні: упередження, галюцинації, непрозорість рішень, просідання складного мислення (complex reasoning). Також обмежується кількість публічних даних, на яких тренуються моделі, як наслідок — неточність моделі);
- екологічні (через тренування АІ моделей значно зростають СО2 викиди);
- етичні (АІ все більше інтегрується у щоденне життя людей, але довіра до АІ-рішень падає, в тому числі, через гучні випадки неетичного використання моделей, як-от маніпулювання виборами в різних країнах);
- безпекові (кібербезпека, захист приватних даних, авторських прав тощо залишаються великим викликом).
Можна скільки завгодно звинувачувати технологію у всіх бідах, однак більшість проблем пов’язані з тим, що індустрія АІ — це усе ще дике поле з необмеженими можливостями, і як плата за це — з високими ризиками. Та в будь-якій системі статус-кво не може тривати вічно. Отож, негативні наслідки спровокували нині зростаючий тренд у вбудовуванні Responsible АІ практик у процес створення АІ-рішень.
Що таке Responsible AI
Наразі не існує універсального визначення, що таке відповідальний штучний інтелект, як і не існує якоїсь єдиної політики, яка роз’яснить, як саме застосовувати такі принципи в проєктах. Кожна організація має сама визначити, що вона вкладає в ці підходи, спираючись, перед усім, на свої місію та цінності, а також на існуючу нормативку та best practices, які є в індустрії. Для ілюстрації наведу кілька прикладів:
AWS*: Responsible AI — набір практик і принципів, які забезпечують прозорість і надійність AI-систем через зниження потенційних ризиків і негативних наслідків.
IBM: Responsible AI — набір принципів, які застосовуються під час дизайну, розробки, розгортання та використання штучного інтелекту, аби будувати довіру до AI-рішень, які мають потенціал надати конкурентні переваги організації та її стейкхолдерам.
Microsoft Azure: Responsible AI — це підхід до розробки, оцінки та розгортання AI-систем безпечно та етично з метою вибудовувати довіру до AI-рішень.
Google Cloud*: Responsible AI — це фреймворк, що складається з принципів та практик, що забезпечують етичне, безпечне та підзвітне створення AI-систем на усіх етапах розробки і з метою прийняття відповідальних рішень.
Як видно на прикладах ІТ-гігантів, визначення доволі розмите, але на основі спільних моментів можна сформулювати своє узагальнене розуміння. Responsible AI — це набір заходів, вбудованих у кожен етап розробки АІ-систем з метою оцінки і запобігання ризиків їх використання в неетичний або шкідливий для людей і організацій спосіб. Також вони дозволяють забезпечити прозорість і безпеку функціонування таких систем.
Підсумовуючи, зазначу, що Responsible AI якраз і має на меті запобігання проблемам, які були зазначені у вступі, як-от етика, прозорість, справедливість, відповідальність, безпека.
*Згідно з матеріалами тренінгів від AWS та Google Cloud на Coursera.
Власний досвід
В 2022, працюючи в R&D-департаменті в ролі R&D Product Manager, із відділу маркетингу я отримала запит на створення імерсійного досвіду для виставки. Рішення мало притягувати відвідувачів на стенд компанії й підвищувати пізнаваність бренду.
Аби створити такий «магніт» привертання уваги на заході з понад 70 тисячами відвідувачів, з одного боку треба було залучити якісь цікаві новітні технології. А з іншого — слідувати досить суворим вимогам конференції WebSummit (у них є багато обмежень, що можна і що не можна мати на стенді). Крім того, рішення мало стояти в публічному просторі, тому необхідно було брати до уваги питання приватності, персональних даних, етики тощо.
В результаті я запропонувала концепцію наступного мультимодального досвіду: відвідувач ініціює досвід за допомогою haptic-пристрою (більше про це в статті на DOU), інфрачервона камера зчитує рух руки й ініціює розпізнавання обличчя за допомогою вебкамери і АІ.
Поки відвідувач взаємодіє з цифровим асистентом, AI-модель генерує футуристичне зображення відвідувача разом із передбаченням професії майбутнього та створює NFT. При цьому під час взаємодії відвідувач відчуває різні хаптичні ефекти. В кінці відвідувач отримує на руки роздруковану персоналізовану
Сетап імерсійного досвіду. Джерело — авторська стаття What’s my future: A Multisensory Digital Human Agent Experience
Крім того, що рішення створювалося для великої престижної виставки, воно задіювало багато різних технологій, в тому числі ранній генеративний AI. Тому до розробки треба було поставитись дуже відповідально, адже йшлося про репутацію компанії.
В 2022 процедура Responsible AI в компанії була неформальною і лише четвертий крок був чітко прописаний та обов’язковий для виконання для усіх ініціатив. Тому деякі кроки робилися інтуїтивно і керувалися здоровою логікою. Нижче поділюсь процесом і деякими прикладами на кожному етапі.
Крок 1. Оцінка концепції
На етапі концепції була зібрана кросфункційна група, що складалася із різних спеціалістів з brand marketing, PR і комунікацій та мене, R&D Product Manager. В рамках Responsible AI ми оцінювали етичні та репутаційні аспекти, відповідаючи на такі питання:
- Чи взагалі доцільний досвід такої собі «цифрової ворожки»? Чи це етично?
- Які вузькі місця — технічні, психологічні, регулятивні — має рішення?
Найзапекліша дискусія точилася довкола першого питання. З’ясувалося, що багато людей можуть мати забобони щодо будь-яких передбачень, навіть таких ігрових, або мати релігійні застереження. Лише через ці ризики концепцію можна було відправити на смітник.
Аби подолати сумніви, ідея була презентована ширшому грону спеціалістів із маркетингу, в тому числі
Зрештою після оцінки вирішили продовжити працювати з ідеєю. Як відповідь на проблему було прийнято рішення, що спеціаліст інформуватиме кожного відвідувача про суть досвіду перед його проходженням. Тож відвідувач мав змогу відмовитись. І такі одиничні випадки справді були.
Друге питання, крім оцінювання кожної окремо взятої технології, покривало безпеку персональних даних, приватності, якості моделі. Ми визначили ризик, що деякі відвідувачі не захочуть, щоб їх обличчя розпізнавали за допомогою ШІ або будуть почуватися некомфортно через нерозуміння, які саме дані й як саме будуть використовуватись АІ, як вони будуть зберігатись. Додаткові вимоги до рішення накладав також GDPR.
Крок 2. Оновлення концепції
З урахуванням зазначених ризиків концепція була допрацьована. В рішення додали альтернативний флоу, який дозволяв відвідувачу відмовитись від розпізнавання обличчя і при цьому мати можливість отримати імерсійний досвід. В разі відмови генерувалось рандомне обличчя, але стать і раса мали співпадати. Отже, відвідувач мав або надати поінформований дозвіл, або відмовитись.
Маючи ввідні з попередніх раундів Responsible AI review, разом із командою R&D-розробників, data scientist, UX і DevOps ми зібралися, аби знайти відповіді на наступні питання:
- Як створити для відвідувачів почуття безпеки?
- Як створити неупереджену АІ-модель?
Як відповідь на перше питання було вирішено, що ми не будемо застосовувати зовнішні сервіси, які невідомо як можуть використовувати фото відвідувачів, а створимо і натренуємо свою GenАІ-модель**. Також ми не будемо зберігати фото ані онлайн, ані на сервері, а генерація зображень буде відбуватися в режимі реального часу за посередництвом cloud-сервісу.
Крім того, в інтерфейс була додана інформація, як саме АІ генерує зображення, які дані як використовуються та зберігаються. Цей крок передував тому моменту, коли відвідувач фізично виражав згоду на розпізнавання обличчя. Також було вирішено не висвітлювати на великому екрані результат генерації, щоб його не бачили інші. Результат роздруковувався і вручався персонально відвідувачу.
Обидва технічних рішення покривали вимоги GDPR і виставки.
Щодо другого питання — встановили параметри вибірки, щоб модель була неупередженою: однакова кількість чоловіків та жінок, рівно представлені раси, різні вікові категорії дорослих.
Крок 3. Оцінка на етапі розробки
Після того, як data scientist підготував датасет із світових селебріті й натренував модель, ми зібралися командою з UX, marketing та data scientist. Оскільки для тренування моделі застосовувався supervised learning, проблема прозорості чи галюцинацій не стояла, команда оцінювала її на предмет упередженості та етики.
Не буду зупинятися на усіх моментах та ітераціях, але поділюсь одним прикладом.
З’ясувалось, що результати виходять естетично не дуже привабливими. Перед нами з’явилась етична дилема. Бо такий результат не підходив для виставки. Зрештою, кожен хоче виглядати гарно. Щоб робити відвідувачів гарнішими, треба було перетренувати модель на «гарних» обличчях. А це значить йти на свідоме упередження. Та оскільки прикрашання людини, ще й у футуристичному стилі, не несе шкоди, було прийнято колективне рішення, що ризик такого упередження взятий до уваги та прийнятий.
Оскільки відчуття красивого у кожного своє, мені довелося вручну перегенерувати датасет за допомогою Mіdjourney**. Після чого тією ж командою ми передивились кожне зображення і проголосували, що підходить, а що ні. Модель була перетренована, протестована і заново оцінена командою.
**В 2025 після виходу нової версії кастомну модель замінили на сервіс.

Сетап імерсійного досвіду. Джерело — авторська стаття What’s my future: A Multisensory Digital Human Agent Experience
1 — екран-кіоск, 2 — інфрачервона камера, 3 — haptic пристрій, 4 — веб-камера, 5 — принтер, 6 — ПС (аплікейшен-сервер із цифровим асистентом, SDK для haptic та інфрачервоної камери), 7 — кастомна АІ модель на Python-сервері, 8 — cloud, де відбувається генерація зображення, 9 — мінтінг NFT на блокчейні, 10 — згенероване зображення з Python-сервера, 11 — вебсторінка з галереєю аватарів та NFT.
Крок 4. Технічне review готового рішення
Коли розробка і тестування рішення були завершені, команда з IT security, спеціалістів з маркетингу, юристів, R&D-розробників, DevOps та мене як власника продукту оцінювали тепер, кожен зі свого боку, готове рішення.
Я робила демо та презентувала бізнес-кейс — що це за рішення і для чого. Далі, до прикладу, IT security спеціалісти, котрі до зустрічі робили необхідні технічні тестування рішення, під час зустрічі ставили додаткові питання та надавали рекомендації до імплементації. Юристи перевіряли відповідність GDPR і внутрішнім вимогам компанії й так само давали свої рекомендації до імплементації.
Лише коли усі рекомендації були імплементовані й перевірені відповідними спеціалістами, рішення отримало затвердження для виходу в користування.
Підсумок
Отже, на практиці Responsible AI процес складався із серії зустрічей крос-функційних команд, де по суті ставилися певні питання для визначення усіх можливих ризиків, шукалася колективна відповідь, як їх нівелювати, здійснювалася спільна оцінка відповідності АІ-рішення загальновідомим принципам Responsible AI (у компанії тоді не було власних корпоративних принципів АІ) та приймалися рішення затвердити/ветувати.
Оскільки це був перший і трохи стихійний процес Responsible AI, ключем до успіху стало саме залучення широкого кола спеціалістів. А також те, що сесії оцінки відбувалися на кожному етапі розробки, адже це дозволяло виловити ризики і проблеми та виправити їх.
Best practices
Щоб зрозуміти, як створити формальну, якісну процедуру Responsible AI, я пройшла навчання від двох технологічних гігантів. Причому один з них був у витоків створення фреймворку Responsible AI.
Отже, Amazon у своїх матеріалах концентрується на основних проблемах моделей (як-от упередженість, непрозорість, неточність, токсичність і галюцинації, підготовка датасетів тощо), подає прості рекомендації як покращити модель, декларує і розкриває свої принципи в управлінні АІ, як наведено на схемі нижче, а тоді пропонує технічні рішення власної розробки, які мають допомогти ці принципи автоматизувати.
Наприклад, сервіс Amazon Bedrock має широкі можливості будувати GenAI-застосунки, забезпечуючи приватність, безпеку і Responsible AI. Для відловлювання упередженості в моделях AWS пропонує сервіс SageMarker AI Clarify.
Виміри Responsible AI в AWS. Джерело — курс Responsible AI Practices на Сoursera
Загалом корисний тренінг, щоб ознайомитися з продуктами, технічними рішеннями Amazon для Responsible AI. Але він не розкриває, як саме компанія вбудувала фреймворк у свої внутрішні процеси розробки.
А от Google Cloud були дуже щедрі в цьому плані. Крім того, що ширше висвітлити виклики і проблемні моменти АІ-моделей, поділилися ще й покроковою методологією Responsible AI.
Google почав з того, що у 2017 визначив глобальну місію компанії як AI-first. Під цю місію того ж року, коли мало хто думав про такі речі, створили «статут етичного АІ», який згодом еволюціонував у АІ-принципи. Крім самих принципів там містяться цільові напрями застосування АІ, а також список із чотирьох напрямів, якими компанія займатися не буде. Мова йде про такі юзкейси, як зброя чи незаконне спостереження за людьми.
Google АІ принципи. Авторська схема на підставі курсу Responsible AI: Applying AI Principles with Google Cloud на Сoursera
На основі АІ-принципів Google розробив Responsible AІ процес, в якому йдеться, як їх застосовувати на практиці, як робити trade off у випадку конфліктуючих принципів, як управляти ризиками. Цей процес складається із серії оцінок і перевірок (review). Хоч для деяких задач можуть бути використані технічні рішення (наприклад, для тестування продуктивності
Google створив спеціальні комітети для оцінки нових проєктів, продуктів і пропозицій/угод на предмет відповідності АІ-принципам. Він складається з трьох основних команд:
- Responsible Innovation команда — консультує інші команди щодо застосування АІ-принципів, щоб в усій компанії було спільне бачення та однаковий процес прийняття рішення, також проводить попередню оцінку ініціатив. До цієї команди, до прикладу, входять user researcher, соціальні науковці, спеціалісти з етики та прав людини, спеціалісти з охорони приватних даних, юристи та інші.
- Друга команда складається з групи досвідчених експертів з різних дисциплін в Google, які надають технологічну, функціональну та продуктову експертизу. Ця група займається кейсами з новітніми технологіями і консультує під час Responsible AІ review.
- Третя команда — рада з представників
C-level , які займаються найбільш комплексними і складними питаннями, включаючи рішення, що зачіпають декілька продуктів чи технологій.
Ще є кастомні review-комітети, створені під окремі продукти, юзкейси, технології тощо. Так, Google Cloud АІ має свою команду.
Головним завданням review є відповідь на ці питання:
- чи не конфліктує запропонований юзкейс із АІ-принципами?
- якщо не конфліктує, то як забезпечити, щоб рішення принесло користь, а потенційну шкоду нівелювати?
Процес оцінки клієнтського юзкейсу проводиться в наступні кроки:
Процес Responsible AI review клієнтського запиту. Авторська схема на підставі курсу Responsible AI: Applying AI Principles with Google Cloud на Сoursera
Рішення приймаються консенсусом. Якщо однозначне рішення не вдається прийняти, комітет по оцінці клієнтської ініціативи може ескалювати кейс раді топ-менеджменту.
Процес оцінки власного продукту впродовж циклу розробки складається з таких кроків:
Процес Responsible AI review власного продукту. Авторська схема на підставі курсу Responsible AI: Applying AI Principles with Google Cloud на Сoursera
Моніторинг відповідності продукту АІ-принципам відбувається впродовж усього циклу розробки. В матеріалах не було чітко зазначено, однак, очевидно по цьому ж процесу проходять клієнтські ініціативи, які затвердили до розробки.
Із розглянутих прикладів AWS і Google Cloud, думаю, можна скласти для себе загальну картину, що обидві компанії вкладають в Responsible AI. Побачити, що принципи АІ у них досить схожі, хіба що Google Cloud робить досить сильний акцент на соціальній користі АІ-продуктів, принаймні, на рівні декларацій.
А також оцінити різницю підходів в реалізації: видається, що AWS більше робить ставку на автоматизацію Responsible AI, тоді як Google Cloud використовує технічні рішення для окремих задач, але в оцінці покладається на експертну, досить диверсифіковану і багаторівневу оцінку.
Висновок
На моє глибоке переконання, для R&D та інноваційних середовищ є критично важливим вбудувати підходи Responsible AI в процес розробки АІ-рішень.
В R&D та високо-інноваційному середовищі присутня велика доля невизначеності та «незнаності», що несе за собою величезні ризики. Ризики і виклики АІ-ініціативи виникають у різних площинах:
- на рівні самої технології;
- на рівні рішення в цілому;
- на рівні контексту застосування рішення.
Аби нівелювати потенційні проблеми, саме на таких рівнях її (АІ-ініціативу) і треба розглядати: кожен елемент окремо, усе разом, а потім ще і big picture.
В наведеному прикладі експериментальної інновації команда спочатку аналізувала і оцінювала кожну індивідуальну технологію: машинне бачення, blockchain, cloud, haptic, і менш освоєні — ранній цифровий асистент та ранній генеративний AI (пам’ятаємо, це був 2022, MidJourney вийшли в світ в липні 2022, GPTchat — в кінці листопада 2022).
Не всі з них AI-driven, але ми все одно застосовували до них принципи Responsibe AI. Наприклад, оцінювали етичну дилему щодо енерговитратної NFT, або чи будуть відвідувачі переживати, що через haptic ми збираємо біометричні дані з долоні.
Поєднання технологій в «цифрову ворожку» було інноваційним і потенційно могло нести нові ризики. Тому на наступному етапі група експертів дуже детально аналізувала та оцінювала рішення в цілому.
І, нарешті, на рівні big picture (юзкейсу імерсійного досвіду для використання у публічному просторі) команда оцінювала природу застосування, соціальний контекст, географію потенційних користувачів, демографію і багато чого ще.
На приладі case study можна побачити, скільки разів компанія могла потрапити в халепу, якби не підходи Responsible AI. Отже, я заохочую впроваджувати ці практики в своїх компаніях і командах. Крім уникнення неприємних наслідків це також допоможе зміцнити довіру до ваших АІ-рішень, а значить, і до АІ в цілому. Для розбудови власного фреймворка завжди можна надихнутися best practices, в тому числі тими, які були висвітлені в цьому блозі.
Сподобалась стаття? Підписуйтесь на автора, щоб отримувати сповіщення про нові публікації на пошту.
Немає коментарів
Додати коментар Підписатись на коментаріВідписатись від коментарів