Чому військові AI-стартапи мають шанси на успіх
Вторгнення в Україну спонукало військових оновити свої арсенали, і Кремнієва долина має цим скористатися, — йдеться у матеріалі MIT Technology Review.
Рівно через два тижні після того, як росія вторглася в Україну, Олександр Карп, генеральний директор компанії Palantir з аналізу даних, виступив перед європейськими лідерами. З огляду на війну,, європейці повинні модернізувати свої арсенали за допомогою Кремнієвої долини, стверджував він у відкритому листі.
Для того, щоб Європа «залишалася достатньо сильною, щоб перемогти загрозу іноземної окупації», писав Карп, країни повинні прийняти «стосунки між технологіями та державою, між компаніями, які прагнуть вибити лещата вкорінених підрядників, і міністерствами уряду з фінансування».
Військові відповідають на виклик. 30 червня НАТО оголосило, що створює інноваційний фонд на 1 мільярд доларів, який інвестуватиме в стартапи на ранніх стадіях і фонди венчурного капіталу, що розробляють «пріоритетні» технології, такі як штучний інтелект, обробка великих даних і автоматизація.
З початку війни Велика Британія запустила нову стратегію штучного інтелекту спеціально для оборони, а німці виділили трохи менше півмільярда на дослідження та штучний інтелект у межах 100 мільярдів доларів для військових потреб.
«Війна є каталізатором змін», — каже Кеннет Пейн, який очолює оборонні дослідження у Королівському коледжі Лондона та є автором книги «Я, Варбот: світанок конфлікту зі штучним інтелектом».
Війна в Україні додала терміновості прагненню ввести більше інструментів ШІ на поле бою. Найбільше виграють такі стартапи як Palantir, які сподіваються заробити, оскільки військові намагаються оновити свої арсенали новітніми технологіями. Але давні етичні занепокоєння щодо використання штучного інтелекту у війні стають все більш актуальними, оскільки технологія стає все більш і більш досконалою, тоді як перспектива обмежень і правил, що регулюють її використання, виглядає як ніколи віддаленою.
Стосунки між технологіями та військовими не завжди були такими дружніми. У 2018 році, після протестів і обурення співробітників, Google відмовився від проеєкту Пентагону Maven — спроби створити системи розпізнавання зображень для покращення ударів безпілотників. Цей епізод викликав бурхливі дискусії про права людини та моральність розробки ШІ для автономної зброї.
Це також змусило відомих дослідників штучного інтелекту, таких як Йошуа Бенгіо, лауреата премії Тюрінга, і Деміс Хассабіс, Шейн Легг і Мустафа Сулейман, засновників провідної лабораторії ШІ DeepMind, пообіцяти не працювати над смертоносним ШІ.
Але через чотири роки Кремнієва долина стала ближчою до військових, ніж будь-коли. І йдеться не лише про великі компанії — стартапи нарешті почали розглядати, — каже Ілл Байрактарі, який раніше був виконавчим директором Комісії національної безпеки США з питань штучного інтелекту (NSCAI), а тепер працює в Спеціальному проєкті конкурентних досліджень, групі, яка лобіює більше впровадження штучного інтелекту в США.
Чому ШІ
Компанії, які продають штучний інтелект, розповідають, на що здатні їхні технології. Вони кажуть, що це може допомогти в усьому: від перегляду резюме до обробки даних із супутників або розпізнавання шаблонів у даних, щоб допомогти солдатам швидше приймати рішення на полі бою. Програмне забезпечення для розпізнавання зображень може допомогти ідентифікувати цілі. Автономні дрони можна використовувати для спостереження або атак на суші, у повітрі чи воді, або щоб допомогти солдатам доставляти припаси більш безпечно, ніж це можливо наземним шляхом.
Ці технології все ще перебувають у зародковому стані, і військові переживають період експериментів, каже Пейн, іноді без особливого успіху. Є незліченна кількість прикладів тенденції компаній зі штучним інтелектом давати грандіозні обіцянки щодо технологій, які, як виявляється, не працюють, як рекламується, і зони бойових дій є, мабуть, одними з технічно найскладніших областей для розгортання ШІ, оскільки немає відповідних навчальних даних. Це може спричинити збій автономних систем у «складний і непередбачуваний спосіб», стверджував Артур Голланд Мішель, експерт із безпілотників та інших технологій спостереження, у статті для Інституту дослідження проблем роззброєння ООН.
Тим не менш, багато військових просуваються вперед. У нечітко сформульованому прес-релізі 2021 року британська армія з гордістю оголосила, що вперше використала штучний інтелект у військовій операції для отримання інформації про навколишнє середовище та місцевість. США співпрацюють зі стартапами для розробки автономних військових транспортних засобів. У майбутньому сотні чи навіть тисячі автономних дронів, які розробляють американські та британські військові, можуть виявитися потужною та смертоносною зброєю.
Багато експертів стурбовані. Мередіт Віттакер, старший радник з питань штучного інтелекту у Федеральній торговій комісії та директор факультету AI Now Institute, каже, що цей поштовх насправді спрямований більше на збагачення технологічних компаній, ніж на покращення військових операцій.
У статті для журналу Prospect, написаній у співавторстві з Люсі Сучман, професоркою соціології Ланкастерського університету, вона стверджувала, що прискорювачі штучного інтелекту підпалюють риторику холодної війни та намагаються створити наратив, який позиціонує Велику Технологію як «критичну національну інфраструктуру», надто велику і яку важливо врегулювати.
Бойові скрині ШІ
Оскільки суперечки навколо Maven відходять у минуле, голоси, які закликають до збільшення ШІ в обороні, стають все голоснішими.
Одним із найгучніших голосів належить колишньму генеральному директору Google Еріку Шмідту, який очолював NSCAI і закликав США прийняти більш агресивний підхід до впровадження військового ШІ.
У минулорічній доповіді, в якій описуються кроки, які Сполучені Штати мають зробити, щоб досягти результатів у сфері штучного інтелекту до 2025 року, NSCAI закликала американські військові інвестувати 8 мільярдів доларів на рік у ці технології або ризикувати відстати від Китаю.
Згідно зі звітом Джорджтаунського центру безпеки та нових технологій, китайські військові, ймовірно, витрачають щонайменше 1,6 мільярда доларів на рік на штучний інтелект, а в США вже робляться значні зусилля для досягнення паритету, каже Лорен Кан, науковий співробітник в Раді з міжнародних відносин. Міністерство оборони США запросило 874 мільйони доларів на штучний інтелект на 2022 рік, хоча ця цифра не відображає загальних інвестицій відомства в ШІ, йдеться у звіті за березень 2022 року.
Не лише армія США переконана в необхідності ШІ. Європейські країни, які, як правило, більш обережні щодо впровадження нових технологій, також витрачають більше грошей на штучний інтелект, каже Гайко Борхерт, співдиректор Обсерваторії штучного інтелекту в галузі оборони в Університеті Гельмута Шмідта в Гамбурзі, Німеччина.
Французи та британці визначили ШІ як ключову оборонну технологію, а Європейська комісія, виконавчий орган ЄС, виділила 1 мільярд доларів на розробку нових оборонних технологій.
Проблеми взяття ШІ на озброєння
Створення попиту на ШІ — це одне. Зовсім інше — змусити військових взяти його на озброєння.
Багато країн просувають наратив штучного інтелекту, але їм важко перейти від концепції до розгортання, каже Арно Герен, генеральний директор Preligens, французького стартапу, який продає системи спостереження штучного інтелекту. Частково це пояснюється тим, що в оборонній промисловості більшості країн досі зазвичай домінує група великих підрядників, які, як правило, мають більше досвіду у військовій техніці, ніж у програмному забезпеченні ШІ, каже він.
Це також тому, що незграбні процеси військової перевірки просуваються повільно в порівнянні з шаленою швидкістю, яку ми звикли бачити в розробці ШІ: військові контракти можуть охоплювати десятиліття, але в швидкому циклі стартапів компанії мають лише рік або близько того, щоб вийти на ринок.
Стартапи та венчурні капіталісти висловили розчарування тим, що процес просувається так повільно. Ризик, стверджує Кетрін Бойл, генеральний партнер компанії венчурного капіталу Andreessen Horowitz, полягає в тому, що талановиті інженери розчаровано підуть на роботу у Facebook і Google, а стартапи збанкрутують, чекаючи контрактів на оборону.
Компанії ШІ з військовими амбіціями повинні «залишатися в бізнесі протягом тривалого часу», каже Нгор Луонг, аналітик, який вивчав тенденції інвестицій у ШІ в Джорджтаунському центрі безпеки та нових технологій.
США хочуть рухатися швидше, і Міністерство оборони заручилося допомогою Крейга Мартелла, колишнього керівника штучного інтелекту компанії Lyft.
У червні 2022 року Мартелл очолив новий Головний офіс цифрового штучного інтелекту Пентагону, який має на меті координувати зусилля армії США щодо ШІ. Місія Мартелла, як він сказав Bloomberg, полягає в тому, щоб змінити культуру відомства та посилити використання армією штучного інтелекту, незважаючи на «бюрократичну інерцію».
Компанії з ШІ вже починають розкуповувати вигідні військові контракти. У лютому Anduril, п’ятирічний стартап, який розробляє автономні системи захисту, такі як складні підводні дрони, виграв оборонний контракт із США на 1 мільярд доларів. У січні ScaleAI, стартап, який надає послуги маркування даних для штучного інтелекту, виграв контракт на 250 мільйонів доларів з Міністерством оборони США.
Остерігайтеся ажіотажу
Незважаючи на неухильне просування штучного інтелекту на поле битви, етичні проблеми, які спонукали до протестів навколо проекту Maven, не зникли.
Були певні зусилля, щоб заспокоїти ці побоювання. Усвідомлюючи, що це проблема з довірою, Міністерство оборони США розгорнуло вказівки щодо «відповідального штучного інтелекту» для розробників штучного інтелекту, а також має власні етичні рекомендації щодо використання штучного інтелекту. НАТО має стратегію ШІ, яка встановлює добровільні етичні принципи для своїх країн-членів.
Усі ці вказівки закликають військових використовувати штучний інтелект у спосіб, який є законним, відповідальним, надійним і доступним для відстеження, і спрямований на пом’якшення упереджень, вбудованих в алгоритми.
Однією з їхніх ключових концепцій є те, що люди повинні завжди контролювати системи ШІ. Але з розвитком технологій це стане неможливим, каже Пейн.
«Вся суть автономної [системи] полягає в тому, щоб дозволити їй приймати рішення швидше й точніше, ніж це може зробити людина, і в такому масштабі, який людина не може зробити», — каже він. «Ви фактично обтяжуєте себе, якщо говорите «Ні, ми будемо обґрунтовувати кожне рішення».
Проте критики кажуть, що потрібні жорсткіші правила. Існує глобальна кампанія під назвою «Зупиніть роботів-вбивць», спрямована на заборону смертоносної автономної зброї, такої як дрони. Активісти, високопоставлені посадовці, такі як голова ООН Антоніу Гутерріш, і уряди, такі як уряд Нової Зеландії, стверджують, що автономна зброя є глибоко неетичною, оскільки вона дає машинам контроль над рішеннями щодо життя та смерті та може завдати непропорційної шкоди маргіналізованим громадам через алгоритмічні упередження.
Наприклад, тисячі автономних безпілотників можуть стати зброєю масового знищення. Обмеження цих технологій буде важкою битвою, оскільки ідея глобальної заборони наштовхнулася на опозицію в США, Франція та Великобританія.
Зрештою, нова ера військового штучного інтелекту породжує низку складних етичних питань, на які ми ще не маємо відповідей.
Одне з цих питань полягає в тому, наскільки автоматизованими ми хочемо, щоб збройні сили були в першу чергу, говорить Пейн. З одного боку, системи штучного інтелекту можуть зменшити кількість жертв, зробивши війну більш цілеспрямованою, але з іншого, ви «фактично створюєте робот-найманців, який би воював від вашого імені», — каже він. «Це віддаляє ваше суспільство від наслідків насильства».
39 коментарів
Додати коментар Підписатись на коментаріВідписатись від коментарів