«Перегони до дна»: Технічні звіти щодо безпеки передових ШІ-моделей стають все більш незмістовними та куцими
Google нещодавно опублікував технічний звіт щодо своєї найпотужнішої ШІ-моделі Gemini 2.5 Pro. Зазвичай, така документація демонструє результати внутрішніх оцінок безпеки моделі.
За думкою експертів, звіт вийшов здебільшого незмістовним. Щобільше, там не згадується детальна структура безпеки Frontier Safety Framework (FSF) — яку сам Google і запропонував.
«Цей [звіт] дуже скупий, містить мінімум інформації і вийшов за кілька тижнів після того, як модель вже стала доступною для громадськості», — розповів Пітер Вілдефорд, співзасновник Інституту політики та стратегії ШІ. «Неможливо перевірити, чи дотримується Google своїх публічних зобов’язань, і тому неможливо оцінити безпеку їхніх моделей».
Таке нехтування безпековими звітами стало тривожним трендом серед техногігантів. Meta також випустила куцу доповідь щодо останньої моделі Llama 4, а OpenAI взагалі вирішив не публікувати жодного звіту щодо GPT-4.1.
«У поєднанні зі звітами про те, що конкуруючі лабораторії, такі як OpenAI, скоротили час тестування безпеки перед випуском з місяців до днів, ця мізерна документація для топової моделі ШІ від Google розповідає тривожну історію про перегони до дна у галузі безпеки та прозорості ШІ, оскільки компанії поспішають вивести свої моделі на ринок», — розповів Кевін Банкстон, старший радник з управління ШІ в Центрі демократії та технологій.
Читайте: Не дають навчати ШІ на своєму контенті: Правовласники ловлять ботів-«скраперів» у веб-лабіринти
1 коментар
Додати коментар Підписатись на коментаріВідписатись від коментарів