«Перегони до дна»: Технічні звіти щодо безпеки передових ШІ-моделей стають все більш незмістовними та куцими

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

Google нещодавно опублікував технічний звіт щодо своєї найпотужнішої ШІ-моделі Gemini 2.5 Pro. Зазвичай, така документація демонструє результати внутрішніх оцінок безпеки моделі.

За думкою експертів, звіт вийшов здебільшого незмістовним. Щобільше, там не згадується детальна структура безпеки Frontier Safety Framework (FSF) — яку сам Google і запропонував.

«Цей [звіт] дуже скупий, містить мінімум інформації і вийшов за кілька тижнів після того, як модель вже стала доступною для громадськості», — розповів Пітер Вілдефорд, співзасновник Інституту політики та стратегії ШІ. «Неможливо перевірити, чи дотримується Google своїх публічних зобов’язань, і тому неможливо оцінити безпеку їхніх моделей».

Таке нехтування безпековими звітами стало тривожним трендом серед техногігантів. Meta також випустила куцу доповідь щодо останньої моделі Llama 4, а OpenAI взагалі вирішив не публікувати жодного звіту щодо GPT-4.1.

«У поєднанні зі звітами про те, що конкуруючі лабораторії, такі як OpenAI, скоротили час тестування безпеки перед випуском з місяців до днів, ця мізерна документація для топової моделі ШІ від Google розповідає тривожну історію про перегони до дна у галузі безпеки та прозорості ШІ, оскільки компанії поспішають вивести свої моделі на ринок», — розповів Кевін Банкстон, старший радник з управління ШІ в Центрі демократії та технологій.

Читайте: Не дають навчати ШІ на своєму контенті: Правовласники ловлять ботів-«скраперів» у веб-лабіринти

👍ПодобаєтьсяСподобалось0
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Так задача зараз побільше бабла, на хайпі, нарубати.
А те, що , можливо, воно почне ядерними ракетами по містах пуляти, нікого не турбує.

Підписатись на коментарі