В Google створили «Конституцію роботів». Розповідаємо, про що йдеться

Усі статті, обговорення, новини про AI — в одному місці. Підписуйтеся на DOU | AI!

Команда DeepMind представила три нові розробки, які, за їх словами, допоможуть роботам приймати швидші, якісніші та безпечніші рішення в природних умовах.

Одна з них включає систему збору даних для навчання за «Конституцією робота». Вона створена, щоб переконатися, що офісний робот-помічник може принести ще більше паперу для принтера, але не збивати при цьому людей, які випадково опинилися на його шляху.

Система збору даних AutoRT від Google може використовувати візуальну мовну модель (VLM) і велику мовну модель (LLM), щоб краще зрозуміти оточення, адаптуватися до незнайомих умов і прийняти рішення про відповідні завдання. «Конституція робота», натхненна «Трьома законами робототехніки» Айзека Азімова, описується як набір «орієнтованих на безпеку підказок», що вказують LLM уникати вибору завдань, пов’язаних з людьми, тваринами, гострими предметами й навіть електричними приладами.

Для додаткової безпеки DeepMind запрограмував роботів на автоматичну зупинку, якщо зусилля на суглоби перевищує певний поріг, і включив фізичний вимикач, за допомогою якого люди-оператори можуть їх деактивувати. Протягом семи місяців Google розгорнула парк з 53 роботів AutoRT у чотирьох різних офісних будівлях і провела понад 77 000 випробувань. Деякі роботи управлялися дистанційно людьми-операторами, тоді як інші працювали або на основі сценарію, або повністю автономно, використовуючи модель навчання штучного інтелекту Google Robotic Transformer (RT-2).

Як думаєте, відповідає назва «Конституція» набору, по суті, безпекових правил?

👍ПодобаєтьсяСподобалось0
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Я гадав, Google вже давно не використовує папір і у них все в цифровому форматі, задля екології.
А вони он які негідники, планету вбивають

Обязательное в таких темах

A robot may not injure a human being or, through inaction, allow a human being to come to harm.
A robot must obey orders given it by human beings except where such orders would conflict with the First Law.
A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

Підписатись на коментарі