Співзасновник OpenAI Ілля Суцкевер працює над новим стартапом — безпечним ШІ

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

Співзасновник OpenAI планує працювати в новій дослідницькій лабораторії, яка займається штучним інтелектом.

В травні Суцкевер повідомив про те, що йде з OpenAI, не розкривши деталей свого майбутнього проєкту.

Зараз науковець представляє цей проєкт — Safe Superintelligence Inc., метою якого є створення безпечної, потужної системи штучного інтелекту в межах суто дослідницької організації, яка не має найближчим часом наміру продавати продукти чи послуги ШІ.

Іншими словами, він намагається продовжувати свою роботу без багатьох сторонніх чинників, з якими стикаються конкуренти, як-от OpenAI, Google і Anthropic.

Окрім Суцкевера, стартап має ще двох співзасновників. Один з них — інвестор і колишній керівник Apple Inc. Деніел Гросс (Daniel Gross), який відомий своєю підтримкою проєктів у сфері ШІ. Інший співзасновник — Деніел Леві (Daniel Levy), який займався навчанням великих моделей ШІ, працюючи разом із Суцкевером в OpenAI.

Суцкевер відмовляється назвати фінансових спонсорів Safe Superintelligence і не розкриває суму, яку він зібрав.

👍ПодобаєтьсяСподобалось1
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Не може бути безпечного Superintelligence. Або безпечний і туповатий, або дійсно розумний і небезпечний.

> Superintelligence is within reach.

Ніт.
Не то шо within reach, а навіть нема наработок як це зробити, тому що не вирішені фундаментальні проблеми, пов’язані з репрезентацією знань (хто не в темі, LLM — просто продукт ML).

Якщо безпечний та небезпечний АІ почнуть конкурувати за ресурси (обчислювальні, в основному), то виграє той, у кого:
— немає етичних обмежень
— більше грошей

За обома пунктами небезпечний перемагає. Безпечний АІ виглядає як дракон, який сам себе закував у кайдани на вдягнув намордник, щоб не літати та не палити села, хоча має такий потенціал. Але коли прилетить справжній, нічим не обмежений дракон, то «безпечний» не зможе з ним впоратися/гідно конкурувати на одному рівні.

Я так розумію, там хайпова спекуляція на темі, що deep learning нейронні мережі наразі не показують наглядно, як приймалось рішення. Ми знаєм, як воно обчислює, але із-за самої архітектури deep learning і тому що дані дуже великі, ми не можемо отримати «повторюваність» (ну або «логічність») результату. Вони хочуть щоб нейронки були як Decision Tree. Формально автоенкодери, генератори — це якраз «наочність» яку хочуть. Але, але... гроші ж заробляти надо.

Безпечний ШІ, це типу така ж маркетингова херня, як і огранічні продукти

ШІ, як назва, це маркетингова херня в цілому. Бо там нема і не буде ніякого (І)нтелекту, поки архітектура софта така як є сьогодні.

Сіль без ГМО.

Підписатись на коментарі