Звільнення Альтмана: причиною став прорив ШІ, який може загрожувати людству
Напередодні звільнення (і подальшого повернення) генерального директора OpenAI Сема Альтмана кілька штатних дослідників компанії написали листа до ради директорів, попередивши про потужне відкриття в галузі штучного інтелекту. За їхніми словами, воно може загрожувати людству. Про це повідомляє Reuters із посиланням на інсайдерів.
За словами співрозмовників, лист про цей алгоритм ШІ став ключовим фактором перед тим, як рада директорів звільнила Альтмана. До його тріумфального повернення понад 700 співробітників погрожували звільнитися і приєднатися до Microsoft (MSFT.O) в знак солідарності зі своїм звільненим керівником.
Джерела Reuters посилаються на цей лист як на один з факторів серед переліку скарг ради директорів. Серед інших скарг також були побоювання з приводу комерціалізації досягнень ШІ до розуміння наслідків цих дій.
OpenAI відмовились від коментарів, проте у внутрішньому повідомленні для співробітників було визнано, що лист про проєкт під назвою Q* був написаний напередодні минулих вихідних. Представник OpenAI повідомив, що повідомлення, надіслане Мірою Мураті, попереджало співробітників про «певні історії в ЗМІ», не коментуючи їхню достовірність.
Дехто в OpenAI вважає, що Q* (вимовляється як Q-Star) може стати проривом у пошуках суперінтелекту (AGI). Маючи величезні обчислювальні ресурси, нова модель змогла розв’язати певні математичні задачі, сказав співрозмовник на умовах анонімності. За його словами, хоча Q* й виконує математичні завдання на рівні учнів початкових класів, успішне проходження таких тестів вселяє в дослідників оптимізм щодо майбутніх успіхів Q*.
Дослідники вважають математику межею розвитку генеративного ШІ. Наразі генеративний ШІ добре справляється з письмом і перекладом, статистично передбачаючи наступне слово, а відповіді на одне й те саме запитання можуть сильно відрізнятися. Але здатність впоратись з математикою, де є лише одна правильна відповідь, означає, що ШІ матиме більші можливості.
На відміну від калькулятора, який може вирішувати обмежену кількість операцій, ШІ може узагальнювати, вчитися й осмислювати.
У своєму листі до ради дослідники відзначили потенційну небезпеку ШІ, повідомили джерела, не уточнюючи, про які саме проблеми з безпекою йдеться в листі.
Дослідники також звернули увагу на роботу групи «вчених зі штучного інтелекту», існування якої підтвердили численні джерела. За словами одного з учасників, група, сформована шляхом об’єднання попередніх команд Code Gen і Math Gen, досліджувала, як оптимізувати існуючі моделі ШІ, щоб поліпшити їхні міркування і, зрештою, виконувати наукову роботу.
Альтман очолював зусилля, спрямовані на те, щоб зробити ChatGPT одним з найбільш швидкозростаючих програмних додатків в історії, і залучив інвестиції — і обчислювальні ресурси — необхідні від Microsoft, щоб наблизитися до AGI.
Чи продовжить він робити це, повернувшись у компанію?
Найкращі коментарі пропустити