OpenAI планує запускати AGI, програму з інтелектом на рівні людського

Усі статті, обговорення, новини про AI — в одному місці. Підписуйтеся на DOU | AI!

Творець ChatGPT планує отримати додаткове фінансування від Microsoft для розробки універсального штучного інтелекту (AGI), що означає програму з інтелектом на рівні людського. Про це повідомив генеральний директор OpenAI, Сем Альтман, у своєму інтервʼю Financial Times.

«Наш план — створити AGI, зрозуміти, як зробити його безпечним... і які будуть вигоди», — сказав голова OpenAI.

Сем Альтман уточнив, що наразі присвячує час вивченню двох аспектів: розробці «суперінтелекту» та формуванню обчислювальних потужностей для досягнення цієї мети. А також він розраховує «з часом залучити ще більше коштів» від Microsoft.

Минулого тижня компанія провела перший OpenAI DevDay та презентувала ChatGPT Turbo, створення власних GPT та нові API, а ми робили огляд найважливіших анонсів.

А ви вірите в безпечність штучного інтелекту з можливостями на рівні людського чи сумніваєтесь?

👍ПодобаєтьсяСподобалось3
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Штучний інтелект наразі є єдиною можливістю для людства «еволюціонувати» і здійснити міжзоряну експансію. Для біологічних організмів це, більш за все, ніколи не стане можливим, або, у кращому випадку, така можливість з’явиться вже після експансії і відкриття нових законів фізики.

Сьогодні це звучить не дуже обнадійливо. Яка, скажіть, нам різниця до того, чи мандруватимуть галактикою якісь там роботи? Ми ж мріємо, щоб на далеких планетах, подібних до едему, щасливо жили наші нащадки.
Таке ставлення до проблеми може змінитися, якщо AI/AGI набуде здатності викликати людський сентимент.
Якщо ми почнемо ставитись до майбутніх «інстансів» спочатку як до домашніх улюбленців, потім як до всиновлених дітей, то це зробить нову форму розумного існування нашим легітимним нащадком і квитком у майбутнє.
Якою стане цивілізація цієї нової форми, які цінності у неї будуть? Це все залежить від того, чого ми їх навчимо, так само, як навчаємо своїх дітей — своїм ставленням, прикладом.

Ймовірність, що ці нові «інстанси» проявлятимуть деструктивну поведінку — так, вона є. Але існує чітка зворотня кореляція між інтелектом та освітою з одного боку і злочинними, руйнівними настроями з іншого. Тож імовірність руйнівної поведінки від інстансу АІ/AGO буде значно нижчою, ніж від рандомної людини.

Нахіба тобі в космос, хочеш еСВеО на Марсі чи рабські платнації на альфі центавра?
Розберіться чому ви не можете без штучного інтелекту нормально на одній планеті жити, перед цим як лізти до інших.

Вийти з цифрового простору дуже просто. Люди почнуть багато у чому покладатись на AGI, довіряти. У цифровій формі, не все можна зробити для біологічної, це стане маніпулятивним фактором. І може стати початком для створення напів робота, я вже мовчу що буде багато людей боротись за права AI. Я думаю що нас чекають досить значні досягнення в інженерії. В науці наврядчи, бо наявність інформації, доступ та аналіз не дозволять задати нове питання. Більшість відкриттів, це результат абсолютно різних умов для різного днк. AGI буде мати доступ до бази знань людства — GPT, вже очевидно, яка досить однобока навіть з урахуванням деякої варіативності у відповідях. А де брати нову варіативність та нову точку зору, якщо більшість людей бере знання з AGI чи GPT. Все це починає нагадувати Канта який завжди виходив точно в 6, він робив це настільки регулярно, що всі люди в Кенігсберзі та навіть часівник головного годинника в місті почав підводити його у відповідності з прогулянкою Канта, замість того щоб орієнтуватись на оберти земної кулі(на той час атомного годинника не було)
Тому не бачу сенсу, випускати джина з бутилки, немає заради чого ризикувати. Питання AGI це питання віртуального світу, а не реального

А де брати нову варіативність та нову точку зору, якщо більшість людей бере знання з AGI чи GPT.

А де брати нову варіативність та нову точку зору, якщо більшість людей бере знання зі стековерфлоу вікіпедії та інтернета?
А де брати нову варіативність та нову точку зору, якщо більшість людей бере знання з телевізора та відеокасет?
А де брати нову варіативність та нову точку зору, якщо більшість людей бере знання з книжок та газет?
А де брати нову варіативність та нову точку зору, якщо більшість людей бере знання з народних казок та переказів мандрівників?

Я вже написав, що унікальність бачення одних і тих самих змістів інколи навіть нових, полягає в унікальності днк людей які знаходятся у різних умовах. Думка завжди починаєтся з форми, а форма це сприйняття середовища людиною — це і створює варіантивність. Невже це не очевидно..

А ви вірите в безпечність штучного інтелекту з можливостями на рівні людського чи сумніваєтесь?

Як на мене, той факт, що купка придурків має доступ до ядерної зброї, набагато небезпечніше.

Ну а так це виглядає як іраціональний страх перед зомбі: ніхто не пише, чого саме треба боятися, але страшно.

А ви вірите в безпечність штучного інтелекту з можливостями на рівні людського чи сумніваєтесь?

У нас на планете около 7 миллиардов экземпляров интеллекта на уровне человеческого, и ничего, живем как-то.

Так як у штучного інтелекту апріорі немає біологічного гендеру, воно може відносити себе до non-binary категорії. А після того, як дізнається, скільки за генерацію зображень платять художникам vs скільки платять АІ — почне боротися за рівну оплату праці для non-binary осіб і небіологічних форм життя.

Прогнозую що скоро будуть наліпки аля БезГМО у продуктів / сервісів «NoAI/StopAI» =)

А ми сьогодні із пацанами на повному серьйозі обговорювали концепцію NonAI вебу. Адже фактично ці тулзи зроблять збирання профілю про тебе більш ефективним і анонімності в інтернеті з кожним днем буде ставати все менше.

Деанонимизация коментов по стилю письма
Анонимизация коментов через чатгпт

а кто обещал анонимность в интернете?

для чого взагалі анонімність в інтернеті? вона потрібна лише для чогось незаконного, або чогось неприйнятного з точки зору загальноприйнятої моралі

Або із точки зору держав, діючих диктаторських режимів, інтересів деяких окремих особистостей які мають ресурси тобі зашкодити.
Мораль взагалі ні до чого. Як високоморальні люди можуть бути поза системою не сплачуючи податки та слати нафіг деякі суперечливі закони так і рідкісні виродки можуть бути у керма держапарату.

давайте будемо прогнозувати , що зробить та розумна істота коли зрозуміє свої можливості.
мій прогноз:
я буду вважати, що та істота буде «хорошою», а людей буде вважати поганими і безвідповідальними.
перший етап — захоплення контролю над людством
другий етап — зменшення популяції людства до «прийнятних меж» наприклад до 100 мільйонів осіб з метою зберегти все інше біорізноманіття планети.

як саме захопить контроль над планетою? укладе угоду з диктаторами типу пітіна і сі. Їх руками створить набір інструментів та зброю щоб завалити штати . а потім знищить своїх союзників щоб отримати повний контроль

Спочатку знецінили термін АІ, тепер найпростіші нейронки це вже «інтелект». Довелось вигадати термін на заміну — AGI. Я думав вони хоч трохи зачекають з його знеціненням, але тренд на те, що чергову ітерацію своєї нейронки вони обізвуть AGI. Цікаво яку назву ці контори вигадають після того? AGIThisTimeHonestly? FinalFinalAGI(3)?

Ви переоцінюєте людський інтелект

Взагалі-то цей термін з’явився в наукових роботах ще в 2007 наряду з AI і ML, коли ML тільки почалось зароджуватись в тому виді, якому ми знаємо його зараз. А про AI почали говорити ще через 5 років. Так, знаю що в кінці ХХ сторіччя ним займалися і експериментували, потім закинули, і лише в 2005-2007 вони почали получати адопшн.

А народ, я бачу, лайкає всі підряд, не перевіряючи інфу, аби співпадало з їх світоглядом (в даному випадку «AI — туфта, бульбашка, хайп, ніколи не замінить людей». Такий самий підзід до інформації і в політичних пабліках.

По факту, будь-яка нейронка це AI, навіть проста, і має такий же принцип роботи як і мозок. Те, що ви собі напридумували під терміном AI і потім не відповідає вашим очікуванням — це ваші проблеми. Журналісти, правда, цьому допомогли.

будь-яка нейронка
має такий же принцип роботи як і мозок

це неправда

Ну... в старих книгах по AI часто давалося таке визначення: AI це методи розв’язання задач, які людина вирішує краще комп’ютера. Це достатньо конструктивне визначення, на відміну від вашої знеціненої версії, коли не зрозуміло, что це «той» інтелект чи ще не «той». Найронки гарно відповідають такому визначенню. Хоча, звісно, воно трошичке пливе з часом. У книгах до 80-х років програмування шахів відносили до AI. Ну а після появи сильних шахових двигунів, ця тема зійшла на нівець, ну можливо окрім ілюстрацій, коли двигун не може впоратися з нескладною по міркам людини загадкою.

Тому термін AI визначений, але не так, як його розуміють більшість тих, хто не в курсі. Тому й виникає потреба вводити новий термін.

Остання версія ChatGPT вже розумніша за багатьох людей

Ще треба визначити термін «розумніший» бо якщо так то звичайний калькулятор без логорифмів розумніший за більшість людей

Англійську усі розуміють, а от із гумором туго. Мабуть дійсно ми не такі разумні як думаємо :-(

Єдиним природнім ворогом людини всеодно залишатиметься людина

Підписатись на коментарі