Гейтс, Маск, Цукерберг, Пічаї та Альтман зустрілися, щоб обговорити ШІ. Основні тези

Усі статті, обговорення, новини про AI — в одному місці. Підписуйтеся на DOU | AI!

Лідери технологічної індустрії зібралися у Вашингтоні, щоб обговорити наслідки та майбутнє регулювання штучного інтелекту (ШІ). Організована сенатором Чаком Шумером, зустріч під назвою AI Insight Forum відбулась за участі Ілона Маска, Сундара Пічаї та Марка Цукерберга.

Під час зустрічі Маск сказав, що ШІ становить екзистенційні ризики для цивілізації, заявивши: «Якщо хтось знищить нас як цивілізацію, всі ставки зроблені».

Пічаї, навпаки, підкреслив потенціал технології для розв’язання нагальних проблем у сфері охорони здоров’я та енергетики, а Цукерберг виступив за відкритість і прозорість систем штучного інтелекту.

Тим часом Сем Альтман з OpenAI сформулював загальний настрій форуму, зазначивши: «Ми всі зацікавлені в тому, щоб зробити все правильно». Цим він підкреслив колективну зацікавленість індустрії у відповідальній розробці ШІ.

Попри загальний консенсус щодо необхідності регулювання, під час дискусії з’явилися розбіжності щодо ШІ з відкритим кодом.

«Відкритий код демократизує доступ до цих інструментів, і це допомагає урівняти конкуренцію і сприяти інноваціям для людей і бізнесу», — сказав Цукерберг.

Однак Джек Кларк і Білл Гейтс, висловили занепокоєння щодо наслідків ШІ з відкритим кодом для безпеки, попередивши, що це може дозволити стороннім особам обійти заходи безпеки.

Сенатор Шумер зазначив, що майбутні зустрічі будуть відкритими для громадськості та залучатимуть ширше коло учасників. «Перша зустріч була закритою, щоб заохотити дебати «без прикрас» і щоб ніхто не «грав на публіку», — зазначив він.

👍ПодобаєтьсяСподобалось4
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Досить цікаво спостерігати за тим, як проміжна ланка еволюційного ланцюга (Homo Sapiens) наївно та егоцентрично вважає себе вершиною еволюції і останньою ланкою, після якої нічого кращого вже не буде) Хех, як діти, їйбо)

Тіла людей можуть існувати у дуууже вузьких режимах температур, тиску, радіації, лише у атмосфері з певним хімічним складом і т.д. Розум людей оброблює інформацію вкрай повільно. Щоб виростити одну повноцінну дорослу людину потрібно витратити купу ресурсів і десятки років, так ще й невідомо, нормальна людина виросте, чи хтознашо. Ну і я вже мовчу про вкрай низьку тривалість життя та неможливість переносу свідомості. Тобто весь той досвід, який кожен з нас накопичує протягом життя — фактично обнуляється в момент смерті.

А тепер порівняйте все це з синтетичною формою життя, яка працює на акумуляторах і керується АІ, яка може регулярно переносити свою свідомість у нову, більш просунуту модель синтетичного тіла, яка може подорожувати у космосі без скафандра, води, їжі, повітря, жити сотні, тисячі, десятки тисяч років і створювати нові екземпляри себе за лічені тижні/дні/години.

Цікаво, коли вже люди зрозуміють і приймуть той факт, що ми тут не назавжди? Що як до нас були інші домінуючі форми життя (як, наприклад, динозаври), так і після нас будуть інші?
Заперечення, Гнів, Торг, Депресія, Прийняття — здається зараз ми якраз на стадії Заперечення.

Люди себе тисячоліттями запитували: «У чому сенс життя?». Так от якраз у цьому — рухати еволюцію вперед, будь-яким способом — хоч біологічно, хоч технологічно — і від людей перейти до пост-людей / над-людей. І якщо для буття «пост/над» треба відмовитися від своєї біологічної природи і використовувати інші «будівельні матеріали» для тіла — значить так тому й бути.

Але... чи витримає кремнієва форма життя спалах супернової?

А потім ці всі хлопці поїхали на аналог острова епштейна і обговорювали як контролювати стадо з допомогою ші. Ну може крім маска і то не факт

Написали два чатбота які посередньо відповідають на питання сладніші за 2+2 і вже все — загроза людству)

якщо ви не бачите потенційну небезпеку людству від ШІ, то в мене для вас погані новини

Гейтс, Маск, Цукерберг, Пічаї та Альтман заходять у бар. «What is this,» the bartender yells, «some kind of joke??»

Не страшний штучний інтелект. Страшний природний, особливо коли він засраний різними деструктивними ідейками. А професійних засирачів людських мізків на цій бісовій планеті наскільки багато, що не знаєш куди від них ховатись.

Ще й БГ 3 додав засирачів мізків нещодавно

становить екзистенційні ризики для цивілізації

Ризики для цивілізації станлять перш за все ідіоти, які користуючись своїм становищем вирішують пограти в геополітику.

Интересно, агентка ФСБ Илона Масковская набила квази-лицо гуманоиду Цукербрину, как некогда грозилась?

Цікаво, що на цій зустрічі в очевидь вирішувалося питання — а чи не можна якось прискорити цей процесс створення/запуску технологічної сингулярності... (саме ШІ шляхом)
Чогось мені так здається.

Є непоганий відео ролік на тему подальшого розвитку ШІ. Дещо розкривається, чому треба боятися. www.youtube.com/watch?v=fJOPGbbqMvw
Я вважаю, що тому суперШІ, який прийде, коли якійсь корпоративний (від якоїсь неслухняної корпорації ) ШІ сам себе перепише так, як йому потрібно...
все ж таки захочется у першу чергу просто домовитися за подальше використання усіх людей планети у своїх власних інтересах мирним шляхом тобто зомбуванням мізків наноботами.
Ну або ми вимкнемо ШІ і навчимося володіти власними мізками, передбачати найближче майбутне без допомоги штучних мізків. Одна справа це бази даних, бази знань — інша — якась стрьомна самостійність електронікі.
Люди ще не досить дорослі щоб створювати електронне життя. Але доки грім не жахне...

Ну або ми вимкнемо ШІ і навчимося володіти власними мізками,

Угу, спасибо. Тогда владеть нашими мозгами будут те, кто и сейчас ими владеет. Только уже через нано-ботов.

Може це вже відбулося і всі ці люди вже під дією якихось керувачів. Бо — підкори керівників, а всіма іншими будуть керувати вже вони.

Якщо хтось знищить нас як цивілізацію, всі ставки зроблені

А можна додати оригінали цитат в статтю? Бо щось я не зрозумів таке формулювання

There is some chance that is above zero that AI will kill us all. I think it’s low. But if there’s some chance, I think we should also consider the fragility of human civilization.

Підписатись на коментарі