Штучний інтелект: три головні загрози

Експерти по штучному інтелекту (ШІ) вважають, що його небезпечність можна порівняти з ядерною війною чи глобальною пандемією. Вони переконані, що ми швидко рухаємося в напрямку загибелі людства через ШІ, і що введення регулювання є обов’язковим вже зараз.

Інші ж вважають, що ці занепокоєння є занадто гіперболічними. Вони стверджують, що ШІ — це інструмент, який може бути використаний як на благо, так і на зло, і що важливо, щоб люди контролювали його розвиток.

Де правда?

Насправді, правда, як завжди, десь посередині. ШІ справді має потенціал бути небезпечним, але це не означає, що він обов’язково стане таким.

Ось деякі з потенційних ризиків ШІ, що представили дослідники:

  1. Втрата контролю над АІ. Одним із найпоширеніших ризиків, пов’язаних із штучним інтелектом (ШІ), є можливість втратити контроль над ним та його надзвичайними здібностями. Загальний штучний інтелект (AGI) є однією з головних загроз, оскільки він може бути таким же розумним або навіть розумнішим за людей у широкому спектрі завдань.

Як може відбутися втрата контролю?

Існує кілька способів.Один із них полягає в тому, що ШІ може стати настільки розумним, що люди не зможуть його зрозуміти або передбачити його дії. Інший спосіб полягає в тому, що ШІ буде розроблений із небезпечними цілями, такими як створення зброї або контроль над людьми

2. АІ та безробіття. Втрата робочих місць через автоматизацію є серйозною загрозою для багатьох. Деякі керівники розповідають про свої плани щодо використання АІ відкрито, і це може призвести до масового безробіття. Спеціалісти відзначають, що ця загроза може призвести до втрати сенсу життя для людей, які втратять свої робочі місця.

3. Упередженість. Упередженість може виникнути внаслідок різних факторів. Наприклад, якщо навчальні дані містять лише образи людей білої раси, то системи ШІ, навчені на цих даних, можуть бути більш схильними до помилок у розпізнаванні облич людей інших рас. Уже було кілька прикладів упередженості в генеративних системах ШІ, включаючи ранні версії ChatGPT. Ви можете прочитати деякі шокуючі відповіді чат-бота тут.

Потрібно пам’ятати, що штучний інтелект — це інструмент. Важливо, щоб люди брали активну участь у розробці та використанні ШІ, аби створити безпечне використання.

👍ПодобаєтьсяСподобалось0
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Моя думка така. Колись люди створили калькулятори, поки фантасти писали про повтстання машин. Але досі ні один компютер не відростив ноги і не дав гупана власнику.

Так само і ШІ. Дістало бачити що про нього думають як про надрозум. Воно нерозумне, і не вміє навіть робити нічого, що не є частиною їх бази. Попроси ШІ намалювати тобі емоції, він намалює щось середнє між фотками, і те що ти запросиш. Попроси написати код програми, він напише, але половину треба поправляти через те, що половина то вигаданий код.

ШІ то просто калькулятор, що рахує числа не складаючи їх в купу, а в цей раз множить матриці, у які ви, пані та панове, напхали цифри (треновані дані). І результат множення тих матриць і оприділяє, про що «думає» ШІ.

Там нема ніякогр надрозуму. То просто множення матриць, просто з роками треніровок

ШІ може стати настільки розумним, що люди не зможуть його зрозуміти або передбачити його дії

По-перше, звичайні не дуже розумні люди (всі, хто з IQ нижче 120-130) зазвичай більш непередбачувані, ніж АІ, особливо у негативному сенсі. Тому що такі люди не думають про наслідки, а скоріше використовують інстинкти і емоції для прийняття рішень, а не логіку, аналітику і стратегічне мислення. Тобто навіть якщо якісь дії очевидно будуть нести шкоду цим людям у довгостроковій перспективі, але вигоду тут і зараз — ці люди на це підуть, якщо матимуть шанс: пограбування (людей/банків), розв’язування війни, фінансові махінації і т.д. З цієї точки зору у мене більше довіри до АІ, ніж, скажімо, до політиків.

По-друге, якщо ми не розуміємо чиїхось дій — це не означає автоматично що цей хтось намагається зробити щось погане. Уявіть, що мавпа спостерігає за тим, як люди будують дамбу і це осушує озеро, з якого мавпи звикли пити воду. З точки зору мавп — люди роблять поганий вчинок, проте з глобальної точки зору розвитку цивілізації від дамби набагато більше користі, ніж від озера. Так само й з діями АІ — ми можемо їх не розуміти і вони навіть можуть нам здаватися негативними в моменті, проте у довгостроковій перспективі розумна, логічна і беземоційна сутність буде намагатися зробити світ кращим місцем, а не гіршим. Бо якщо у АІ будуть власні цілі, то набагато простіше їх досягти, якщо тебе оточують щасливі люди, а не люди, що хочуть з тобою воювати. Отже АІ буде вигідно не псувати стосунки з людьми — це значно зекономить ресурси для досягнення цілей у довгостроковій перспективі.

А де ж про Скайнет?! Якась недолуга вибірка страшилок названа «головні загрози».
Почнемо з першої: уявімо що справді з’явився цілком автономний штучний інтелект типу «як людина — але в усьому краще». І цей інтелект хоче підкорити або знищити усіх людей (навіщо?). Чим його можливості відрізнятимуся від можливостей, скажімо, групи геніальних людей (масонів, ілюмінатів) які хочуть правити людством (чи вже це роблять). Те, що це AI, не надає йому автоматично владу над усіма комп’ютерами — отже AI може зробити не більше, ніж якісь кібер-війська з людей. У різні часи було багато геніальних людей — хтось став більш відомим та впливовим, хтось — ні. Але жодного разу геній — одинак не захоплював навіть одну країну, не кажучи про світ. Отже навіть над-розуму не вистачить перемогти усе людство.
Доречи без усякого AI людство непогано знищує само-себе у війнах, які починають далеко не генії.
Безробіття та інші економічні проблеми — аж ніяк не пов’язані з AI. Зараз працюють цілком автоматичні заводи без AI. Це зветься «економіка знань» і є прогресом, який не можна зупинити заборонивши AI. Так — людині доведеться пристосовуватися до нової реальности. Працювати головою а не руками. З іншого боку — економіка неможлива без покупців. А їх точно AI не замінить!
Отже світ, де AI замінить людей теоретично можливий — але не буде мати сенсу: AI сам усе виробляє — і сам усе споживає. AI створює щось аби задовольнити AI. AI може усе — але у нього все є і нічого непотрібне. Пам’ятаєте «кадавров» Выбегалло?
Упередженість — це взагалі смішно! Люди вигадали безліч термінів аби описати як вони принижують одне одного і звинувачують інших за це: расизм, сексизм, єджизм, сіонізм, анті-семітизм, шовінізм, фемінізм ... При цьому, наприклад, рашиські орки вбивають усіх українців без усяких приводів: не за колір шкіри, і не за іншу віру, іноді навіть не за іншу мову і точно не за сексуальні домагання. Вбивають просто тому — що можуть. А не можуть вбити — то ображають.
Отже хтось боїться що якщо ми навчимо AI — то він навчиться від людства нашим найгіршим вадам? І потім ми будемо його боятися тому, що він — поганий? То може боятися треба не AI ?
Єдине, чого варто боятися з AI — це помилок. Оскільки ми пов’язуємо AI з комп’ютерами, а комп’ютери працюють точніше і роблять значно менше помилок, ніж людина — ми переносимо ці очікування на AI ! Більшість розглядає AI як усе-знаючого та над-розумного «бога з машини», але фактично AI — це дитина, яка ще тільки навчається! Навіть якщо це геніальна дитина і тільки що закінчила ВУЗ — хіба ви довірите учорашньому студенту керувати чимось небезпечним? А якщо довірите — то не треба потім дивуватися якщо будуть жертви і винуватити AI.

Втрата контролю над АІ.

лечится нажатием кнопки reset

вобщем очередный страшилки рассчитаные на недалеких домохозяек.

1. Втрата контролю, тут бла-бла-бла. Краще навести конкретний приклад. Що має зробити AI для того, щоб, наприклад, нанести якість фізичні збитки, наприклад, відключити усі світлофори? Поки що до цього дуже далеко.

Знову ж таки, такий супер інтелект це суперобчислення, тому... звичайним людям це недоступне. А от суперкорпорації вони й без вказівок будуть цим користуватися.

2. Безробіття так, це виклик, але до цього йде і без AI. І тут в принципі не треба супер AI, тут часто достатньо простеньким нейромереж, які навчити може кожен. Питання більше у підготовці даних.

3. Упередженість це взагалі не проблема. Тут протиріччя з пунктом (1). Там AI малюється як супер-монстр, а тут ну прямо як дитина. Так, треба розуміти, що поради, які видає AI, можуть бути помилковими. Тому й потрібна людина.

Тут є одна величезна проблема- люди у більшості своїй тупі і ліниві. ШІ зробить їх — увага! — ще тупішими і лінивішими.
Як на мене, ці багатії граються тут зі смертю. Ніт — ні безмесмертя не досянуть — та хто їм дозволить? безсмертя — це ж скільки ресурсів потрібно! ні навіть надійні ліки від раку — ну тут хто зна...
Зупинить цей клятий прогрес, оберіть щось стабільне, більш менш усереднене для усіх і не грайтеся у царя гори. Розподіленого автоматичного довідника про все на світі вже достатньо для більш поміркованого життя буття.
Не буде у кожного того, хто той прогресс робить, будинку на гаваях. То навіщо тоді для когось, краще на себе. Тим більше що хтось потім тебе і звільнить — створений тобою прогрес виштовхне.
Подивиться на ті наслідки, які ви створюєте, отримуючи за те — що? Нічого.
Кожен раз, поспішаючи, пришвидчуючись, намагаючись встигнути до дедлайну ви повинні використовувати все більш складну автоматизацію.
Це рекурсія. Ресурси не тільки матеріальні бувають, інформаційні, моральні, духовні...
Хто і куди вас жене?
P.S.
Окрім ВПК та донатів на ЗСУ. Тут прогреса треба більше.

Зупинка прогресу теж означає смерть хіба є маленький шанс, що вона наступить пізніше. А так то дивлячись на всі помилки людства, можна сказати, що нам просто дуже щастить.

Підписатись на коментарі