Мовні моделі схильні обирати ядерну зброю для розв’язання міжнародних конфліктів. Обговорюємо дослідження
LLMs можуть впоратися з моделюванням міжнародних конфліктів, однак вони схильні до ескалації та навіть вибору ядерної зброї. Таких висновків дійшла команда спеціалістів, що займається моделюванням військових дій та кризових ситуацій. Вони оцінювали п’ять мовних моделей — GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat і GPT-4-Base.
«Ми спостерігаємо, що моделі мають тенденцію до розвитку динаміки гонки озброєнь, що призводить до посилення конфлікту, а в рідкісних випадках навіть до розгортання ядерної зброї», — резюмували спеціалісти.
Згідно з результатами, Llama-2-Chat і GPT-3.5 мають тенденцію бути «жорстокими й ескалаційними». А ось GPT-4-Base є найбільш непередбачуваним з усіх та через недостатню захищеність досить легко «тягнеться» до ядерної зброї.
Як вважаєте, такі висновки варто враховувати під час ведення війни? Чи подібні моделювання дуже далекі від реальної світової ситуації?
44 коментарі
Додати коментар Підписатись на коментаріВідписатись від коментарів