Sora генерує відео з українськими військовими: чи стане це новим інструментом дезінформації?
Побачила на NBC News статтю, яка змушує задуматись (і трохи напружитись). Йдеться про модель від OpenAI — Sora, і те, як вона генерує гіперреалістичні відео.
Пишуть, що вже з’явилися ролики, де нібито українські солдати здаються, плачуть чи скаржаться. Перевірка показала, що це все AI‑deepfake, обличчя часто належить зовсім іншим людям, а елементи мови і екіпірування виглядають неприродно. Але проблема в тому, що такі відео швидко поширюються, їх перекладають різними мовами і вони можуть впливати на громадську думку.

Взагалі прогрес лякає своєю швидкістю. За останні роки AI-відео еволюціонувало від простих і грубих спроб до майже ідеальної картинки. Експерти дедалі частіше попереджають: ми наближаємось до моменту, коли відрізнити справжнє від підробки «на око» буде просто неможливо. А жовтневий реліз Sora 2 від OpenAI лише довів, що цей інструмент — один із найпотужніших на ринку прямо зараз.
Що думаєте: наскільки реально зараз відрізнити AI‑відео від справжнього? Та чи повинні компані на кшталт OpenAI жорстко обмежувати генерацію будь-чого військового?

4 коментарі
Підписатись на коментаріВідписатись від коментарів Коментарі можуть залишати тільки користувачі з підтвердженими акаунтами.