Галюцинації ШІ — це не баг, а фіча
Ви ж в курсі, що галюцинації великих мовних моделей це погано?
Галюцинації, це коли ШІ вигадує факти та видає їх за дійсність... Виглядає як баг, правда ж?
А от Сем Альтман, гендир OpenAI, зовсім іншої думки!
Переглянув на днях його інтерв’ю Логану Бартлетту, так от, він вважає це супер фічею, яка має дуже несподівані наслідки.
Справа в тому, що ще декілька років тому всі були впевнені, що в першу, через ШІ роботу втратять блакитні комірці.
Тобто ті, хто більше працює руками ніж головою. Вже потім на черзі мали бути офісні працівники, ну а творчим професіям взагалі хвилюватися було не варто.
Так ми думали...
Але хто ж знав, що через галюцинації найбільш вразливими виявляться саме творчі люди!
Бо від них ніхто не вимагає фактів, точних дій або рухів! А вигадані історії, факти та дії — це як раз і була їх робота))
Виявилося, що великі мовні моделі дуже не погано імітують творчість і при цьому не супроводжувати її нескінченними бокалами смузі.
Тож креативщики не чувайтесь, робота то тимчасове, смузі наше все))
І ще...
Дуже хочеться знайти хоча б одного постмодерніста, глянути йому в очі і спитати: «ну шо, чуваче, форсився, інженери таки зробили тебе))»
15 коментарів
Додати коментар Підписатись на коментаріВідписатись від коментарів