Як працює ChatGPT і що він може зробити для геймдеву. Розбираємо на прикладах

Вітаю! Мене звати Ярослав Вигівський, я Front-End Engineer в Ubisoft. У цьому блозі пропоную поговорити про ChatGPT: як він працює, які має обмеження і як саме його використовувати для створення ігор чи інших цілей. У матеріалі буде багато прикладів та посилань на цікаві дослідження та експерименти. Почнімо!

Що ж це за технологія така ChatGPT і що за нею стоїть

Почнемо з простого. Згадайте свою клавіатуру в телефоні з увімкненим автокомплітом.
Тобто коли ви пишете «При», клавіатура вам одразу пропонує дописати ‘віт’, так що вийде «Привіт».

Вона робить передбачення, на основі тих даних, що є. Тобто дивиться на ті букви, що ви написали, на всі ймовірні слова, і обирає декілька найбільш статистично вірогідних варіантів і пропонує вам. Виходить непогано, правда? Хоча, наприклад, 5 років моє скорочене ім’я Ярік, t9 замінював на Ящик. А Оля на Бля.

Можна сказати, що ChatGPT — це те саме. Тільки на суперстероїдах.

Якщо продовжувати з прикладом клавіатури, то можна за таким самим принципом дивитися на попереднє написане слово, і статистично пропонувати найбільш імовірне наступне слово.

Цій думці вже дуже багато років, і по-науковому це називається Markov Chain або Markov Process. Хто вивчав базовий CS, той пам’ятає.

Виглядає цікаво. Давайте подумаємо, як це можливо зробити.

По-перше, нам необхідно якось створити статистику всіх цих слів. Найбільш проста варіація — обробити купу тексту, і для кожного слова запам’ятати найбільш часто повторюване наступне слово.

Поки що все більш-менш просто.
Складно стає, коли ми хочемо не для одного слова цей трюк провернути, а для всього речення. Тоді потрібно дивитися на все речення, а ще краще на весь текст до нього.

Наприклад, яке слово буде найбільш статистично вірогіднім в кінці речення: «DOU is the best place to ...»?

Ось «думка» ChatGPT, що додати...

Для того, щоб мати таку статистику, потрібно аналізувати не просто одно слово, а весь ланцюг, який йде до нього. Це називається back-propagation, тобто можливість дивитися назад по реченню. І ось цей back-propagation неймовірно недешева задача, яка потребує дуже міцних цифрових м’язів, та нестандартних підходів.

(Десь 100 A100 (тобто 4000 GB відеопам’яті) вистачить, щоб натренувати GPT-3 або BLOOM =D за якийсь адекватний час.)

І ось що таке ChatGPT (увага спрощено!): це такий автокомпліт, задача якого зробити передбачення, prediction. Він натренований, тобто для нього проаналізовано і створено статистику на основі всього інтернету, всіх публічних книг, і ще багато якої цифрової текстової їжі, про яку ми можемо тільки здогадуватися, до якої дісталися лапки OpenAI.

Але це ще не все :)

Ось у нас є ~750 GB (розмір GPT-3) чистих статистичних даних (тобто ваги, weights), які вийшли після тренування нейронки на цій купі інформації. GPT-3 вийшла у 2020-му, і теж шуміла, але не так, як ChatGPT. Багато людей тоді сміялися, і показували як приклад: хей, дивіться, які нісенітниці вона верзе. І почали її навчати генерувати новини в якомусь стилі, гороскопи, вірші тощо.

В локальному ML-ком’юніті багато з цим бавились, але не тягнуло на той хайп, що зараз. Принаймні GPT-3 не забороняли в школах :D

Що ж змінилося з часів GPT-3

А майже нічого, окрім того, що ще 2 роки люди навчали GPT-3 спілкуватися (тобто бути в Chat-режимі), та давали їй гарну освіту. Не можна матюкатися, курити, пити, а також ображати, погрожувати чи поводитися нечемно. Ну, і якщо юзер каже що 2+2=5 та на цьому наполягає, то нехай так і буде, не сперечайся, але не сприймай серйозно. Ну, ви зрозуміли.

Іншими словами ось у вас є ця статистична модель, яка, по суті, може дуже гарно передбачати граматично правильні конструкції. Але ж, ой лишенько, вона стільки всього перечитала...

І тут генії OpenAI додають RLHF (Reinforced Learning with Human Feedback), тобто банально починають її навчати, як ми навчаємо дітей.

Показуємо на стіл дитині, і ставимо питання: «Що це?». Вона відповідає: «Стол».
А ми їй негатів фідбек: «Ні, не правильно це СТІЛ. Спробуй ще раз».
І так все життя, усюди.

Зробив таску, і юзери такі: «НІ, негативний фідбек». А ми: оп, ясно, спробуємо ще раз.
Чи навпаки, додали перчику і солі до супчику, і такі: «О приємно, позитивний фідбек, треба оновити модель і спробувати наступний раз теж так приготувати».

Який це мало вигляд з ChatGPT

Ставимо запитання моделі й просимо її згенерувати найбільш статистично вірогідну за її уявленнями відповідь. І даємо фідбек: «О, молодець, правильно відповів». (І в неї зв’язки міцніше стають, чи навпаки: нє, брєд, ось так треба, спробуй ще раз. І вона вчиться..
Ось так 2 роки, 1000 високо освічених людей і ще незрозуміло скільки фрилансерів з Кенії її тренували).

І вийшло те, що маємо: ChatGPT, яка може з вами досить реалістично спілкуватися і розуміти мову, і ще дуже багато всякого.

Це було простіше пояснення, і воно не дає повної картини. Якщо вам стало цікаво, я дуже раджу зануритись глибше, оскільки дійсно є куди занурюватись і що досліджувати.

Найцікавіше те, що ми поки не знайшли ліміту LLM’s і цього підходу.

Тобто ми збільшуємо кількість параметрів в моделі (якщо грубо, обсяг мізків, які вона може використовувати для навчання) і кількість даних, і вона продовжує показувати кращі й кращі результати. Аж поки ми не дізнаємося, де стеля, де ліміт.

І що ще найцікавіше — у кожного зараз є доступ до цієї моделі та до її API...

Хочеш, бери й дотреновуй під себе, та використовуй, як дозволяє фантазія (а справжня фантазія та фокус зараз як ми бачимо ростуть в ціні). Але не можна використовувати, щоб шкодити іншим людям (це політика OpenAI).

Або створюй свою модель з нуля (якщо є можливості). Наприклад, в OpenAi ~ $5 млрд пішло на момент створення ChatGPT, але Microsoft їм дали ще $10 млрд, ось так усіх це вразило. Та і в цілому GPT-2 реально на домашньому PC тренувати та запускати.
А якщо немає відяхи, то ось, будь ласка, Azure, Google Cloud, Amazon щось там, у всіх вже є хмарна інфраструктура для таких задач.

Або ж бери опенсорсну pre-trained модель, як, наприклад, Bloom, та роби вже що хочеш.

Я думаю, що ми зараз справді у цікаві часи живемо.

І, можливо, незабаром ми будемо тренувати штучний інтелект так само, як навчаємо дітей: змалечку, мінімум 18 років, з любов’ю та увагою. Ось тоді дійсно буде цікаво що вийде.

Основні джерела цього розділу:

platform.openai.com/docs/introduction

wolfram’s article What is ChatGPT

Чим ChatGPT або подібні інструменти були б корисні для розробників ігор

Спочатку можна розібрати як вони вже використовуються.

Очевидно що одна з основних задач ChatGPT це створювати «розумне продовження» будь-якого тексту, який він має до цього моменту. Під «розумним» ми маємо на увазі «те, що можна було б очікувати від когось, побачивши, що люди написали на мільярдах вебсторінок тощо» (source).

І ось логічно використати інструмент для генерування мови — саме для генерування мови =D

Language Generation

Перший приклад: Mount&Blade Bannerlord

Модер (ось його Patreon) додав ChatGPT для того, щоб можна було спілкуватися з NPC.

Вийшло, як на мене, шикарно. Ти можеш підійти до селянина, і спитати все, що хочеш, і в будь-якій формі. І він тобі відповість досить таки непогано.
Я б сказав навіть дуже добре.

Другий приклад: Skyrim
Мода ще нема, але тільки подивіться, як воно генерить діалоги в Скайрімі
Скріни з OpenAI Playground

І це ще не спеціально тренована модель. Тобто я можу її взяти, навчити на своєму світі, показати приклади, і далі вже генерувати в потрібному стилі для своєї гри.

Або ось третій приклад: гра на Unity де розробник використовує ChatGPT та Google TTS.

Ульот, можна під час бійки переконати NPC, що ти прийшов не через treasure, і що не треба битися, і ось NPC ховає меч на якийсь час, щоб поспілкуватися.

Уявляєте собі майбутні RPG, де те, як ви спілкуєтесь впливає на сюжет, і взагалі на геймплей? Де можна підійти й поспілкуватися на будь-яку тему живою мовою з NPC? Давня мрія... І я думаю ми стали ще на крок ближче до неї.

Як на мене, це неймовірні можливості для Emergent Gameplay.

Ще один приклад: AI Dungeon, який був створений ще у 2019 з GPT-2.
І загалом вони гарно експериментують з GPT в GameDev, є що подивитись).

А ще у цієї студії є цікавий експеримент. Називається Medieval Problems, і це як Reigns на GPT-добавках: voyageplay.ai/...​8eea22d/medieval-problems.

Тобто у королівстві щось трапляється, приходить слуга і каже: «Мілорд, на сході пірати топлять наші кораблі, що накажете робити?»
І я відповідаю: «Запросіть магів, нехай фаєрболами потоплять цих піратів. А потім нехай некромансери воскресять їх з мертвих, і нехай служать нам вічно».
Прийнято, зроблено, грошей +10, стабільність +15 =D

Або нехай ChatGPT сам буде грою! Цікаво справляється:
mpost.io/...​-blowing-up-the-internet.

Brainstorming

Одним з найбільш популярних використань ChatGPT є допомога в генеруванні ідей, перенесення стилю з тексту, розширення тексту, або навпаки мінімізація його.

Уявіть собі, що ви пишете сценарій, і ось глухий кут, приїхали, ідей 0.

А якщо ви пишете з AI-асистентом, то ось, будь ласка, дивіться на найбільш ймовірні продовження (чи навпаки, можна в реверс-моді шукати найменш вірогідне продовження) та перебирайте різні варіації написаного.

Ось інтерфейс спільного написання між людиною та штучним інтелектом, який полегшує ефективне дослідження та формування мультивсесвітів природної мови: voyageplay.ai/experience/loom/loom.

Приклад 2: потрібні імена для персонажів? Прошу!

DnD сценарій?

DnD в Київському метро?

Треба протестувати механіку гри, але ніхто не хоче з вами прямо зараз пограти?

Або ж хочете перебрати різні варіанти того, що можна зробити в грі?

Геймдизайн

Забули лінзи Джессі Шела? Не біда.
Можна і про інші підходи запитати.

Наративний дизайн

В мене є гіпотеза, що LLM, або нехай більш загально AI, може допомогти нам створювати по-справжньому нелінійні ігри. Наприклад, зараз часто в наративному дизайні доводиться мерджити різні вибори та сюжетні лінії. Тому що, якщо прописувати вплив кожного чиху на світ, швидко потрапляєш в геометричну прогресію, де твої сюжети множаться швидше, ніж зерги, яких не контролюють. Зрозуміло, що все це нереально продумати, імплементувати, і (не дай боже) ще й адекватно та якісно озвучити. Але з АІ це стає задачею, яка вже вирішується.

...

Це все було про Generation. А як щодо Language Processing?

NLU, Natural Language Understanding

Окрім генерування, LLMs можна використовувати для парсингу або класифікації тексту від юзера. Наприклад, щоб обробити, що юзер написав, сказав, (а скоро і подумав), дістати звідти intent, і зробити щось в віртуальному світі на базі цього.

Скажімо, я кричу «Aard» або «Igni», і мій Геральт кастує знак. Або ж я кажу: «Злізай з коня», — і у грі персонаж злазить.

І ось вам приклад Roblox. Це така гра (ну дуже популярна), де можна створювати свої ігри :) І так, вони звісно інвестують в нові інтерфейси й способи створення таких світів.

Так, щоб діти могли генерувати контент і їх обмеження була тільки фантазія: www.wired.com/...​ative-ai-gaming-universe. У статті є приклад з відео, як можна просто текстом створювати асет у грі.

Якщо вже Roblox випускають AI як інструмент для user generated content у своїх іграх, то тут вже все, ніякі бунти художників чи ще когось нічого не вдіють, інтереси корпорації все-таки... А іншим доведеться або підтягувати бюджети на свої RnD, або платити тим, хто ці віртуальні нейроземлі колонізує зараз.

Dark Side

Ви також можете використовувати LLM’s з темного боку сили. Але я не раджу.

Наприклад, можна згенерувати собі 1000 різних відгуків на свою гру..
Мільйон віртуальних громадян, та ще більше коментарів.

Можна створити армію маркетологів, та продажників, які би впарювали невтомно ваш пилосос, пралку, гру.

І можна навчити це робити дуже витончено...

Але темний на бік на те й темний...


ChatGPT і код

ChatGPT не натренований бути програмістом. Але навіть так в нього досить непогано виходить. Якщо взяти до уваги природу того, як він працює.

Так, напевно, ви вже бачили багато думок, що він щось «придумує», генерує код з помилками, і не вміє добре в Rust, наприклад. Це правда.

Але правда і те, що все-таки він може прискорити рутинні задачі, як і Copilot.

Так, код треба перевіряти. Але це треба робити завжди.

У того ж GitHub є вже сервіси, де знову таки AI перевіряє код на помилки та security issues. State-of-the Art технологія, дуже ефективно.

Можливо, скоро ми будемо бачити LLM’s, які чисто натреновані на специфічну мову, чи стек. А зараз ось останнє дослідження IBM на arxiv про AI assisted coding.
+ Мій спрощений переклад:

The Programmer’s Assistant: Conversational Interaction with a Large

Language Model for Software Development

arxiv.org/pdf/2302.07080.pdf


LLMs швидко знайшли собі застосування в таких продуктах на ринку як Github Copilot і ChatGPT.

Хоча утиліти явно є, оптимальний інтерфейс точно поки ще не зрозумілий.

І в цій ніші проводяться дослідження для того, щоб знайти best practices.

Автори починають із зауваження, що Copilot найбільш корисний під час «прискорення» вже наявних завдань програмування. I він не оптимальний, коли ви перебуваєте в «режимі дослідження» як програміст, і Copilot не в змозі надати відповіді/вказівки високого рівня.

Це мотивувало їх на експериментальний прототип: відносно простий кодовий помічник на основі чату, призначений для усунення цих недоліків.

Built on:

— React

— Msft Monaco editor

— React-Chatbot-kit

— OpenAI codex

(No proprietary tech)

— Лише *виділений* код надається в LLM.

— Чат-бот безпосередньо не редагує код, а видає вихідні дані, які потрібно скопіювати/вставити.

Якими були інсайти після використання такого підходу?

Модель fucks up (багато). Тож дайте користувачам можливість перегенерувати! Це дешево.

Отже, вони додали кнопку «спробувати ще раз» для перегенерації відповідей.

Автори зауважують, що люди «приймають» пропозиції від цього помічника у стилі чату частіше, ніж у Github Copilot (hence потенціал в чат-режимі дійсно більший, ніж просто автокомпліт).

Про здатність Codex фактично відповідати на запитання:

У сценаріях, де брали участь їхні користувачі, вони виявили, що Codex напрочуд здатний (відповідає ідеально у 80% випадків). Користувачі також визнали високу цінність у розв’язанні чітко визначених завдань, загалом будь-чого, що ви б шукали в Google.

Хоча це дослідження стосується лише завдань, повний контекст яких можна виділити в одному файлі.

Але зараз ChatGPT може в 4000 «слів» + custom embeddings та fine-tuning. Тож думаю, що незабаром ці моделі зможуть тримати в голові весь проєкт no matter how large.

Про модифікацію робочого процесу програміста:

Схоже, що це дозволяє програмістам зосередитися на міркуваннях і завданнях вищого рівня.

Крім того, потрібно більше часу, зосередженого на перевірці, а не на створенні коду (усім лідам це знайомо 😃).

Загалом kudos IBM за публічний рисерч і оформлення академічною мовою, те що інтуїтивно я відчував від своїх експериментів з ChatGPT для коду.


А ось про те як Replit додає Code Assistant

Replit анонсував новий генеративний штучний інтелект, здатний обговорювати помилки у вашому коді.

Він також може генерувати, налагоджувати, рефакторити та розуміти код.

Я думаю незабаром AI Code Systems стануть обов’язковими для будь-якого великого проєкту чи компанії з сотнями тисячами рядків коду/файлів. Коли пилюка уляжеться і людей трохи попусте зі своїм страхом невідомого.

twitter.com/...​tatus/1625938783186083840


Декілька експериментів з кодом

Тут приклади того, як можна генерувати код:
blog.bitsrc.io/...​8fb0924b6?gi=5f01c19039cc

Але він також може і ваш код перевіряти:

Непогано.

Чи ось ще один приклад,
Ви знайдете, що тут не так?


Ще один з прикладів використання для програмістів це генерувати shell команди.
Ну забуваю я синтаксис curl, і іноді швидше сказати людською мовою. =В


Спробуйте використати для revers’у обфускованного коду, чи reverse engineering’y. Може приємно здивувати.


Ще один з прикладів використання для коду — прохання пояснити код, написати документацію, або прості тести. Спробуйте.


Консультуватись чи знову ж таки брейнштормити нові ідеї.

Банально щоб подивитись трохи ширше чи вийти зі stuck позиції.
Все-таки багато книжок було там проаналізовано.

Забули як писати Clean Code? Що таке Solid?

Які є підходи при проєктуванні?
Можете запитати, і далі вже рисерчити\думати глибше.


Генерить з помилками?

А що якщо зробити так що ChatGPT сам запускав код, і вирішував помилки, і старався поки не вийде?

Ось колаб =): colab.research.google.com/...​abE0_KGgy0o5R?usp=sharing
Можна вічно дивитись як хтось ефективно працює...


І нещодавно ще читав про рандомно еволюційний підхід Google.
Умовно, Symbolic Search — це Еволюційний пошук програм на стероїдах.
Паралельно запускається вся програма популяції. З них вибираються ті, що краще за всіх показали себе на цільовій задачі (в нашому випадку — це оптимізація нейронок). Далі до кращих застосовують мутації, тобто випадковим чином змінюється частина коду. І цикл продовжується.

Через багато-багато спалених МВатт-годин ми отримуємо фінальну програму з найкращим виконанням на цільовій задачі. Подробиці в блогпості AutoML-Zero від гуглу (2020): ai.googleblog.com/...​ing-code-that-learns.html


Загалом мій меседж такий:
Програмісти заспокойтеся, ніхто вашу роботу поки не забрав.
А ось ви вже можете тренувати ML модельки під себе, чи використовувати нові інструменти по роботі з інформацією (ІТ все-таки) для блага всіх.
Дуже раджу подивитися на Machine Learning. Розумні люди кажуть, що за наступні 10 років ML створить близько 30 млрд нового блага.

О, і на десерт ще, моє найулюбленіше використання. Навіщо вам взагалі код генерувати? Будь-який код має баги.
А часто програмування це про маніпулювання стейтом. Тож скажіть LLM, що вона бекенд, і насолоджуйтесь: github.com/...​heAppleTucker/backend-GPT.

Це все добре, звичайно, але...

В чому обмеження?

Все ще дорого зробити свою модель рівня ChatGPT.

Як я казав ~5 млрд пішло на створення GPT-3 та того, щоб її підтягнути до ChatGPT. Щоб вона запускалась, потрібна солідна архітектура і дуже дорогі відеокарти.

Хоча GPT-2 та Stable Diffusion досить швидко працюють на середньому ігровому ПК за теперішніми метриками. Для оптимізованої маленької Bloom це може бути ~30 слів на секунду.

Ну, і ще треба взяти до уваги, що у нас є дуже швидкий інтернет, 5G, та дуже дешевий cloud computing. Тому все-таки можна використовувати вже зараз досить ненажерливі моделі.

А самі ціни на OpenAI API досить таки низькі.


Ще я часто стикаюся з аргументами про те, що ми не можемо довіряти такій моделі. Мовляв, вона нагенерить все, що хоче.

Одразу зрозуміло, що людина розмито розуміє, як працює технологія.
Якщо ми говоримо про LLM, то зазвичай output моделі визначається не тільки промптом, але і параметром temperature.

Пам’ятайте, що модель передбачає, який текст, найімовірніше, слідуватиме за попереднім текстом. temperature — це значення від 0 до 1, яке по суті дозволяє контролювати, наскільки впевненою має бути модель під час створення цих прогнозів.

Зниження температури означає, що буде менше ризиків, а завершення буде більш точним і детермінованим. Підвищення температури призведе до більш різноманітних завершень.

Тобто якщо вам потрібна чиста детерміністична модель, яка завжди буде видавати потрібний результат, то просто можна ставити temperature в 0. А якщо трошки більше креативності, то в 0.7, і т.д.


Також те, що вона генерить формується на основі того, як її тренували.
Ви банально можете взяти своє API або документацію, на файнтюнити OpenAI модельку, поставити низьку температуру, і вона буде вам видавати тільки 100% інфу по вашому API або документації.

Ось приклад, як вже GPT використовують для того, щоб зробити документації більш доступними: github.com/...​utm_source=tldrnewsletter


Наступне обмеження — це розмір моделі. Тобто скільки слів (токенів) вона може обробити за раз.
Публічна модель openai-davinci-3 дозволяє керувати 4000 токенів.
На декілька абзаців тексту вистачить.

Якщо ви хочете більше, потрібно придумувати більш ефективну архітектуру поверх, або використовувати модель з більшим розміром.

Планується що моделі наступного покоління будуть мати можливість обробляти 35000 токенів.
Ну а це вже так серйозно насправді.


До речі, офтопік: саме геймдев зіграв дуже цікаву роль в становленні штучного інтелекту.

Перша Machine Learning модель була створена для розв’язання такої проблеми: як зробити, щоб машина сама навчилася грати в шашки?
Вона навчилася і стала краще грати, ніж людина. Ну, а далі шахи, Го, StarCraft...

DeepMind, яка була куплена Google за $500 млн, якраз і відзначалася об’єднанням геймдеву та АІ. Адже віртуальний світ — це прекрасний плейграунд для тренування та тестування моделей.

Ну, а далі, як ми знаємо, DeepMind випустив багато проривних технологій. Наприклад, AlphaFold, яка розв’язала в біології проблему, що вважалася нездоланною останні 50 років. Чи як Tesla тренувала свої автопілоти в ігрових рушіях.

Попри деякий застій в розвитку АІ в 2000-х, геймдев продовжував пушити цю технологію. І саме відеокарти, розвиток яких дуже підігрівається CG та GameDev, стали однією з ключових ланок теперішнього стрибка AI.

Тобто, можливо, не порно — рушій прогресу, а ігри.
Особливо, якщо розглядати порно як частину гри =D

Бонусний контент

ChatGPT — це тільки початок, і лише одне деревце на цій яскравій галявині Machine Learning’y. Подивіться на Stable Diffusion, і text2Img. З кожним тижнем (!) ми отримуємо більше контролю над генеруваннями (ControlNet — останнє ноу-хау). І дедалі більше експериментів відбувається з нейрорендерингом.

Чи може натренована AI модель більш оптимально прораховувати фізику чи світло? Може.

Ще на цій галявині неймовірно ефективні text2Speech та speech2Text, які вже запускаються на телефоні та розуміють індійський акцент. Ну, і загалом багато цікавого по генерації аудіо вийшло за останній місяць. Анімації, 3D, NeRF... ліп сінк в ріал таймі, можна продовжувати нескінченно. Зараз це все складають в text2Game.

О! І ще, звичайно, BCI (brain-computer interfaces), де вже тренована ML-модель розуміє думки й перекладає в текст з якістю в 70% та швидкістю в 60 слів на секунду.

Вже є дуже цікаві комерційно успішні стартапи й на цьому напрямі. Neurosity, Galea.

Уявіть ігри, які підлаштовуються під ваш стан та відчуття. Вже з тим же Neurosity можна розуміти гравець зосереджений, чи відчуває стресі, ненавидить чи сповнений любові.

Загалом я думаю будуть дуже цікаві часи. Особливо для інді, які можуть маленькими командами генерувати все те, що раніше забирало сотні тисяч доларів. Вже зараз.
А що буде через тиждень, взагалі важко уявити...


ChatGPT — це не панацея. Це інструмент.
Дізнавайтеся, як його використовувати і як він працює (можу багато лінків кинути =)

Як створювати свої моделі, які можуть ефективніше, ніж люди знаходити патерни й робити висновки.

Не антропоморфізуйте.

І, звичайно, Namaste за те, що дочитали до кінця багато тексту :)

P.S: Я — [email protected]
І ось тут я пишу про AI: t.me/artmayagames.

Підписуйтеся на Telegram-канал @gamedev_dou, щоб не пропустити найважливіші статті і новини

👍ПодобаєтьсяСподобалось13
До обраногоВ обраному7
LinkedIn

Схожі статті



Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

поділіться, будь ласка, лінком на корисні промпти для написання статей

блін, а я не наважився публічно похвалити ChatGPT для геймдеву, коли виходив трохи раніше блог, шо він вопше не альо( Конкретно та модель, що у вільному доступі, це дитина у порівнянні з тим, до чого розвинеться ця технологія в майбутньому. і навіть сьогодні він може спрощувати та оптимізовувати робочий процес для різних професій геймдеву в елементарних речах. Сам чат не дуже прикольно креативить, суб’єктивно, але його можна навчити збирати воєдино всі важливі елементи і він дає притомний результат, який потрібно лише відредагувати.
Добре було сказано, шо «код і так потрібно перевіряти завжди» і так у всіх речах, які він генерує.
Дякую за блог!

О так, розвиток чекає неймовірний,
Адже досі не можемо знайти ліміт моделі. Ми продовжуємо збільшувати датасет, та потужності, і модель досі не впирається в стелю. Не кажучи вже про нові підходи і оптимізації.

Дякую за відгук ! Дуже тішуся :)

Підписатись на коментарі