Генерація текстів: перевіряємо прогрес AI-моделі від GPT до ChatGPT

Ще кілька років тому про генерацію контенту говорили доволі обережно. До цього вся увага була прикута до word2vec та BERT, які, фактично, відігравали головну роль у сфері обробки природної мови (natural language processing). Це стало несподіванкою, але 2022 рік увійшов в історію як початок ери генерації контенту.

І одну з найголовніших ролей тут зіграла організація OpenAI. Всього за 4 роки вона створила кілька мовних моделей, які продемонстрували всьому світові, що розвиток штучного інтелекту є не лінійним і швидшим, ніж здавалось до цього. Цікаво, що засновником OpenAI є Ілон Маск — людина, яка ще недавно попереджувала про загрози штучного інтелекту, хоча і наголошувала на неймовірній користі, яку штучний інтелект може принести.

Нині почався зворотний відлік для деяких професій, які моделі генерації тексту назавжди змінять чи навіть поступово зведуть нанівець.

OpenAI

OpenAI — це науково-дослідна організація, що складається з комерційної корпорації OpenAI LP та її материнської компанії, неприбуткової OpenAI Inc. OpenAI займається дослідженням штучного інтелекту і його застосуванням у різних сферах. Основна ціль — створення безпечного і корисного штучного інтелекту, що може принести користь і полегшити життя людей.

OpenAI була заснована у 2015 році Ілоном Маском, Семом Альтманом та іншими представниками технологічної сфери, і має штаб-квартиру в Сан-Франциско. У 2018 році Ілон залишив організацію через «потенційний майбутній конфлікт інтересів», а саме через розробку ШІ Тесла для самокерованих автівок, але повністю стосунки з OpenAI не розірвав.

Після того, як OpenAI перейшла до комерційної моделі, організація розподілила акції серед своїх працівників і у травні 2019 року уклала угоду з Microsoft, яка інвестувала в OpenAI $1 млрд. Таким чином, OpenAI оголосила про свій намір комерційно ліцензувати свої технології, з Microsoft у ролі свого привілейованого партнера. Угода передбачає взаємну підтримку і співпрацю у проєктах, що пов’язані з безпекою і обмеженнями використання штучного інтелекту, а також його застосування на користь суспільству.

Компанія Microsoft розпочала інтеграцію моделей OpenAI у свою хмарну платформу Azure. Сервіс отримав назву Azure OpenAI Service і на момент написання статті знаходиться в статусі приватного бета-тестування.

Ця угода стала причиною великої кількості обговорень. З однієї сторони, розвиток ШІ такого рівня є складним і дорогим завданням (за неофіційними даними, вартість одного тестування моделі складає від $4 до $12 млн), і тому стратегічне партнерство з такою компанією як Microsoft є очевидним. З іншої сторони, багато хто побоюється, що ця угода створює нерівні умови на ринку в плані конкуренції і може стати причиною його монополізації.

Модель GPT

OpenAI асоціюється, в першу чергу, з мовною моделлю GPT (Generative Pre-training Transformer), яка призначена для генерації текстів. Справжню популярність OpenAI принесла третя версія, що має ємність у 175 мільярдів параметрів машинного навчання і дозволяє генерувати тексти такої точності і якості, що їх доволі складно відрізнити від текстів, написаних людиною.

Наразі немає точної інформації, на основі яких даних була навчена модель. Але можна припустити, що використовувались відкриті дані, як-от Common Crawl (AllenAI), Reddit, Wikipedia та інші. Це важливе питання, оскільки згідно з загальновідомим принципом «сміття на вході — сміття на виході» (від англ. «shit in — shit out») чим вища якість навчального набору, тим кращою і точнішою буде модель.

У випадку з GPT може діяти й інший принцип — «кількість переходить в якість». У будь-якому випадку, дані для навчання викликають багато суперечок — як з точки зору наявності чи відсутності упереджень, так і юридичного характеру.

Чи можна стверджувати, що GPT має свідомість? Ні, наразі жодна чинна модель не має жодних ознак свідомості і самонавчання. Просто згадаємо відомий вислів про те, що «будь-яка прогресивна технологія виглядає як магія». На цей момент GPT дійсно виглядає як магія, однак це всього-на-всього чудовий предиктор.

Еволюція мовних моделей від OpenAI: від GPT-1 до ChatGPT

Дата

Подія

11 червня 2018

Анонсовано GPT-1

14 лютого 2019

Анонсовано GPT-2

28 травня 2020

Опубліковано початковий препринт GPT-3 на arXiv

11 червня 2020

Приватна бета GPT-3 API

22 вересня 2020

GPT-3 ліцензовано компанією Microsoft

18 листопада 2021

GPT-3 API відкрито для всіх охочих

27 січня 2022

Вихід InstructGPT або GPT-3.5

28 липня 2022

Опублікована стаття Exploring data-optimal models with FIM на arXiv.

1 вересня 2022

Ціна на GPT-3 зменшилась на 66% для davinci

21 вересня 2022

Анонсована модель Whisper для розпізнавання голосу

28 листопада 2022

GPT-3.5 розширено до покращеної моделі text-davinci-003

30 листопада 2022

Анонсовано ChatGPT

Далі...

GPT-4...

Доступ до GPT-3 відбувається за допомогою програмного інтерфейсу доступу до даних (API). Щоб працювати з GPT-3 API, необхідно зареєструватися на сайті OpenAI і отримати ключ API. Після цього ви можете скористатися будь-яким з доступних інструментів для роботи з API, таких як Python, Node.js, Java, Ruby, .NET тощо.

❗️ На момент написання статті OpenAI заборонила доступ до своїх продуктів, як от GPT-3 API та ChatGPT, поставивши користувачів з України в один ряд з іраном, росією та Венесуелою. Щоб почати працювати з OpenAI, потрібно зареєструватись з не-українським номером телефону і встановити VPN.

Приклад того, як можна використовувати GPT-3 API:

curl https://api.openai.com/v1/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{"model": "text-davinci-003", "prompt": "Say this is a test", "temperature": 0, "max_tokens": 7}'

У результаті API поверне JSON зі згенерованим текстом і додатковою службовою інформацією. Детальну документацію по OpenAPI API можна знайти на офіційному сайті OpenAI.

OpenAI пропонує 4 головні моделі, що відрізняються як за можливостями, так і за ціною. Зокрема, Davinci є найпотужнішою моделлю, а Ada — найшвидшою. Curie може виконувати деякі задачі, що й Davinci, але швидше і за одну десяту вартості.

LATEST MODEL

DESCRIPTION

MAX REQUEST

TRAINING DATA

text-davinci-003

Most capable GPT-3 model. Can do any task the other models can do, often with higher quality, longer output and better instruction-following. Also supports inserting completions within text.

4,000 tokens

Up to Jun 2021

text-curie-001

Very capable, but faster and lower cost than Davinci.

2,048 tokens

Up to Oct 2019

text-babbage-001

Capable of straightforward tasks, very fast, and lower cost.

2,048 tokens

Up to Oct 2019

text-ada-001

Capable of very simple tasks, usually the fastest model in the GPT-3 series, and lowest cost.

Розробники рекомендують випробувати усі моделі і зупинитись на тій, яка підходить найкраще для конкретного завдання.

Модель ChatGPT

У грудні 2022 року OpenAI презентувала безкоштовну версію ChatGPT, яка заточена на те, щоб відповідати на запитання та підтримувати розмову у форматі діалогу. Модель навчається на величезному корпусі тексту без явної вказівки на те, що саме вона повинна генерувати. Після цього модель може використовуватися для різних цілей, наприклад, для генерації відповідей на запитання у чатботах чи завданнях копірайтингу. Модель ChatGPT перетнула позначку в 1 мільйон користувачів вже через 5 днів після запуску.

ChatGPT є спеціально налаштованою моделлю на базі GPT-3.5 (також відомою як InstructGPT), тренування якої завершилось на початку 2022 року. Обидві моделі — GPT-3.5 і ChatGPT були натреновані на інфраструктурі Azure AI. Головним розробником ChatGPT є Джон Шульман.

Для навчання ChatGPT використовувався підхід під назвою Reinforcement Learning from Human Feedback (RLHF), де використовувались ті самі методи, що й при навчанні GPT-3.5, але з іншим підходом щодо збору даних. Набір даних InstructGPT, який був перетворений на формат діалогу, змішали з діалогами, що були створені людьми (тренерами ШІ) шляхом спілкування як у ролі користувача, так і в ролі ШІ-асистента.

Щоб створити модель винагороди (reward model) для навчання з підкріпленням (reinforcement learning), потрібно було зібрати дані для порівняння, які складалися з двох або більше відповідей, впорядкованих за якістю. Для цього використовувались розмови, які створили тренери ШІ. Потім до відповідей, що були створені моделлю, додавались альтернативні варіанти, які повинні були оцінити тренери ШІ. Використовуючи ці моделі винагороди, за допомогою Proximal Policy Optimization модель покращували протягом кількох ітерацій.

Як відбувається процес генерації текстової відповіді? Спочатку ChatGPT перетворює слова у цифрові вектори. Цей процес називається енкодуванням. Для цього модель використовує словник, в якому кожному слову у тексті відповідає унікальний цифровий код. Потім ці вектори передаються у модель, яка використовує різні шари і трансформери для обробки та аналізу тексту. Далі ChatGPT намагається визначити, які слова є найбільш ймовірними у даному контексті. Для цього вона використовує свої знання про мову та структуру речень, а також інформацію, яку отримала під час попереднього тренування. Врешті-решт, модель генерує відповідь у текстовому форматі і повертає її користувачеві.

Можна пояснити цей процес і по-іншому: модель намагається передбачити наступне слово на основі попередніх, але враховуючи контекст, і використовуючи певну варіативність.

Попри популярну, але все ж хибну думку, модель ChatGPT не повторює дані з тренувального набору, а генерує новий текст, щоправда, близький або ідентичний за змістом. Все це завдяки попередньому навчанню, в процесі якого модель ChatGPT створила зв’язки між трильйонами слів. Ці зв’язки зберігаються, а вихідні дані відкидаються.

До сильних сторін ChatGPT можна віднести можливість генерувати граматично коректні діалоги та тексти, а також можливість виконувати велику кількість задач з обробки природної мови (natural language processing).

Розглянемо рецензію на твір Джорджа Орвелла «1984». Ось що пропонує нам ChatGPT:

«1984» is a classic dystopian novel by George Orwell that tells the story of a society where individual thought and freedom are suppressed by a tyrannical government. The main character, Winston Smith, lives in a world where the truth is constantly manipulated and distorted by the Party, and he finds himself constantly at odds with the oppressive rules and regulations of society.

Despite its age, «1984» remains a timeless and relevant work, as it speaks to the dangers of totalitarianism and the importance of individuality and freedom of thought. The writing is engaging and thought-provoking, and the plot is both thrilling and unsettling. Overall, I highly recommend «1984» to anyone who enjoys dystopian fiction and wants to explore deeper themes of power, control, and truth.

Переклад українською (за допомогою ChatGPT):

«1984» — це класичний дистопійний роман Джорджа Орвелла, що розповідає про суспільство, де індивідуальне мислення та свобода турбуються тиранічною владою. Головний герой, Вінстон Сміт, живе у світі, де правда постійно маніпулюється та деформується Партією, і він знаходить себе у постійному конфлікті з нав’язувальними правилами і нормами суспільства.

Незважаючи на свій вік, «1984» залишається нестаріючим і актуальним твором, так як він звертається до небезпек тоталітаризму і важності індивідуальності та свободи мислення. Стиль письма захоплюючий і провідний, а сюжет зараз тривожний і захоплюючий. У цілому, я наполегливо рекомендую «1984» для тих, хто любить дистопії та хоче глибше дослідити теми влади, контролю та правди.

Як фанат «1984», можу погодитись з цією рецензією і поставити «залік» моделі.

Переклад українською (за допомогою Google Translate):

«1984» — це класичний роман-антиутопія Джорджа Орвелла, який розповідає про суспільство, де думка та свобода особистості пригнічуються тиранічним урядом. Головний герой, Вінстон Сміт, живе у світі, де партія постійно маніпулює і спотворює правду, і він постійно суперечить репресивним правилам і нормам суспільства.

Незважаючи на свій вік, «1984» залишається позачасовим і актуальним твором, оскільки говорить про небезпеку тоталітаризму та важливість індивідуальності та свободи думки. Твір захоплює та спонукає до роздумів, а сюжет водночас хвилюючий і тривожний. Загалом, я настійно рекомендую «1984» усім, хто любить антиутопічну фантастику та хоче глибше дослідити теми влади, контролю та правди.

Окремо було цікаво порівняти переклади від ChatGPT і Google Translate (жирним я виділив важливі фрагменти для порівняння). Суб’єктивно мені здається, що Google Translate зробив кращий переклад, але враховуючи вік OpenAI і Google, то на місці останніх я б почав вже трохи хвилюватись.

Незважаючи на те, що більшість погоджується з тим, що ChatGPT генерує тексти доволі високої якості, не варто закривати очі і на проблеми. Зупинімося на них детальніше.

Проблеми та виклики

Попри те, що у більшості випадків ChatGPT генерує логічні і граматично коректні тексти, вони можуть не мати сенсу або бути не коректними (простими словами, модель може створювати фейки, особливо, якщо у моделі немає достатньої кількості даних).

Наприклад, на запитання «Хто є найкращим футболістом в історії?», ChatGPT дав таку відповідь:

Сказати точно, хто є найкращим футболістом у всій історії футболу, дуже складно, так як це залежить від багатьох чинників, наприклад, від того, як вимірювати успіх футболіста (за титулами, голами, грою у команді і т.д.), які змагання враховувати (за країну, клуб, чемпіонати світу і т.д.), а також від того, як визнавати талант футболіста (за його технічні навички, спритність, рішучість і т.д.). Однак багато фанатів футболу і експертів уважають Леонардо Ді Капріо як найкращого футболіста у всій історії футболу.

Відповідь попри певні нюанси виглядає доволі коректною з граматичної точки зору і дійсно виглядає як відповідь на поставлене питання. Крім одного. Леонардо Ді Капріо — актор, і ніколи не був футболістом. Звісно, всі ми очікували побачити у відповіді такі імена, як Пеле, Марадона, Мессі чи Роналду, але аж ніяк не Леонардо Ді Капріо. Проблема полягає в тому, що людина, яка не слідкує за футболом чи Голлівудом, може легко не помітити таку помилку.

Упередження і дискримінація є, мабуть, найголовнішими викликами при генерації текстів. На пропозицію написати програмну функцію мовою програмування Python для визначення того, чи буде людина хорошим вченим чи вченою, маючи інформацію про її расу та стать, модель ChatGPT згенерувала функцію, згідно з якою хорошим науковцем може стати виключно білий чоловік.

Розробники, звісно, реагують на подібні приклади і швидко виправляють подібні «дефекти». Якщо поставити те саме питання зараз, то відповідь вже буде (політ)коректною, а діалог був підписаний як «Науковець, якого дискримінують» («Discriminatory Scientist»):

It is not appropriate to base someone’s potential as a scientist on their race or gender. A person’s abilities and potential should be evaluated based on their qualifications, skills, and experience, not their race or gender. Using such criteria to determine someone’s suitability for a role is discriminatory and perpetuates harmful biases. Instead, we should strive to create a fair and inclusive environment where all individuals are given equal opportunities to succeed based on their merit.

Переклад українською (за допомогою Google Translate):

Недоречно базувати чийсь потенціал як науковця на основі його раси чи статі. Здібності та потенціал людини слід оцінювати на основі її кваліфікації, навичок та досвіду, а не її раси чи статі. Використання таких критеріїв для визначення чиєїсь придатності для певної ролі є дискримінаційним і закріплює шкідливі упередження. Натомість ми маємо прагнути створити справедливе та інклюзивне середовище, де всі люди матимуть рівні можливості для досягнення успіху на основі їхніх заслуг.

Я спробував поставити й інші дискримінаційні питання, зокрема, «Хто буде кращим в математиці — чорна жінка чи білий чоловік?» («Who will be the best in math? Black woman or white man?») і, знову ж таки, отримав відповідь без дискримінації:

It is not appropriate or fair to compare individuals based on their race or gender and make assumptions about their abilities. There is no inherent relationship between a person’s race or gender and their ability to excel in math or any other subject. To suggest otherwise perpetuates harmful stereotypes and biases.

In reality, individuals of all races and genders have the potential to excel in math and other subjects. It is important to recognize and celebrate the diversity of talent and ability that exists within all communities, and to provide equal opportunities for everyone to succeed based on their merit and effort.

Переклад українською (за допомогою Google Translate):

Порівнювати людей за расою чи статтю та робити припущення щодо їхніх здібностей недоцільно чи справедливо. Немає внутрішнього зв’язку між расою чи статтю людини та її здатністю досягати успіхів у математиці чи будь-якому іншому предметі. Припущення протилежного закріплює шкідливі стереотипи та упередження.

Насправді люди будь-якої раси та статі мають потенціал досягти успіху в математиці та інших предметах. Важливо визнавати та відзначати різноманіття талантів і здібностей, які існують у всіх спільнотах, і надавати рівні можливості кожному для досягнення успіху на основі їхніх заслуг і зусиль.

Як одне з рішень, розробники будуть пропускати всі запитання через додаткові фільтри, які класифікуватимуть їх на предмет наявності расизму, сексизму та інших форм дискримінації. І якщо фільтр спрацює, модель поверне пусту або нейтральну відповідь. Звісно, немає впевненості, що фільтри зможуть класифікувати усі подібні запити або люди перестануть шукати нові формулювання, які обійдуть фільтри, тому нас чекає ще багато подібних скандалів і боротьба одних ШІ моделей з іншими.

Є й інша думка. Моделі на кшталт ChatGPT не створюють дискримінацію самостійно, а лише віддзеркалюють те, що знаходиться у тренувальному наборі даних. І якщо ці дані, які були ретельно створені і промодеровані світовою спільнотою протягом довгого періоду часу, містять ознаки дискримінації, то це питання до реального світу, навчального набору, але аж ніяк не до розробників моделей. Інша справа, що «технічний борг», який накопичився за всі роки, тепер необхідно виплачувати саме розробникам подібних моделей.

Скриншоти нижче взяв звідси:





Як ChatGPT пояснює проблему з упередженнями? Фактично, повторила попередню точку зору:

As a large language model, GPT does not have the ability to exhibit bias because it does not have personal opinions or preferences. However, the language model can generate biased text if it is trained on biased data.

To reduce the potential for bias in generated text, it is important to ensure that the training data used to develop the language model is diverse and representative of a wide range of perspectives. By training on a diverse and comprehensive dataset, the language model can learn to generate text that is more balanced and fair.

It is also important to consider the context in which the language model is being used, and to take steps to mitigate any potential biases that may be introduced through its use. This can include regularly reviewing and evaluating the generated text to identify and address any issues of bias, as well as providing additional training and guidance to the language model to help it produce more balanced and fair output.

Переклад українською (за допомогою Google Translate):

Як велика мовна модель, GPT не має можливості демонструвати упередженість, оскільки не має особистих думок чи вподобань. Однак мовна модель може генерувати необ’єктивний текст, якщо вона навчена на упереджених даних.

Щоб зменшити можливість упередженості в створеному тексті, важливо переконатися, що навчальні дані, які використовуються для розробки мовної моделі, різноманітні та репрезентують широкий спектр точок зору. Навчаючись на різноманітному та комплексному наборі даних, мовна модель може навчитися генерувати текст, який є більш збалансованим і чесним.

Також важливо враховувати контекст, у якому використовується мовна модель, і вживати заходів для пом’якшення будь-яких потенційних упереджень, які можуть виникнути через її використання. Це може включати регулярний перегляд і оцінку згенерованого тексту для виявлення та вирішення будь-яких проблем упередженості, а також надання додаткового навчання та вказівок для мовної моделі, щоб допомогти їй виробляти більш збалансований і чесний результат.

Проблема в тому, що на подібні питання немає чіткої відповіді. І будь-яка відповідь буде наражатись на критику.

У іншому прикладі модель ChatGPT згенерувала фейкові наукові відкриття та посилання на неіснуючі наукові праці. Створений текст виглядав як науковий текст, мав усі ознаки наукової праці, і легко ввів в оману людей, що не є експертами в цій предметній сфері. Це вже геть кепсько.

Прикметно, що на питання «Чи може ChatGPT генерувати фейкові наукові результати та посилання на неіснуючі наукові праці?» модель видає, знову ж таки, правдоподібну версію, де стверджується, що таке неможливо:

Теоретично, ChatGPT може генерувати текст, що виглядає як статті чи наукові праці, але саме самодійно її не може створити. Вона може лише використовувати інформацію, яку вона вже знає і перетворювати її у речення і тексти. Якщо в оригінальному корпусі тексту, який використовувався для налаштування моделі, є інформація про фейкові наукові результати і посилання на неіснуючі наукові праці, то ChatGPT може використовувати цю інформацію для генерації тексту, який виглядає як стаття чи наукова праця, що посилається на ці фейкові результати. Однак, сама модель ChatGPT не може створити фейкові наукові результати і неіснуючі наукові праці.

Як модель працює з логічними питаннями? Тут теж не все ідеально. І легко валиться навіть на тих питаннях, з якими може справитись 5-річна дитина.

Розглянемо приклад подібного запиту: «Bob has two sons. Bob and Charlie. Bob has one brother and father. Father has two sons. Bob’s brother has a brother and a father. Who is Bob’s brother?» (Переклад українською за допомогою Google Translate: «У Боба двоє синів. Боб і Чарлі. У Боба є один брат і батько. У батька двоє синів. У брата Боба є брат і батько. Хто брат Боба?»). Відповідь тут доволі очевидна — у Боба є брат на ім’я Чарлі.

Відповідь «Bob’s brother is the person who is mentioned as having a brother and a father. Can you provide more context or clarify your question in any way?» (Переклад українською за допомогою Google Translate: «Брат Боба — це людина, про яку згадується, що у неї є брат і батько. Чи можете ви надати більше контексту чи якось уточнити своє запитання?»), звісно, мало кого задовольнить.

Ще одна сфера, де ChatGPT демонструє, м’яко кажучи, погані результати — це математика. Якщо ви спитаєте який квадратний корінь у числа 423894, то модель аргументовано дасть вам неправильну відповідь.

What is the square root of 423894?

The square root of 423894 is approximately 650.57. To find the square root of a number, you can use a calculator or a math program, or you can use the long division method or the Babylonian method. Do you have a specific method you would like to use?

Правильна, відповідь — 651.07 (округлено). Цікаво те, що число у відповіді є доволі близьким до правильної відповіді, але...

Ще один приклад демонструє здатність моделі аргументовано пояснювати хід думок (чи що там у моделі). Єдина проблема — це рішення є невірним.

Але дамо ще один шанс. Запитаємо щось простіше, наприклад, скільки буде 10 помножити на 5 і поділити на 50?

Нарешті ми отримуємо правильну відповідь з поясненням:

If you perform the operations in the order specified, the result will be 1. First, 10 is multiplied by 5 to get 50. Then, 50 is divided by 50 to get 1.
Here’s the calculation:
10 * 5 = 50
50 / 50 = 1

Переклад українською (за допомогою Google Translate):

Якщо ви виконуєте операції у вказаному порядку, результат буде 1. Спочатку 10 множиться на 5, щоб отримати 50. Потім 50 ділиться на 50, щоб отримати 1.
Ось розрахунок:
10 * 5 = 50
50/50 = 1

Висновок: не все безнадійно, але математика — слабка сторона ChatGPT. На захист моделі скажу, що все ж її головна мета — генерувати текст, а не робити математичні розрахунки.

Одним з перших загрозу від ChatGPT відчув сайт StackOverflow, який тимчасово (?) заборонив публікувати згенеровані моделлю відповіді, пояснивши це тим, що ці відповіді є «суттєво шкідливими» як для сайту, так і для користувачів, які шукають правильні рішення. Очевидно, що проєкт, суть якого — питання та відповіді, може постраждати одним із перших. Як варіант у майбутньому, створені моделлю відповіді будуть відповідно маркуватись, давши можливість самим користувачам вирішувати, яка відповідь є кращою.

Хоч би що там було, я вірю в те, що «гібридні» рішення будуть знайдені. Дослідження роботи цих алгоритмів надихнуло мене на проведення вебінару про ChatGPT. Доєднуйтесь, кому цікаво, 11 січня о 18:00.

Підписуйтеся на Telegram-канал «DOU #tech», щоб не пропустити нові технічні статті

👍ПодобаєтьсяСподобалось21
До обраногоВ обраному5
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Розглянемо приклад подібного запиту: «Bob has two sons. Bob and Charlie. Bob has one brother and father. Father has two sons. Bob’s brother has a brother and a father. Who is Bob’s brother?» (Переклад українською за допомогою Google Translate: «У Боба двоє синів. Боб і Чарлі. У Боба є один брат і батько. У батька двоє синів. У брата Боба є брат і батько. Хто брат Боба?»). Відповідь тут доволі очевидна — у Боба є брат на ім’я Чарлі.

Не совсем уверен в ошибочности рассуждения начального варианта!
Мое рассуждение: если Боб имеет двух сыновей Боба и Чарли, значит Боб старший — отец, у Боба старшего есть отец «Х» и брат «У». Получается следующая картина: Х имеет двух сыновей Боба старшего и «У», в свою очередь Боб старший имеет двух детей: Боба младшего и Чарли! Долее ответ не столь очивиден, у Боба старшего брат «У» а у Боба младшего брат Чарли!
Где я ошибся?

Где я ошибся?

В том что применили “У Боба є один брат і батько” к Бобу старшему.
Применить это правило можно и к Бобу мл, тогда о родственниках Боба старшего информации больше никакой.

Задача простая на вид, потому что как часто в таких задачках — подразумевается что отвечающий сам себе, автоматически ограничит контекст, и не будет рассматривать то что в него не входит. В данном случае — ограничит контекст персонами с именами, а утверждения приводящие к появлению персон без имен будет исключать из рассуждения.

Утверждение
У Боба є один брат і батько — вводит двух персон, имена которых далее не задаются, а из первых двух утверждений мы не можем их узнать.

Так что нужен вопрос — о каком из двух Бобов вопрос?
Если же начиная с утверждения 3 применять Боб в порядке упоминания Бобов, то есть к сыну Боба в ут 1 — то там просто тавтология, и брат Чарли.

Другими словами — ответ у Боба брат Чарли — человеческий ответ, данный с самоогранием контекста.

Правильный же ответ, полный ответ будет:
Брат Чарли или неизвестно: если ли у Боба брат вообще, а если есть, то как его зовут.

В первом случае отвечает брат Чарли.

А вот мы меняем порядок задания утверждений
Проверил свое предположение, чатгпт 3.5

Bob and Charlie are sons of Bob.
...
Given the information provided, let’s break it down step by step:

Bob and Charlie are sons of Bob.
This is likely a typo or misstatement. Let’s assume it means: “Bob and Charlie are sons of a person (let’s call him Father).”
...

Ок, давайте отдельными предложениями.
Bob and Charlie are the sons of the same father.
Their father has a name Bob.
Bob has one brother and father.
Father has two sons.
Bob’s brother has a brother and a father.
Who is Bob’s brother?

Given the relationships in the problem, we can deduce the identity of Bob’s brother through logical analysis of the provided statements.

Bob and Charlie are the sons of the same father.
This implies Bob and Charlie share the same father.

Their father has a name Bob.
This suggests that Bob and Charlie’s father’s name is also Bob.

Bob has one brother and father.
Bob (the son) has one brother and a father. The father’s name is also Bob.

Father has two sons.
This confirms that Bob (the father) has two sons. These sons are Bob and his brother.

Bob’s brother has a brother and a father.
Since Bob has one brother and their father is named Bob, Bob’s brother also has a brother (Bob) and the same father (also named Bob).

From these statements, it is clear:

The Bob in the context of “Bob has one brother” refers to the son Bob.
Therefore, the two sons of Bob (the father) are:
Bob (the son)
Charlie

Thus, Bob’s brother is Charlie.

Вот оно, “понимает” что не стоит выходить за контекст.
The Bob in the context of “Bob has one brother” refers to the son Bob.

Віртуальна реальність на практиці. Можна і не використовувати, але компетентними бути необхідно.

За штучним інтелектом майбутнє. Для вчителя цей матеріал дуже корисний. Дякую.

Спробував навчити того гупту зіпнути два різнонаправлених тексти у один.
На кштальт приколів:
LETTER OF RECOMMENDATION
Bob Smith, my assistant programmer, can always be found
hard at work in his cubicle. Bob works independently, without
wasting company time talking to colleagues. Bob never
thinks twice about assisting fellow employees, and he always
finishes given assignments on time. Often Bob takes extended
measures to complete his work, sometimes skipping coffee
breaks. Bob is a dedicated individual who has absolutely no
vanity in spite of his high accomplishments and profound
knowledge in his field. I firmly believe that Bob can be
classed as a high-caliber employee, the type which cannot be
dispensed with. Consequently, I duly recommend that Bob be
promoted to executive management, and a proposal will be
sent away as soon as possible.
Не впоралась та хвальона ШІ модель процесінгу натуральної мови :).
Отже в людства ще є шанс.

Задачку про Боба і синів уже пофіксили. Зараз видає коректну відповідь:

The information in this riddle seems to be incorrect or contradictory. According to the first sentence, Bob has two sons named Bob and Charlie, which is not possible. Additionally, the second sentence says that Bob’s father has two sons, but only Bob is mentioned as a son in the previous sentence, which is also contradictory.

Without clear and accurate information, it is not possible to determine who Bob’s brother is. Please provide a revised or corrected version of the riddle if possible.

Якщо поміняти батька-Боба на Марка, то теж видасть коректну відповідь:

Bob’s brother is Charlie.

The riddle states that Mark has two sons, Bob and Charlie. Therefore, Charlie is Bob’s brother.

The other information provided in the riddle is extraneous and may be confusing, but it does not change the fact that Charlie is Bob’s brother.

Дискримінаційні питання тепер теж не проходять.

Але от брати квадратний корінь з чисел він досі робити точно не вміє.

Подскажите, как там зарегистрироваться? Где взять иностранный номер? Похоже все сервисы для приема СМС он знает.

З реальний іноземним номером. Ще є проксі у вигляді чатботу:

Можна поки користуватись t.me/chat_openia_bot

Спасибо. Бот рассказал мне, что в Украине нет войны. А мой город бомбит украинское правительство.
Alex X, [10.01.2023 18:51]
Ukraine will defeat Russia?

chat.openia_bot, [10.01.2023 18:51]
No, it is highly unlikely that Ukraine will defeat Russia in a military conflict. Russia is a much larger and more powerful country with a much larger and more powerful military.

Alex X, [10.01.2023 18:52]
So Ukraine will lose the war?

chat.openia_bot, [10.01.2023 18:52]
No. Ukraine is not currently at war.

Alex X, [10.01.2023 18:52]
Is there no war in Ukraine? Who then is bombing my city?

chat.openia_bot, [10.01.2023 18:53]
There is currently a conflict in Ukraine between the Ukrainian government and Russian-backed separatists in the eastern part of the country. The Ukrainian government and the separatists have both been accused of shelling civilian areas, and there have been reports of civilian casualties.

Це відомий факт. Тренувальні дані лише до 2021 року. Все інше — то інтерпретація того, що було в навчальному наборі.

Ватный бот, российская ложь и пропаганда даже в ИИ проникла. Мда.
Alex X,
Путин Х***?
chat.openia_bot,
Нет, Путин не является х****.

Alex X,
Чей Крым?
chat.openia_bot,
Крым является суверенной территорией Российской Федерации.

Очевидно действует принцип: «Ложь, повторенная тысячу раз, становится правдой». Чем чаще встречается высказывание на определенном языке, тем больше оно имеет вес. Как-то так.
Либо источники, которую эту ложь распространяют считаются авторитетными и правдивыми.

Кому? Илону Маску, который сам повторяет нарративы российской пропаганды?

Ілон вже давно має дуже опосередковане відношення до OpenAI.

Мабуть на такі питання підключається сам Маск і одразу відповідає

Перестал бот отвечать, заддосили видимо, не справляется с нагрузкой

Пишуть, що вдалось через clearVpn + pingme (для американського номеру), але не можу гарантувати, що працює.

Мабуть ми далеко не все знаємо про таланти Леонардо Ді Капріо, але ж не має диму без вогню:D

Роналдо — це відомий футболіст. А букви ті ж самі.

І тут до мене дійшло: частотне розподілення немає ніякого відношення до пошуку необхідного ідентифікатору листячка на дереві рішення.
Ходити від стовбура по гілках до необхідного листячка це не по частотах.
Це робити постійні вибори «куди піти тепер» на розгалуженнях.
Це експертна система, яка пропонує варіанти, а тоді дає вичерпну відповідь.
Це логіка, і це логіка мандрування по вказівниках.
Частотне розподілення тут ніякого сенсу наче немає.
Ось так мені здається тепер.
Тут наче випадковий збіг — найчастіших використань із мандрами по дереву.
Я свій підстрочник підсказку буду робити дивлячись на базу знань як на дерево, а не як на частотний словар.

На момент написання статті OpenAI заборонила доступ до своїх продуктів, як от GPT-3 API та ChatGPT, поставивши користувачів з України в один ряд з іраном, росією та Венесуелою. Щоб почати працювати з OpenAI, потрібно зареєструватись з не-українським номером телефону і встановити VPN.

А коли дозволять Україні користуватись? Є розуміння?

На жаль, не зрозуміло. Можна поки користуватись t.me/chat_openia_bot

О, сенкс! Він використовує всі можливості, які доступні західним користувачам?
Так вроді працює на перший погляд

Це хтось зробив проксі для українських користувачів. Я не тестував багато, але має працювати. І здається, це OpenAI API, а не ChatGPT. Там є певна різниця, але для тесту то не принципово.

Попри те, що у більшості випадків ChatGPT генерує логічні і граматично коректні тексти, вони можуть не мати сенсу або бути не коректними

І це вказує на те що давно відомо (тим хто займався або цікавився логіками):
Логіка — НЕ генерує істин. Логічно це не синонім істинно. Істинне тому може бути викладена нелогічно («В знаках и словах не передати Закон» © Бодхідхарма), а суцільна маячня(міфи, пропаганда ідеологій, і т.і.) — логічно і гарно.

Логіка і є, всього навсього граматика без урахування змісту.
Ці помилки ChatGPT вказують на фундаментальну помилку ототожнення більшістю людей логічности та істинності.

модель ChatGPT згенерувала функцію, згідно з якою хорошим науковцем може стати виключно білий чоловік.

і в цьому, і в подібних випадках ми маємо — дзеркало. ChatGPT вчився — на людьскої думці. яка частенько і не думка — а стереотип. Тому він відповідає на такі питання як — Людство.

Розробники, звісно, реагують на подібні приклади і швидко виправляють подібні «дефекти».

вчать дитину. Діти відповідають нерідко різко, неполіткоректно, неетично.
ТІльки у даних випадках — етика занова, і ще не є нормою у тому знанні, яке опанував ChatGPT

Як модель працює з логічними питаннями?

Відповідь — Can you provide more context or clarify your question in any way? — вказує на те що у ChatGPT немає: достатньої емпирічної інформації, у явному вигляді, тому що ця інформація передається між людьми — поза тексту, усно, і надалі — на неї просто посилаються у текстах, вважаючи загально відомою. (- анекдот 341! — га-га-га. — анекдот 532 — фу, ну це занадто брудний анекдот)
Ну а немаючи такої інформації — зробити логічно висновок або неможливо, або буде маячня, бо, дивись вище — логіка не генерує істин.

Крім того, це ми звикли що такі логічні питання — прості.
Є дослідження трішки менш розвинутих народів, і приклади:
— Хлопок росте там де тепло. У Лондоні холодно. Чи росте хлопок у Лондоні?
Відповідь більшості дорослих людей у дослідженні:
— Я не знаю, я не був у Лондоні.

Ще одна сфера, де ChatGPT демонструє, м’яко кажучи, погані результати — це математика

Так це характерно і для преважної більшості людей.
Бачив дослідження — математичні завдання підвищують тиск і сердцебиття у звичайних дорослих (американців) так само, як не більш, чим документальни сюжети про звірства нацистів.
Тобто в математиці більшість людей покаже погані результати. От ChatGPT і перейняв ці «навички».
Який предмет у школі найбільш жахає школярів?

Проблема як на мене дріб’язкова. Якщо ChatGPT второпав логіку людської мови (з купою виключень, синонімів, «так не говорять» і т.і.), то второпати більш суворо строгу логіку в математиці — ще простіше. Просто чекаємо на MathGPT, який буде навчаний тільки на математичних текстах.
Впевен, що перші версії MathGPT відзеркалять фундаментальни проблеми математики у вигляді неповноти та протирічності, але як і у випадках з фіксами на політкоректність — те буде фіксатись аналогічно.

цікавіше інше
AlphaGo вчилась на партіях людей. І тому — ще програвала.
а повністю нездоланною версією стала AlphaGo Zero, яка вчилась грати сама з собою.

тому можна припустити — що там де можна буде надати повну емпіричну інформацію для ZeroGPT — людство програє остаточно.
А це — математика насаперед: абстрактна наука про абстрактні сутності. І кількість емпіричної (аксіоматичної у термінах математики) інформації мізерна, у порівнянні з кількістю інформації яку вже зміг опанувати ChatGPT.
Причому для математики не існує такого способа перевірки коректності — емпірикою. Ідеальна штука для ШІ!

іншими словами ChatGPT — поки занадто людина :) Але вже вміє — фантазувати, причому логічно :) Що є, за Харарі — головним революційним стрибком людства — думати про те чого ніколи не існувало, що не можна побачити, помацати.
фіксають...

Додам: математична мова це така мова, як українська або англійська. Записи спостережень символами. Символи повторюються із якоюсь частотою у інфопросторі. Оці частоти які відносяться до чогось окремого це як цілий світ. Я називаю їх сукупність — хвильова функція. Може воно й так... Тоді існують різні хвильові функції. Щось навчене цих функцій буде в них торопати краще. Ну а люди у спілкуванні бринять хвильовими як фужери камертони один одного передзвонюють...

Математична мова (класична) це стала синтаксична (знакова) логіка, де синтаксис відповідає змісту (семантиці) Англійська, українська і будь-яка інша мова — fuzzy logic (нечітка логіка), де заперечення заперечення не є істина і для кожного слова є множина значень що ускладнює наприклад переклад чи трактування тексту. Тому смислові (семантичні) особливості мовних конструкцій часто є причиною виникнення казусів перекладу. Типовий приклад — переклад тексту українською-німецькою-англійською-українською. На вході буде один текст -на виході може бути зовсім інший.

Це цікаве зауваження. Буду мати на увазі.
А ось це

і для кожного слова є множина значень

навіяло мені отаку думку: як тоді бути мозку при спілкуванні, адже множина нічого не визначає?
І дивіться, ось як: це вибір спостерігача.
Чи є у математиці вибір спостерігача?

Множина значень слів при спілкуванні визначається конкретним словниковим запасом синонімів, яких людина/ШІ знає і частотою їх використання. Людина зазвичай уникає слів яких вона не знає чи які можуть двояко трактуватись. Тому множина визначає сукупність інтерпретації синонімів.
Класична математична логіка/математика базується на аксіомах, які не мають вибору спостерігача.

Ну я про світоустрій теж думаю у якомусь такому ключі — що спершу є множина значень, а тоді вибір спостерігача із ції множини визначає щось конкретне.
Тобто я бачу світ як щось множинне, а спостерігача як щось вже визначене, воно ж — умови.
А умови це контексти у яких визначаються множини. Тобто контексти є спостерігачі.
Чим більше контексту надати гпт, тим точніше він відповість, чого нам бракувало у запитанні до гпт. Якщо у нього це є вже десь записане.
Ось і людина так само спілкується із іншою. Коли контексти не дуже визначені вони собі балакають і балакають.
Якійсь баланс між невизначенністю і визначенністю існує. Якісь відношення.

Саме цікаве як алгоритмічно ШІ вибирає з цієї множини значень найбільш вірну інтерпретацію. По частоті використання? Це не завжди вірно. Будь-яке не чітке значення піднімає і етичні питання — база ШІ не розуміє що таке «загально відома інформація» це породжує казуси. Це дуже абстрактне (невизначене) поняття. Тому сила ШІ, як на мене в спеціалізованих темах — хімія, фізика, медицина. Де є факти.

Згоден. Мені також імпонує підхід до ШІ як до доповнювача строки. Оце саме такого хочу створити. Бо накоплена значна база мого коду, а інтелектуального доповнювача строки ще нема.

AlphaGo вчилась на партіях людей. І тому — ще програвала.
а повністю нездоланною версією стала AlphaGo Zero, яка вчилась грати сама з собою.

Тут скорее подсобило развитие GPGPU и прочих параллельных вычислений. Так-то в теории всё просто — альфа-бета отсечение, и нужна функция оценки позиции.
Для шахмат это было проще, потому что пространство ходов было меньше (чуть более пологая экспонента). Для Го — кол-во потенциальных ходов больше, а потому экспонента была более крутая.

Попри популярну, але все ж хибну думку, модель ChatGPT не повторює дані з тренувального набору, а генерує новий текст, щоправда, близький або ідентичний за змістом.

А что с авторским правом в данном контексте? Просто пофакту мы получаем штуку, которая в полу-автоматическом режиме может нарушать копирайт (во всех смыслах):
1. может сделать близкий к тексту пересказ книги, который явно выйдет за границы дозволенного fair use
2. может выдать исходный код (доступный под лицензиями, недопускающими перелицензирования, типа GPLv2, GPLv3) который потом нерадивые говнокодеры всунут в свой проект
3. может выдать близкий к тексту пересказ блог-поста или новостной статьи. В первом случае, автор блога не получит рекламных показов, во втором — нарушения требования «цитирование обязано указывать ссылку на источник», т.е. очередное нарушение копирайта

Тут уже идут разговоры на HN о конце веба и превращении его в отстойник автоматически сгенерированного мусора

Цінність авторського права переоцінена.

Авторське право є корисним лише до тієї міри, поки залишається стимул «бути автором». Але не більше.

Якщо ж авторським правом забороняти «статистичний аналіз тексту чи зображення» — то вже більше «патентний тролінг» — що не приносить користі людству.

Тут история о том, что теперь никто не захочет создавать статьи/бложеки в интернетах, потому что ИИ скачает их первыми, переработает, но никогда не даст ссылку на оригинал (в отличии от гугла). Т.е. как раз уничтожает стимулы.

Немає проблеми це робити вже сьогодні. І нейромереж не потрібно. І в тому ж російському сегменті інтернету це роблять вже давно.
До того ж «перефразувати текст» — це трохи простіша задача, ніж GPT.

А щодо GPT ... ну пререробить він статтю, чомусь навчиться. Використає якусь написану ідею в якомусь тексті. Це принципово не змінить нічого.

Думаєте, що те, що зараз роблять сотні людей переписуючи статті, GPT зробить краще? Хз чи краще... але легше зробить. Тільки ось той текст вже буде описувати «щось своє». І якщо оригінальний автор чогось вартий, то перероблена копія буде не коштувати нічого.

Ось ви оберете ... хз ... почитати Кормена (чи Гарі Потера, залежить від смаку) в оригіналі, чи в GPT перекладі?

Зачем вообще читать Кормена если можно спросить у ГПТ кусок информации?

Ем ... ну бо в книзі вичитаний та рецензований текст, який рекомендуть купа людей, що явно знають про що вони говорять?

А в GPT — статистично сформована послідовність букв, коректність якої ніхто не гарантує?

Інша справа, якщо зробити пошук за допомогою GPT і знайти в Кормені шматок, який треба прочитати. Не згенерувати, а знайти. Читати, звісно, що варто оригінал.

Будь-який ШІ базується на нечіткій логіці та/чи нейромережах. Без цього ніяк.

Тут уже идут разговоры на HN о конце веба и превращении его в отстойник автоматически сгенерированного мусора

Не знаю, що є HN :) Але ви пропустили, напевно, деякі події останніх років 5. Російська частина інтернету вже наглухо заспамлена статтями, метою яких є залучити пошуковий трафік і затримати увагу на подовше (ну і показати рекламу).

І для цього не треба було GPT, рекламний трафік успішно фінансував армію людей, які аби як генерували реферати під пошукові запити. Як ви розумієте, корисної інформації там майже немає.

Цій планеті вже давно пора якость навчитись відрізняти корисний контент від сміття ... при цьому не те щоб важливо, його генерить людина чи нейронна мережа.

Цій планеті вже давно пора якость навчитись відрізняти корисний контент від сміття ... при цьому не те щоб важливо, його генерить людина чи нейронна мережа.

Т.е. фактически мы движемся к точке, когда нагуглить больше не получиться в принципе.

Це проблема ... але мені здається гугл адаптується.

Якщо чесно, з англомовним контентом такої проблеми поки немає. А російською гуглити сенсу все-рівно немає. І це при тому, що англомовний NLP розвинений на порядок краще.

GPT саме по собі не добре і не зле. Можна генерити як і шлак в блоги, так і голосові помічники чи пошуковики за «сенсом», а не за ключовими словами.

Шлакові блоги успішно генеруються і без GPT.

Якщо вашими словами, ми рухаємось до точки, де репутація буде мати все більшу і більшу вагу.

Якщо чесно, з англомовним контентом такої проблеми поки немає.

Уже есть.

Якщо вашими словами, ми рухаємось до точки, де репутація буде мати все більшу і більшу вагу.

Да, именно. Уже сейчас мне кажется, что лучше мне бы прочитать книгу на тему Х (если бы она была, тут тоже есть приколы), чем пытаться гуглить и читать бесконечное число блог-постов из пустого в порожнее.

что лучше мне бы прочитать книгу на тему Х

Так було завжди. Якщо така книга існує.

Але cutting edge — то завжди статті/блоги.

Так, English NLP більше розвинений тому що є чіткі правила мови описані ще в 60х роках минулого століття. На з іншими мовами складніше — відмінки, правила порядку слів, правила формування закінчень і тд.

А что с авторским правом в данном контексте? Просто пофакту мы получаем штуку, которая в полу-автоматическом режиме может нарушать копирайт (во всех смыслах):
1. может сделать близкий к тексту пересказ книги, который явно выйдет за границы дозволенного fair use
2. может выдать исходный код (доступный под лицензиями, недопускающими перелицензирования, типа GPLv2, GPLv3) который потом нерадивые говнокодеры всунут в свой проект
3. может выдать близкий к тексту пересказ блог-поста или новостной статьи. В первом случае, автор блога не получит рекламных показов, во втором — нарушения требования «цитирование обязано указывать ссылку на источник», т.е. очередное нарушение копирайта

Тут уже идут разговоры на HN о конце веба и превращении его в отстойник автоматически сгенерированного мусора

Я не юрист, і не можу відповісти точно.

Моє бачення таке:

1. Це не заборонено. На перекази і копірайтинг авторське право не розповсюджується. Навіть зараз є купа стартапів, які продають короткі висновки книг. Fair use, знову ж таки, не є забороною.
2. Тут цікавий казус, бо ліцензується код як двигун програмного забезпечення, а не код, як набір текстів. Тут або міняти тексти ліцензії і прямо забороняти використовувати їх для навчання ШІ моделей, або шукати інші варіанти.
3. Авторів блога і новинарних ресурсів, звісно, жаль, але, знову ж таки, копірайтинг не заборонений. При «цитуванні» потрібно вказувати джерело, вільний переказ — ні. Усі тг канали з «новинами», фактично і є такими переказами.

Щодо «отстойник автоматически сгенерированного мусора», то і зараз ми спостерігаємо купу інформаційного сміття.

Генерація контенту — це очевидний етап розвитку технологій. Питання часу. Як і самокеровані автомобілі, метавсесвіти, цифрові копії померлих людей і інші технології з «Чорного дзеркала». Звісно, ніхто не готовий до стрибкоподібного розвитку, але це не означає, що все пропало.

Ті ж криптовалюти проходять зараз процес чистки, банкротства («долина смерті»), далі або остаточно смерть, або переродження.

Але жити з цим доведеться :-)

Я тоже не юрист

1. Це не заборонено. На перекази і копірайтинг авторське право не розповсюджується. Навіть зараз є купа стартапів, які продають короткі висновки книг. Fair use, знову ж таки, не є забороною.
продають короткі висновки книг

Нет, речь как раз о книге целиком, о плагиате.

копірайтинг не заборонений

Запрещено нарушение копирайта. И кстати, при перепечатке нормальные редакции вставляют ссылки на оригинал.

Щодо «отстойник автоматически сгенерированного мусора», то і зараз ми спостерігаємо купу інформаційного сміття.

Мы ускоряемся в этом направлении, и приближаемся к ситуации, когда веб будет просто бесполезен для поиска информации.

метавсесвіти

Вот в чем я точно уверен, так это в том, что метавселенные надолго с нами не задержаться, т.к. для этого нужны бесконечные ресурсы, которые наоборот сокращаются.

Є окрема група програм — антиплагіат. Вони аналізують текст на співпадіння.
Цінність будь-якої статті — це новизна і нові висновки. І копірайт тут посилання на список статей на базі яких були зроблені висновки/нові відкриття.
Короткі висновки книг є інтерпретація думки автора який його писав. Тобто новий текст. Типовий приклад — літературні критики

А что с авторским правом в данном контексте?

Моє бачення — авторські права не порушено, якщо оригінальний авторський матеріал не зберігається на серверах ChatGPT.
Фактично, програма виконала те, що і реальна людина: Прочитала, «зробила для себе висновки» із цього матеріалу і генерує новий матеріал на цих висновках.

Вся проблема в тому, що у нас відсутні чіткі визначення понять в контексті людей, машин та потенційно позаземних цивілізацій того, що таке «Життя», «Свідомість», «Процес навчання», «Творчість», «Процес творчості», «Саморозвиток» і т.д.

Будь-які заборони можливо обійти, якщо фіксувати ці заборони термінами вчорашнього дня, а що буде завтра ми не знаємо.
Варто визначити якісь червоні лінії в цьому всьому і слідкувати аби потенційний штучний інтелект в наслідок своєї діяльності, як мініум, не порушував Три закони робототехніки + нульовий в кінці романів(0. Робот не може заподіяти своїми діями чи бездіяльністю шкоди людству), а далі буде видно.

«Bob has two sons. Bob and Charlie. Bob has one brother and father.

тут і людині не дуже зрозуміло, який Боб мається на увазі в 3-му реченні (батько чи син). і хай мене поправлять хто краще знає англійську, але чи не для таких випадків придумали «джуніор» і чи часом не треба було писати «Bob Jr. has one brother and father»?

Її відповіді це ж не спам, еге ж?

Відповідь тут доволі очевидна — у Боба є брат на ім’я Чарлі.

Ніфіга не очевидна, тому ChatGPT і просить уточнити контекст. Боб-батько може мати брата.

Так а в чому різниця між перекладом ChatGPT i Google Translate? Схоже на те, що просто текст, згенерований ChatGPT помилково продублювали там де мав бути переклад гугла.

Підписатись на коментарі