Google втратила $100 мільярдів ринкової вартості, бо чатбот Bard дав неправильну відповідь у прямому ефірі

Усі статті, обговорення, новини про AI — в одному місці. Підписуйтеся на DOU | AI!

Материнська компанія Google, Alphabet, втратила $100 мільярдів ринкової вартості через те, що чатбот Bard дав неправильну відповідь в прямому ефірі, — повідомляє Reuters.

Акції Alphabet впали на 9% під час торгів.

Alphabet опублікувала короткий ролик про Bard у Twitter, пообіцявши, що він допоможе спростити складні теми, але натомість надав неточну відповідь. На запитання: «Про які нові відкриття космічного телескопа „Джеймс Вебб“ я можу розповісти своїій 9-річній дитині?», чатбот відповів, що одним із перших знімків цього телескопа були фотографії планети за межами Сонячної системи або екзопланет. Однак перші знімки екзопланет зробив «Дуже Великий Телескоп» (VLT) Європейської південної обсерваторії у 2004 році, що підтвердило NASA.

👍ПодобаєтьсяСподобалось5
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

«чатбот відповів, що одним із перших знімків цього телескопа були фотографії планети за межами Сонячної системи або екзопланет. Однак перші знімки екзопланет зробив „Дуже Великий Телескоп“ (VLT)»

Не зовсім коректний переклад, що заплутує.
Бо дійсно він відповів, що Джеймс Вебб зробив «перші знімки» екзопланети, хоча їх зробив інший дівайс. Але незважаючи на те, хто був першим, дійсно одним із перших знімків Джеймс Вебб були фотографії екзопланети.

Цікаво порівнювати журналістику, коли немає доказу кореляції, то журналісти англомовні пишуть «після».

Наприклад:
Google втратила $100 мільярдів ринкової вартості, після того, як чатбот Bard дав неправильну відповідь у прямому ефірі

Читачі сприймають його як «бо», але при цьому журналісти не пишуть потенційну неправду. Будуть писати «бо» коли щось доведуть.

Ціна навряд впала через помилку, а скоріш через те як перелякано гугл виглядав й те як інвестори довірятимуть такому менеджменту. Наприклад як «забули телефон вдома» на таку важливу презентацію.

Google втратила $100 мільярдів ринкової вартості, бо чатбот Bard дав неправильну відповідь у прямому ефірі

а Гороховський опублікував в чаті маячню про питання до ChatGPT і відповідь відносно кількості м’язів, потрібної для того, щоб натиснути курок пістолета
і взагалі нічого не втратив
тому що ні він, ні аудиторія чату взагалі не розуміють — де в пістолета курок, а де — спусковий гачок
і які в них функції

а разница в курке и гачке какая?

это пример с кольтами, с пистолетами и автоматами не актуально

человеческая тупость иногда просто поражает воображение...
s00.yaplakal.com/...​riginal/4/5/8/7960854.jpg

Актуально, даже если курок спрятан

Ну он же не чат-помощник от корпорации, а человек. Всем всё равно допустил он ошибку в этом плане или нет.
Я тоже до этого момента не знал разницы (или не углублялся детально), однако и после этого мне всё равно как человек называет спусковой крючок :)

Не слід ідеалізувати chatGPT, так як він іноді фантазує, а не дає правильну відповідь. Просто це ще один хороший інструмент який можна використовувати.
(мем_про_срібну_кулю.jpg)

Він гарно відвповідає тільки абстрактні питання. Чи технічні, але всім відомі. «Напиши суму видатків та надходжень до бюджету України по місяцям за 2022 рік.» — провал. І т.д.

Цікаво, чи може відсутність відповіді на ваше запитання бути якось пов’язана з тим, що в нього дані тільки до 2021 року?)

Так він просто несе казна-що, замість видатків І доходів називає тільки по одній цифрі. Й не каже, що даних немає.

Прикупив сьогодні Гугл по 95, думаю ринок надто нервово реагує на успіхи їх потенційного конкурента і їх неуспіхи. Оцінка компанії на цьому рівні влаштовує. Л.

Для того щоб пошукова вибірка гугла стала такою, як зараз, вони десятиліттями відточували алогіртми визначення «ваги» сторінок. Алгоритми ML повинні пройти приблизно той самий шлях.

Он дал наиболее вероятный ответ, а не наиболее правильный. На что он собственно и был натренирован.

он дал вероятный ответ, который состоит из не правильной информации

альо, альо. Шановні, поясніть мені будьласка.

Помилка Bard стосується того, який супутник вперше зробив фотографії Землі з-за меж сонячної системи.

У рекламі чатбота дається підказка: «Про які нові відкриття космічного телескопа „Джеймс Вебб“ я можу розповісти своїй 9-річній дитині?». Bard відповідає кількома варіантами, включно з припущенням, що телескоп використовувався для перших знімків планети за межами сонячної системи Землі. Проте перші фотографії екзопланет були зроблені «Дуже великим телескопом Європейської Південної обсерваторії» у 2004 році, що підтверджено NASA.

Про що, в біса, ви взагалі пишете? Фотографії Землі з-поза меж сонячної системи? Якоїсь іншої планети поза межами якоїсь сонячної системи Землі? Фотографії екзопланет?
Схоже що хоч гуглочатбот і дав невірну відповідь, проте вцілому винайняти його для контентмейкингу редакції доу було би правильним рішенням.
І да, дуже великий телескоп — наземний телескоп, не супутник. Тому формально він не може бути відповіддю на питання «який супутник вперше зробив».

Ага, «Сонячної системи Землі» не буває. Є або «Сонячна система», або «планетарна система Сонця». ДОУ йде небезпечною доріжкою Хабра, де його «редактори» пороли дичину, в якій не розбиралися і ігнорували прохання виправляти помилки. З часом «редакторські» статті Хабра стали еталоном некваліфікованої подачі матеріалу, з них або сміялися, або ігнорували. В принципі, ще не пізно виправитися, почавши виправляти помилки в статтях, цим вони наблизяться до професійних ЗМІ. Ну або можна забити і скотитися до рівня Хабру.

ChatGPT — це справді Next Big Thing. Як свого часу усі навчились «гуглити», так зараз ми стоїмо на порозі справжнього ШІ консультанта. Про «ок, гугле, як зробити операцію» — тільки жартували. З новими ШІ моделями це вже не буде жартом. Людина не може усього тримати в голові — тому помічник, який зможе швидко підкидати потрібну інформацію чи навіть варіанти рішень — буде корисний для усіх спеціальностей.
А деякі — може навіть замінить! Наприклад юриспруденція: це саме та галузь же усі слова мають бути однозначними, де є чіткі правила і чіткі відповіді. Можливо у майбутньому більшість судових рішень (особливо не карних) буде вирішувати «електронний суддя». Подаєш на вхід свій позов, документи — докази, а він виносить рішення і далі докладно роздруковує на підставі яких законів він його отримав.
Пригадайте детективи: чому той же Шерлок Холмс розкривав злочини там, де інші не могли? По-перше увага до найменших деталей — це дуже добре показано у серіалі. По-друге: «дедуктивний метод» — тобто вміння спів-підставити факти і загально відомі закони та патерни поведінки. Здається що ChatGPT міг би бути ідеальним «Шерлоком Холмсом» якщо поєднати його з потужною системою розпізнавання образів.
Уявіть: наводите смартфон на гостя — і ШІ підказує «Це колишній військовий доктор, отримав поранення в Індії, нюхає тютюн, грає у карти, зараз має проблеми з фінансами.»

Це не ШІ, це нейронна мережа

Хіба нейронна мережа не вважається ШІ ? А що тоді справжній ШІ?

А ви точно айтiшник? )

— У чому рiзниця мiж AI та ML?
— Якщо це зроблено на Python — це ML, якщо в PowerPoint — це AI.

Ні, АІ це маркетингова назва ML

DOU це тусовка не маркетологiв, а айтiшникiв. Якщо не помиляюсь. А AI не iснувало навiть в планах останнiй раз, як я перевiряв.

DOU це тусовка не маркетологiв, а айтiшникiв.

кого тут тільки нема

Рекомендую почитати
The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World

Дивлячись що називати ШІ ? Визначення термінології дав Джон МакКарті в 1954 році. Те з чим ми маємо справу називається — слабий ШІ, тобто программа у якої немає свідомості — віртуальний співбесідник, зв’язаний із пошуковим алгоритмом в мережі Інтернет. Перша программа такого типу, називалась Еліза і була розроблена в 1965 році вченим МІТ — Джосефом Вайценбаумом. Алгоритм классифікації на базі штучної нейронної сіті далеко не єдиний метод ШІ і зовсім не обов’язковий. Скажімо шахматні движки можуть робитись на графах, які придивляються комбінації на 100+ шагів на перед, може бути підсилено використанням відомих комбінацій — тобто відтворювати роботу метод гри шахистів спортсменів, відповідно роблять це набагато швидше за людський мозок. Таким чином гра в шахи із комп’ютером перетворюється на перетягування канату людини і трактора. IBM Deep Blue зробив чемпіона світу Гаррі Каспарова в 1997 році. Розпізнавання зображень, якраз робиться зокрема за допомогою класифікаторів на базі штучних нейронних сітей — вже десь 10 років, як компьютер вперше переміг людину в змаганнях — тобто дав меньше помилок. Є ще логічне програмування і експертні системи — Prolog, Oz і т.п. — теж один із методів ШІ. Чому зараз такий супер хайп з ШІ ? Обчислювальні потужності сучасних комп’ютерів із комбінацією CPU-GPU дозволили массове використання алгоритмів. А в 97-му році для шахового движку довелось будувати спеціальний супер компьютер із ASIC шаховими блоками на базі спеціальних мікрочіпів, це було дуже дорого.

Насколько я помню, по разным книжкам, Нейронные сети — это подмножество Машинного обучение, что в свою очередь подмножество ИИ
ospreydata.com/...​dels-101-what-is-a-model

Якщо хтось би почав скидувати і продавати акції, тобто збільшив пропозицію — вони би так само впали в ціні. Це недолугі коливання. Взагалі капіталізація Google мала би базуватись це на сам перед на джерелах прибутку тобто Adwords, Play і Android. Хтось перестав замовляти рекламу в інтернет, купляти мобільні пристрої чи програмне забезпечення, зокрема ігри до них ??? Як ні то чому якись помічник, який не відомо як буде користуватись людьми впливає на ринкову вартість прибуткової компанії ? Скажімо хто активно користується голосовим вводом типа Ok Google — він усе таке саме робить, чи можна без нього жити — та запросто, звичайний інтерфейс текстових запросив покриває львину долю. А те, що в інтернет повно інформаційного шуму і недостовірної інформації — думаю не новина ні для кого.

Хтось перестав замовляти рекламу в інтернет

Там же важиво у кого її замовяляти. Якщо Bing чи ChatGPT перетянуть на себе долю користувачів, то гуглу не буде кому показувати такі ж об’єми реклами

Може тому, що ринкова вартість компанії, відображає її перспективи та очікування інвесторів. З кожною подібною помилкою, перспективи тануть. Хоча існуючий бізнес, напевне, нікуди не дінеться.

Фітча з віртуальним співрозмовником взагалі ще жодним чином не показала можливість до монетизації. Так перспективи безумовно є, як то різні плугіни до редакторів тексту, IDE тощо. Тобто люди за допомогою цієї штуки зможуть швидше робити рутинну інтелектуальну роботу. От де Google справді налажали, то виставили за двері тисячі людей в раз, включно з тим хто давно працює і має досвід. От така хрінь справді мала би провалити акції будь якої компанії вниз. Тепкр можна зокрема поставити під питання, зокрема функціонування критичної інфраструктури, просто хтось пішов в один день хто знав, що треба робити у разі якоїсь проблеми і забрав ці знання із собою. Далеко не усі знання взагалі є десь закріплені якимось чином чи якось документовані, або документовані коректно.

Експерт з усіх питань тут:

Акція гугла падають, бо вони лажають весь 2022 рік та краще не стає
Акції Майкрософту ростуть через Гоґвортс Лєгасі на іксбокс

З чатами і те й інше то пов’язане слабо

Останні рухи акцій якраз лише з чатами і пов’язано

Нвсправді гуглу найближчі кілька років нічого не загрожує.
По-перше, звички людей. Люди дуже повільно їх міняють.
По-друге, людина хоче бачити вибір і першоджерела, а не один gpt на лавочці сказав.
По-третє, gpt не має доступу до історії пошуку кожного користувача. А в гугла завдяки браузеру і своїй мобільній платформі такі потужності є. А це означає що gpt буде задьоргувати уточнювальними питаннями користувача і витрачати його час.
По-четверте, пошуковик завжди буде вигравати для найсвіжиших данних. У gpt нема крауйлерів що перенавчають сітку що хвилини.

Тому ці технології ще довгий час будуть існувати паралельно.

GPT зараз є додатком до Bing, тобто конкурент власне Microsoft. Але так, якщо просто використати голосовий ввод в Google — отримаєш інформацію фактично таку саму як і від GPT.

Звички бувають різними — до реально хорошого звикають швидко, як приклад зростання кількості людей що використовуют телеграм, у тому числі як джерело новин. Кількість активних користувачів ChatGPT досягла 57 мільйонів за перший місяць.
Так у чому пробема попросити аргументувати відповідь наприклад посиланнями на якість наукові статті чи дати кілька варінтів відповідей або просто набір посилань?
Ну в межах сесії є історія — 3000 слів, можеш запитати ChatGPT яке з запитань що ти йому задавав він вважає самим цікавим і самим тупим) Ти ж розумієш що технічно розширити і враховувати історію не складно — це лише питання коштів. Ну а поки що можеш насолоджуватися виходом за межі своєї інформаційної бульбашки.
Відповіді на які саме питання потребують найсвіжішої інформації? Для тих же новин є спецілізовані сайти. Ну там цікавить людину графік відключення світла — в примітивному варіанті отримає посилання на сайти що давали схожу інформацію раніше, в більш технологічному може отримати пряму інформацію розпарсивши сайт як варіант.
Так — технології будуть існувати певний час парелельно, і Майкрософт це розуміє і в цьому випереджає Гугл.

По-друге, людина хоче бачити вибір і першоджерела, а не один gpt на лавочці сказав.

Це лише для людей з IQ>=120.

У gpt нема крауйлерів що перенавчають сітку що хвилини.

Питання заліза. Саме для цього OpenAI потрібні гроші та потужності Microsoft.

По-друге, людина хоче бачити вибір і першоджерела, а не один gpt на лавочці сказав.

вы очень хорошего мнения о человечестве. Но боюсь, что для большинства это не так. они хотят ответы на свои вопросы. на первоисточник им насрать

Гугл чекає доля Yahoo. Можете скрінити.
Я одразу як побачив, на що здатний ChatGPT, зрозумів що це майбутне. Мені навіть гуглити не потрібно, тому що ревелантні відповіді я одразу отримую в чатГПТ і це тільки початок

Чатгпт совершает аналогичные ошибки, и в этом их слабое место

У вікіпедії є помилки, но це ніяк не применшує її цінність і не привід її не використовувати

На самом деле, ценность википедии весьма ограничена. Если нужно с чем-то разобраться, то нужно залазить в первоисточники.

Цінність седанів і SUV сильно обмеженная. Якщо треба поїхати в якісь ебеня де навіть грунтових доріг немає, то треба 4×4 з високим просвітом.

простий бетонний зїзд з дороги і седан вже човгає
треба діагональ робити

Залежить від кліренсу. 16-17 см нормально кругом проїзжає. Незалежно від типу кузова.

Авжеж

В сша 15 човгає
Навіть вищі сув інколи на зїздах отих беьонних

1.bp.blogspot.com/...​PcD1yT8YIA/s1600/Curb.gif

Трохи вище і човгалка.
Особливо якщо туди стрибнути на швидкості з потоку

так и гугл ошибается же. Так лучше получить сразу не правильный ответ, чем получить эту инфу читая миллион ссылок от гугла с кучей мусора

Да, но в отличии от конкурентов:
1) ChatGPT склав іспит з MBA у Вортонській бізнес-школі. Успішно
2) Нейросеть ChatGPT прошла собеседование в Google на должность инженера с зарплатой в 183 тысячи долларов
3) ChatGPT написал Android-приложение

И я уверен в общем доступе не самая совершенная модель, внутри OpenAI есть что-то более сильнее. Смотрим на конкурентов и понимаем что пока что это лидер в этом направлении.

ChatGPT склав іспит з MBA у Вортонській бізнес-школі. Успішно

Що тільки доводить відому тезу, що складання іспитів — це окремий скіл, який прекрасно тренується без глибокого занурення в тему по якій складається іспит.

Нейросеть ChatGPT прошла собеседование в Google на должность инженера с зарплатой в 183 тысячи долларов

Це якась маячня, чесно кажучі. Так, цілком можливо що воно може накорябати готове рішення на алгоритмічне питання з підручника, чи видати щось більш-менш релевантне щодо дизайну, але ми тестували його на власних доволі простих завданнях для інтерв«ю (які не ставлять ціллю завалити людину на лідкод-стайл задротстві) — він робить яу фактологічні помилки («не знає» про зміни 2-3 річної давнини), так і «синтетичні». Наприклад, дуже прості задачі з рефакторінгу він фейлить, тому що після серіі уточнюючих питань де-факто повертає код в його початкову форму — тобто ні про яке розуміння контексту мова в принципі не йде (що і так зрозуміло, але хайп такий хайп).

Що тільки доводить відому тезу, що складання іспитів — це окремий скіл, який прекрасно тренується без глибокого занурення в тему по якій складається іспит.

Так зараз і докладати зусиль не потрібно. Все зробить ChatGPT. В мене зараз є одна знайома, яка дала згоду щоб їй спробував диплом написати (на складну біотехничну тему) chatGPT і вона відправить на рецензію в свій український ВУЗ. Судячи з результатів, які вже вийшли на даний момент, цю роботу приймуть і поставлять високу оцінку.
Ще раз уточнюю, вона може сама написати за кілька місяців. Але за допомогою chatGPT цей час скорочується до декількох тижнів, їй залишається тільки бути в ролі ревізора та уточнювати деталі, якщо відходить від контексту.

Так зараз і докладати зусиль не потрібно.

Так это как раз и говорит о невалидности экзамена, как инструмента.

Скорее не полной валидности. Если екзамен на основе только тестов, посадить комиссию экзаменаторов (только не подсадных как у нас это дело любят) и все сразу станет на свои места. Вот народ «по собеседовал» gpt — с лайф кодингом, gpt резко провалилася — оказался не способным к рефакторингу и сложным концепциям с множеством неизвестных. Тоже в соседней теме с вопросом — сколько будет стоить сделать проект по разработке ПО на рынке ну и т.д. Экзаменатор тоже будет, ходить влево вправо, спрашивать в лоб, открытые вопросы с подковыркой, проверять мышление и знание предмета вчасности, просить решить задачу и т.д.

А потім на захисті вона все це зафейлить бо не вона його писала.

У тих дісерах 200 сторінок води і може дві сторінки з результатами дослідів які робив вчений. А янукович чи ківа взагалі купили мукулатуру у професійного писателя дісерів та усе порішали. Якраз через штучний інтелект справжнім вченим — дослідникам вдалось знайти хто пише тіу макулатуру на замовлення переписуючи власний дісер — шаблон різними словами щоб не схоже було. У гетьманцева шаблони такі старі — що там взагалі марксизм, цікаво чи він узагалі то читав, що захистив. У людини без машинного підсилення на це пішло би роки, софт зробив співставлення за часи.

Завжди можна прочитати що написано і розібратись хоча б в мінімальному рівні.

Проблема трохи глибша. Чатгпт вбиває насамперед не гугл, а систему освіти. Школярі не навчатимуться, якщо є чатгпт. І це не виправити. Так, вчителі можуть за фактом запитувати та оцінювати. Але ми знаємо, що шкільна оцінка спирається більше на тести, контрольні роботи, тематичні тощо.
Ну буде одна двійка умовно, а після неї три одиннадцятки поспіль. Ось і отримуємо середню 9 у дитини, яка не вивчила ще абсолютно нічого.

Як я вчився в радянський, а потім вже пост радянський школі — це не так працювало зовсім. Тільки в 11 классі почали вводити американьске систему тестів, насправді її фішка в тому що самі тести навчають, бо часто в самих питаннях є відповідь. Якщо ти засвоїв теоретичний матеріал на достатньому рівні — відповіси. Моїх викладачів, зокрема директора школи — дуже крутого педагога з фізики, ця система конкретно батхертила. Знання перевіряли іншим, але доволі стресовим методом, задавали багато домашньої роботи, викликали до дошки вирішувати задачі, робили рандомні запитання з усього предмету, з п’ятого класу робили екзамени де треба було тягнути білет. Те саме універ в нульові, курсу до третього, потім теж проникла невдало адаптована американська система. На курсі Google GCP, якраз побачив як вона має працювати, за допомогою самих тестів вас навчають щоб тримати концентрацію уваги. Питання завдають в самих лекціях, після кожного топіку. Якщо не відповів, то щось не засвоїв і треба підти і самостійно повторити. Так от штучні нейронні мережі приблизно таким чином, як працює американська система і навчають, звісно компьютерну програма розірве людський мозок в лоскути, як трактор перетягне будь якого силача. На то людство і створювало компьютери.

А на екзамені вам тест/есей теж Чат напише? Достав телефон і консультуєшся? Ну ок, напише вам Чат реферат, чи вирішить рівняння (що і раніше можна було зробити, списавши у однокласника, чи заплативши комусь).

Добре, домашні завдання просто повністю втратять свій сенс, припускаю, але все ж таки як ви збираєтеся здавати екзамени, сидячи в аудиторії?

1) ChatGPT склав іспит з MBA у Вортонській бізнес-школі. Успішно
2) Нейросеть ChatGPT прошла собеседование в Google на должность инженера с зарплатой в 183 тысячи долларов
3) ChatGPT написал Android-приложение

Что из этого не может быть нагуглено? Если в гугле есть ответы на все эти вопросы, то смысл в чатгпт (новое поколение) если гугл справляется (старое поколение)

Что из этого не может быть нагуглено? Если в гугле есть ответы на все эти вопросы, то смысл в чатгпт (новое поколение) если гугл справляется (старое поколение)

Гуглю: sample terms of service
Получаю первыми ссылками кучу shit информации что это такое, откуда корни растут и прочее (за рекламу я вообще молчу).
Вбиваю в чат и получаю первым ответом шаблон.

Гуглю: sample terms of service
...
Вбиваю в чат и получаю первым ответом шаблон.

Блискучий план (ні). Бо якщо тебе потягнуть в суд з твоїми TOS, може раптом виявитись, що половина параграфів в шаблоні від чатгпт в твоїй юрисдикції юридично нікчемні... Бо виявляється всі ці формальні бумажки — це не просто слова красиво складені в речення, а певний інструмент, який може замість «прикрити зад» зробити щось геть протилежне — відстрілити тобі кінцівки.

А так норм, ага. Можна ще інвестиційних порад у чатгпт запитати — він скоріше за все й з цього приводу дуже красиве щось згенерує. Нуашо? Магія ж...

Бо якщо тебе потягнуть в суд з твоїми TOS, може раптом виявитись

Дякую. Але я не збираюся використовувати у продакшені шаблон. Я просто хочу побачити звичайний базовий шаблон на цю тему. Саме це я написав і в гугл і в чатгпт.
І як я вже сказав, в гуглі я отримав купу інформації, яка не відноситься до фрази sample terms of service

Насправді щоб навчитись щось робити для використання у продакшені вам потрібен якраз гугл. Треба посидіти, пошукати інфу в тонні лайна, але ви знайдете справді гарне рішення. Тому гугл живий і буде жити ще досить довго. А якщо ви ще навчитесь використовувати гугл з усіма його service keywords, то й не побачите «тонни лайна».

Це тільки каже про те недолік такої системи як іспит чи співбесіда чи тести, як засіб перевірки знань та навиків . Її може пройти штучний інтелект — але може не пройти людина із досвідом роботи і знаннями. Ця система дуже часто дає збій і ми усі про це знаємо. Мати знання з предмету і доствід і мати навички проходження співбесід та тестів, чи скажімо олімпіад с програмування це не одне і те саме. Як колись сказав один з моїз викладачів в універі: — «з досвідом дізнаєтесь, що можна і не вчитись — головне здавати». Друге рідше варіант спорту. Так само як і гра в шахи наприклад, неодноразово були випадки коли діти — аутисти робили в шахи кучу крутих гравців першорозрядників і навіть гройсмейстрів, але не могли сказати власну адресу чи порахувати скільки буде решти з покупки хлібу. Те саме сучасна шахова програма, якщо виставлена без навмисних лімітів аби дати людині хочь якись шанс, зробить будь якого чемпіона в суху. Чи зможе та програма наприклад спроектувати космічну станцію ?

ChatGPT склав іспит з MBA у Вортонській бізнес-школі. Успішно

Якщо це бізнес-школа, то ChatGPT повинен був сам придумати стартап і зробити його прибутковим. Зробив? Чи тільки відповідав термінами з вікіпедії?

2) Нейросеть ChatGPT прошла собеседование в Google на должность инженера с зарплатой в 183 тысячи долларов

певно приймуть на роботу щоб поправив там їм гугловий чат, ато щось лажає

І що ви побачили? Що він вам шматок кода виплюнув?

А давайте поговоримо про рецепти. Один й той самий торт може мати декілька рецептів, а зорієнтуєтесь, який треба вибрати, по відгуках, компонентах ітд.

Для мене, ChatGPT — заміна стековерфлоу.

Також не треба забувати, що доки ви шукаєте потрібне вам рішення, ви зтикаєтесь з проблемами, які вирішуєте, та при цьому навчаєтесь.

Так це крок вперед, але у старому доброму гуглі ви маєте вибір

Звісно що один і той же самий торт може мати декілька рецептів — а у чому проблема попросити топ 10 рецептів? Чи рецепт з якимось певним компонентом? Ти навіть можеш попросити ChatGPT розрахувати вартість торта чи кількість калорій для кожного з рецептів.

«Ось, рецепт 1905 року: візьміть м’яса на 10 копійок...» (один старий анекдот)

Цікава штука, в Stack Oveflow найбільша проблема як на мене, величезна купа народу не вміє ставити питання. Іграшка Akinator — експертна система яка працює саме на тому, що ставить запитання, такого шаленого хайпу як ChatGPT не спричинив, а от як на мене мав би.

Мені навіть гуглити не потрібно, тому що ревелантні відповіді я одразу отримую в чатГПТ і це тільки початок

Або не отримуєш, просто про це не здогадуєшся. ChatGPT вчили на всьому тому лайні, яким забитий інфопростір, тому релевантні відповіді він міксує з абсолютним лайном по суті, яке виглядає переконливо по формі (див. artificial intelligence hallucination — в гуглі, або ChatGPT запитай що воно :)).

Це, звісно, все одно шаг вперед порівняно з необхідністю самому ритись в купі інфомусору, але ж потрібно розуміти обмеження методу...

все одно шаг вперед порівняно з необхідністю самому ритись в купі інфомусору

Скорее шаг назад

В принципі перевага ChatGPT у тому, що можна уточнити питання не думаючи як переформулювати запит до Google. Наприклад, я задаю питання:
How to change a head commit message in git?
В принципі, і Google, і ChatGPT починають з --amend. Але в разі Google мені треба починати розгрібати лайно с пошуком потрібних посиланнь, а у ChatGPT можна уточнити:
But I need to change non last commit
На що я вже виходу на rebase
Я можу ще уточнити:
Is it possible to rename some string in all commit messages?
Тут мені розказують про git filter-branch
А глибже вже не релевантно, коли я задаю, наприклад,
How to set a commit from which the replacing might be started?
Він видумує неіснуючий параметр --start-point
Якщо уточнити
There are no start-point option in filter-branch.
він погоджується, намагається викрутитися через xargs але це також не працює.

Тому в принципі отримати довідку у чомусь, де ти не спец, можна плюс можна трохи порозпитувати у контексті. Але з тим, як стає контекст більш специфічним, від починає брехати.

Интересно, а вот если взять датасет чатгпт и юзать на нем «гугл» (обычный поиск), насколько эффективным оно окажется? Как минимум оно не будет придумывать всякую отсебятину.
(Может вообще стоит собрать датасет и продавать? И назвать его «энциклопедия»)

bing так буде пробувати... Як на мене, треба формалізація знаннь, тоді ми зможемо перевіряти поради. Для формалізації проситься алгебраїчна теорія типів + залежні типи. Нейромережа переводить питання у формальну форму, далі пошук, перевірка, далі повертаємо результат. Виглядає як техніка.

Саме так відповідають вайтишніки на співбесіди! Спочатку вони щось знають — і швидко відповідають, потім вагаються — потім починають вигадувати. І якщо питати далі — то заходять у такі фантазії, що стає зрозумілим що вони навіть не уявляють як комп’ютер працює! Просто завчили теорію — і відповідають вірно тільки якщо чують знайомі слова. Думати і робити висмовки не вміють.
Наприклад намагаєшся дізнатися де буде зберігатися змінна: у стеку, чи у кучі, чи ще десь. І деякі починають фантазувати «у регістрі», чи «у кеші процесора», ци «може у відеопам’яті?». Тобто ти розумієш шо людина тільки чула слова — а як воно працює і не уявляє!

Я одразу як побачив, на що здатний ChatGPT, зрозумів що це майбутне

Я як побачив що він не може вирішити питання «як на інший берег у човні перевезти козу-капусту-вовка-людину» — зрозумів що йому ще навчатись і навчатись )))

І що він такого може — надавати рекламу кінечному споживачеві, нав’язувати покупку товару чи послуги тощо ? GPT покищо красива іграшка, покажіть мені монетизацію з нього тоді буде зрозуміло.

Я гуглив, гуглю і буду гуглити.
Можете скрінити

Мені навіть гуглити не потрібно, тому що ревелантні відповіді я одразу отримую в чатГПТ

Є тільки одна біда з цим: те, що видає Гугл — воно все-таки існує в реальності. Десь є сайт, на якому це написано, хтось його туди написав. А от те, що повертає чатГПТ — це чисто фантазія на тему. Якщо питання типу «як довго живуть єдинороги?» — я з радістю послухаю думки чатГПТ на цю тему. Але якщо питання типу «яке дозування парацетамолу для дитини 3 років?» — то я все ж оберу посилання на інструкцію від гугла. От тільки яких питань більше... Людство все більше тікає у вигадані світи.

Ну, вже є бінг з інтегрованим чатгпт. Я його собі також додав у ряд частовикористовуваних сервісів, замість гуглу та наряду з дакдакгоу, але у нього також є свої мінуси. Наприклад, він нерідко помиляється та формалізує коли я прошу його підбити підсумки зі статті з Вікі простими словами

Гугл глобальна екосистема, яка не обмежується виключно пошуковою системою. Тому не розумію це порівняння з яху. Гугл став практично монополістом завдяки зручності, якості пошуку та інтеграції з усіма додатками.

Це той випадок, коли конкуренти викотили щось, що працює херово, але це прощається, бо типу, це ж нова технологія. Прикольно, круто, людям нравицця. Гуглу жме, ринок потребує, «ефективні менеджери» жмуть технарів, бо інвестори нервують, Гугл викочує неадекватне гівно — «раді усі». І майки, і юзери. Тільки інвестори гугла не раді у квадраті :):)

Добре, що на український бізнес такі факапи не розповсюджуються!
t.me/OGoMono/1131

Вам про факапи просто ніхто, крім інсайдера, не розкаже :) Факаплять усі без винятку, це ж real life :)

Підписатись на коментарі