OpenAI тестує власний ШІ-пошуковик SearchGPT

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

OpenAI тестує прототип власного ШІ-пошуковика SearchGPT.

Новий пошук базуватиметься на ШI та поки буде випущений на обмежену кількість користувачів, що дорівнює 10 000, але ви можете записатися на його тестування. Судячи з усього, це буде суміш традиційного пошуку на кшталт Google з компіляцією результатів на базі ШI та певним рівнем інтерактивності та можливості уточнення.

  • На відміну від звичних пошукових систем, SearchGPT зможе вести діалог уточнюючи та підлаштовуючи вибірку.
  • Можливість такого пошуку буде інтегрована прямо в ChatGPT, що дасть єдине вікно входу і для пошуку, і для спілкування з ботом.
  • Крім того, SearchGPT видаватиме не просто посилання, а вже проаналізовану інформацію і користувач зможе отримувати відразу готову відповідь на свій пошуковий запит.

Особисто для Капітана це дуже очікувана функція, ChatGPT з повною інтеграцією з інтернетом, що може бути краще? Зараз я використовую паралельно і чат-бота, і Google у повсякденній роботі, якщо OpenAI зможе спростити мені життя і зробити all in one рішення, то радості моїй не буде меж.

Я вже подався на whitelist і дуже сподіваюся бути в перших рядах, хто отримає до цього інструменту доступ. Триматиму пасажирів у курсі!


До речі, якщо вам цікаво читати подібні новини, огляди та просто корисну інформацію зі світу IT та High-Tech щодня, то приєднуйся до телеграм-каналу автора під назвою «Затишна Галера», там лампово і багато цікавого.

👍ПодобаєтьсяСподобалось2
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Гарна реалізація цієї ідеї = −40% маркет капа гугла
Бімба

ChatGPT з повною інтеграцією з інтернетом

ну, по-перше, навряд це буде повна інтеграція з інтернетом
це не так просто зробити чисто технічно

і навіть якщо і зроблять, є ще інші проблеми:

We find that indiscriminate use of model-generated content in training causes irreversible defects in the resulting models, in which tails of the original content distribution disappear. We refer to this effect as ‘model collapse’ and show that it can occur in LLMs as well as in variational autoencoders (VAEs) and Gaussian mixture models (GMMs). We build theoretical intuition behind the phenomenon and portray its ubiquity among all learned generative models. We demonstrate that it must be taken seriously if we are to sustain the benefits of training from large-scale data scraped from the web.

Shumailov, I., Shumaylov, Z., Zhao, Y. et al. AI models collapse when trained on recursively generated data. Nature 631, 755–759 (2024). doi.org/...​0.1038/s41586-024-07566-y

Підписатись на коментарі