• Чи потрібна бронь для висококваліфікованих ІТ-фахівців?

    Ну що ж, давай подумаємо:
    Беру дані з відкритих джерел:

    Обсяг експорту агропродукції у 2024 році: 24,5 млрд дол. США

    Експорт ІТ-послуг у 2024 році оцінювався у 6,4 млрд дол. США

    Кількість людей, задіяних в агропромисловому комплексі:
    Загальна чисельність (сільське господарство + переробка + суміжні галузі) може коливатися у діапазоні 1,5–3 мільйони осіб, залежно від методики підрахунку: рахувати лише офіційно працевлаштованих у підприємствах чи включати також мале господарство і домашні ферми.

    Кількість людей в ІТ-секторі:
    Приблизно 238 тисяч.

    У результаті маємо:

    В агропромисловому комплексі експорт на одну особу:
    24,5 млрд / 2 млн ≈ 12 250 дол. США

    В ІТ-секторі:
    6,4 млрд / 238 тис. ≈ 26 890 дол. США

    Ми ще не врахували важливий фактор: айтішнику потрібен ноутбук раз на 3 роки і трохи електроенергії. А скільки у тих 24,5 млрд експорту агропродукції припадає на імпортні складові? Пальне, запчастини, електрика, портова інфраструктура, морський коридор, перекриті польщею кордони?..

    Висновки робіть вже самі хто там що генерує а хто вітер ганяє

  • Огляд та порівняння LLM-фреймворків LangChain та LlamaIndex

    Наприклад, LlamaIndex не має відповідних альтернатив для LangSmith.

    Дуже важко уявити як дебажити більш менш складні AI рішення без таких трейсерів.

  • Огляд та порівняння LLM-фреймворків LangChain та LlamaIndex

    LlamaIndex більше сфокусована на RAG. До прикладу, для запуску простого RAG-based-застосунку ви можете використовувати високорівневі класи, які дозволяють буквально за п’ять рядків коду під’єднати vector store і робити запити до LLM з даними з вашої бази знань.

    Ось 5 рядків для створення БД з набору текстових документів в LangChain:

    store = LocalFileStore("path")
    loader = DirectoryLoader(f"directory_with_txt_data", glob="**/*.txt", loader_cls=TextLoader)
    documents = loader.load()
    
    underlying_embeddings = OpenAIEmbeddings()
        cached_embedder = CacheBackedEmbeddings.from_bytes_store(
            underlying_embeddings, store, namespace=underlying_embeddings.model
        )
    db = FAISS.from_documents(documents, cached_embedder)
    
    Далі створюємо retriever
    retriever = MultiQueryRetriever.from_llm(prompt=QUERY_PROMPT,
            retriever=db.as_retriever(), llm=get_llm(temperature=0)
        )
    

    Чи не могли би Ви трохи детальніше зупинитись на перевагах LlamaIndex?
    Дякую.

    Підтримав: Mark Mishyn
  • Як видалити повністю кацапську мову з Windows 11?