RAG и генеративный ИИ. Создаем собственные RAG-пайплайны с помощью LlamaIndex, Deep Lake и Pinecon

В книге описываются приемы создания эффективных больших языковых моделей, систем компьютерного зрения и генеративного ИИ, показывающих высокую производительность при относительно невысоких затратах. В ней приводится подробное исследование технологии RAG, а также подходов к проектированию мультимодальных пайплайнов ИИ и управлению ими. Связывая вывод с исходными документами, RAG повышает точность и контекстную релевантность результатов, предлагая динамический подход к управлению большими объемами информации.
Узнайте, как построить инфраструктуру RAG, попутно разобравшись с векторными хранилищами, фрагментацией, индексацией и ранжированием. Познакомьтесь с методами оптимизации производительности и приемами более глубокого изучения данных, включая использование адаптивного RAG и обратной связи от человека для уточнения поиска, тонкую настройку RAG, реализацию динамических RAG для поддержки принятия решений в реальном времени и визуализацию сложных данных с помощью графов знаний. Вы также увидите, как на практике объединить такие фреймворки, как LlamaIndex и Deep Lake, векторные базы данных наподобие Pinecone и Chroma и модели, предлагаемые компаниями Hugging Face и OpenAI. Приобретите навыки внедрения интеллектуальных решений, что повысит вашу конкурентоспособность в различных областях: от продакшна до обслуживания клиентов в любом проекте.
Глава 1 «Почему именно генерация с дополненной выборкой» знакомит вас с основными концепциями RAG, подчеркивает ее адаптируемость под различные типы данных и разбирает сложности интеграции фреймворка RAG в существующие ИИ-платформы. К ее концу вы уже будете хорошо понимать, что такое RAG, приобретете практический опыт создания различных конфигураций для простых, продвинутых и модульных систем RAG с помощью Python и будете готовы к более сложным случаям их применения, рассматриваемым в последующих главах.
Название: RAG и генеративный ИИ. Создаем собственные RAG-пайплайны с помощью LlamaIndex, Deep Lake и Pinecon
Автор: Дэнис Ротман
Издательство: Спринт Бук
Год: 2025
Страниц: 320
Язык: русский
Формат: pdf
Размер: 12.2 MB
Скачать RAG и генеративный ИИ. Создаем собственные RAG-пайплайны с помощью LlamaIndex, Deep Lake и Pinecon
Узнайте, как построить инфраструктуру RAG, попутно разобравшись с векторными хранилищами, фрагментацией, индексацией и ранжированием. Познакомьтесь с методами оптимизации производительности и приемами более глубокого изучения данных, включая использование адаптивного RAG и обратной связи от человека для уточнения поиска, тонкую настройку RAG, реализацию динамических RAG для поддержки принятия решений в реальном времени и визуализацию сложных данных с помощью графов знаний. Вы также увидите, как на практике объединить такие фреймворки, как LlamaIndex и Deep Lake, векторные базы данных наподобие Pinecone и Chroma и модели, предлагаемые компаниями Hugging Face и OpenAI. Приобретите навыки внедрения интеллектуальных решений, что повысит вашу конкурентоспособность в различных областях: от продакшна до обслуживания клиентов в любом проекте.
Глава 1 «Почему именно генерация с дополненной выборкой» знакомит вас с основными концепциями RAG, подчеркивает ее адаптируемость под различные типы данных и разбирает сложности интеграции фреймворка RAG в существующие ИИ-платформы. К ее концу вы уже будете хорошо понимать, что такое RAG, приобретете практический опыт создания различных конфигураций для простых, продвинутых и модульных систем RAG с помощью Python и будете готовы к более сложным случаям их применения, рассматриваемым в последующих главах.
Название: RAG и генеративный ИИ. Создаем собственные RAG-пайплайны с помощью LlamaIndex, Deep Lake и Pinecon
Автор: Дэнис Ротман
Издательство: Спринт Бук
Год: 2025
Страниц: 320
Язык: русский
Формат: pdf
Размер: 12.2 MB
Скачать RAG и генеративный ИИ. Создаем собственные RAG-пайплайны с помощью LlamaIndex, Deep Lake и Pinecon
Внимание! У Вас нет прав для просмотра скрытого текста.
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.