Поиск по embedding не так прост, как кажется! Векторные индексы в базах данных

Кажется, что всё просто: получили embedding, положили в базу, нашли ближайшие векторы — и поиск готов. Но на практике сразу начинаются вопросы. Почему обычные индексы здесь не работают? Зачем нужны HNSW, IVF и approximate search? Почему один индекс даёт быстрый ответ, но теряет качество, а другой — ест память и долго строится? ⚡️Анна Авдюшина, кандидат технических наук и инженер центра «Сильный ИИ в промышленности» университета ИТМО, расскажет, как на самом деле устроен векторный поиск в базах данных, почему nearest neighbor search — это отдельный класс задач и какие компромиссы приходится принимать между скоростью, точностью и стоимостью хранения. Поговорим про: → exact search и approximate nearest neighbor search → HNSW, IVF и базовую логику векторных индексов → recall, latency, memory footprint и trade-off’ы → как это работает в реальных системах поиска, RAG и рекомендациях Подписывайтесь на канал, чтобы не пропустить следующие лекции! Телеграм-канал AI4Dev: https://t.me/LLM4dev 00:00 Введение 01:00 Лекция 39:22 Вопросы

12+
12 просмотров
15 дней назад
12+
12 просмотров
15 дней назад

Кажется, что всё просто: получили embedding, положили в базу, нашли ближайшие векторы — и поиск готов. Но на практике сразу начинаются вопросы. Почему обычные индексы здесь не работают? Зачем нужны HNSW, IVF и approximate search? Почему один индекс даёт быстрый ответ, но теряет качество, а другой — ест память и долго строится? ⚡️Анна Авдюшина, кандидат технических наук и инженер центра «Сильный ИИ в промышленности» университета ИТМО, расскажет, как на самом деле устроен векторный поиск в базах данных, почему nearest neighbor search — это отдельный класс задач и какие компромиссы приходится принимать между скоростью, точностью и стоимостью хранения. Поговорим про: → exact search и approximate nearest neighbor search → HNSW, IVF и базовую логику векторных индексов → recall, latency, memory footprint и trade-off’ы → как это работает в реальных системах поиска, RAG и рекомендациях Подписывайтесь на канал, чтобы не пропустить следующие лекции! Телеграм-канал AI4Dev: https://t.me/LLM4dev 00:00 Введение 01:00 Лекция 39:22 Вопросы

, чтобы оставлять комментарии