Про создание AI-ассистента на базе локальной LLM
Обсудили тему создания AI-ассистента на базе локальной LLM. 🚀 Почему локальная модель? Первый вопрос, который встал — почему локальная модель, а не готовое решение от крупного вендора? 💡 Классификация запросов и семантические деревья Мы детально разобрали процесс классификации запросов и построение семантических векторов. 🛠 LangChain: удобство или риск? Особое внимание мы уделили использованию фреймворка LangChain. 💥 Наш главный вывод Локальные LLM модели уже сейчас могут использоваться для построения AI-ассистентов. Причем даже в своих небольших вариациях. В центре внимания был доклад Алексея Гучко “Создание GPT-ассистента руководителя на базе локальной LLM модели”, представленный на митапе AIDEA. (https://www.youtube.com/watch?v=y2VyrTxbaSI). #LLM #RAG #AIассистент #технологии #продукты Следите за нами в Telegram https://t.me/aidialogs
Обсудили тему создания AI-ассистента на базе локальной LLM. 🚀 Почему локальная модель? Первый вопрос, который встал — почему локальная модель, а не готовое решение от крупного вендора? 💡 Классификация запросов и семантические деревья Мы детально разобрали процесс классификации запросов и построение семантических векторов. 🛠 LangChain: удобство или риск? Особое внимание мы уделили использованию фреймворка LangChain. 💥 Наш главный вывод Локальные LLM модели уже сейчас могут использоваться для построения AI-ассистентов. Причем даже в своих небольших вариациях. В центре внимания был доклад Алексея Гучко “Создание GPT-ассистента руководителя на базе локальной LLM модели”, представленный на митапе AIDEA. (https://www.youtube.com/watch?v=y2VyrTxbaSI). #LLM #RAG #AIассистент #технологии #продукты Следите за нами в Telegram https://t.me/aidialogs
