RAG ChatBot
Il Progetto
Cosa fa questo progetto?
Questo progetto implementa una chatbot RAG che utilizza un modello LLM come Ollama per rispondere a domande basate sui file PDF caricati precedentemente.
Quali tecnologie utilizza questo progetto?
- Python - Programming languages
- FastAPI - Back end system
- ChromaDB - DB vector to save all data embedding
- Docker - Container projects
- Ollama Mistral - LLM used to elaborate the answer
- Vue - Used to create an interface UI
Flusso del progetto
- User upload a pdf File
- Back end receive the file and save the file in they folder
- Give a question about the file
- Back end calcolate the embeddings question
- Search in the database all chunk close to question
- Create a prompt with the chunk question
- Ollama give the answer
- Back end give the answer
Cosa ho imparato da questo progetto?
In questo progetto ho imparate il basi di come l’AI può davvero aiutare nel leggere i dati che carichiamo.
Ho imparato come caricare file, salvarli e convertire i dati in vettori da poter leggere all’AI.
Ho imparato il concetto di embeddings e Database vettoriali, inserimento di prompt e elaborazione dell’LLM per generare risposte.