arrow_back Torna ai Progetti
ChromaDB

RAG ChatBot

Questo progetto implementa una chatbot RAG che utilizza un modello LLM come Ollama per rispondere a domande basate sui file PDF caricati precedentemente.

Periodo

2025

Link

deployed_code

RAG ChatBot

Il Progetto

Cosa fa questo progetto?


Questo progetto implementa una chatbot RAG che utilizza un modello LLM come Ollama per rispondere a domande basate sui file PDF caricati precedentemente.


Quali tecnologie utilizza questo progetto?


- Python - Programming languages

- FastAPI - Back end system

- ChromaDB - DB vector to save all data embedding

- Docker - Container projects

- Ollama Mistral - LLM used to elaborate the answer

- Vue - Used to create an interface UI


Flusso del progetto


- User upload a pdf File

- Back end receive the file and save the file in they folder

- Give a question about the file

- Back end calcolate the embeddings question

- Search in the database all chunk close to question

- Create a prompt with the chunk question

- Ollama give the answer

- Back end give the answer


Cosa ho imparato da questo progetto?


In questo progetto ho imparate il basi di come l’AI può davvero aiutare nel leggere i dati che carichiamo.


Ho imparato come caricare file, salvarli e convertire i dati in vettori da poter leggere all’AI.


Ho imparato il concetto di embeddings e Database vettoriali, inserimento di prompt e elaborazione dell’LLM per generare risposte.

Stack Tecnologico

code ChromaDB
code Ollama - Mistral
code Langchain
code Python
code FastAPI
code Docker