You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Une fois la base de connaissance externe créée sur Albert, on va l'interroger pour récupérer des sources de droits identifiées les plus pertinentes et les insérer dans le prompt du LLM qui génère la réponse.
Sur la "pipeline RAG" il y a différentes étapes (rewriter, chunking, pre-retriever, retriever, re-ranker, post retriever, ...) sur laquelle différents choix de paramètres et / ou méthodes peuvent être sélectionnés afin d'optimiser la performance du RAG.
🚀 Objectif
Toutes les options de paramétrage de la "pipeline RAG" (et leurs combinatoires) ne pourront pas être testées pour construire le MVP, soit par manque de temps, soit par manque de moyen technique.
L'objectif de cette EPIC est de prioriser des tests à réaliser pour améliorer la performance de cette "pipeline RAG".
Les critères qui nous permettent d'évaluer la performance du RAG sont :
la précision (%) : (nombre de sources pertinentes par rapport à la question) / (nombre de sources de droit total identifiées)
le recall (%) : (nombre de principes généraux de droit déductibles à partir des sources **) / (nombre de principes généraux de droit attendus)
** ce nombre est évalué par un LLM
Les différentes options possibles à tester sont répertoriées dans ce document
The text was updated successfully, but these errors were encountered:
rprebot
changed the title
[EPIC] Optimiser le Retrieval
[EPIC] Définir les tests à réaliser pour optimiser le Retrieval
Dec 3, 2024
rprebot
changed the title
[EPIC] Définir les tests à réaliser pour optimiser le Retrieval
[EPIC] Définir les tests à réaliser pour optimiser la "pipeline RAG"
Dec 3, 2024
rprebot
changed the title
[EPIC] Définir les tests à réaliser pour optimiser la "pipeline RAG"
[EPIC] Définir et réaliser des tests pour optimiser la "pipeline RAG"
Dec 3, 2024
rprebot
changed the title
[EPIC] Définir et réaliser des tests pour optimiser la "pipeline RAG"
[EPIC] Définir et réaliser des tests pour optimiser le Retriever
Dec 3, 2024
📌 Contexte
Une fois la base de connaissance externe créée sur Albert, on va l'interroger pour récupérer des sources de droits identifiées les plus pertinentes et les insérer dans le prompt du LLM qui génère la réponse.
Sur la "pipeline RAG" il y a différentes étapes (rewriter, chunking, pre-retriever, retriever, re-ranker, post retriever, ...) sur laquelle différents choix de paramètres et / ou méthodes peuvent être sélectionnés afin d'optimiser la performance du RAG.
🚀 Objectif
Toutes les options de paramétrage de la "pipeline RAG" (et leurs combinatoires) ne pourront pas être testées pour construire le MVP, soit par manque de temps, soit par manque de moyen technique.
L'objectif de cette EPIC est de prioriser des tests à réaliser pour améliorer la performance de cette "pipeline RAG".
Les critères qui nous permettent d'évaluer la performance du RAG sont :
** ce nombre est évalué par un LLM
Les différentes options possibles à tester sont répertoriées dans ce document
🔎 Features attendues - MVP
🤖 Features attendues - Post-MVP
à définir
📚 Ressources utiles
The text was updated successfully, but these errors were encountered: