-
Notifications
You must be signed in to change notification settings - Fork 0
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
feat(api): ajout des différents endpoint
#54
base: main
Are you sure you want to change the base?
Conversation
…ompts qui peuvent être injecter a la volee
…ement les collections
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Ça pourrait être pas mal d'ajouter les commandes pour faire tourner le web server et lancer les tests dans le README
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
On aurait peut-être pu casser cette PR en 3 ou 4 plus petites pour faciliter le travail de review.
Par exemple en mettant llm_processor, llm_runner, et main + launcher dans des PR différentes
queries_splitting_prompt, rephrased_question | ||
) | ||
|
||
query_list = [q.strip() for q in queries.split("\n") if q.strip()] |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Ça passe pour le moment mais à mon avis on aura besoin de retravailler ça parce qu'un split sur "\n" ne fonctionnera pas forcément tout le temps.
Peut-être en utilisant Pydantic pour forcer une réponse du LLM formattée comme on le souhaite et automatiquement récupérer les queries.
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Ouais carrément !!! J'ai fait ça, car c'était le plus simple. J'ai vu avec l'API ChatGPT qu'on pouvait passer des fonctions qui s'occupe à formatter ce que tu as en output : https://platform.openai.com/docs/api-reference/chat/create#chat-create-tools
Ça serait très intéressant de le mettre en place
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
TODO dans le futur
New dependencies detected. Learn more about Socket for GitHub ↗︎
|
fix #44