LLMs Evaluation
![AlpacaEval icon](/images/tools/alpacaeval_icon.webp)
AlpacaEval
Un évaluateur automatique pour les modèles de langage. Validés par des humains, de haute qualité, bon marché et rapide.
![FastChat icon](/images/tools/fastchat_icon.webp)
FastChat
FastChat est une plateforme collaborative pour les modèles de langage LLMs.
![BigCode Eval icon](/images/tools/bigcode-eval_icon.webp)
BigCode Eval
BigCode Evaluation Harness est un framework pour l'évaluation des modèles de langage de génération de code autorégressif.
![Promptfoo icon](/images/tools/promptfoo_icon.webp)
Promptfoo
Testez vos invites, modèles et RAGs. Évaluez et comparez les LLMs, détectez les régressions et améliorez la qualité des invites.