C-Eval是一个适用于大语言模...
C-Eval是一个适用于大语言模型的多层次多学科中文评估套件,由上海交通大学、清华大学和爱丁堡大学研究人员在2023年5月份联合推出,包含了13948个多项选择题,涵盖了52个不同的学科和四个难度级别,用以评测大模型中文理解能力。
Chatbot Arena是一个大型语言...
HELM全称Holistic Evaluation...
FlagEval(天秤)由智源研究...
MMBench是一个多模态基准测试...
CMMLU是一个综合性的中文评估...
Open LLM Leaderboard 是最大...