C-Eval是一个适用于大语言模...
C-Eval是一个适用于大语言模型的多层次多学科中文评估套件,由上海交通大学、清华大学和爱丁堡大学研究人员在2023年5月份联合推出,包含了13948个多项选择题,涵盖了52个不同的学科和四个难度级别,用以评测大模型中文理解能力。
SuperCLUE 是一个中文通用大...
FlagEval(天秤)由智源研究...
MMBench是一个多模态基准测试...
HELM全称Holistic Evaluation...
CMMLU是一个综合性的中文评估...
LLMEval是由复旦大学NLP实验...