大语言模型测试数据集持续更新

2023-09-14  本文已影响0人  NazgulSun

1、中文数据集

AGIEval

AGIEval:https://github.com/ruixiangcui/AGIEval
其中的中文数据集:

C-EVAL 中文数据集

https://zhuanlan.zhihu.com/p/630111535
多项式选择题,13948道题目,跨52个领域。
如下图所示:包括了初、高、大学的学科;社会科学,人文类的,还有各类认证考试。
目前看这些测试集为啥都是考试类的。

image.png

CMMLU 数据集

构建方式与C-EVAL貌似差不多。除了涵盖人文科学、社会科学、STEM(科学、技术、工程和数学)以及其他在人类日常生活中很重要的四个通用领域的知识外,还涵盖一些特定领域的知识,用于验证模型的中国知识的蕴含能力以及对中文的理解和适应能力。


image.png

SuperCLUE

https://www.cluebenchmarks.com/superclue.html
与其他数据集有些不一样的地方,关注了更多的能力方面,而不是局限于做题。
目前的问题是,没有开放数据集,另外就是文本生产类的问题,也不知道是如何评测的,评测方法是什么。
毕竟选择题是有很明确的标注答案,写作文就是见仁见智。

image.png
image.png

GAOKAO-Bench

题目类型 题目数量 数量占比
选择题 1781 63.36%
填空题 218 7.76%
解答题 812 28.89%
题目总数 2811 100%


包含了解答题这样的类型,需要人工评测,这个目前依旧是aigc领域最大的评测问题,对于写作生产类的任务,如何来评测。
https://github.com/OpenLMLab/GAOKAO-Bench/tree/main

2、常见的应用数据集

GSM-8K

https://github.com/openai/grade-school-math#grade-school-math
GSM8K consists of 8.5K high quality grade school math problems created by human problem writers.
高质量的数学题目,感觉还挺难的,openai使用的评测集合。

HumanEval数据集

包括164个人工手写的编程问题,其中每个编程问题包括函数头、docstrings、函数体和几个unittests。HumanEval中的编程问题可以用来评估语言理解能力、推理能力、算法能力和简单的数学能力。
整个设计是标准数答案,设定通过的checkpoint。aigc类的task是不是可以借鉴这样的思路去评测。


image.png

MBPP数据集

包含974个编程任务,人给出所需程序的描述,引导模型生成正确的代码。
与HumanEval不一样的是,H主要是通过docString,而MBPP是通过description来生产,更加接近自然语言的instruction。

MedQA_USMLE

https://github.com/jind11/MedQA
医疗领域的专业大模型
依旧是选择题的模式,因为好评价,而问答提的模式,需要依赖人工评测。

JEC-QA

中国司法考试数据集,主要也是多选选择题。

百川用到的这些评测数据集。
对于AIGC类的任务,感觉可能代码评测类效果好的模型,会比较有优势。


image.png
上一篇 下一篇

猜你喜欢

热点阅读