让人工智能大模型做K12学科试题,能赶上人类水平吗?|GoGo国模吧

  中新网北京5月21日电(中新财经记者 宋宇晟)记者了解到,近日,在北京市海淀区教委支持下,智源研究院联合与海淀区教师进修学校对齐学生测验方式,考察大模型与人类学生的学科水平差异,其中,答案不唯一的主观题,由海淀教师亲自评卷。

  评测发现,模型在综合学科能力上与海淀学生平均水平仍有差距,普遍存在文强理弱的情况,并且对图表的理解能力不足,大模型未来有很大的提升空间。

  北京市海淀区教师进修学校校长姚守梅解读大模型K12学科测试结果时指出,在语文、历史等人文学科的考试中,模型欠缺对文字背后的文化内涵以及家国情怀的理解。面对历史地理综合题时,模型并不能像人类考生一样有效识别学科属性。相较于简单的英语题,模型反而更擅长复杂的英语题。解理科题目时,模型会出现以超出年级知识范围外的方法解题的情况。当出现无法理解的考题时,模型依然存在明显的“幻觉”。

  此外,智源研究院还发布并解读国内外140余个开源和商业闭源的语言及多模态大模型全方位能力评测结果。

  评测结果显示,在中文语境下,国内头部语言模型的综合表现已接近国际一流水平,但存在能力发展不均衡的情况。在多模态理解图文问答任务上,开闭源模型平分秋色,国产模型表现突出。国产多模态模型在中文语境下的文生图能力与国际一流水平差距较小。多模态模型的文生视频能力上,对比各家公布的演示视频长度和质量,Sora有明显优势,其他开放评测的文生视频模型中,国产模型PixVerse表现优异。

  据介绍,本次用于评测的评测体系依托科技部“人工智能基础模型支撑平台与评测技术”和工信部“大模型公共服务平台”项目,智源研究院与10余家高校和机构联合开展大模型评测方法与工具研发。

  评测使用20余个数据集、超8万道考题,包括与合作单位共建和智源自建的多个评测数据集,如中文多模态多题型理解及推理评测数据集CMMU、中文语义评测数据集C-SEM、中文语言及认知主观评测集CLCC、面向复杂算法代码生成任务的评测集TACO、文生图主观评测集Image-gen、多语言文生图质量评测数据集MG18、文生视频模型主观评测集 CUC T2V prompts。其中,主观题4000余道,均来源于自建原创未公开并保持高频迭代的主观评测集,严格校准打分标准,采取多人独立匿名评分、严格质检与抽检相结合的管理机制,降低主观偏差的影响。此外,为了更准确地评测语言模型的各项能力,智源专门对所有客观数据集的子数据集进行了能力标签映射。(完)

  与中国香港、科威特、马来西亚分在同一小组的国足,虽然国足最终以7比0的比分战胜了中国香港与科威特的积分相同,却因净胜球的劣势被淘汰出局。  由于常年与各大高校合作,段本德对大学专业设计与需求的不匹配感触颇深。段本德认为,大学对有些已经供过于求的专业招人非常多,而对当前市场急需的专业设置的招人数量反而很少。

发布于:北京市
某一位同事被辞退明天就走了,今天给他分配任务不理我了,我错了吗?| 白玉兰奖《狂飙》剧组没红毯| 老人将孙子托付路边店主后病逝| 最牛逼的几位“二次元”大佬,你都认识谁