发布时间:2023-04-24 23:47:11 来源:本站 作者:admin
一项针对教育机构的全球研究发现,与 ChatGPT 相比,会计专业学生正确回答考试问题的能力要强得多。
该研究由美国会计协会 (AAA) 进行,通过向 ChatGPT 提供来自全球 187 家机构的 25,000 多个评估问题并将结果与会计专业学生的表现交叉参考,评估了 ChatGPT 在会计特定内容上的表现。
在所有评估中,包括审计、财务会计、管理会计和税务等主题,学生的平均得分为 76.7%,而 ChatGPT 得分仅为 47.4%。
该研究总结道:“与特定会计环境中的人类表现相比,这项研究提供了关于人工智能当前能力的重要见解。” “它突出了在一般材料上训练的 AI 聊天机器人的局限性。”
会计技术人员协会的技术官员 Emma Rawson 认为,研究结果说明了会计考试所需的细微差别,虽然人工智能聊天机器人拥有在考试中表现良好的知识,但它们缺乏实际应用 出类拔萃的技能。
“我认为结果非常有希望,并且说明了专业考试的稳健性。 一份写得很好的试题要求考生不仅要重复规则或引用立法和指导,还要将他们的知识应用于具体的事实和情况,并找出潜在的问题。”
人类与人工智能辩论“多方面”
但是,虽然人类总体上比 Chat GPT 表现更好,但也有几个例外。 例如,聊天机器人在 11.3% 的评估中超过了学生的平均水平。
除了是非题和多项选择题外,Chat GPT 在某些主题领域(如审计)的表现也优于学生。 相比之下,它在回答简答题和需要锻炼的问题时表现不佳。
这与 Rawson 的观点相吻合,即在许多学科中“人脑优于人工智能”。
“就我个人所见,Chat GPT 也可能非常擅长得出结论,但不一定会像你期望的强大候选人那样详细地阐述他们的推理,”她说。
根据这项研究,结果的范围还表明,正在进行的人类与聊天机器人之间的争论是“多方面的”,而且聊天机器人显然可以“在某些主题领域接近人类的平均表现”。