低质量的审稿是一直让研究者头疼的事情。大语言模型(LLMs)的流行给审稿质量带来转机了吗?
本文是对发表在计算经济学顶级会议ACM Conference on Economics and Computation (EC'24)上的论文Eliciting Informative Text Evaluations with Large Language Models的解读。该论文由北京大学前沿计算研究中心孔雨晴课题组与密歇根大学Grant Schoenenbeck课题组合作完成,共同一作为北京大学计算机学院博士生陆宇暄和密歇根大学博士生许晟伟。
- 论文链接:https://arxiv.org/abs/2405.15077
- 现场交流 Oral at EC’24:
Yale School of Management, New Haven, R