ICLR25吐槽大赏
原标题:ICLR审稿集体搞抽象!评审结果写半句,还有的求ta也不审,网友:科研人自己的春晚
文章来源:量子位
内容字数:6232字
ICLR 2025讨论阶段总结
今天,ICLR 2025的讨论阶段已结束,回顾过去14天的讨论,确实充满了戏剧性。许多作者在社交媒体上表达了对评审过程的无奈,甚至出现了一些奇葩的评审现象。
评审质量引发争议
例如,UCSB的博士生Jiachen Li提到他收到的评审内容让人担忧,有评审甚至没有说完就结束了。ICLR 2025的论文提交数量达到了11000篇,创下新高,为了提高审稿质量,会议引入了多个AI大模型作为评审助手。然而,这并没有解决所有问题。
评分体系的异常现象
今年ICLR出现了一篇由四位审稿人同时打出10分的论文,而反观一些其他论文,则有审稿人给出全1分的极端评分。比如,某篇论文的审稿人质疑其写作质量,甚至询问是否由人类作者撰写。作者对此进行了详细的反驳,但仍遭遇了评审的冷处理。
审稿人回应的缺失
在讨论阶段,许多作者发现他们的审稿人对问题的回复非常缓慢,甚至有些审稿人完全没有回应,这让作者们感到失望和无奈。ICLR的讨论阶段本应是一个积极互动的平台,但却变得像是在乞讨一般,作者们不得不频繁催促审稿人。
审稿数量与质量的矛盾
面对如此庞大的提交数量,ICLR的审稿人数量也随之增加,但并不是所有审稿人都能胜任这一角色。许多参与者认为,审稿质量的下降与审稿人数量的激增密切相关。此外,ICLR2025的接收率和评分标准也引发了不少讨论,许多人担心这将影响整个AI研究领域的评估系统。
未来展望
面对这些挑战,一些参与者期待未来能出现更为强大的AI模型,能够有效地辅助审稿工作,提升评审质量。然而,目前尚不清楚何时能实现这一目标。
总的来说,ICLR 2025的讨论阶段反映了当前学术界在高量提交与评审质量之间的矛盾,值得大家深思。
联系作者
文章来源:量子位
作者微信:
作者简介:追踪人工智能新趋势,关注科技行业新突破