你好,游客 登录
背景:
阅读新闻

深度学习顶会“无冕之王”ICLR 2018评审结果出炉,斯坦福大学对抗训练研究得分第一

[日期:2017-12-06] 来源:新智元  作者: [字体: ]

【新智元导读】今年举办到第六届的ICLR会议被誉为深度学习顶会的“无冕之王”,在业内得到广泛认可。ICLR 采用Open Review 评审制度,ICLR 2018 共收到981篇有效稿件,截止2017年12月1日,已经有979篇论文收到至少一个评分,本文对评审结果进行了分析。目前,来自斯坦福大学探讨对抗训练的论文Certifiable Distributional Robustness with Principled Adversarial Training排名第一。

ICLR,全称为 International Conference on Learning Representations(国际学习表征会议),2013 年才刚刚成立了第一届。这个一年一度的会议虽然今年2017年办到第六届,已经被学术研究者们广泛认可,被认为“深度学习的顶级会议”。ICLR 采用Open Review 评审制度。Open Review 则非常不同,根据规定,所有提交的论文都会公开姓名等信息,并且接受所有同行的评价及提问(open peer review),任何学者都可或匿名或实名地评价论文。而在公开评审结束后,论文作者也能够对论文进行调整和修改。这几天ICLR 2018的审稿结果陆续出来了,让我们来看一下。

今年ICLR 2018共收到981篇有效稿件,截止2017年12月1日,已经有979篇论文收到至少一个评分。下图是平局分的分布,平均得分是5.24,中位得分是5.33 。

根据Karpathy之前的博客统计,ICLR2017共收到491篇论文提交,其中15篇被录用为oral论文占3%,183篇录用为Poster论文占37.3%。

论文评分方差

得分最高的十篇论文

| Ranking | Rating | Title |

  1. | 9.00 | Certifiable Distributional Robustness with Principled Adversarial Training |

  2. | 8.56 | On the Convergence of Adam and Beyond |

  3. | 8.33 | Emergence of grid-like representations by training recurrent neural networks toperform spatial localization |

  4. |8.33 | Multi-Scale Dense Networks for Resource Efficient Image Classification |

  5. | 8.09 | i-RevNet: Deep Invertible Networks |

  6. | 8.00 | Wasserstein Auto-Encoders |

  7. | 8.00 | Stabilizing Adversarial Nets with Prediction Methods |

  8. | 8.00 | Learning to Represent Programs with Graphs |

  9. | 8.00 | Boosting Dilated Convolutional Networks with Mixed Tensor Decompositions |

  10. | 8.00 | Continuous Adaptation via Meta-Learning in Nonstationary and CompetitiveEnvironments |

需要注意的是,目前并不是所有的评分都已经打出来了。现在得分最高的论文是 《Certifiable Distributional Robustness with Principled Adversarial Training》。另外一篇值得注意的论文是 《Progressive Growing of GANs forImproved Quality, Stability, and Variation 》得分为 8,8,1

附:得分Top 20论文(via Search ICLR 2018)

声明:

本文是受@plrz77 的ICLR2017的统计报告启发。

相关链接:

  • Search ICLR 2018

    http://search.iclr2018.smerity.com/

  • ICLR 2017Overview by @plrz77.

    https://prlz77.github.io/iclr2017-stats/

  • ICLR 2017 vs arxiv-sanity by @karpathy

    https://medium.com/@karpathy/iclr-2017-vs-arxiv-sanity-d1488ac5c131

收藏 推荐 打印 | 录入:Cstor | 阅读:
相关新闻      
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款