来自美国波士顿
更专业的论文润色机构
400-110-1310

咨询学术顾问:400-110-1310

服务时间:周一至周日,9:00-23:00

建议反馈/客户投诉:Editsprings@163.com

微信扫码二维码,添加学术顾问企业微信

您还可以点击在线咨询按钮,与人工客服直接对话,无需等待,立马接入。

在线咨询
欢迎关注“艾德思EditSprings”微信公众号

关注微信获取最新优惠和写作干货,
随时手机询价或咨询人工客服,更可实时掌握稿件
进度,加速稿件发表。

微信扫描二维码关注服务号

高水平AI论文来源主要是哪里?AI论文“高引用转化率”排名!

艾德思 | 2023/03/07 14:19:19  | 222 次浏览

高水平AI论文来源在哪里?根据最新的研究报告显示,AI论文“高引用转化率”排名如下:

哪些机构或国家(地区)发表的AI研究是最具影响力的?

为了弄清这个问题,美国ZetaAlpha平台统计了2020-2022三年之间全世界引用次数前100的AI论文,得出了一些很有意思的结果。

比如:

“当红明星”OpenAI,在论文引用次数最多的机构中名列第9。

然而,在论文发表数量最多的机构榜单上,根本找不到它的名字。

再比如,来自工业界的谷歌Meta微软总是在各项数据都名列前茅,然而总的看下来,学术界也并没有落后工业界。

此外,此前关于“中国AI研究的产出数量和质量可能超过美国”的观点在这份报告中似乎也被破解——

更多以及具体的数据,我们一个一个来看。

中国第二,OpenAI、DeepMind质量取胜

在具体分析之前,ZetaAlpha先统计出了2020-2022每年引用次数最多的论文,它们分别是:

2022年:

1、AlphaFoldProteinStructureDatabase:Massivelyexpandingthestructuralcoverageofprotein-sequencespacewithhigh-accuracymodels

引用次数:1372

机构:DeepMind

主题:利用AlphaFold增加蛋白质结构数据库的覆盖范围

2、ColabFold:makingproteinfoldingaccessibletoall

引用次数:1162

机构:多家合作完成

主题:一种开源且高效的蛋白质折叠模型

3、HierarchicalText-ConditionalImageGenerationwithCLIPLatents

引用次数:718

机构:OpenAI

主题:DALL·E2

4、AConvNetforthe2020s

引用次数:690

机构:Meta和UC伯克利大学

主题:在Transformer繁荣时期成功实现CNN现代化

5、PaLM:ScalingLanguageModelingwithPathways

引用次数:452

机构:谷歌

主题:谷歌的540B大型语言模型,一个新的MLOps范式,包含它的实现过程

2021年

1、HighlyaccurateproteinstructurepredictionwithAlphaFold

引用次数:8965

机构:DeepMind

主题:AlphaFold,利用深度学习进行蛋白质结构预测的巨大突破

2、SwinTransformer:HierarchicalVisionTransformerusingShiftedWindows

引用次数:4810

机构:微软

主题:ViT的强大变体

3、LearningTransferableVisualModelsFromNaturalLanguageSupervision

引用次数:3204

机构:OpenAI

主题:CLIP

4、OntheDangersofStochasticParrots:CanLanguageModelsBeTooBig?

引用次数:1266

机构:美国华盛顿,BlackinAI,TheAether

主题:著名的立场论文,对不断增长的语言模型的趋势持批评态度,强调了它们的局限性和危险

5、EmergingPropertiesinSelf-SupervisedVisionTransformers

引用次数:1219

机构:Meta

主题:DINO,揭示了图像的自监督如何导致Transformers中出现某种原型对象分割

2020年:

1、AnImageisWorth16x16Words:TransformersforImageRecognitionatScale

引用次数:11914

机构:谷歌

主题:第一个展示普通Transformer如何在计算机视觉领域中表现出色的作品

2、LanguageModelsareFew-ShotLearners

引用次数:8070

机构:OpenAI

主题:GPT-3

3、YOLOv4:OptimalSpeedandAccuracyofObjectDetection

引用次数:8014

机构:中国台湾“中研院”

主题:YOLOv4

4、ExploringtheLimitsofTransferLearningwithaUnifiedText-to-TextTransformer

引用次数:5906

机构:谷歌

主题:对Transformer的迁移学习进行了严格的研究,产生了著名的T5

5、Bootstrapyourownlatent:Anewapproachtoself-supervisedLearning

引用次数:2873

机构:DeepMind和帝国理工学院

主题:表明negative对于表征学习来说不是必需的

想必大家能从中找到不少“熟悉的面孔”。

接着,ZetaAlpha就对近三年的高引用论文背后的信息进行了一番分析。

首先是“每年论文引用次数进前100最多”的国家(地区)。

可以看到美国强势第一,中国与之的差距比较明显。

因此ZetaAlpha也认为,此前关于“中国在AI方面的研究可能超过美国”的说法至少在这项数据上是不成立的。

除此之外,新加坡和澳大利亚的排名也比较出人意料,分别为第五和第六。

“为了正确评估美国的主导地位”,ZetaAlpha又换了一种统计方式,计算引用次数前100的百分比。

当然,美国仍然第一,但可以看到三年间的占比有所下降。

英国是中美以外最大的竞争对手,不过英国表现突出的2022年,其实主要都是由DeepMind贡献的(占比69%)。

接下来是按组织或机构评比论文引用次数进前100最多的个体。

不太意外,谷歌与Meta微软分列前三,随后是UC伯克利、DeepMind和斯坦福。

OpenAI也收获了一个还不错的名次,第九。第十是MIT,第十一是清华大学。

尽管前三名选手都来自工业界,但是如果只按照机构类型来分,学术界和它的表现其实基本不相上下。

再接着,是过去三年各组织或机构发表的论文总数排名。

老大还是谷歌。第二名比较亮眼,是清华大学,随后是微软、CMU、MIT、斯坦福、UC伯克利、北京大学(第八)、Meta……

可以看到,前十里隶属于学术界的机构或组织占据了大片江山。

而我们找了半天,也没有看到OpenAI和DeepMind的名字——

显然它们发表的论文数量较少,主要靠质量取胜。

为了验证这一猜测,ZetaAlpha也做了一个高引论文转化率的排名。

果不其然,OpenAI摘得桂冠,DeepMind获得第三。

当然,Meta也不错,第四,引得LeCun都出来“现身说法”了一下:

我们Meta确实是更注重质量而不是数量的。

相比之下,高引多但发得更多的谷歌才排第九,差点出前10。

除了这几位,第二名也是亮点——它就是旷视。

以及国内还有商汤也上榜了。

上一篇:一个99%能发核心论文的方法介绍

下一篇:预警期刊一定会被踢出SCI吗?被预警的期刊需要撤稿吗?

特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。

凡注明来源为“EditSprings”的论文,如需转载,请注明来源EditSprings并附上论文链接。

最热论文