新智元引荐
来历:学术头条
作者:学术青
修改:元子
【新智元导读】NeurIPS被认为是神经核算方面最好的会议之一。跟着近几年深度学习的兴起,NeurIPS不只成为了学术界的新星,也引起了工业界的高度重视,注册人数从数年前的几百人跃升到本年的近万人。经过对NeurIPS近十年接纳论文引用量的核算分析,本文评选出了NeurIPS高引学者TOP100榜单,现在戳右边链接上新智元小程序了解更多!
12月8日,期待已久的NeurIPS2019在加拿大温哥华正式拉开帷幕。
作为机器学习范畴最重要的顶会,NeurIPS一向有着很强的影响力和排名,被认为是神经核算方面最好的会议之一。
跟着近几年深度学习的兴起,NeurIPS不只成为了学术界的新星,也引起了工业界的高度重视,注册人数从数年前的几百人跃升到本年的近万人。
依据AMiner数据渠道的核算分析,NeurIPS的H5指数为149,10H值为34641,在人工智能方向会议中排名第二。
经过对NeurIPS近十年接纳论文引用量的核算分析,咱们评选出了NeurIPS高引学者TOP100榜单。
这100位学者,他们都是机器学习范畴的顶尖人物,不论是在学术界仍是工业界,都取得了令人瞩目的作用。
在这100位学者中,谷歌+DeepMind就占有了五分之一,形成了肯定的霸主位置,8人来自Facebook,7人来自加州大学伯克利分校。一同,斯坦福大学5人,麻省理工学院4人,OpenAI 4人,纽约大学、蒙特利尔大学都有3人上榜。
他们中约有16位华人学者上榜。比方前百度首席科学家吴恩达、核算机视觉大神何恺明;但是在中国大陆任职的却仅有几人,比方商汤科技的代季峰,旷视科技的孙剑,Momenta的任少卿等。
NeurIPS的明星学者
下面就来看看NeurIPS高引学者榜单中的Top10都有哪些大牛?
包办高引学者榜单前三甲的正是“神经网络之父” Geoffrey Hinton与他的高徒Ilya Sutskever、Alex Krizhevsky。
排在高引学者榜单第二位的Geoffrey Hinton,是深度学习的权威,被人们称为“人工智能教父”,他的姓名在当今的人工智能研讨界可谓是如雷贯耳。他曾发明晰玻尔兹曼机(Boltzmann machine),也首先将反向传达(Backpropagation)运用于多层神经网络;不只如此,他还有 Yann LeCun 和 Ilya Sutskever 等大牛级的学生。
Hinton在剑桥大学取得实验心理学学士学位,在爱丁堡大学取得人工智能博士学位。现任Google副总裁兼工程研讨员,一同在多伦多大学教书育人,也是VectorInstitute首席科学参谋。在2012年,Hinton还取得了加拿大基廉奖(Killam Prizes,有“加拿大诺贝尔奖”之称的国家最高科学奖)。
Hinton教授是机器学习的开创者,使得核算机能够独立想出程序、自己处理问题。特别重要的是,他还从中拓荒了机器学习的一个子范畴,即所谓的“深度学习”,也便是让那些机器像一个踉跄学步的孩子相同,仿照大脑的神经网络方式进行学习。他将神经网络带入到研讨与运用的热潮,将“深度学习”从边际课题变成了谷歌等互联网巨子仰赖的中心技能。
Hinton自NeurIPS兴办以来的三十多年间,共宣布了60篇论文,简直每年都有作用产出。而在2009年至2019年间,Hinton在NeurIPS共宣布了16篇论文,引用量达47482次。
正可谓青出于蓝而胜于蓝, 排在第一的Ilya Sutskever不只是Hinton的博士生,仍是吴恩达的博后,他曾是谷歌的尖端人工智能专家,后来兴办了人工智能非盈利公司——OpenAI。
Sutskever的H-index值为56,在2015 年他被麻省理工学院技能谈论评为Visionaries 类别「35 岁以下立异者」。
十年间,他虽只在NeurIPS宣布了11篇文章,但引用量高达67457次,坐落高引学者榜单首位。
对核算机十分痴迷的Sutskever本科就读于多伦多大学。在大学期间,他遇到了Hinton教授。Hinton 给了他一个研讨项目:改进随机街坊嵌入算法。该项目正是他们协作的开端,接下来Sutskever水到渠成地参加了Hinton的小组攻读博士学位。
2012年结业后,Sutskever在斯坦福大学跟从吴恩达教授读了两个月的博士后。然后他回到了多伦多大学并参加了Hinton创建的研讨公司 DNNResearch。四个月后,Google 收买了 DNNResearch,而Sutskever至此正式参加Google Brain 。
在谷歌的两年间, Sutskever曾参加过 Google 开源库,开发了深度学习结构TensorFlow。他还帮忙DeepMind开发了划时代的围棋人工智能 AlphaGo,而关于AlphaGo 的论文于2016 年在Nature上宣布,Sutskever 是合著者之一。
2015年12月,Sutskever脱离谷歌,和Greg Brockman(现为 OpenAI 首席技能官)一同创建了 OpenAI。OpenAI 的方针是期望向所有人敞开人工智能技能,在曩昔的几年间OpenAI取得了许多惊人的作用。Sutskever则一向站在人工智能革新的最前沿,和他的团队一同推进完成强人工智能的终极顶峰。
排在榜单第三位的Alex Krizhevsky,相同作为Hinton的博士生,Alex好像显得更为低沉,网上也鲜有他的材料。
2012 年,在Hinton的指导下,Alex Krizhevsky和Sutskever 协作开发了 轰动一时的AlexNet。这篇题为《ImageNet Classification with Deep Convolutional Neural Networks》的论文,引用量高达44218次。这也是Alex 在NeurIPS宣布的仅有论文。
AlexNet以一种新颖的神经网络架构在NeurIPS露脸,包括五个卷积层和三个全衔接层。这篇论文被广泛认为是一项真实的开创性作业,由于它初次证明晰在GPU上练习的深度神经网络能够将图画识别使命提升到一个新的水平。
AlexNet网络对神经网络的开展产生了很重要的影响,之后的ImageNet冠军全都采用了卷积神经网络结构,使得CNN架构成为图画分类的中心模型,并由此敞开了深度学习新一波浪潮,其运用的卷积+池化+全衔接的架构仍然是当时深度学习最首要的网络结构。
自那之后,Alex好像沉寂起来。他曾同Hinton教授和Sutskever 一同兴办了草创公司 DNNresearch,他们开发出了能够大幅改进方针辨识技能的处理方案。后来Alex和Sutskever一同参加了谷歌。
再后来,Alex参加了加拿大创业公司Dessa ,担任Dessa的首席机器学习架构师。而就在本年年初,Dessa开发了一个语音组成体系RealTalk,与以往根据语音输入学习人声的体系不同,它能够仅根据文本输入生成完美迫临真人的声响。
排在榜单第四位的是“人工智能三巨子”之一的Yoshua Bengio,他同Geoffrey Hinton、Yann LeCun同获2018年图灵奖。
Yoshua Bengio是人工智能自然语言处理范畴的前锋。Bengio,1964年出生于法国,成善于加拿大,现居蒙特利尔,在蒙特利尔大学(University of Montreal)核算机科学与运算系任教授。Bengio在麦吉尔大学取得核算机科学博士学位。他与Geoffrey Hinton、Yann LeCun一同被认为是20世纪90年代和21世纪初期推进深度学习的三个人。2016年10月,Bengio联合创建了一个坐落蒙特利尔的人工智能孵化器Element AI。
Bengio也是三人中最垂青学术朴实性的。在微软担任参谋的一同,他仍是CIFAR机器与大脑学习项目的联合主任,加拿大核算机科学与运筹学系的全职教授,也是蒙特利尔大学核算学习算法研讨主席。
在NeurIPS会议上,Bengio总共宣布了74篇论文,尤其在本年的会议上,有 Bengio署名的论文就有9篇。
在曩昔的十年间,他在NeurIPS共宣布了40篇文章,引用量达18714次。
其间引用量最高的是宣布于2014年,同他的博士生Ian Goodfellow合著的《Generative Adversarial Nets》一文,引用量达10618次,这篇文章提出了闻名的生成对立网络(GANs)。
它是一种能“教会”核算机担任人类作业的风趣办法。曩昔五年,GANs在图画生成范畴取得了重大突破,现在能够生成动物、景色以及人脸等高度传神的组成图画,充沛展现了“无监督学习”技能的潜力。
一同它在理论层面处理了机器学习技能长久以来的问题:怎么促进机器学习的练习作用向着人类期望的方向行进。2015年时,GANs技能还名不见经传,2016年就到达了无处不在的火爆程度,乃至被专家称为“机器学习范畴20年来最酷的主意”。
说到了GANs,那就必须得说Ian Goodfellow--“GANs之父”。他坐落高引学者榜单的第九位,十年间他在NeurIPS共宣布了10篇论文,总引用量达13480次。
Goodfellow是机器学习范畴备受重视的年青学者之一,本科与硕士就读于斯坦福大学,师从吴恩达,博士阶段则跟从Yoshua Bengio研讨机器学习。他最有目共睹的成便是在 2014 年 6 月提出了生成对立网络(GANs)。
结业后,Goodfellow参加Google,成为Google Brain研讨团队的一员。然后他脱离谷歌参加新建立的OpenAI研讨所,在2017年3月他又回到谷歌研讨院。就在本年4月,Ian Goodfellow参加苹果公司担任总监等级职务,在苹果公司领导一个「机器学习特别项目组」。
坐落高引学者榜单第五至第八位的学者,是来自谷歌的Greg Corrado、Jeffrey Dean、Kai Chen、Tomas Mikolov。
Greg Corrado、Jeffrey Dean十年间在NeurIPS各宣布了3篇文章,总引用量为17218次。Tomas Mikolov也宣布了3篇文章,总引用量为15407。Kai Chen发文两篇,总引用量为16139次。
他们与Ilya Sutskever于2013年一同宣布了《Distributed Representations of Words and Phrases and their Compositionality》一文,引用量达14087次。
这篇论文是对《Efficient Estimation of Word Representations in Vector Space》的弥补,介绍了运用Skip-gram模型和Hierarchical Softmax练习形式的练习办法,并弥补了Negative Sampling的练习形式代替Negative Sampling,取得更快的练习作用。论文还提出了对高频词进行二次抽样的办法,以及衡量短语的办法,学习短语的表明。
Greg Corrado是Google机器学习资深研讨科学家,首要研讨方向为人工智能、核算神经科学和可扩展机器学习,也是Google Brain项目的创始人之一。
谷歌人工智能大神Jeff Dean,是谷歌的首席架构师、谷歌研讨院的高档研讨员,也是谷歌的人工智能团队谷歌大脑(Google Brain)的担任人。身披华盛顿大学博士、美国工程院院士、ACM Fellow、清华大学AI研讨院核算机学科参谋、AAAS Fellow等声誉的Jeff Dean在谷歌担任过许多大型项目,支撑谷歌运转的超大规模核算结构MapReduce和机器学习的标志性软件TensorFlow便是在他的领导下开发的。
Tomas Mikolov曾在谷歌作业,现在是Facebook人工智能研讨实验室的科学家。他也是一位产出多篇高质量paper的学者,从RNNLM、Word2Vec再到最近盛行的FastText都与他休戚相关。
排在第十位的是核算机视觉大神、Facebook AI研讨科学家何恺明。他的研讨方向为核算机视觉和深度学习。十年间他在NeurIPS共宣布过3篇论文,总引用量为12605次。
最有名的一篇是宣布于2015年的《Faster R-CNN:Towards Real-Time Object Detection with Region Proposal Networks》一文,引用量达11093次。
在这份TOP100榜单中,还有更多机器学习范畴大神级人物的存在,比方机器学习之父、美国三院院士、伯克利教授Michael I.Jordan,苹果首任AI总监Ruslan Salakhutdinov等等,尽管咱们没有逐个写到,但并不能否定他们在机器学习范畴无人能及的位置。
本文授权转载自大众号:学术头条
新智元邀你2020勇闯AI之巅,岗位信息详见海报: