猴年一乐:深度学习八卦史
今天农历初九,虐狗的情人节刚过,相信2shou的朋友们虽然到岗了,但身心还是维持在慵懒的假期状态。没事,这次我们不谈严肃的技术话题,2shou给你们讲一段机器学习领域横跨三十年的科技圈八卦史。
前阵有个热门的新闻爆出来:谷歌的人工智能程序5:0完胜欧洲围棋冠军,堪称计算机攻陷了人类智慧硕果仅存的殿堂。其实这是一则老消息,发生时间在去年10月份,至于为什么这时才爆出来,据说是Facebook刚对外宣称要探索人工智能下围棋的领域,谷歌放个风让江湖上认清谁是真正的大佬。谷歌和Facebook的八卦容后再表,近两年人工智能领域发展飞速,全拜一种颠覆式思想的普及所赐:深度学习。而深度学习的普及,离不开一个人的功劳,这个号称黑暗中举着火炬的人,Yann Lecun,中文名燕乐存。
与大多数人的想象相反,深度学习的普及并不是一帆风顺春风得意水到渠成的,而燕乐存的故事更像是屌丝逆袭。深度学习所依附的神经网络技术起源于上世纪50年代,而燕乐存早在上世纪80年代就开始研究神经网络的相关技术,并且做出了远超过其他科学家的开创性贡献,也是把多层神经网络推进到深度学习概念的第一人。然而,受限于计算能力的落后,神经网络一直不是机器学习领域的主流,在学术界备受其他学派的打压,一度连文章都很难发表;在工程领域也没有体现出比其他算法更好的性能,长期被SVM吊打。
机器学习发展的历史中有一个最为出名的赌局,打赌的两方分别是SVM的发明人Vapnik和他在贝尔实验室的老大Jackel,赌约的内容是截止到2000年,人们是否会认为神经网络比SVM有更好的性能,而见证人正是那时还籍籍无名的燕乐存。显然SVM大获全胜。
曾经有位教授酒后吐真言,说了一句明白话,有人就有江湖,学术圈也不例外。机器学习的权威在2012年以前长期被其他学派所把持,大环境如此,燕乐存的团队必然过不上好日子,始终无法在顶级期刊上发表文章,自然吸引不到最聪明的那些学生。但是,三十年如一日,燕乐存从来没有随波逐流,丝毫不放弃对神经网络的研究,对深度学习的未来充满信心,对科研成果的要求精益求精(甚至发明了一种新的语言替代Python做数值计算),直到2012年发生的一个标志性事件,才彻底翻了身。
这个标志性的事件,现在回头看也似乎是偶然,燕乐存导师Hinton的几个博士生在图片分类的竞赛ImageNet上爆冷击败了谷歌团队,在机器学习的业界炸开了锅(这个谷歌团队可不一般,云集了Andrew Ng和Jeff Dean等一班神人)。而偶然的是,Hinton的博士生用的正是燕乐存赖以成名的卷积神经网络,但是燕乐存组的成员死活没办法复制Hinton的结果,专门开会反思为什么过去能没有取得这样的成绩。好比一棵树长年不开花,同根的另一棵树却意外长出了丰硕的果实。
至此深度学习垄断了所有人工智能的新闻报道,一下子燕乐存和他的学生们变得炙手可热,谷歌、Facebook、Twitter们重金收购他们建立的初创公司,只为购买这些深度学习专家的时间,陪互联网巨头的精英工程师们聊聊天,就这么诞生了10来个千万富翁。工业界的成功很快传到了学术界,惯于见风使舵的学者们一下子来了个180度大转变,现在是没有和深度学习沾上边的文章很难发表了。
而这时我们的主人公燕乐存又在做什么?除了主导Facebook的AI实验室,他不断呼吁学术界对深度学习保持冷静,批判深度学习的泡沫繁荣,这反差令人唏嘘。
从燕乐存的故事中我们能学习到什么?
- 要坚持自己所选择的,不要随波逐流。虽然工业界的趋势演变远远快于学术界,难得需要你坚持一个不被认可的想法长达三十年,但是许多伟大的idea初期也是不被人看好的,所以坚持自己的判断同样重要。
- 运气存在的基础是积累。风来了没有积累,只想着当风口上的猪也没用。深度学习浪潮兴起之时,获利最丰的只能是那些早就愿意在不被看好的神经网络领域深耕的学者们。
- 一个事情的成果,做到符合人们的期望是不够的;只要远远超出人们的期望,甚至让所有人都大跌眼镜,才能收获俯首称臣的认可。如果没有在ImageNet上大比分击败谷歌的明星团队,深度学习也就没有今天的声名大噪。
一篇八卦文,搏大家一乐而已,祝2shou的朋友们猴年快乐,开工大吉。