深度学习调研

感谢西山居数据分析师邓一文同学的调研,特此分享。

深度学习介绍

基本概念

深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据。

深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布是特征表示。

深度学习是包括神经网络、人工智能、图形化建模、最优化、模式识别和信息处理的交叉领域,它今天如此受欢迎有三个主要原因:

  1. 芯片处理性能的巨大提升(如:GPU计算)
  2. 用于训练的数据爆炸性增长
  3. 近年来,机器学习和信号/信息处理研究有了很大进展,这些使得深度学习方法可以利用复杂函数和非线性的复合函数来学习分布和分层的特征展示

核心思想

  1. 堆叠多层神经网络,上一层的输出作为下一层的输入,通过这种方式训练,使得输入与输出的差别尽可能小。
  2. 无监督学习用于每一层网络
  3. 每次用无监督学习只训练一层,将其训练结果作为其下一层的输入
  4. 用监督学习去调整所有层

历史发展

图灵在1950年的论文里,提出图灵试验的设想,即隔墙对话,你将不知道与你谈话的是人还是电脑,但半个多世纪过去了,人工智能的发展,远远没有达到图灵试验的标准。

2006年,加拿大多伦多教授Geoffrey Hinton和他的学生Ruslan Salakhutdinov在《科学》

上发表了一篇文章,开启了深度学习在学术界和工业界的浪潮。

自2006年以来,深度学习在学术界持续升温,美国、加拿大、欧洲相继成为此领域的科研重镇。2010年美国国防部先进研究项目局首次资助深度学习。

2011年,微软语音识别采用深度学习技术降低语音识别错误率20-30%,是该领域十多年来最大的突破性进展。Watson在《Jeopardy!》问答节目中完胜对手,随后,这个超级计算机被应用到了医疗等领域。现在沃森不仅能研究蛋白质结构,还能寻找某些药物的替代成分。除此之外,沃森还会自行学习大量文献,通过“假设自动生成”来完成诊断。美国最大的医疗保险公司Wellpoint预测,沃森甚至可以很大程度上帮助缩短辨别癌症的时间

2012 是深度学习研究和应用爆发的一年,深度学习被应用于著名生物制药公司黙克的分子药性预测问题, 从各类分子中学习发现那些可能成为药物的分子获得世界最好效果;谷歌的Google Brain 项目用16000 个处理器的服务器集群构建了一套超过10 亿个节点的具备自主学习能力的神经网络,能自动从输入的大量数据中归纳出概念体系,图片搜索、无人驾驶汽车和Google Glass 都将会从中受益。6月,Google公司的深度学习系统在识别物体的精确度上比上一代系统提高了一倍,并且大幅度削减了Android系统语音识别系统的错误率。百度引入深度学习以后,语音识别效果的提升超过了以往业界在过去15 年里所取得的成绩。12月,微软亚洲研究院展示了中英即时口译系统,错误率仅为7%,而且发音十分顺畅。

2013年,欧洲委员会发起模仿人脑的超级计算机项目,计划历时10 年投入16 亿美元,由全球80 个机构的超过200 名研究人员共同参与,希望在理解人类大脑工作方式上取得重大进展,并推动更多能力强大的新型计算机的研发,就资助力度,项目范围,和雄心而言,该项目堪比于大型强子对撞机项目。

2014年,发现硬件突破性技术—神经形态芯片,赋予计算机认知能力,可以探测和预测负责数据中的规律和模式,大大释放了机器学习软件的工作效率。

2015年,谷歌开源了一个名叫TensorFlow的机器学习平台,全球各地的开发者和爱好者都可以免费使用这个平台,作为谷歌第二代人工智能系统,TensorFlow的命名起源于该系统的运作原理,即复杂的数据结构(Tensor)将会被传输至人工智能神经网中进行分析和处理,这一过程是机器深度学习的核心部分。同年,微软亚洲研究院于将分布式机器学习工具包(DMTK)通过Github开源。IBM 宣布开源旗下机器学习平台SystemML,这个平台由 IBM 的 Almaden 实验室近 10年前开发。

2016年,人类在棋盘游戏上的最后一块保留地被机器攻陷:世界围棋大师在韩国首尔以1:4的成绩不敌Google DeepMind开发的人工智能程序AlphaGo,引起了世界各地人民的广泛关注和热议。同时更多的企业和机构开始在无人驾驶技术的研究和应用上崭露头角,这其中既包括谷歌这样的互联网和技术公司百度、Uber 和IBM 等,也有通用和本田等传统的汽车制造商,另外也还有特斯拉这样的新一代汽车公司;当然,MIT 和哈佛大学等学术研究重镇也都或多或少有自己的无人驾驶相关的研究项目。

巨头们的布局

AI人才之争

人工智能,作为一个典型的知识密集型行业,极大的依赖于技术和智力,除了资本以外,拼的就是人才,从下三个方面反映当前人工智能人才市场是有多火热。

  1. AI人才需求
  • 目前,全国人工智能研究方向的一流高校实验室总共也就二三十个,平均每个实验室每年能产生1.5名博士生,4名研究生,总数不足200人—这还不够10家公司去分,按照现在国内人工智能市场,就算再增加10倍的毕业生,市场也能吸收。
  • 阿里云iDST智能语音团队负责人初敏博士在一次活动中对外透露,她的团队在6个月时间里规模增长了一倍,但依旧无法满足业务快速发展的需要。“智能语音的爆发超出了我们的预期,作为领头羊,我们欢迎全世界的优秀人才加入”。
  1. AI人才市场

由于AI市场人才不饱和,导致科技公司将触手伸向学界,并和一些高校进行联合,在AI人才市场上,占得先机。

  • 学界:资深的学术领头人们早已在资本和技术验证两个巨大的诱饵下蠢蠢欲动、蓄势待发。以颜水成、山世光、李飞飞、邢波为代表的学界明星,相继步入市场的浪潮之中。
  • 工业界:巨头们前赴后继成立人工智能研究院,希望在版图再次划分前拔得头筹赢在起跑线上;而创业公司亦带着极强的行动力和使命感,接连跳入漩涡之中——很多后者正是从前者中生长离开。
  • 投资界:唯恐错过下一个崛起巨头的投资人们,一方面早已将赌注准备好,另一方面在尚未走向市场的领军人物身边守望着、撩拨着——深谙市场法则的投资人尤其明白,黎明之前赶路的人,夜幕仍未散去,前方尚未看清,把赌注压在他们身上的胜算是最大的。
  • 政府:铺就了酝酿这场热潮发酵的温房。他们希望通过人工智能的崛起为生产力带来转机,为市场带来乐观的助推剂,逐渐开放的政策推动着更多科研人员投入工业界,把知识技术转化为生产力。
  1. AI人才薪资

随着人工智能的崛起,AI人才薪资也水涨船高,以下是一些网上流传关于AI人才薪资方面的消息。

  • 2016年3月,创新工场CEO李开复从硅谷考察归来后分享他的见闻:“做深度学习的人工智能博士生,现在一毕业就能拿到200到300万美金的年收入的offer,这是有史以来没有发生过的。
  • 2016年以来,国内顶级实验室的优秀硕士毕业生年薪可达50万元以上;百度IDL今年更是以80万年薪招进清华的博士毕业生。
  • 一位约翰·霍普金斯大学(被业内认为是语音识别人才最顶尖摇篮之一)的博士生,给出了一个常规薪资的具体构成:“一般基本工资10万-14万美元,10%-15%的奖金,连续4年、每年2万美元的股票。”

全面布局

公司:IBM、Google、百度

重点研究AI核心算法基础,在应用层全面推进商用化进程。引领着深度学习在科技工业界的应用。

  • IBM:围绕Watson布局人工智能
  1. 医疗诊断:深度聚焦肿瘤领域、通过收购获取数据资料,通过合作扩展使用场景。
  2. 认知商业时代:医疗、水资源管理、保险诈骗、时尚、环境、并购等行业解决方案。
  3. 类脑芯片:类脑超级计算平台,世界首个人工纳米级的随机变相神经元。
  4. 量子计算:量子计算电路设计、量子计算平台。
  5. 数字顾问:云计算、虚拟助理、科学研究等。
  • Google:软硬结合,开源系统构建AI生态
  1. 搜索:从基于数据转向基于人工智能搜索
  2. 无人驾驶:推出第一款完全自动驾驶汽车,无人驾驶领域领导者
  3. 智能家居:建设智能家居生态系统,推出智能音箱
  4. 医疗领域:AI手术机器人、智能隐形眼镜、医疗诊断
  5. 开源深度学习框架TensorFlow。
  6. 联手NASA研发量子硬件,发布TPU进军芯片市场
  7. 围棋战胜人类9段棋手
  • 百度
  1. 无人驾驶:百度已经和安徽芜湖合作了一个无人车试点,计划为无人车划出一片专门的实验区。
  2. 百度人工机器人百小度:最强大脑战胜人类选手
  3. 百度云托管的分布式深度学习平台PaddlePaddle
  4. 语音识别:百度现在的准确率已经能达到97%,每天的语音识别请求的PV超过1亿。
  5. 图像识别:百度图像识别已经能够识别出用手机随手拍的照片内容
  6. 推出“人工智能解说员”,完成人机同台解说。
  • 微软
  1. 微软小娜:小娜可以在多设备上运行。她根据你的日常生活和工作养成的技巧,已经形成了一个高效的生态系统。
  2. 微软的Azure现在是世界上第一台AI超级计算机。
  3. 微软自己的CNTK是最快的分布式运算神经网络框架,也是开源的可扩展的深度学习工具包。
  4. 微软的平台Bot Framework,允许在新的应用程序中建立智能的工具包

社交应用

公司:Facebook、腾讯、微软、苹果

关注图像和语音的识别技术,希望打通图像、语音等人机交互接口,提高用户参与度,收集用户行为数据,从而进一步训练AI系统,最终打造出一个智能私人助理。

  • Facebook
  1. 人工智能助理:类似 Cortana、Google Now 和 Siri,但它会对接人工客服,为客户提供商品查询和购买等服务。
  2. 智能聊天机器人
  3. 图片识别:自动向盲人和视觉障碍用户用语音对屏幕中的图片进行描述
  • 腾讯
  1. 优图实验室:专注于图像处理、模式识别、机器学习、数据挖掘等领域开展技术研发和业务落地。
  2. 微信模式识别:对外提供的服务有微信语音识别、图像分析、音频指纹、微信语义客服机器人等

芯片研发

公司:英伟达、英特尔

主要是和一些科技巨头进行联合,开发更适合深度学习的GPU硬件。或者自行研发计算硬件

  • 英伟达
  1. 开发世界上首款单机箱深度学习计算机 DGX-1。
  2. 英伟达还推出了专门为深度学习计算优化的 Tesla GPU,已被多个公司用于自动驾驶系统当中。
  • 英特尔
  1. 人与机器的新交互:通过提供英特尔Curie模块、Edison计算平台、Cedar Trail芯片平台、RealSense实感技术以及凌动处理器等技术,英特尔希望把终端设备进一步的智能化
  2. 推出适用于超级计算领域的新一代至强融核处理器家族(Xeon Phi)

商业应用

公司:亚马逊、阿里

提供共性能计算云服务,开发智能家居设备,提高客户购物体验

  • 亚马逊
  1. 智能音箱Echo:通过语音来筛选商品目录
  2. 提供高性能GPU计算服务
  • 阿里
  1. 与飞利浦合作推出智能无线音箱“小飞”
  2. 提供高性能GPU计算服务

盈利策略

  1. 部署GPU云服务器

 

百度云:内测中,收费不明

腾讯云:内测中,收费不明

机型配置:

 

阿里云:已产品化

机型配置:

G4版配置:

  • CPU: Intel Xeon E5 v4 CPU 32物理核
  • GPU: Nvidia Tesla M40 x2
  • 单机峰值计算能力突破每秒16万亿次单精度浮点运算

G2版配置:

  • CPU: Intel Xeon E5 v2 CPU 16物理核
  • GPU: Nvidia Tesla K40 x2
  • 单机峰值计算能力可达每秒11万亿次单精度浮点运算

收费方式:

  1. 包年包月

价格单位:元/月

 

2、按量付费

价格单位:元/小时

 

亚马逊云:已产品化

机型配置

P2:适用于通用GPU计算应用程序

 

G2:针对图形密集型应用程序进行优化

 

F1:通过现场可编程阵列FPGA实现定制硬件加速

 

收费方式

中国大陆暂无

总结:

目前国内只有阿里暂时提供GPU云服务,但是价格过高,一年的花费和自己购买硬件搭建服务器没有多大优势,但是如果按需购买的话,还是比较划算的。因为深度学习不会一直需要GPU去做运算,只有在需要大规模训练的时候,GPU才能显示出它的优势。所以,选择按量付费会划算一点。国内其他云平台GPU云服务都处于内测阶段,需要申请,才有可能得到资格,不过这个时候的价格也是比较优惠的,但稳定性可能保证不了。综上,这次国内在GPU云服务上,阿里走在了前面。

  1. 开发人工智能应用,提供API接口,按次收费

 

阿里

  1. 智能语音交互
  2. 印刷文字识别

 

  1. 人脸识别

 

腾讯

  1. 万象优图
  2. 智能语音服务AAI
  3. 文智自然语言处理

百度

  1. 语音识别

 

  1. 人脸识别

 

  1. 文字识别

 

  1. 自然语言处理

 

  1. 黄反识别

 

  1. 将深度学习算法模块化,形成可视化操作工具,降低入门门槛

 

4、提供GPU硬件,研发深度学习一体机

总结:

目前,国内人工智能应用,主要集中在语音,图片,文字上面。BAT开发的人工智能应用大同小异,而且都提供API key。因现在这些产品都处于试用阶段,所以都是免费的。但看这个模式,是在产品成熟后,按调用API次数付费的。如果这个阶段成熟的话,可能会产生丰厚的利润,因为模型一旦成立,后期的维护成本基本很少。

深度学习框架比较

Caffe

库名称:Caffe

开发语言:C++

支持接口:C++/Python/Matlab

支持模型:CNN

数据结构名称:Blob

简介:

Caffe是一个清晰而高效的深度学习框架,作者是毕业于UC Berkeley的贾扬清博士,目前在FAIR(Facebook人工智能研究院)工作。Caffe是基于C++/CUDA架构,支持命令行、Python和MATLAB接口,可以在CPU和GPU直接无缝切换,同时支持多GPU,主要用在计算机视觉领域。

优点:

  1. 上手快,模型与相应优化都是以文本形式而非代码形式给出
  2. 速度快,能够运行最棒的模型与海量的数据
  3. 模块化,方便扩展到新的任务和设置上
  4. 开放性,社区提供了许多完整模型和训练好的参数,方便使用

缺点:

  1. 需要用C++/CUDA编写新的GPU层
  2. 不适合循环网络
  3. 用于大型网络时过于繁琐
  4. 不可扩展,有些不够精简

TensorFlow

库名称:TensorFlow

开发语言:C++/Python

支持接口:C++/Python/Go/Java

支持模型:CNN/RNN/LSTM

数据结构名称:tensor

简介:

在2015年11月9日,Google发布人工智能系统Tensorflow。这款系统是Google 的第二代机器学习系统,相较于DistBelief,TensorFlow具有更好的灵活性、可移动、易于使用,而且是完全开源的。这是目前github上最火的深度学习开源项目

优点:

  1. 社区活跃度高,文档清晰简洁
  2. 技术障碍基本扫清
  3. 支持多GPU
  4. 支持分布式训练
  5. 支持操作队列
  6. TensorBoard支持图形可视化:学习和调试新模型时,容易陷入迷惑,因此TensorBoard图形可视化非常有用
  7. 使用TensorBoard以交互方式记录日志,通过TensorBoard做日志记录也能这样做,比如学习速率、损失值、测试精度等。
  8. 模型检查点设置:一个模型训练一段时间后,需要停下来进行评估,然后从检查点重新加载,继续训练。
  9. 使用CUDNN优化GPU性能
  10. 有高质量的元框架,是扩展性更强
  11. Keras 封装TensorFlow 和Theano后端
  12. TensorFlow Slim是对图像模型来说不错的参考
  13. Scikit Flow 是 TensorFlow 的简化接口
  14. PrettyTensor提供类似张量(tensors)的对象,并有可链接的语法,可以构建某种类型的模型

缺点:

  1. RNN模型的优化仍有提升空间
  2. 数据训练目前还缺乏令人信服的示例

TensorFlow 文档和案例主要使用一些著名的学术数据集来阐述各种特性或功能。这是有一定道理的,但是,现实中的问题几乎不能简单替换这些数据集。

开发者在学习TensorFlow 时最困难的是,如何将现实中杂乱的数据抽象为模型能识别的各种张量(tensor),因此如果有一些令人信服的案例,具体展示如何完成抽象过程,会对开发者来说非常有帮助。遗憾的是,谷歌并没有提供更多的这方面的示例。尽管谷歌DeepMind团队发表了AlphaGo的论文,但是并没有公布如何将“棋局”抽象为模型输入张量的具体过程。

  1. TensorFlow独占GPU

在初始化时, TensorFlow 尝试去分配所有可用的GPU内存给自己。这是一把双刃剑,取决于你的情景。如果你开发一个模型,使用的是本地计算机上的 GPU,你可能会想分配一部分 GPU 到其他的事上。如果你在云计算环境下运行模型,那么你需要了解没有其他相互影响的代码

MXNet

库名称:MXNet

开发语言:C++/Python/Julia/Matlab/R/Scala

支持接口:C++/Python/Julia/Matlab/Java/R/Scala

支持模型:CNN/RNN/LSTM

数据结构名称:NDArray

简介:

MXNet诞生于学界,并不是亚马逊开发的开源平台,但现已成为它的御用系统。

它是一个多语言的机器学习资料库,旨在降低开发机器学习算法的门槛,尤其是对于深度神经网络而言。它支持卷积神经网络(CNN)以及 LSTMs( long short-term memory networks)。它通过把符号式编程(symbolic programming)和命令式编程(imperative programming)组合起来,以最大化效率和生产力。它的核心是一个 dependency scheduler,能同时进行符号式和命令式任务。这之上的图优化层(graph optimization layer)使得符号式程序执行快速、高效。MXNet 具有轻便和可移动的特点,在设计之初就考虑到了对多 GPU 、多个计算机以及不同计算平台的支持。从移动设备到分布式 GPU 集群,都可用于 MXNet。

优点:

  1. 轻量化,可移植性高
  2. 分布式并行计算
  3. 显存利用高效,并且可以灵活的运行在移动设备上
  4. 同时支持声明和命令式编程

缺点:

  1. 文档不够友好,增加入门难度
  2. 低级Tensor操作符很少,灵活性一般

Theano

库名称:Theano

开发语言:Python

支持接口:Python

支持模型:CNN/RNN

数据结构名称:Tensor

简介:

Theano是在BSD许可证下发布的一个开源项目,于2008年发布,是由LISA集团(现MILA)在加拿大魁北克的蒙特利尔大学(Yoshua Bengio主导)开发。
Theano使用符号计算,用起来简单方便,可以作为入门选择之一。用它可以很方便的将数学表达式通过theano表达出来。后续几乎所有的深度学习框架都借鉴了Theano的符号计算思想。

优点:

  1. 灵活性好,能很快的验证新的想法
  2. 基于Python封装能让使用者快速上手

缺点:

  1. 模型较大时编译时间较长
  2. 调试困难,往往需要推测才知道具体是哪里出了问题
  3. 在windows平台安装困难

CNTK

库名称:CNTK

开发语言:C++

支持接口:C++/Python/C#

支持模型:CNN/RNN/LSTM

数据结构名称:

简介:

CNTK最早是由微软一些想要更快更高效地做自己的研究的计算机科学家开发的。它很快就超越了语音领域并演变成了一个产品,包括一些领先的国际家电制造商和微软的旗舰产品组(flagship product groups)在内的客户依靠它来执行各种各样的深度学习任务。它可以轻松处理从相对较小到非常非常大等各种规模的数据集,既可以在一台笔记本上运行,也可以运行在数据中心中的一系列计算机上。它可以运行在使用传统 CPU 或 GPU 的计算机上;GPU 以前主要的用途是处理对图形要求较高的视频游戏,后来人们发现可以用它来非常高效地运行深度学习所需的算法。

优点:

  1. 完美兼容windows系统
  2. CNTK训练和评估深度学习算法比其他工具箱都要快
  3. 商用级别的稳定
  4. 兼容性,它允许你使用所有内置训练算法,或者使用自己编写的

缺点:

  1. 配置文件复杂
  2. CNTK对nlp的任务支持很不好,feedforward, seq2seq等都模块都不完备

PaddlePaddle

3、安装困难

库名称:PaddlePaddle

开发语言:C++

支持接口:C++/Python

支持模型:CNN/RNN/LSTM

数据结构名称:

简介:

PaddlePaddle的前身是百度于2013年自主研发的深度学习平台Paddle(Parallel Distributed Deep Learning,并行分布式深度学习),且一直为百度内部工程师研发使用。2016年9月1日百度世界大会上,百度首席科学家Andrew Ng(吴恩达)首次宣布将百度深度学习平台对外开放,命名PaddlePaddle。

优点:

  1. GPU代码质量高
  2. RNN设计非常好,设计干净,没有太多的抽象概念
  3. 与Spark进行耦合,处理速度快

缺点:

  1. 设计思路还处于第一代DL思路,有点过时
  2. 扩展性不强
  3. 在梯度计算上采用了传统的粗粒度

Keras

库名称:Keras

开发语言:Python

支持接口:Python

支持模型:CNN/RNN…

数据结构:

简介:

Keras是一个简约、高度模块化的神经网络库,通过Python封装了神经网络各类常见模块,包括CNN、RNN等,底层支持基于Theano和Tensorflow运行。利用Keras能快速地搭建模型,对初学者是个不错的选择。

优点:

  1. 简单易用,上手容易
  2. 支持的模型比较灵活,能较方便地搭建各类模型

缺点:

  1. 目前只支持单卡运算,对于大规模模型不适合
  2. 文档有些部分对初学者门槛较高,可能需要深入源码

Torch

库名称:Torch

开发语言:lua

支持接口:LuaJIT

支持模型:CNN/RNN

数据接口名称:Table/Tensor

简介:

Torch并没有跟随Python的潮流,它底层用C语言实现,用Lua对接口进行封装,被Facebook人工智能研究实验室应用和维护

优点:

  1. 对卷积网络的支持非常好
  2. Torch通过很多非官方的扩展支持大量的RNN,同时网络的定义方法也有很多种
  3. 运行在LuaJIT上,与C++、C#以及Java等工业语言相比速度较快,也不需额外编译

缺点:

  1. 对初学者缺乏规范的例子
  2. 需要先迈过Lua这个门槛,不过对于如果熟悉python,lua也能很快上手
  3. 需要LuaJIT的支持,虽然性能不错,但是集成却存在着较大的障碍

游戏应用场景

智能聊天机器人应用在游戏中

在游戏中,设立智能聊天机器人NPC,既能陪玩家解闷,还能给玩家进行游戏答疑。增强游戏的可玩性和玩家的交互性。

用AI自动提高游戏图像分辨率

在保持图像大小不变的基础上,使画质变的更清晰,减少磁盘里的图像内存。

案例:

  • Google  RAISR:快速、精确的超分辨率技术,它的效果能达到甚至超过现在的超分辨率解决方案,同时速度提升大约10至100倍,且能在普通的移动设备上运行。

 

  • Magic Pony:这家公司使用深度学习技术构建图形数据库和视频图像的增强处理,在相同大小的图片或视频中,显示更清晰,下图右边为处理后的显示效果。

 

自动生成游戏内容

深度学习生成模型可以用于创建无限丰富的程序性内容,例如动物群、角色对话、动画、音乐,也许还有游戏的故事线本身。让游戏成为一款具有无限内容的游戏。

附录(其他应用)

语言识别

  1. 实时语音翻译

微软的Skype能够将语音实时翻译成不同的语言

  1. 语音识别

计算机视觉

  1. 盲人看照片

Facebook开发的一个移动应用,可以让盲人或者视力障碍者像正常人一样浏览照片

  1. 目标识别

Moodstocks(已经被Google收购)推出的智能手机图像识别应用程序Moodstocks Notes,可通过照片识别书籍、CD、海报、传单和酒标等对象

  1. 照片定位

Google能够根据照片进行拍摄场景定位

  1. 脸部识别
  2. 黑白照片自动上色

将黑白照片自动转换成彩色

  1. 拍照自动微笑

SmileVector可以把一张照片的人,自动转换成微笑的表情的照片

机器人

  1. 自动驾驶
  2. 音乐作曲

可以基于不同的作曲家风格进行音乐组成

  1. 绘画

可以基于著名的艺术家绘画风格创建

  1. 玩电子游戏

Google DeepMind能够创建视频游戏系统,通过观看游戏学习如何玩得很好

  1. 仓库优化

一个深度学习系统,在仓库中用最佳的方式拿取和放置物品,这种系统明显快于传统的研究方法,并且效率更高

  1. 省电

Google正在使用DeepMind人工智能子公司的技术,以大幅节省其数据中心的电力功耗

  1. 整理货架

类似上面的仓库优化,亚马逊研究人员基于深度学习技术分析3D扫描,让机器人对物品进行整理

医学领域

  1. 肿瘤检测

在2013年BRATS测试数据集上的报结果表明,802,368参数网络比已发布的最先进的技术改进了超过30倍

  1. 皮肤评价和建议

使用深度学习来确定客户的“皮肤年龄”,确定问题领域,并提供旨在解决这些问题的产品方案

  1. 临床事件预测

一个RNN训练,8年时间从来自26万患者和14805名医生的EHR数据,该神经网络进行多标签预测(每次诊断或药物类别作为一个标签),该系统可以执行召回鉴别诊断率高达79%,明显高于基线

4 Responses to “深度学习调研”

  1. 衣皇后说道:

    很荣幸来访您的博客,留言只是证明我来过!

  2. hanjian说道:

    支持,只有支持才是访问博客的正确方式!

  3. Coco说道:

    分享很赞,可不可以进一步讨论一些一些问题的点,其次还有就是阿里DTPAI以及腾讯的Angel;其次我有在理顺整个ML平台的发展和更替的变化,洗完共有进一步沟通

发表评论

电子邮件地址不会被公开。 必填项已用*标注

您可以使用这些HTML标签和属性: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>