咨询热线:400-010-1233在线销售咨询
不方便打电话?让科腾联系您:

首页 > 公司动态 必威体育国际

人工智能研究之 深度学习技术及趋势报告(ppt)
发布时间:2019-05-09 00:32 作者:皇冠娱乐

  本文主要介绍了 Jeff Dean(谷歌)、 陆奇(微软)、Ilya Sutskever(Open AI) 在 The Scaled Machine Learning Conference 2016 上的演讲。Jeff Dean 做了名为《使用 TensorFlow 的大规模深度学习》的演讲报告。这次报告和今年 3 月份李世石与 AlphaGo「人机大战」期间 Jeff Dean 所做的《用于智能计算机系统的大规模深度学习》的报告有一些共同之处(详情参阅机器之心之前的解读重磅 谷歌大神Jeff Dean:大规模深度学习最新进展)。但是,这份新的演讲报告也仍有一些值得关注的新内容,尤其是在 TensorFlow 和谷歌 5 月份推出的张量处理单元(TPU)方面。陆奇在《微软的机器学习》演讲中第一次深入介绍了微软在FPGA方面的工作。来自 Open AI 的 Ilya Sutskever 介绍了该机构最新研究。详情可参阅 深度|OpenAI 首批研究成果聚焦无监督学习,生成模型如何高效的理解世界(附论文)。

  机器学习正朝着利用新硬件(比如 GPU和大型商业集群)的方向演进。大学和产业研究人员已经在使用这些新的计算平台多维扩展机器学习。2016年8月2日,斯坦福大学和 Matroid 公司举办了 The Scaled Machine Learning Conference 2016。

  会议旨在让在各种不同计算平台上运行机器学习算法的研究人员汇聚一堂,彼此交流,并鼓励算法设计人员互相帮助,在平台之间扩展、移植、交流不同想法。

  Jeff Dean,计算机科学家与软件工程师。Google大脑项目负责人,曾参与开发 BigTable、MapReduce 等产品。关于他有很多传说,比如有一天当Jeff Dean在优化一个功能时,他被迫发明了异步调用的API。这样的话这个功能可以在它被调用之前就可以返回结果了。

  如果不考虑使用深度学习,很有可能是你的pre-trained模型或API太旧

  “谷歌大脑”项目始于2011年,专注于发展最先进的神经网络。初期重点是:

  神经网络是一些从数据提炼的复杂函数,从一个空间输入转化为另一个空间的输出。

  深度网络模型与大脑运作原理相似,但并非直接模拟神经元如何工作,而是一种简单抽象的神经元网络。人工神经元不会产生脉冲,只会生成数值。神经元的函数就是通过非线性函数计算输入的加权乘以权重之和。

  最低层的神经元会查看像素的小块,更高层的神经元会看下层神经元输出再决定是否生产。Google目前有能力快速搭建和训练基于海量数据的模型,解决真实世界中的实际问题,在不同的平台(比如移动端、GPU、云端)部署生产模型。

  翻译团队写了一个App,使用计算机视觉来识别镜头中文字,再翻译成文本,最后在图片上覆盖翻译好的文字。模型足够小可以在所有设备上运行。

  我们输入数据、权重、误差以及标签,在不同节点进行不同的运算。Tensor 意味着N维数组,1 维时就是向量,2 维时就是矩阵;用图像可以可以用三维张量(行、列、颜色)表示更高维的数据流;Flow(流)意味着基于数据流图的计算。有许多运算(图中的节点)应用在数据流上。张量从图象的一端流动到另一端,这就是“TensorFlow”。“边”代表张量(数据),节点代表运算处理。

  深度学习的使用将会继续增长和加速,将跨越来越多的领域,解决越来越多的问题:机器人、自动驾驶汽车、医疗保健、视频理解、对话系统、个人助理……

  深度神经网络正在语音、视觉、语言、搜索、机器人等领域的理解问题上大步向前。

  如果你还没考虑如何使用深度神经网络解决你的视觉或理解问题,你也差不多应该开始了。

  2008 年必应地图发布——回家的最佳路线 年必应搜索发布——哪个 URL 是最相关的?

  内建支持列表数据与文本的统计函数、数据摄取、转换、特征生成/选择、训练、得分,从而进行分类、聚类、推荐、异常点检测。

  用于文本处理、关键语句提取、语言检测、n-gram 生成、LDA、压缩特征哈希(compressed feature hash)、基于统计异常点检测的模块。

  搜索:必应搜索 API、必应图片搜索 API、必应视频搜索 API、必应新闻搜索 API、必应自动建议 API

  CNTK 是微软开源的、跨平台的工具包,可用于学习和评估特别是深度神经网络这样的模型。

  CNTK 可通过将简单的建筑模块组合进复杂的计算网络而表达任意神经网络,支持常见的网络类型和应用。

  支持许多类型的网络,例如,前馈 DNN、RNN、CNN、LSTM、DSSM、序列到序列

  大约减少 70%-80% 的代码:相对于 Petuum、Parameter Server 这样的机器学习系统;用于推荐系统的矩阵因子分解;用于主题建模的隐狄利克雷分布

  Yann LeCun:在我看来最重要的(最近研究进展中)是对抗式训练(也叫生成对抗式网络,缩写为 GAN)——来自 Quora Q&A

  1.深度生成图像模型使用一个对抗性网络的拉普拉斯金字塔(Laplacian pyramid)。

  只要潜变量是连续的时候,Kingma 和 Welling 的参数化技巧修复了这个问题

      必威体育,必威体育app << 返回

         

必威体育娱乐官网

  • 联系电话:   400-010-1233
  • 地 址:       广州市天河区黄埔大道西平云路163号 广电科技大厦803-804、12楼
  • 传 真:     (8620)3835 2000
关于必威体育 | 联系必威体育 | 责任申明 | 网站地图 | 人才招聘 | 友情链接
Copyright © 2010 Guangzhou Ke Teng Information Technology Co. Ltd.All Rights Reserved. 粤ICP备09191042号