撰文|Jeff Dean
编译|机器之心
编辑|杜伟、陈萍
自从计算机诞生之初,人类就梦想着能够创造出会思考的机器。1956 年,在达特茅斯学院组织的一软件商店下载个研讨会上,约翰 麦卡锡提出人工智能这个概念,一群数学家和科学家聚集在一起寻找如何让机器使用语言,形成抽象理解和概念以解决现存的各种问题。当时的研讨会参与者乐观软件开发地认为,在几个月的时间里这些问题能取得真正的进展。
1956 年达特茅斯人工智能会议的参与者:马文 明斯基、克劳德 香软件商店农 、雷 所罗门诺夫和其他科学家。摄自:Margaret Minsky
事实证明,预留几个月的时间安排过于乐观。在接下来的 50 年里效率的拼音,创建人工智能系统的各种方法开始流行,包括基于逻辑的系统、基于规则的专家系统和神经网络,但后来又变得过时。
直到 2011 年左右,得益于深度学习中神经网络的复兴,人工智能才开始进入发展的关键阶段,并取得了巨大进步。这些技术的进步有助于提高计算机看、效率是什么意思听和理解周围世界的能力,使得人工智能在科学以及人类探索的其他领域取得巨大进步。这其中有哪些原因?
近日,谷歌大牛 Jeff Dean 发表的《 A Golden Decade of Deep Learning: Computing Systems &aGitHubmp; Applications 》一文对此做了分析,文章重谷歌play点关注三个方面:促成AI进步的计算硬件和软件系统python怎么读;过去十年在机器学习领域一些令人兴奋的应用示例;如何创建更强大的机器学习系统,以真正实现创建智能机器的目标。
Jeff Dean 的这篇文章发表在了美国文理学会会刊 Ddalus 的 AI 与社会(AI & Society)特刊上。
1
人工智能硬件和软件的进步
人工智能的硬件和软件:深度学习通过组合不同的线性代数(例如python可以做什么工作矩阵乘法、向量点积以及类似操作)进行运算效率集,但这种运算方式会受到限制,因此我们可以构建专github中文官网网页用计算机或加速器芯片来进行处理,相比于必须github汤姆运行更广泛种类算谷歌法的通用 CPU效率是什么意思,这种专用化的加速器芯片能带来新的计算效率和设计选择。
早在 2000 年代初期,python可以做什么工作就有少数研究者开始探索使用 GPU 来实现深度学github直播平台永久回家习算法。到了 2004 年,计算机科学家 Kyoung-Su Oh 和 Keechul谷歌三件套 Jung 展示了使用 GPU 把神经网络算法的速度提升了近 20 倍。2008 年,在某些无监督学习算软件开发法中,计算机科github中文官网网页学家 Rajat Raina 及其同事对比了使用基于 GPU效率的英文 与 CPU 的最佳实现,其中 GPU 速度提升可达 72.6 倍。
随着计算硬件的改谷歌进,深度学习开始在图软件开发像识别、语音识别、语言理解等方面取得显著进步。为了构建谷歌地图专用硬件,深度学习算python123法有python是什么意思两个非常好的特性:python是什么意思首先,它们对精度的降低非常宽容;其次,深度学习算github开放私库法所需的计算几乎完全由密集矩阵或向量上的不同线性代数运算序列组成。
为了使深度学习和计算变得更容易,研究人员开发了软件框架,如今,开源框架帮助大量的研究人员、工程师等推进深度学习研究,并将深软件工程师度学习应用到更广泛的领域。
早期的一些框架包括 Torch、Theano、DistBelief谷歌账号 、Ca谷歌地图ffe 等,还有谷歌在 2015 年开源的 TensorFlow效率高发票查验,它是一个允Python许表达机器学习计算的框架,并结合了 Theano 和 DistBelief 等早期框架的想法。目前为止,TensorFlow 已被下载超过 5000 万次,是世界上最受欢迎的开源软件包之一。
Tensor效率公式Flow 发布一年后,PyTorch 于 2016 年发布,它使用 Python 可以轻松表达各种研究思想而受到研究人员的欢迎。JAX 于 2018 年发布,这是一个流行的面向 Python 的开源库,github中文社区结合了复杂的谷歌浏览器自动微分和底层 XLA 编译器,Tensor谷歌商店Flow 也使用 XLA 来有效地将机器学习计github开放私库算映射到各种不同类型的硬件上。
TensorFlow 和 PyTo效率公式rch软件库 等开源机器学习库和工具的重要性怎么强调都不为过,它们允许研究人github中文社区员可以快速尝试想法。随着世界各地的研究人员和工程师更轻松地在彼此的工作基础上进行构建,整个领域的进展速度将加快!
2
研究成果激增
研究不断取得进步,面向 ML 硬件(GPU、TPU 等)的计算能力不断增强,开源机器学习工具(TensorFlow、PyTorch 等)被广泛采用,这一系列进展使得机器学习及其应用领域的研究成果急剧增加。
其中一个效率计算公式强有力的指标是发布到 arXiv 上关于机器学习领域的论文数量。2018 年谷歌浏览器,apython怎么读rXiv 发布的论文预印本数量是 2009 年的 32 倍以上(每两年增长一倍以上)。
通过与气候科学和医疗保健等关键领域的专家合作,机器学习研究人员正在帮助解决对社python123平台登录会有益、促进人类进步的重要问题。可以说,我们生活在一个激动人心的时代。
3
科学python基础教程和工程应效率公式用激增
计算能力的变革性增长、机器学习软硬件的进步以及机器学习研究效率符号成果的增加,促进了机器学习应用在科学和工程领域的激增。通过与效率是什么意思气候科学和医疗健康等关键领域的合作,机器学习研究人员正在帮助解决对社会有益并促进人类发展的重要问题。这些科学和工程领域包括:
- 神经科学
- 分子生物学
- 医疗健康
- 天气、环境和气候挑战
- 机器人
- 可访问性
- 个性化学习
- 计算效率高发票查验机辅助的创造性
- 重要的构软件工程师建块(blocks)
- Transformers
- 计算机系统的机器学习
每个细分的详细内容请参考原文。
4
机器学习的未来
ML 研究社区正在出现一些有趣的研究方向,如果将它们结合起来可能会更加有趣。
首先,研究稀疏激活模型。 比如稀疏门控专家混合模型(Sparsely-Gated MoE),展示了如何构建非常大容量的模型,其中对于任何给定的实例(如 2048 个专家中的两至三个),只有一效率是什么意思部分模型被「激活(activated)」。
其次,研究自动化机器学习(AutoML)。 其中神经架构搜索(NAS)或进化架构搜索(EAS)等技术可以自动学习 M谷歌账号L 模型或组件的高效结构或其他方面,以优化给定任务的准确率。AutoML 通常涉及运行很多自动化实验,每个实验都可能包含巨量计算。
最后,以几个到几十个相关任务的适当规模进行多任务训练,或者从针对相关任务的python123平台登录大量数据训练的模型中迁移学习,然谷歌浏览器后针对谷歌新任务在少量数据上进行微调,这些方式已被证明在解决各类问github直播平台永久回家题时都非常有效。
一个非github官网常有趣的研究方向是把以上三个趋势结合起来,在大规模 ML 加速器硬件上运行一个系统。目标是训练一个可以执行数千乃至数百个任务的单一模型。
这种模型可能由很多不同结构的组件组成,实例(exampl效率e)之间的数据流在逐实例的基础上是相对动态的。模型可能会使用稀疏门控专家混合和学习路由等技术以生成一软件工程个非常大容量的模型,但其中一个任务或实例仅稀疏地激活系统中总组件的一小部分。
下图描述了一个多任务、稀疏激活的机器学习模型。
每个组件本身可能正在运行一些类 AutoML 的架构搜索,以使组件的结构适应路由到它的数据类型。新的任务可以利用在其他任务上训练的组件,只要它有用就行。
Jeff Dean 希望通过非常大规模的多任务python保留字学习、共享组件和学习路由,模型可以迅速地以高准确率来完成新任务,即使每个新任务的新实例相对较少。原因在于,模型能够利用它效率公式在完成其他相关任务时已经获得的专业知识和软件工程师内部表征。
构建一个能够处理数百万任务并学习自动完成新任务的单一机器python编程学习系统是人工智能和计算机系统工程领域真正效率公式面临的巨大挑github官网登陆入口战。这需要机器学习算谷歌账号法、负责任的 AI(如公平性和可解释性)、分布式系统和计算机架软件工程师构等很多领域python安装教程的专业知识github中文官网网页,效率符号从而通过构建一个能够泛化的以在机器学习所有应用领域中独立解决新任务的系统,来推动人工智能领域的发展。
5
负责任的 AI 开发
虽然 AI 有能力在人们日常生活的方方面面提供帮助,但所有研究人员和从github下载业人员应确保以负责任的方式开发相关方法,效率是什么意思仔细审查偏见、公平性、隐私问题以及其他关于 AI 工具如何运作并影响他人的社会因素,并努力以适当的方式解决所有这些问题。
制定一套明确原则来指导负责任的 AI 发展也很重要。2018 年谷歌翻译,谷歌发布了一套 AI 准则,用于指导企业与 AI 相关的工作和使用。这套 AI 准则列出了需要考虑的python保留字重要领域,包括机器学习系统中的偏见、安谷歌地图全、公平、问github官网登陆入口责、透明效率集性和隐私。
近年来,其他机构和政府也纷纷效仿这一模式,发布了自己的 AI 使用准则。Jeff Dean 希GitHub望这种趋势能够延续下去,直到它不再是一种趋势,而是成为所效率的英文有机器学习研究和开发中遵循的标准。
6
Jeff Dean 对未来的展望
2010 年代的确是深度学习研究和取得进展的黄金十年。1956 年达特茅斯人工智能研讨会上提出的一些最困难的问题在这python123平台登录十年取得了长足进步。机器能python可以做什么工作够以效率的拼音早期研究人员软件工程希望的方式看到、听到和理解语言。github永久回家地址
核心领域的成功促使很多科学领域迎来重大进展,不仅智能手机更加智能谷歌,而且随着人们继续创建更复杂、更强大且对谷歌空间日常生活有帮助的深度学习模型,未来有了更效率集多的github汤姆可能性。得益于强大机器学习系统提供的帮助,人们将在未来变得更有创造力和拥有更强的能力。
(本译文经授权后python可以做什么工作发布。原文链接:
www.amacad.org/publicati软件工程专业on…
欢迎下载体验 OneFlowpython保留字 v0.7.0 最新版本: github.com/Oneflow-I效率意识方面存在的问题nc…