机器学习

如何理解深度学习中的卷积

作者:Tim Dettmers

译自Tim Dettmers的Understanding Convolution in Deep Learning。有太多的公开课、教程在反复传颂卷积神经网络的好,却都没有讲什么是“卷积”,似乎默认所有读者都有相关基础。这篇外文既友好又深入,所以翻译了过来。文章高级部分通过流体力学量子力学等解释卷积的做法在我看来有点激进,这些领域恐怕比卷积更深奥,所以只需简略看看即可。以下是正文:

卷积现在可能是深度学习中最重要的概念。正是靠着卷积和卷积神经网络,深度学习才超越了几乎其他所有的机器学习手段。但卷积为什么如此强大?它的原理是什么?在这篇博客中我将讲解卷积及相关概念,帮助你彻底地理解它。

网络上已经有不少博客讲解卷积和深度学习中的卷积,但我发现它们都一上来就加入了太多不必要的数学细节,艰深晦涩,不利于理解主旨。这篇博客虽然也有很多数学细节,但我会以可视化的方式一步步展示它们,确保每个人都可以理解。文章第一部分旨在帮助读者理解卷积的概念和深度学习中的卷积网络。第二部分引入了一些高级的概念,旨在帮助深度学习方向的研究者和高级玩家进一步加深对卷积的理解。

什么是卷积

整篇博客都会探讨这个问题,但先把握行文脉络会很有帮助。那么粗略来讲,什么是卷积呢?

人工智能和机器学习的新趋势

概要:人工智能在各产业中的超凡表现奠定了它对未来世界不可或缺的地位。
作者:Hardik Gohil
翻译:Gabrielle

人工智能在各产业中的超凡表现奠定了它对未来世界不可或缺的地位,比如制造业,医疗保健,建筑业,在线零售业等几乎各个行业都在利用人工智能技术融入物联网。不断演化的机器学习技术使每个企业都有望成为数据驱动的企业,都能利用云平台的机器学习技术使用人工智能应用程序。未来的企业将不必安装和维护机器学习系统,花很低的开销就能分析海量又复杂的数据,最终做出详细精准的分析和预测。

机器学习产业体现出了以下三个最新趋势:数据飞轮(Data Flywheels),算法经济(Algorithm Economy),和云托管智能(Cloud Hosted Intelligence)。未来每个应用程序都将运用开源算法和机器学习代码成为智能应用,那么这些趋势将给云产业,数据处理等数字化业务带来怎样的巨变呢?

数据飞轮- 未来的关键

数据将成为未来数字世界的决定因素。世界上的数据每18个月翻一番,而同时期数据储存费用也几乎下降一半,也就是说几年后可用数据将越来越多。

一个框架解决几乎所有机器学习问题

本文来自 CSDN博客专家aliceyangxi1987

上周一个叫 Abhishek Thakur 的数据科学家,在他的 Linkedin 发表了一篇文章 Approaching (Almost) Any Machine Learning Problem,介绍他建立的一个自动的机器学习框架,几乎可以解决任何机器学习问题,项目很快也会发布出来。这篇文章迅速火遍 Kaggle,他参加过100多个数据科学相关的竞赛,积累了很多宝贵的经验,看他很幽默地说“写这样的框架需要很多丰富的经验,不是每个人都有这样的经历,而很多人有宝贵的经验,但是他们不愿意分享,我呢恰好是又有一些经验,又愿意分享的人”。当然这篇文章也是受到争议的,很多人觉得并不全面。

人工智能诞生60周年 展望机器学习的未来发展

1952年,Arthur Samuel在IBM公司研发了一款西游跳棋程序,这个程序具有自学习能力,可以通过对大量棋局的分析逐渐辨识出每一棋局中的“好棋”与“坏棋”,从而不断提高机器的跳棋水平并很快下赢了Samuel自己。1956,也就是在60年前的达特茅斯人工智能会议上,Samuel介绍了自己的这项工作,并发明了“机器学习”一词。

在计算科学历史上,“机器学习”有着多种定义,普遍的观点认为“机器学习”就是计算机利用数据和“经验”来改善算法系统自身的性能。斯坦福大学对机器学习的定义是在没有明确编程指令的情况下,让计算机自行采取行动的科学。通过已有数据产生“学习算法”模型后,再应用到新的数据集上,从而对新的情况做出策略性判断,这就是所谓“预测”。可以说,机器学习是关于“学习算法”的科学,而人工智能则是研究开发具有智能的机器。

2016年是人工智能诞生60周年。在最近十年,随着大数据和云计算(大规模计算)的发展,机器学习进入了发展的黄金期。2016年12月17日,在2016机器智能前沿论坛上,中外专家探讨了机器学习的未来发展与展望。

机器学习进入发展黄金期

机器学习入门算法:从线性模型到神经网络

本文转载自机器之心
链接:http://jiqizhixin.com/article/2443

近段时间以来,我们频频听到「机器学习(machine learning)」这个词(通常在预测分析(predictive analysis)和人工智能(artificial intelligence)的上下文中)。几十年来,机器学习实际上已经变成了一门独立的领域。由于现代计算能力的进步,我们最近才能够真正大规模地利用机器学习。而实际上机器学习是如何工作的呢?答案很简单:算法(algorithm)。

机器学习是人工智能(artificial intelligence)的一种,其本质上讲,就是计算机可以在无需编程的情况下自己学习概念(concept)。这些计算机程序一旦接触新的数据,就将会改变它们的「思考」(或者输出)。为了实现机器学习,算法是必需的。算法被写入计算机并在其剖析数据时给与其需要遵循的规则。

机器学习算法经常被用于预测分析。在商业中,预测分析可以用于告诉企业未来最有可能发生什么。例如,使用预测分析算法,在线 T 恤零售商可以使用当前的数据来预测下个月他们将会售出多少 T 恤。

回归或分类

计算机程序学习执行一项任务后,通常会很快忘记它。DeepMind最新研究通过修改学习规则,程序在学习一个新任务时,还能回忆执行过的任务。无疑这能够让程序,能够更加持续地、自适应地学习,是程序迈向更加智能化的重要一步。

深度神经网络是目前用于解决各种任务(包括语言翻译,图像分类和图像生成)的最成功的机器学习技术。但是,计算机程序学习执行一项任务后,通常会很快忘记它。而人类的大脑则以不同的方式工作。我们能够逐步学习,一次获得一个技能,并在学习新任务时运用我们以前的知识。DeepMind在近期发布的PNAS文章里,提出一种方法来克服神经网络中的灾难性遗忘。灵感源自于神经科学的理论知识,关于哺乳动物和人类大脑巩固化既往获得的技能和记忆。

神经科学家已经区分了在大脑中发生的两种巩固方式:系统巩固和突触巩固。系统巩固是通过我们的大脑的快速学习部分获得的记忆被印记到缓慢学习部分的过程。这种印记已知是由有意识的和无意识的回忆所介导的 - 例如,这可能在梦中发生。在第二种机制:突触巩固,在之前学习任务中扮演重要角色的神经元之间的连接不太可能被重写。我们算法的具体灵感,就是从这种机制中找到并落实应用去解决灾难性遗忘问题。

AI vs 深度学习 vs 机器学习:人工智能的 12 大应用场景

来源:新智元

在本文中,作者先探讨了深度学习的特点和优势,然后介绍了12种类型的AI问题,即:在哪些场景下应该使用人工智能(AI)?作者强调企业AI问题,因为他认为AI会影响许多主流的应用。

深度学习能解决什么问题?

首先,让我们探讨深度学习是什么。

深度学习是指由许多层组成的人工神经网络。“深”是指层数多。相比深度学习,其他的许多机器学习算法是浅的,例如 SVM,因为它们没有多层的深架构。多层的架构允许后面的计算建立在前面的计算之上。目前的深度学习网络已经有10+甚至100+层。

2017年,你需要GET的9大技术领域

2016年过去了,然而我一点也不怀念它,因为2017年的技术趋势更加吸引人。回顾一年里业界的发展,2017年的技术趋势初现端倪。根据CSDN知识库这一年来大家关注的热门知识图谱,我们来给大家梳理一下2017年值得关注的技术方向。

人工智能与机器学习

元旦刚过,阿法狗就以60胜0负1平的成绩一骑绝尘,横扫了围棋界高手。一时间,“AI将取代人类”的惊呼声再次响起。其实,这种悲观想法真的多余。人工智能在未来更多的,还是帮助我们的生活更加便捷轻松。未来,可能一个AI就是一个超级App,可以帮我们专门解决一个类生活问题。

现在很多巨头都在布局AI领域。Google就不必说了,它在人工智能领域的尝试非常广泛,除了阿法狗,还有自动驾驶、语音助理、智能家居等。Facebook已经收购了8个机器人公司和1个机器学习公司,并在许多新的业务中使用了人工智能技术。IBM斥资10亿美元成立的Watson项目包括了语音、语言理解、图像识别和情绪分析等能力,已经与一些汽车企业和医疗机构开始展开合作。而在国内,小米CEO雷军在近期的年会上也宣布人工智能是2017年的重点发展领域。

机器学习难在哪?

机器学习已经被广泛应用,教程、文章、开源代码到处都是,有些时候只需要你对机器学习算法稍有了解就可以在实际中很好的应用。

但是机器学习还是非常难:
● 推动机器学习研究进步的科学本身很困难,需要创新、实验和坚持;
● 把已知的机器学习模型应用到实际工作中也是一件困难的事情;
● 市场上的机器学习工程师比普通的软件工程师也要昂贵一些。

困难并不是来自于数学,因为机器学习的相关实现并不要求很高的数学基础。困难来自于:

1、选择什么样的机器学习工具
这要求对每个算法和模型的优劣势都了如指掌,这个技能可以通过学过这些模型(课程、教程、Paper等)来获得。当然这类知识构建的困难是计算机所有领域都存在的,不仅仅是机器学习。

2、机器学习很难调试
这种困难表现在两方面:
1)算法不work;
2)算法work,但并未足够好。

机器学习独有的特征是:查找上面问题的原因是“指数”难度的。通常,机器学习算法的Debug都需要很长的时间,很多bug用小数据量很难重现,而且往往在迭代的后期才能出现。很少有算法可以一次成功,所以更多的时间花在调模型上。

指数级困难的调试
在标准的软件工程范畴中,当一个解决方案不如期望时,通常考虑两个方面的出错:算法和实现。

用以下简单的递归算法为例:

人工智能与机器学习:两者有何不同?

在过去几年,人工智能和机器学习频繁出现在技术新闻和各种网站上。两者常常被用作同义词,但许多专家认为它们存在微妙且重大的区别。

当然,专家们自己有时对于那些区别到底是什么也意见不一。

然而一般来说,有两点似乎很清楚:第一,人工智能(AI)这个术语的历史比机器学习(ML)更早;第二,大多数人认为机器学习是人工智能的一个子集。

最能清楚表示这种关系的图形之一来自英伟达公司的官方博客。它提供了一个很好的起点,有助于了解人工智能和机器学习之间的区别。

人工智能VS机器学习――首先,什么是人工智能?

计算机科学家对人工智能有诸多不同的定义,但究其核心,人工智能包括像人类那样来思考的机器。当然,很难确定机器是不是在“思考”。因此实际上,建造人工智能需要建造擅长处理人类擅长的那类工作的计算机系统。

创造像人类一样聪明的机器这个想法可以一直追溯到古希腊人,当时流传神创造自动机方面的神话。然而实际上,这个想法直到1950年才真正流行起来。

同步内容
--电子创新网--
粤ICP备12070055号