机器学习

为什么机器学习需要一个激励函数

作者:云时之间

一起来聊一聊现代神经网络中必不可少的一个组成部分激励函数以及我们在机器学习中为什么少不了激励函数。

那首先第一个问题,什么是激励函数呢?首先用简单的语句进行概括,就好比我们的现实总是残酷的,而我们周围的生活也是时刻发生这变化的,那其实所谓的激励函数就是来去解决我们在机器学习中无法用线性方程去解决的问题,那么这个时候你可能会想,什么是线性方程呢?

当我们提到线性方程的时候,我们会不得不想到非线性方程,在这个时候我们可以假设,女生长得越漂亮,越多的男生越喜欢,其实这个问题就可以当做一个线性问题,但是如果我们假设这个问题发生在校园里,现在校园里的男生是有限的,现在就算女生再漂亮,女生再漂亮,也不会有无穷多的男生去喜欢他,所以,在这个时候,这个问题就变成了一个非线性问题。再说,女生也不可能是无穷漂亮的吧。

一文了解人工智能的基本常识

德勤DUP近期发布了一份报告,对人工智能的历史、核心技术和应用情况进行了详细说明,尤其是其中重要的认知技术。这份报告将有助于我们对人工智能和认知技术进行深入了解,也有助于各行业的公司考量人工智能应用的实际价值。

国内对于人工智能的讨论大多是不成体系的碎片式,很难从中深入了解人工智能的发展脉络和技术体系,也很难有实际借鉴意义。德勤DUP近期发布了一份报告,对人工智能的历史、核心技术和应用情况进行了详细说明,尤其是其中重要的认知技术。这份报告将有助于我们对人工智能和认知技术进行深入了解,也有助于各行业的公司考量人工智能应用的实际价值。

一、概述

近几年各界对人工智能的兴趣激增,自2011年以来,开发与人工智能相关的产品和技术并使之商业化的公司已获得超过总计20亿美元的风险投资,而科技巨头更是投资数十亿美元收购那些人工智能初创公司。相关报道铺天盖地,而巨额投资、计算机导致失业等问题也开始浮现,计算机比人更加聪明并有可能威胁到人类生存这类论断更是被媒体四处引用并引发广泛关注。

IBM承诺拨出10亿美元来使他们的认知计算平台Watson商业化。

谷歌在最近几年里的投资主要集中在人工智能领域,比如收购了8个机器人公司和1个机器学习公司。

如何理解深度学习中的卷积

作者:Tim Dettmers

译自Tim Dettmers的Understanding Convolution in Deep Learning。有太多的公开课、教程在反复传颂卷积神经网络的好,却都没有讲什么是“卷积”,似乎默认所有读者都有相关基础。这篇外文既友好又深入,所以翻译了过来。文章高级部分通过流体力学量子力学等解释卷积的做法在我看来有点激进,这些领域恐怕比卷积更深奥,所以只需简略看看即可。以下是正文:

卷积现在可能是深度学习中最重要的概念。正是靠着卷积和卷积神经网络,深度学习才超越了几乎其他所有的机器学习手段。但卷积为什么如此强大?它的原理是什么?在这篇博客中我将讲解卷积及相关概念,帮助你彻底地理解它。

网络上已经有不少博客讲解卷积和深度学习中的卷积,但我发现它们都一上来就加入了太多不必要的数学细节,艰深晦涩,不利于理解主旨。这篇博客虽然也有很多数学细节,但我会以可视化的方式一步步展示它们,确保每个人都可以理解。文章第一部分旨在帮助读者理解卷积的概念和深度学习中的卷积网络。第二部分引入了一些高级的概念,旨在帮助深度学习方向的研究者和高级玩家进一步加深对卷积的理解。

什么是卷积

整篇博客都会探讨这个问题,但先把握行文脉络会很有帮助。那么粗略来讲,什么是卷积呢?

人工智能和机器学习的新趋势

概要:人工智能在各产业中的超凡表现奠定了它对未来世界不可或缺的地位。
作者:Hardik Gohil
翻译:Gabrielle

人工智能在各产业中的超凡表现奠定了它对未来世界不可或缺的地位,比如制造业,医疗保健,建筑业,在线零售业等几乎各个行业都在利用人工智能技术融入物联网。不断演化的机器学习技术使每个企业都有望成为数据驱动的企业,都能利用云平台的机器学习技术使用人工智能应用程序。未来的企业将不必安装和维护机器学习系统,花很低的开销就能分析海量又复杂的数据,最终做出详细精准的分析和预测。

机器学习产业体现出了以下三个最新趋势:数据飞轮(Data Flywheels),算法经济(Algorithm Economy),和云托管智能(Cloud Hosted Intelligence)。未来每个应用程序都将运用开源算法和机器学习代码成为智能应用,那么这些趋势将给云产业,数据处理等数字化业务带来怎样的巨变呢?

数据飞轮- 未来的关键

数据将成为未来数字世界的决定因素。世界上的数据每18个月翻一番,而同时期数据储存费用也几乎下降一半,也就是说几年后可用数据将越来越多。

一个框架解决几乎所有机器学习问题

本文来自 CSDN博客专家aliceyangxi1987

上周一个叫 Abhishek Thakur 的数据科学家,在他的 Linkedin 发表了一篇文章 Approaching (Almost) Any Machine Learning Problem,介绍他建立的一个自动的机器学习框架,几乎可以解决任何机器学习问题,项目很快也会发布出来。这篇文章迅速火遍 Kaggle,他参加过100多个数据科学相关的竞赛,积累了很多宝贵的经验,看他很幽默地说“写这样的框架需要很多丰富的经验,不是每个人都有这样的经历,而很多人有宝贵的经验,但是他们不愿意分享,我呢恰好是又有一些经验,又愿意分享的人”。当然这篇文章也是受到争议的,很多人觉得并不全面。

人工智能诞生60周年 展望机器学习的未来发展

1952年,Arthur Samuel在IBM公司研发了一款西游跳棋程序,这个程序具有自学习能力,可以通过对大量棋局的分析逐渐辨识出每一棋局中的“好棋”与“坏棋”,从而不断提高机器的跳棋水平并很快下赢了Samuel自己。1956,也就是在60年前的达特茅斯人工智能会议上,Samuel介绍了自己的这项工作,并发明了“机器学习”一词。

在计算科学历史上,“机器学习”有着多种定义,普遍的观点认为“机器学习”就是计算机利用数据和“经验”来改善算法系统自身的性能。斯坦福大学对机器学习的定义是在没有明确编程指令的情况下,让计算机自行采取行动的科学。通过已有数据产生“学习算法”模型后,再应用到新的数据集上,从而对新的情况做出策略性判断,这就是所谓“预测”。可以说,机器学习是关于“学习算法”的科学,而人工智能则是研究开发具有智能的机器。

2016年是人工智能诞生60周年。在最近十年,随着大数据和云计算(大规模计算)的发展,机器学习进入了发展的黄金期。2016年12月17日,在2016机器智能前沿论坛上,中外专家探讨了机器学习的未来发展与展望。

机器学习进入发展黄金期

机器学习入门算法:从线性模型到神经网络

本文转载自机器之心
链接:http://jiqizhixin.com/article/2443

近段时间以来,我们频频听到「机器学习(machine learning)」这个词(通常在预测分析(predictive analysis)和人工智能(artificial intelligence)的上下文中)。几十年来,机器学习实际上已经变成了一门独立的领域。由于现代计算能力的进步,我们最近才能够真正大规模地利用机器学习。而实际上机器学习是如何工作的呢?答案很简单:算法(algorithm)。

机器学习是人工智能(artificial intelligence)的一种,其本质上讲,就是计算机可以在无需编程的情况下自己学习概念(concept)。这些计算机程序一旦接触新的数据,就将会改变它们的「思考」(或者输出)。为了实现机器学习,算法是必需的。算法被写入计算机并在其剖析数据时给与其需要遵循的规则。

机器学习算法经常被用于预测分析。在商业中,预测分析可以用于告诉企业未来最有可能发生什么。例如,使用预测分析算法,在线 T 恤零售商可以使用当前的数据来预测下个月他们将会售出多少 T 恤。

回归或分类

计算机程序学习执行一项任务后,通常会很快忘记它。DeepMind最新研究通过修改学习规则,程序在学习一个新任务时,还能回忆执行过的任务。无疑这能够让程序,能够更加持续地、自适应地学习,是程序迈向更加智能化的重要一步。

深度神经网络是目前用于解决各种任务(包括语言翻译,图像分类和图像生成)的最成功的机器学习技术。但是,计算机程序学习执行一项任务后,通常会很快忘记它。而人类的大脑则以不同的方式工作。我们能够逐步学习,一次获得一个技能,并在学习新任务时运用我们以前的知识。DeepMind在近期发布的PNAS文章里,提出一种方法来克服神经网络中的灾难性遗忘。灵感源自于神经科学的理论知识,关于哺乳动物和人类大脑巩固化既往获得的技能和记忆。

神经科学家已经区分了在大脑中发生的两种巩固方式:系统巩固和突触巩固。系统巩固是通过我们的大脑的快速学习部分获得的记忆被印记到缓慢学习部分的过程。这种印记已知是由有意识的和无意识的回忆所介导的 - 例如,这可能在梦中发生。在第二种机制:突触巩固,在之前学习任务中扮演重要角色的神经元之间的连接不太可能被重写。我们算法的具体灵感,就是从这种机制中找到并落实应用去解决灾难性遗忘问题。

AI vs 深度学习 vs 机器学习:人工智能的 12 大应用场景

来源:新智元

在本文中,作者先探讨了深度学习的特点和优势,然后介绍了12种类型的AI问题,即:在哪些场景下应该使用人工智能(AI)?作者强调企业AI问题,因为他认为AI会影响许多主流的应用。

深度学习能解决什么问题?

首先,让我们探讨深度学习是什么。

深度学习是指由许多层组成的人工神经网络。“深”是指层数多。相比深度学习,其他的许多机器学习算法是浅的,例如 SVM,因为它们没有多层的深架构。多层的架构允许后面的计算建立在前面的计算之上。目前的深度学习网络已经有10+甚至100+层。

2017年,你需要GET的9大技术领域

2016年过去了,然而我一点也不怀念它,因为2017年的技术趋势更加吸引人。回顾一年里业界的发展,2017年的技术趋势初现端倪。根据CSDN知识库这一年来大家关注的热门知识图谱,我们来给大家梳理一下2017年值得关注的技术方向。

人工智能与机器学习

元旦刚过,阿法狗就以60胜0负1平的成绩一骑绝尘,横扫了围棋界高手。一时间,“AI将取代人类”的惊呼声再次响起。其实,这种悲观想法真的多余。人工智能在未来更多的,还是帮助我们的生活更加便捷轻松。未来,可能一个AI就是一个超级App,可以帮我们专门解决一个类生活问题。

现在很多巨头都在布局AI领域。Google就不必说了,它在人工智能领域的尝试非常广泛,除了阿法狗,还有自动驾驶、语音助理、智能家居等。Facebook已经收购了8个机器人公司和1个机器学习公司,并在许多新的业务中使用了人工智能技术。IBM斥资10亿美元成立的Watson项目包括了语音、语言理解、图像识别和情绪分析等能力,已经与一些汽车企业和医疗机构开始展开合作。而在国内,小米CEO雷军在近期的年会上也宣布人工智能是2017年的重点发展领域。

同步内容
--电子创新网--
粤ICP备12070055号