风一笑 的blog

详解聊天机器人:它会让人类工作变得多余吗?

从赋予市场权力到减轻人类的生活,技术一直推动着社会进步。随着新型创新不断让全世界赞叹不已,从来都是热议话题的聊天机器人可能不会就此退出历史舞台,因为推动这种潮流的重担可能会落在聊天机器人的肩膀上。

你可能会问,什么是聊天机器人?“聊天机器人是一个由人工智能和机器学习驱动的计算机程序,通过识别语音和数据,它可以根据用户指令执行一系列功能。”微软小娜(Cortana)和谷歌的数字助理(Assistant)都是聊天机器人中为数不多的杰出代表,并为聊天机器人的推广流行做出了贡献。随着Facebook成了聊天机器人领域的新玩家, 这些简单的辅助模式正与Facebook打得火热。Facebook“机器人引擎(Bot Engine)”的关键之处在于,它允许企业为Facebook的手机应用“Messenger”开发自己的聊天机器人。这将为企业提供与客户互动的独特途径,从而让Facebook赢得客户的忠诚。这就消除了现实生活中的主管或代表与读者交流的需求,从而实现了交流的自动化。

机器学习和分析的使用

TensorFlow实现神经网络入门篇

如果你一直关注数据科学/机器学习,你就不能错过深度学习和神经网络的热潮。互联网公司正在寻找这方面的人,而且从竞赛到开源项目,都有巨额奖金。

如果你对深度学习所提供的前景感到兴奋,但是还没有开始,在这里或许是你开始的第一步。

在这篇文章中,我将介绍TensorFlow。阅读本文后,你将能够理解神经网络的应用,并使用TensorFlow解决现实生活中的问题,本文中的代码是用Python编写的,Python最近的火爆也和深度学习有关。

1:何时使用神经网络?

有关神经网络和深度学习的更详细的解释, 请看这里。其“更深”版本正在图像识别,语音和自然语言处理等诸多领域取得巨大突破。

现在的主要问题是何时使用神经网络?关于这点,你必须记住一些事情:

学懂GAN的数学原理,让它不再神秘

知乎上有个讨论,说学数学的看不起搞深度学习的。曲直对错不论,他们看不起搞深度学习的原因很简单,因为从数学的角度看,深度学习仅仅是一个最优化问题而已。比如,被炒的很热的对抗式生成网络(GAN),从数学看,基本原理很容易就能说明白,剩下的仅仅是需要计算资源去优化参数,是个体力活。

本文的目的就是尽可能简单地从数学角度解释清楚GAN的数学原理,看清它的庐山真面目。

1,从生成模型说起

机器学习的模型可分为生成模型和判别模型。

简单说说二者的区别,以二分类问题来讲,已知一个样本的特征为x,我们要去判断它的类别y(取值为0,1)。也就是要计算p(ylx),假设我们已经有了N个样本。

计算p(ylx)的思路有两个,一个就是直接求,即y关于x的条件分布,逻辑回归就是这样干的。凡是按这种思路做的模型统一称作判别模型

另一个思路是曲线救国,先求出x,y的联合分布p(x,y),然后,根据p(ylx)=p(x,y)/p(x)来计算p(ylx),朴素贝叶斯就是这样干的。凡是按这种思路做的模型统一称作生成模型。

那么,GAN属于什么呢?答案是生成模型,因为它也是在模拟数据的分布。

大规模机器学习框架的四重境界

作者:carbon zhang

1. 背景

自从google发表著名的GFS、MapReduce、BigTable三篇paper以后,互联网正式迎来了大数据时代。大数据的显著特点是大,哪里都大的大。本篇主要针对volume大的数据时,使用机器学习来进行数据处理过程中遇到的架构方面的问题做一个系统的梳理。

有了GFS我们有能力积累海量的数据样本,比如在线广告的曝光和点击数据,天然具有正负样本的特性,累积一两个月往往就能轻松获得百亿、千亿级的训练样本。这样海量的样本如何存储?用什么样的模型可以学习海量样本中有用的pattern?这些问题不止是工程问题,也值得每个做算法的同学去深入思考。

1.1简单模型or复杂模型

在深度学习概念提出之前,算法工程师手头能用的工具其实并不多,就LR、SVM、感知机等寥寥可数、相对固定的若干个模型和算法;那时候要解决一个实际的问题,算法工程师更多的工作主要是在特征工程方面。而特征工程本身并没有很系统化的指导理论(至少目前没有看到系统介绍特征工程的书籍),所以很多时候特征的构造技法显得光怪陆离,是否有用也取决于问题本身、数据样本、模型以及运气。

当前深度神经网络模型压缩和加速方法速览

作者:刘晓坤

大型神经网络具有大量的层级与结点,因此考虑如何减少它们所需要的内存与计算量就显得极为重要,特别是对于在线学习和增量学习等实时应用。此外,近来智能可穿戴设备的流行也为研究员提供了在资源(内存、CPU、能耗和带宽等)有限的便携式设备上部署深度学习应用提供了机会。高效的深度学习方法可以显著地影响分布式系统、嵌入式设备和用于人工智能的 FPGA 等。典型的例子是 ResNet-50[5],它有 50 层卷积网络、超过 95MB 的储存需求和计算每一张图片所需要的浮点数乘法时间。如果剪枝一些冗余的权重后,其大概能节约 75% 的参数和 50% 的计算时间。对于只有兆字节资源的手机和 FPGA 等设备,如何使用这些方法压缩模型就很重要了。

实现这个目标需要联合多个学科以寻找解决方案,包括但不限于机器学习、最优化、计算机架构、数据压缩、索引和硬件设计等。在本论文中,我们回顾了在压缩和加速深度神经网络方面的工作,它们广泛受到了深度学习社区的关注,并且近年来已经实现了很大的进展。

对深度学习的逃逸攻击 — 探究人工智能系统中的安全盲区

作者: 肖奇学1, 许伟林2, 李康1 (1. 来自 360 Team Seri0us 团队, 2. 美国弗吉尼亚大学)

“逃逸攻击就是要把百分之零点零零一的误判率变成百分之百的攻击成功率”。

虽然深度学习系统经过训练可以对正常输入达到很低的误判率,但是当攻击者用系统化的方法能够生成误判样本的时候,攻击的效率就可以接近100%,从而实现稳定的逃逸攻击。

1、逃逸攻击简介

逃逸是指攻击者在不改变目标机器学习系统的情况下,通过构造特定输入样本以完成欺骗目标系统的攻击。例如,攻击者可以修改一个恶意软件样本的非关键特征,使得它被一个反病毒系统判定为良性样本,从而绕过检测。攻击者为实施逃逸攻击而特意构造的样本通常被称为“对抗样本”。只要一个机器学习模型没有完美地学到判别规则,攻击者就有可能构造对抗样本用以欺骗机器学习系统。例如,研究者一直试图在计算机上模仿人类视觉功能,但由于人类视觉机理过于复杂,两个系统在判别物体时依赖的规则存在一定差异。对抗图片恰好利用这些差异使得机器学习模型得出和人类视觉截然不同的结果,如图1所示[1]。

“智慧医疗”逐渐普及,医疗机器人规模迎来跨越式增长

如今,已深入应用在人们生活中,银行引导你办事的机器人,商场购物时的机器人导购,就连去餐厅吃饭都有可能是机器人给你端上菜品。

同样,“智慧医疗”正在走进寻常百姓的生活,随着机器人等前沿科技与医疗领域融合加速,加之人口红利消失以及老龄化情况加剧等因素影响下,医疗行业的机器人应用也相当广泛,医疗机器人规模迎来跨越式增长。

医疗机器人种类良多

医疗机器人种类很多,按照其用途不同,有临床医疗机器人、护理机器人、医用教学机器人和搬运机器人等。
临床医疗用机器人包括诊断机器人和外科手术机器人,可以进行精确的诊断或外科手术;护理机器人并非像平时说的人类护工一样,能够全面照顾被护理对象的一切饮食起居,而是指能用来分担护理人员繁重琐碎的护理工作的机器人,更多的是负责检查病人身体情况,帮助病人分配好药物,甚至是在病人发生紧急情况的时候及时联系医护人员;医用教学机器人则是医疗指导过程中最理想的教具,通过模拟真实医治过程,有助于提高医护人员手术配合和临场反应;搬运机器人多用于代替护士运送药品、送病例和化验单移动移动或运送瘫痪、和行动不便的病人。

医疗机器人的好处

不懂卷积神经网络?别怕,看完这几张萌图你就明白了

这篇文章用最简明易懂的方式解释了卷积神经网络(CNN)的基本原理,并绕开了里面的数学理论。

同时,如果想对从头开始构建CNN网络之类的问题感兴趣,作者推荐去读《 Artificial Intelligence for Humans Volume 3: Deep Learning and Neural Networks》中第10章节的内容。

不多说了,开始CNN之旅——

网络结构

CNN的模型通常建立在前馈神经网络模型之上,它的结构你也应该不陌生。不同是的,“隐藏层”将被以下这些层取代:

卷积层(Convolutional Layers)

池化层(Pooling Layers)

全连接层(稠密层,Dense Layers)

结构类似下图:

不懂卷积神经网络?别怕,看完这几张萌图你就明白了

AI现在还仅仅是“物理学出现之前的工程学”

科技评论网站日前发表文章,介绍了深度学习的发展趋势及其局限。虽然深度学习已经是当前的一股热潮,也取得了不少成果,但业界人士指出,目前的深度学习就像是“物理学出现之前的工程学”。以下为原文摘要:

AI现在还仅仅是“物理学出现之前的工程学”

人工智能(AI)领域的每一个进步,都有赖于30年前的一个突破。要保持AI进步的节奏,就需要突破这个领域的一些重大局限。

AI领域的爱因斯坦

矢量研究所(Vector Institute)位于加拿大多伦多的市中心,将于今年秋天开业,它旨在成为全球AI中心舞台。美国和加拿大公司(比如谷歌(微博)、Uber和Nvidia)将在这个研究所赞助商业化AI技术的努力。

深度学习框架中的魔鬼 — 探究人工智能系统中的安全问题

作者: 肖奇学, 李康(来自360 Team Seri0us 团队)

深度学习引领着新一轮的人工智能浪潮,受到工业界以及全社会的广泛关注。 虽然大家对人工智能有很多美好的憧憬,但是现实是残酷的 — 随着一批深度学习应用逐渐开始变成现实,安全问题也渐渐显现出来。

人工智能应用面临来自多个方面的威胁:包括深度学习框架中的软件实现漏洞、对抗机器学习的恶意样本生成、训练数据的污染等等。 这些威胁可能导致人工智能所驱动的识别系统出现混乱,形成漏判或者误判,甚至导致系统崩溃或被劫持,并可以使智能设备变成僵尸攻击工具。

在推进人工智能应用的同时,我们迫切需要关注并解决这些安全问题。本文作为人工智能与安全的系列文章之一,首先介绍我们在深度学习框架中发现的安全问题。

1、人工智能讨论中的安全盲点

同步内容
--电子创新网--
粤ICP备12070055号