demi的博客

简单易懂的讲解深度学习(入门系列之五)

5.1 网之初,感知机

我们知道,《三字经》里开篇第一句就是:“人之初,性本善”。那么对于神经网络来说,这句话就要改为:“网之初,感知机”。感知机( Perceptrons ),基本上来说,是一切神经网络学习的起点。

很多有关神经网络学习(包括深度学习)的教程,在提及感知机时,都知道绕不过,但也仅仅一带而过。学过编程的同学都知道,不论是哪门什么语言,那个神一般存在的第一个程序——“Hello World”,对初学者有多么重要,可以说,它就是很多人“光荣与梦想”开始的地方。

而感知机学习,就是神经网络学习的“Hello World”,所以对于初学者来说,也值得我们细细玩味。因此,下面我们就给予详细讲解。

5.2 感性认识“感知机”

在第3小节中,我们已经提到,所谓的感知机,其实就是一个由两层神经元构成的网络结构,它在输入层接收外界的输入,通过激活函数(含阈值)的变换,把信号传送至输出层,因此它也称之为“阈值逻辑单元(threshold logic unit)”。

学习shader之前必须知道的东西——OpenGL的固定功能管线

学习着色器,并理解着色器的工作机制,就要对OpenGL的固定功能管线有深入的了解。

首先要知道几个OpenGL的术语

渲染(rendering):计算机根据模型(model)创建图像的过程。
模型(model):根据几何图元创建的物体(object)。
几何图元:包括点、直线和多边形等,它是通过顶点(vertex)指定的。

最终完成了渲染的图像是由在屏幕上绘制的像素组成的。在内存中,和像素有关的信息(如像素的颜色)组织成位平面的形式,位平面是一块内存区域,保存了屏幕上每个像素的一个位的信息。例如,它指定了一个特定像素的颜色中红色成分的强度。位平面又可以组织成帧缓冲区(framebuffer)的形式,后者保存了图形硬件为了控制屏幕上所有像素的颜色和强度所需要的全部信息。

OpenGL的固定功能管线

去伪存真!别让这8个安全流行词把你忽悠了

俗话说得好:如果某事看起来好到令人难以置信,那可能真的不能相信。仔细想想,绝佳交易和骗局看上去都是超级好。二者都表现出能为你面临的棘手难题提供必备解决方案的样子。然而,其中一个是真的很好,而另一个就很玄乎了。

同时,信息安全行业中的供应商都太急于抛出流行词,试图说服客户他们的解决方案非常合适。这种大环境下,企业或机构该如何理解什么是真的很好什么是太过虚幻呢?

以下就列出8个安全领域经常会遇到的流行词,帮读者看清它们的真相。

1. 人工智能

热炒人工智能(AI)概念的供应商多如牛毛,而且越来越多。千万别让这种被炒出来的概念迷惑了双眼。无论你要解决的问题是什么,让你的供应商解释清楚他们到底是怎样应用AI的,他们的解决方案如何帮助你的公司解决问题。比如说,如果供应商大赞其终端解决方案中的AI,那就问一些尖锐的问题。操作的是什么数据?扩展性如何?怎么在企业范围内加以应用?AI方法怎么识别感兴趣事件,怎么产生警报?大型企业生产环境中的误报率是多少?怎样最小化误报?

2. 机器学习

图片分享:机器学习算法一览图

在场中浏览主要算法以获得可用的方法的感觉是有用的。有这么多的算法,它可以感觉压倒性的算法名称被抛在周围,你希望只是知道他们是什么,他们适合的地方。

我想给你两种方法来思考和分类你可能在现场遇到的算法。第一种是通过学习风格的算法分组;第二种是通过形式或功能上的相似性(例如将类似的动物组合在一起)的算法分组。这两种方法都是有用的,但将集中在通过相似性的算法分组,并进行各种不同的算法类型的游览。

尽可能的给出了算法的英文名称以及英文缩写,少数算法只有中文名字......

点击图片可放大

在深度学习中处理不均衡数据集

作者:George Seif
编译:ronghuaiyang

不是所有的数据都是完美的。实际上,如果你拿到一个真实的完全均衡的数据集的话,那你真的是走了狗屎运了。大部分的时候,你的数据都会有某种程度上的不均衡,也就是说你的数据集中每个类别的数量会不一样。

我们为什么想要数据是均衡的?

在我们开始花时间做深度学习项目之前,非常重要的一点是需要理解为什么我们要做这个事情,确保我们的投入是值得的。当我们真正关心的是少数的类别的时候,类别均衡技术就是真正的必须的了。

比如说,我们想预测基于当前的市场情况,房子的属性,自己的预算,是否应该买房子。在这种情况下,如果我们买了,那么这是个正确的决定是非常重要的,因为这个是很大的一笔投资。同时,如果你的模型说不要买,而事实上需要买的话,这也没什么大不了的。你错过了这个,总是有其他的房子可以买的。但是如果买错了的话,那就是个大事了。

2019年九大网络安全发展趋势预测

前言

要预测未来一年的网络威胁发展趋势很难,无论是威胁的形态和响应的防范方式都在快速迭代,加上各国对于网络空间中地缘政治利益的理解日益深刻,不同的力量交织在一起进一步加深了复杂性。

国外安全媒体CSO Online还是试着对明年的网络安全态势做出了九大预测,我们来看一看他们是怎么说的。

一、勒索软件活跃度下降,破坏性不减

随着网络犯罪分子的注意力更多地放到其他“黑产”事业,之前大行其道的勒索软件攻击逐渐冷却,开始转变为一种集中、针对性的攻击手段。

根据卡巴斯基的统计,2017-2018年遭遇勒索软件攻击的用户数量相比2016-2017年下降了近30%。赛门铁克表示,拥有复杂勒索软件攻击能力的网络犯罪集团现在主要关注的是一些美国公司,主要与市政、医疗机构有关。

2018年全球AI十大突破性技术一览 你知道几个?

1. 基于神经网络的机器翻译

入选理由:翻译是“自然语言处理”的最重要分支,也是比较难的一支。早年间,机器翻译还被视作 “低级翻译”被嘲讽,如今神经网络的机器翻译准确性大大提高,堪比专业人工翻译。我们熟知的谷歌翻译、微软语音翻译以及搜狗语音识别等都是基于此项技术。

2. 基于多传感器跨界融合的机器人自主导航

入选理由:机器人的终极目标是为人类提供智能化的服务,其中自主导航是近年来人类一直想要攻克的技术壁垒,臻迪(PowerVision)通过声呐、视觉等多传感器融合,使其水下机器人能实现自主导航及智能识别,在智能机器人领域内取得了突破性进展。

3. DuerOS对话式人工智能系统

入选理由:DuerOS3.0能够为用户带来了划时代的自然对话交互,包括情感语音播报、声纹识别等能力在内的自然语言交互技术的全面升级。

4. 移动AR技术

关于caffe 是如何卷积的一点总结

最近,在看caffe源码时,偶然在网上看到一个问题?觉得挺有意思,于是,仔细的查了相关资料,并将总结写在这里,供大家迷惑时,起到一点启示作用吧。

问题的题目是CNN中的一个卷积层输入64个通道的特征子图,输出256个通道的特征子图,那么,该层一共包含多少个卷积核?

对于上面这个问题,目前有两种答案,每一种答案的区别是所基于的卷积核的维度不同而导致的。下面是两种答案的解析过程:

第一种答案:卷积核是二维的(caffe源码中以卷积核二维转化成相应矩阵),那么就需要64*256个卷积核来对输入特征子图进行卷积,其中,输入的每个通道对应64种不同的卷积核进行卷积,再将64种卷积核得到的卷积结果合并成一张输出特征子图;这样,就会得到256个通道的特征子图。

第二种答案:卷积核是三维的(caffe大神贾杨清老师的回答中就是这么认为的),那么一个卷积核的表示为C*H*W(C:通道数,H:卷积核的高,W:卷积核宽)。那么对于输入的特征子图,就需要一个大小为64*h*w的卷积核进行卷积,得到一张特征子图。这样,就需要256个不同卷积核,每个卷积核的通道数为64,从而得到256个通道的特征子图。

从智能交通到智能能源:智慧城市在7个方面的应用实践

目前,智慧城市已经成为全球众多城市未来规划和设计的方向,并致力于通过各种新技术的应用来改善城市居民的工作与生活。

但什么样的技术应用能够推动智慧城市的建设?如何让新技术在智慧城市中的应用效率最大化?这是所有城市规划者都在思考的问题。

从最近几年全球各地智慧城市建设的应用案例可以发现,各种新技术从城市基础设施和生活设施入手,覆盖智能停车、智能路灯、智能交通、智能能源、智能医疗、智能建筑和智能环境等七个常见领域,从各方面逐步让智慧城市变为现实。

1. 智能停车提升交通效率

交通拥堵是现代各大城市都面临的头号难题,并且,随着汽车在城市街道上不断寻找停车位,会加大二氧化碳和其他尾气的排放,进而影响城市空气质量。

智能停车技术有望改变这一状况。该技术通过智能手机的GPS数据和嵌入在停车位地面的传感器,可向附近的车主提供实时的停车地图和车位信息,从而让停车过程更加高效、环保。

深度学习中为什么要使用多于一个epoch?

什么是epoch?

当一个完整的数据集通过了神经网络一次并且返回了一次,这个过程称为一次epoch。然而,当一个epoch对于计算机而言太庞大的时候,就需要把它分成多个小块。

为什么要使用多于一个epoch?

在神经网络中传递完整的数据集一次是不够的,而且我们需要将完整的数据集在同样的神经网络中传递多次。但请记住,我们使用的是有限的数据集,并且我们使用一个迭代过程即梯度下降来优化学习过程。如下图所示。因此仅仅更新一次或者说使用一个epoch是不够的。

深度学习中为什么要使用多于一个epoch?

随着epoch数量增加,神经网络中的权重的更新次数也在增加,曲线从欠拟合变得过拟合。