demi的博客

解构无人驾驶:有哪些关键技术?哪些关键公司?

无人驾驶汽车有望将在未来20年内得到广泛运用,各大科技公司和汽车厂商均在加大对无人驾驶的投入,资本也纷纷抢滩该万亿市场。

无人驾驶汽车依靠人工智能、视觉计算、雷达、监控装置和全球定位系统协同合作,通过电脑实现无人驾驶,可以在没有任何人类主动的操作下,自动安全地操作机动车辆。

无人驾驶依赖几种先进技术,这些互为补充的技术感知周围环境、进行自我导航。究竟这些技术如何协同工作?除了Waymo等知名的领头羊之外,又有哪些公司在推动这个行业发展?

解构无人驾驶:有哪些关键技术?哪些关键公司?

CB Insights拆解分析了实现无人驾驶的诸多技术,并介绍了有望让无人驾驶汽车更先进、更低成本、更容易扩展的几家初创公司。

感知能力

无人驾驶汽车必须要能够识别交通信号和标志,以及其他汽车、自行车和行人。它们还必须能感知前方物体的距离和速度,以便作出对应反应。

机器人视觉的九大挑战

机器人视觉解决方案是我们实现机器人视野的几大挑战。即便变得越来越简单易用,还是有一些棘手的问题。很多因素影响机器人在环境中的视觉,任务设置和工作场所。这里有9个总结出来的机器人视觉挑战:

1. 照明

如果有过在低光照下拍摄数码照片的经验,就会知道照明至关重要。糟糕的照明会毁掉一切。成像传感器不像人眼那样适应性强或敏感。如果照明类型错误,视觉传感器将无法可靠地检测到物体。

有各种克服照明挑战的方法。一种方法是将有源照明结合到视觉传感器本身中。其他解决方案包括使用红外照明,环境中的固定照明或使用其他形式的光的技术,例如激光。

2. 变形或铰接

球是用计算机视觉设置来检测的简单对象。你可能只是检测它的圆形轮廓,也许使用模板匹配算法。但是,如果球被压扁,它会改变形状,同样的方法将不再起作用。这是变形。它会导致一些机器人视觉技术相当大的问题。

“四问”自动驾驶:到底该如何理想面对它?

随着自动驾驶汽车的兴起,使得不少传统车企似乎看到了新的商机,于是纷纷向该领域进行投资。然而提起“自动驾驶”,相信不少用户会感到陌生,但对于自动驾驶领域来说,从目前来看,它正以“飞速”的速度进行发展。小编坚信,未来,自动驾驶汽车将成为我们生活中最常见的交通方式,所以大家多少都需要知道一些关于自动驾驶的常识,也许当你想要购买该领域新车时,能够有一些自己的见解,正所谓“知己知彼百战百胜”嘛,下面小编为大家科普几个日常生活的需要的知识点,或许你看完会对自动驾驶有一个新的认识。

科普知识点一:记住这些知识点,关键时刻能保命

有研究表明,关于自动驾驶来说,人们仍要需要懂得一些常识才能上路,有人说,90%的驾驶任务不需要常识,需要使用常识的情况只有微不足道的10%。然而,如果你上路行驶的自动驾驶汽车错过了那10%的常识,遇到突发情况后,才会追悔莫及。

关于人工智能、编程以及机器学习

人工智能会让程序员失业吗?

当人工智能逐渐强大,大家开始担心:人工智能下一步又要在哪个领域干掉人类?

AI会让人类程序员失业吗?对此问题持肯定态度的人并不在少数。

比如:美国橡树岭国家实验室在去年底发布的论文《人机混编的代码意味着什么?人类 2040 年还需要亲自编写代码吗? 》中表示:到了2040年,大多数的程序代码将由机器生成。

2040年距今天还有些距离,至少当下,AI没有让程序员失业,而是让程序员更贵了。

前几天刷屏的《AI 时代,为什么程序员这么贵》一文,csdn的蒋总认为:AI的发展,不仅不会使程序员消亡,反而使得各行各业比现在更加需要程序员——程序员的求职范围不再局限于软件或互联网行业,社会总需求激增,人才自然也就更贵了。

笔者对蒋总的观点蛮赞同的,当前的势头也确实如此。

不过,再过5-10年,程序员还会如今日行情吗?

机器学习(十一)——常用机器学习算法优缺点对比、适用条件

1、决策树

适用条件:数据不同类边界是非线性的,并且通过不断将特征空间切分为矩阵来模拟。特征之间有一定的相关性。特征取值的数目应该差不多,因为信息增益偏向于更多数值的特征。

优点:
  •   直观的决策规则;
  •   可以处理非线性特征;
  •   考虑了变量之间的相互作用。

缺点:
  •   容易过拟合(随机森林、剪枝);
  •   处理缺失数据时的困难;
  •   数据集中属性间的相关性。

2、SVM

适用条件:特征空间大,可以处理非线性的特征。

优点:
  •   可以处理小样本情况下的机器学习问题;
  •   可以处理高维特征;
  •   使用核函数应对非线性特征空间,解决非线性问题;
  •   分类面不依赖所有数据,只与几个支持向量有关

VR迄今为止对我们的生活产生了什么影响?

从VR元年的轰轰烈烈到如今的稳步发展,VR行业“诞生”的时间实际上只有三年,但在这三年中,VR给我们的生活带来的切实改变和对未来的畅想却无处不在,VR直播、VR看房、VR游戏等都为我们的生活带来了许多便利和色彩。但与此同时,VR也受到了一些质疑,例如在一些VR应用中,部分用户会感到眩晕,并因此认为VR不适合长时间佩戴。那么不吹不黑地说,VR到底对我们的生活产生了什么影响?

VR(Virtual Reality)即虚拟现实,与传统的屏幕相比有着本质的不同。无论是手机、平板还是电视,它的屏幕尺寸是固定的,也会占据现实世界中的相应面积。而VR则能够通过左右眼各一块屏幕为用户创造一个360°沉浸式的虚拟世界,这两者的区别是显而易见的——屏幕是一块画面,而VR则是一个世界。

今年特别火热的VR观影对这一特性做出了很好的诠释,一些价格亲民、操作简单的VR观影一体机也因此成为了今年倍受消费者喜爱的产品。对于观影爱好者来说,去影院看电影是一件很耗费时间的事情,除了影片本身的时间,我们还需要前往电影院,然后取票、候场、入场,而在家中用电视或者电脑看电影又没办法提供影院那样的氛围,让人专注于影片。

深度学习—常见问题总结(调优方法)

1、为什么要用神经网络?

对于非线性分类问题,如果用多元线性回归进行分类,需要构造许多高次项,导致特征特多,学习参数过多,从而复杂度太高 。

在神经网络中引入激活函数一个重要的原因就是为了引入非线性。

2、CNN基本问题

层级结构:输入层->卷积层->激活层->池化层->卷积层->激活层->池化层->全连接层····

(1)输入层数据预处理:去均值;归一化;PCA/白化;

去均值:即0均值化,CNN常用,训练集所有像素值减去均值,把输入数据各个维度中心化到0,测试集也减相同的均值;

目的:(1)数据有过大的均值可能导致参数的梯度过大,在梯度回传时会有一些影响;(2)如果有后续的处理,可能要求数据0均值,比如PCA。

归一化:幅度归一化到同样的范围;

目的:为了让不同维度的数据具有相同的分布规模,方便操作,图像一般不需要。

PCA/白化:降维,白化是对PCA降维后的数据每个特征轴上的幅度归一化;

深入学习卷积神经网络中卷积层和池化层的意义(三)

如何选择卷积核的大小?越大越好还是越小越好?

答案是小而深,单独较小的卷积核也是不好的,只有堆叠很多小的卷积核,模型的性能才会提升。

  •  CNN的卷积核对应一个感受野,这使得每一个神经元不需要对全局图像做感受,每个神经元只感受局部的图像区域,然后在更高层,将这些感受不同局部的神经元综合起来就可以得到全局信息。这样做的一个好处就是可以减少大量训练的参数。

  •  VGG经常出现多个完全一样的3×3的卷积核堆叠在一起的情况,这些多个小型卷积核堆叠的设计其实是非常有效的。两个3×3的卷积层串联相当于1个5×5的卷积层,即一个像素会和周围5×5的像素产生关联,可以说感受野是5×5。同时,3个串联的3×3卷积层串联的效果相当于一个7×7的卷积层。除此之外,3个串联的3×3的卷积层拥有比一个7×7更少的参数量,只有后者的 (3×3×3) / (7×7) = 55%。最重要的是3个3×3的卷积层拥有比一个7×7的卷积层更多的非线性变换(前者可以使用三次ReLu激活,而后者只有一次)。

卷积神经网络池化后的特征图大小计算

图像局部特征点检测算法综述

研究图像特征检测已经有一段时间了,图像特征检测的方法很多,又加上各种算法的变形,所以难以在短时间内全面的了解,只是对主流的特征检测算法的原理进行了学习。总体来说,图像特征可以包括颜色特征、纹理特等、形状特征以及局部特征点等。其中局部特点具有很好的稳定性,不容易受外界环境的干扰,本篇文章也是对这方面知识的一个总结。

本篇文章现在(2015/1/30)只是以初稿的形式,列出了主体的框架,后面还有许多地方需要增加与修改,例如2013年新出现的基于非线性尺度空间的KAZE特征提取方法以及它的改进AKATE等。在应用方面,后面会增一些具有实际代码的例子,尤其是基于特征点的搜索与运动目标跟踪方面。

1. 局部特征点

图像特征提取是图像分析与图像识别的前提,它是将高维的图像数据进行简化表达最有效的方式,从一幅图像的 M × N × 3 的数据矩阵中,我们看不出任何信息,所以我们必须根据这些数据提取出图像中的关键信息,一些基本元件以及它们的关系。