demi的博客

深度解析AIoT背后的发展逻辑

AIoT领域中人机交互的市场机会

自2017年开始,“AIoT”一词便开始频频刷屏,成为物联网的行业热词。“AIoT”即“AI+IoT”,指的是人工智能技术与物联网在实际应用中的落地融合。当前,已经有越来越多的人将AI与IoT结合到一起来看,AIoT作为各大传统行业智能化升级的最佳通道,已经成为物联网发展的必然趋势。

在基于IoT技术的市场里,与人发生联系的场景(如智能家居、自动驾驶、智慧医疗、智慧办公)正在变得越来越多。而只要是与人发生联系的地方,势必都会涉及人机交互的需求。人机交互是指人与计算机之间使用某种对话语言,以一定的交互方式,为完成确定任务的人与计算换机之间的信息交互过程。人机交互的范围很广,小到电灯开关,大到飞机上的仪表板或是发电厂的控制室等等。而随着智能终端设备的爆发,用户对于人与机器间的交互方式也提出了全新要求,使得AIoT人机交互市场被逐渐激发起来。

AIoT发展路径

入行 AI 的几个常见问题

作为 AI 从业者,笔者经常被问及关于入行或转行 AI 的问题,其中颇有一些高频重复出现,今天总结出来几个,供大家参考。

问题1:年龄偏大了,而且之前也不是计算机相关专业的,怎么才能转行做 AI?

这个问题经常被问到。有不少朋友,工作了几年之后,想转向 AI 技术岗位。但感觉自己年纪比较大了,或者有生活压力,考全日制的研究生不太现实。

偏偏大多数公司招 AI 工程师的时候,要求应聘者有相关专业硕士学位等学术背书。作为转行者,应该怎样提高专业背景?

针对这种情况,笔者的建议是:从自己原来的专业领域入手。

比如,一位原本制造业的自动化工程师,肯定对各种工业生产设备比较熟悉,了解各种各样的电机、传感器,知道这些设备输出信号的物理含义。

那么,当工业领域运用机器学习方法时,自动化工程师在特征工程方面就具备了相当的优势,这些领域知识,不是纯粹搞机器学习的人能比的。

至少在现阶段,机器学习、深度学习的实际落地都以数据为主——能够把实际问题转化成数值拿去运算,比把运算本身(算法)做得精巧要来的重要。

Unity开发中提升效率的高级技巧(二)

作为一名Unity3D游戏开发者,无论是初学者,还是已经就业的工作者,在平时的学习工作里,掌握一些Unity开发的高级技巧,能够很好的节省开发时间,提高开发效率,毕竟世界如此美丽精彩,我们应当把时间花费在更有价值的事情上。

Unity开发技巧:

41、使用[Tooltip( "提示信息" )]可以在鼠标停留时显示提示信息。


42、在层级视图中选中游戏对象,按快捷键Shift + Alt + A可以快速设置对象激活状态。

如何才能成为黑客?成为顶尖黑客的5个条件!

说起黑客在大家的印象中是十分的酷炫拉风,在很多的电影电视剧里面,大家也不难看出,他们有着超乎常人的电脑,能够解决普通人无法做到的电脑问题,这就是黑客。被世人所敬仰,但是在身份上又十分的神秘,捉摸不定同时在地点上也无法找寻到确切的位置。

第一、想要让自己成为一名顶尖的黑客,就是在态度上要有一定的认知。大多数的黑客,并非是以赚钱为目的,在他们的心中会有一种博爱,重点和方向都是以解决常人无法处理的问题作为前提条件。如果只是希望成为黑客之后,可以赚钱赢取利润,在态度上的理解失误,注定不会成为一名优秀的黑客。

第二、在于好奇心,想要成为顶尖的黑客,除了可以帮助大家解决困难的问题之外,最为重要的一点,仍然还是需要拥有一双善于发现问题的眼睛。只有具备了好奇心,才可以在探索和发现问题之后,体会并且享受这些解决问题所带来的优越感,这样的方式和理念不仅得到了大家的认同,更是吸引着更多人的目光和眼球。要具备一种不断超越自我极限的挑战能力,学会突破自己,对自己充满着信心,认为在接下来未知世界当中,仍然会存在着很多的问题,值得被大家所解决,这才是确保在接下来的探秘过程中取得突破性进展的关键。

开发者谈传统游戏难度设计的缺陷和设计思维转变

原作者:Alex Vu 译者:Vivian Xue

游戏难度设计是人们深入讨论已久的话题。许多替代传统的在游戏开头提供难度选择的方法都被提出、分析和应用。然而,尽管它们从一定程度上弥补了传统方式的缺陷,它们本身仍存在诸多问题。因此,我想提出另一种替代方式——它算不上一种技术应用层面的解决方案,而是一种不同的难度设计理念。

我想要强调一点,这种理念已经被成功地运用到了许多游戏设计中,之后我将提到,但就目前的应用程度来看,它尚未成为难度设计的核心理念,而在我看来这是它应得的地位。我想这是由于我们缺乏一套相对清晰且深思熟虑的难度设计思路。

但首先,请让我试着简短地总结一些对传统的难度模式设计及其替代方法的常见批评。

难度模式存在的问题

试想一下你刚进入了一款全新的游戏,你的面前立即出现了若干选项,要求你选择一个适合你的难度模式。说白了,他们在让你做出这个重要的决定前,并没有为你提供充分的信息。这就是我们的游戏一贯以来处理难度问题的方式,并且直到现在,这种方式在游戏中仍然很常见。

以下是对这种方式的一些常见的批评:

机器学习里,数学到底有多重要?

之前总有同学问:如果学习机器学习、人工智能用什么软件比较好?从与大家的交流中发现,很多同学把机器学习的核心放到了软件的使用,缺少获取有用结果所必要的数学方法与思维。

事实上,目前针对机器学习的软件十分容易获取,例如 Python,scikit-learn,Weka 等等,而且相应的软件学习教程也不难找到。

但机器学习是集合了统计学、概率论、计算机科学、数学算法多等方面交叉研究,即便你对机器学习的应用炉火纯青,但对这些技术没有一个全面的数学理解,极有可能出现应用失误。

那自然有同学会问:

为什么机器学习中的数学很重要?

这个问题的理由我想强调以下几点:
1. 选择合适的算法,要考虑的包括算法准确性、训练时间、模型复杂度、参数的数量和特征数量。
2. 选择参数设置和验证策略。
3. 理解偏差与方差的权衡以确定欠拟合和过拟合。
4. 预估正确的置信区间和不确定性。

你需要多高的数学水平?

试图了解一个例如机器学习这样的跨学科领域,主要的问题是必要的数学知识的量,以及理解这些技术需要的数学水平。这个问题的答案是多方面的,取决于个人水平和兴趣。

图像识别中的深度学习

来源:《中国计算机学会通讯》
作者: 王晓刚

1、深度学习发展历史

深度学习是近十年来人工智能领域取得的重要突破。它在语音识别、自然语言处理、计算机视觉、图像与视频分析、多媒体等诸多领域的应用取得了巨大成功。现有的深度学习模型属于神经网络。神经网络的起源可追溯到20世纪40年代,曾经在八九十年代流行。神经网络试图通过模拟大脑认知的机理解决各种机器学习问题。1986年,鲁梅尔哈特(Rumelhart)、欣顿(Hinton)和威廉姆斯(Williams)在《自然》杂志发表了著名的反向传播算法用于训练神经网络,该算法直到今天仍被广泛应用。

神经网络有大量参数,经常发生过拟合问题,虽然其识别结果在训练集上准确率很高,但在测试集上效果却很差。这是因为当时的训练数据集规模都较小,加之计算资源有限,即便是训练一个较小的网络也需要很长的时间。与其他模型相比,神经网络并未在识别准确率上体现出明显的优势。

【算法学习】空洞卷积

一、空洞卷积的提出

空洞卷积(atrous convolutions)又名扩张卷积(dilated convolutions),向卷积层引入了一个称为 “扩张率(dilation rate)”的新参数,该参数定义了卷积核处理数据时各值的间距。

该结构的目的是在不用pooling(pooling层会导致信息损失)且计算量相当的情况下,提供更大的感受野。 顺便一提,卷积结构的主要问题如下:
池化层不可学
内部数据结构丢失;空间层级化信息丢失。
小物体信息无法重建 (假设有四个pooling layer 则 任何小于 2^4 = 16 pixel 的物体信息将理论上无法重建。)

而空洞卷积就有内部数据结构的保留和避免使用 down-sampling 这样的特性,优点明显。

二、空洞卷积原理

如下如,卷积核没有红点标记位置为0,红点标记位置同正常卷积核。

大众消费者容易对物联网产生这5个误解!

万物互联是未来时代的发展趋势,物联网的应用正一步步改变着世界,也改变着我们的日常生活。在物联网遍及社会生活的每个角落之前,我们有必要认清关于物联网的5个认知误区。

什么是物联网?它是一套新的连接技术,有望在未来十年内为数十亿的设备提供网络连接。这套技术,也就是物联网。它涵盖洗碗机、烘干机及其他的家用电器,还有车辆及公共场所的一些设施,甚至覆盖无数工业应用。他们的共同点是:收集数据并将其发送到企业或其他系统中。

虽然人们接触物联网这个词汇有一段时间了,但是对于它到底是什么以及它在物理世界中的工作方式,尚存困惑。以下是关于物联网技术的一些主要误区,认知这些误区在一定程度上可供企业高管和其他试图入局物联网的企业参考。

1. 物联网的规模很小?

当我们向别人介绍什么是物联网时,通常会提到智能手环、共享单车、智能售货柜等较小的设备来回答这个问题。因此,很多人认为物联网是小规模的。事实上,物联网的应用远非这些,智能手环属于可穿戴设备领域,共享单车属于智慧交通领域,智能货柜属于新零售领域,此外还有智慧城市、智慧物流、工业4.0等等领域,而这些,又仅仅是物联网架构的行业应用。

GPU图像处理的基本流程

现代GPU提供了顶点处理器和片段处理器两个可编程并行处理部件。在利用GPU执行图像处理等通用计算任务时,要做的主要工作是把待求解的任务映射到GPU支持的图形绘制流水线上。

通常的方法是把计算任务的输入数据用顶点的位置、颜色、法向量等属性或者纹理等图形绘制要素来表达,而相应的处理算法则被分解为一系列的执行步骤,并改写为GPU的顶点处理程序或片段处理程序,然后,调用3D API执行图形绘制操作,调用片段程序进行处理;最后,保存在帧缓存中的绘制结果就是算法的输出数据。

虽然数字图像处理算法多种多样,具体实现过程也很不相同,但是在利用GPU进行并行化处理时,有一些共性的关键技术问题需要解决,如:数据的加载,计算结果的反馈、保存等。

下面对这些共性的问题进行分析,并提出相应的解决思路。

1. 数据加载