joycha 的blog

5步建立起更好的IoT安全基线

企业接入点制造商Ruckus又补上了一堆指令注入漏洞,这些漏洞可致ZoneDirector控制器和Unleashed AP虚拟控制器被黑客完全掌控。其中一个漏洞,与去年被披露的Ruckus Web-GUI问题极端相似。虽说任何足够复杂的软件都难免出现漏洞,但仍有几个缓解方法可以大幅减小成功漏洞利用的影响。

2017年,没理由让某些设计缺陷在一个又一个产品中不断复现。安全人员是时候开始对供应商期待更多了。

以下几个安全操作,我们应纳入IoT安全基线来考虑:

1. 别再什么都用root权限来运行

或许在嵌入式Linux早期,资源限制让开发者不得不放弃传统基于用户的安全模式,而转向什么都用root用户来执行。时至今日,再没有任何借口连Web服务器都以uid为0的最高权限来运行了。

默认情况下,管理界面应以较小权限运行,只可执行部分特权操作。只要Ruckus采用了任何形式的权限分离,就不会发生曝出的漏洞被直接用于完全入侵的状况。

2. 反跨站请求伪造令牌应普遍应用

编者按:人工智能的快速发展的确值得欣喜,但快速发展的背后还有各种不完善的地方。比如,前不久麻省理工学院的一些学生,利用3D打印出来的乌龟,成功地让谷歌的InceptionV3图像分类器认为其是一个步枪。乌龟=步枪?这个差距还是非常巨大的。如果正在行驶的无人汽车,把一个停车标志看成了限速标志呢?这将会带来多大的危险?近日,FastCodesign发表了一篇文章讨论了这一问题,作者为Katharine Schwab,文章由36氪编译。

一辆自动列车在轨道上飞速行驶,它的摄像头不断地扫描着各种信号,以预测它的行驶速度应该有多快。它注意到了一个似乎需要提高速度的信号,然后照做了。几秒钟之后,火车险些出轨。后来,当一名人类调查员检查出问题的标志时,他们得到的是一种截然相反的信号——是放慢速度,而不是加快速度。

预测人脑会想什么,机器人蠕虫协助医生做手术,智能家居煮好早餐,无人驾驶汽车送去上班……在刚刚闭幕的第四届世界互联网大会上,人工智能、5G时代、物联网、网络安全这些全球互联网“大咖”们口中的高频词将如何影响我们的生活?

人工智能:带人类进入前所未有的智慧社会

本次互联网大会上,人工智能成为大咖们热议的焦点。大咖们预测,未来,人类会慢慢习惯进入一个人工智能无处不在的社会。

“人工智能方向很多,主要看具体场景如何落地。”腾讯董事会主席兼首席执行官马化腾说,目前人工智能和医疗结合应用超乎想象,尤其是在医学影像识别方面,早期筛查肿瘤的准确率已经超过普通医生的水平。

脸书全球副总裁石峰认为,人和机器可以互联互通。比如,预测人脑中可能会想什么,让瘫痪病人大脑里的信息传递给机器;通过大脑里的信息和指令直接让机器以比人类在智能手机上快5倍的输入速度打字。

这些大咖被问及最多的一个问题是:未来人工智能会取代人类吗?阿里巴巴董事局主席马云说,人类对自己大脑的认识不到10%,10%创造出来的机器不可能超越人类,与其担心技术夺走就业,不如拥抱技术解决问题。

物联网:让世界万物连接在一起

浅谈深度学习的技术原理及其在计算机视觉的应用

目前,深度学习几乎成了计算机视觉领域的标配,也是当下人工智能领域最热门的研究方向。计算机视觉的应用场景和深度学习背后的技术原理是什么呢?下面让我们来一探究竟。

计算机视觉的应用

什么是计算机视觉呢?形象地说,计算机视觉就是给计算机装上眼睛(照相机)和大脑(算法),让计算机可以感知周围的环境。目前计算机视觉研究主要集中在基础应用场景,像图片分类、物体识别、人脸的3D建模等。

浅谈深度学习的技术原理及其在计算机视觉的应用

识别物体是图片分类的一个比较常见的应用,例如一个简单的猫咪识别模型,我们首先要给计算机定义模型,然后准备大量猫咪的照片去训练这个模型,让计算机能识别出来,输一张图片的时候能识别出图片是不是猫咪。正常情况下计算机模型能识别得比较准确,但是当我们输入了一些有遮挡、形态多变或者角度、光照不一的图片时,之前我们建立的模型就识别不出来。这就是计算机视觉在应用中存在的难点问题。

深度学习背后的技术原理

数据库 10 大常见安全问题盘点

数据库已经成为黑客的主要攻击目标,因为它们存储着大量有价值和敏感的信息。 这些信息包括金融、知识产权以及企业数据等各方面的内容。网络罪犯开始从入侵在线业务服务器和破坏数据库中大量获利,因此,确保数据库的安全成为越来越重要的命题。

网络的高速发展为企业和个人都带来了无限机遇,随着在线业务变得越来越流行,接触全球客户也成为点指间能够实现的事情。想要建立一个在线业务,最重要的就是建立一个全面的数据库,与此同时,保护你共享在网络中的数据安全也是至关重要的。

尽管意识到数据库安全的重要性,但开发者在开发、集成应用程序或修补漏洞、更新数据库的时候还是会犯一些错误,让黑客们有机可乘。下面就列出了数据库系统 10 大最常见的安全问题:

1. 部署失败

数据库陷入危机最普遍的原因就是在开发过程中的粗心大意。有些公司会意识到优化搜索引擎对其业务获得成功的重要性,但是只有对数据库进行排序的前提下,SEO 才能成功对其优化。尽管功能性测试对性能有一定的保证,但测试并不能预料数据库会发生的一切。因此,在进行完全部署之前,对数据库的利弊进行全面的检查是非常重要的。

2. 数据泄露

量子加密不是万灵药 “弱点”在于中继器

在攻防双方的军备竞赛中,信息安全行业将目光放在了量子加密和量子密钥分发(QKD)上。然而,这也只能解决部分问题。

量子加密,也称为量子密码,将量子力学原理应用在消息加密上,让除预定收家之外的任何人都无法读取消息。这种方法利用了量子的多态优势,结合其“不变论”,形成不会被隐秘中断或干扰的特性。

加密古已有之,从亚述人保护陶器制作工艺,到德国人用恩尼格码保护军事秘密。今天,威胁比以往任何时候都多。所以,一些人就寻求用量子加密来保护数据了。

在“传统”计算机上,加密是这么进行的:二进制码(“0”和“1”)被系统性地从一个地方发送到另一个地方,然后用对称(私钥)或非对称(公钥)密钥加以解密。对称密钥加密,比如AES,使用同样的密钥加密消息或文件;而非对称加密,比如RSA,使用两个相关联的密钥——私钥和公钥。公钥是共享的,但私钥只有应该解密信息的人才知道。

然而,以大质数难以被分解为基础的公钥加密协议,比如Diffie-Hellman、RSA和椭圆曲线加密(ECC),却日渐面临威胁。业内很多人士认为,这些加密协议可被终端或边信道攻击绕过,比如中间人攻击、密码攻击和后门。作为该脆弱性的样例,RSA-1024不再被NIS认为安全,而边信道攻击已被证明对RSA-4096有效。

如何成为一名机器学习算法工程师?

如何成为一名机器学习算法工程师

成为一名合格的开发工程师不是一件简单的事情,需要掌握从开发到调试到优化等一系列能 力,这些能力中的每一项掌握起来都需要足够的努力和经验。而要成为一名合格的机器学习算法工程师(以下简称算法工程师)更是难上加难,因为在掌握工程师的通用技能以外,还需要掌握一张不算小的机器学习算法知识网络。下面我们就将成为一名合格的算法工程师所需的技能进行拆分,一起来看一下究竟需要掌握哪些技能才能算是一名合格的算法工程师。

如何成为一名机器学习算法工程师?

基础开发能力

所谓算法工程师,首先需要是一名工程师,那么就要掌握所有开发工程师都需要掌握的一些能力。有些同学对于这一点存在一些误解,认为所谓算法工程师就只需要思考和设计算法,不用在乎这些算法如何实现,而且会有人帮你来实现你想出来的算法方案。这种思想是错误的,在大多数企业的大多数职位中,算法工程师需要负责从算法设计到算法实现再到算法上线这一个全流程的工作。

本文作者Andrej Karpathy,现任特斯拉人工智能负责人,曾任OpenAI研究专家。在斯坦福大学读博时师从李飞飞,主要研究方向是卷积神经网络结构、自然语言处理及它们在计算机视觉上的应用。 Karpathy认为,我们已经进入了软件2.0时代。

经常看到人们将神经网络称为“机器学习工具箱中的另一个工具”,我不太认同,这是一种只见树木不见森林的短浅理解。神经网络不只是另一个分类器,还是编写软件基本转变的开始——带领我们进入了软件2.0时代。

我们熟悉的软件1.0的“经典堆栈”是用Python、C++等语言编写的计算机显式指令。通过编写每一行代码,程序员在程序空间中识别性能好的特定点。

软件2.0时代来了!特斯拉AI负责人说:神经网络正在改变编程

与1.0不同,软件2.0是用神经网络的权重编写的。因为涉及很多权重,直接在权重中编码很困难,因此程序员不参与代码编写工作。

量子计算新突破!数据总线有望解决困扰科学家多年的难题

伴随着量子计算的深入研究,量子计算时代的大门已经叩响。而量子计算机中那些亟待解决的问题仍制约着人类进军量子计算的步伐。目前,量子物理学家正在为“量子总线”的诞生奠定基础,这种量子总线可以在未来量子计算机的内存和处理器之间传递量子信息,或将解决困扰科学家多时的难题。

量子计算新突破!数据总线有望解决困扰科学家多年的难题

经典计算机把晶体管从一个状态切换到另一个状态,从而将数据表示为1和0,量子计算机则是使用量子位来实现这一目的。由于量子力学的超现实性质,量子位可以处于叠加状态,在此状态下它们可以将1和0都表示出来。

量子位采用的叠加状态会让它们“一举两得”,即同时持有两个状态。如果两个量子位在量子力学的意义上是相联的,或者说是纠缠的,它们就可以同时拥有四个状态,三个量子位的话,就有八个状态,以此类推。理论上来说,300个量子位的量子计算机可以容纳比可见宇宙中的原子还要多的状态。因此,计算机算法就可以使用这种互相纠缠的量子位,在瞬间进行数量极其庞大的计算。

自然语言处理的6大法宝

什么是人工神经网络?它是如何工作的?在自然语言处理中使用不同类型的人工神经网络到底能达到什么效果?今天我们就通过这篇文章简单地探讨一下这些问题。

作者:Olga Davydova

人工神经网络是一种基于大脑神经结构的非线性运算模型。它仅通过参考样本便可学习完成诸如分类、预测、决定和可视化等任务。

人工神经网络由许多神经元处理单元广泛连接而成。这些处理单元分为三类,包括输入层、隐含层(可以多于一层)和输出层。

自然语言处理的6大法宝

位于输入层的神经元将信息传递到隐含层,隐含层再传递至输出层。每个神经元都有加权输入(突触)、一个激活函数(代表该神经元特定输出的函数)和一个输出。突触是将神经网络转换为参数化系统的可调参数。

同步内容
--电子创新网--
粤ICP备12070055号