人工智能

人工智能热火朝天,Imagination助你迈上新征程

最近几年,科学竞技真人秀节目“最强大脑”在中国观众圈引起了很大反响,成为不少热衷科学和脑力的年轻人喜爱的节目。该节目从2014年开播以来一直都是人与人之间比拼,而当2017年节目舞台上出现一台人工智能机器人,并与人类在图像识别、语音识别甚至记忆领域开始比拼时,观众们惊讶地发现人工智能居然如此强大,机器人展现出的计算速度和精确度让观众充分感受到人工智能的魅力。人工智能,已从十几年前大学课本上的理论知识开始真正走入我们的生活,手机、汽车、医疗、教育、金融等众多领域纷纷开启人工智能应用的探索和实践。

如此广阔的应用市场,自然需要优质的技术、方案和产品来支撑。人工智能的研究和开发已经不只是高校、科研院所或者BAT这种行业巨头所关注的事,越来越多的人工智能芯片公司或解决方案提供商如雨后春笋般出现,产业发展呈现一片热火朝天的景象。Imagination Technologies作为GPU领域的领导者,在图形图像处理方面拥有深厚的技术优势,而公司也正在借助这些优势发力人工智能领域,从2017年下半年开始陆续推出神经网络加速器等相关产品,并积极参加人工智能领域的行业活动,与芯片公司展开交流互动。

为什么说机器学习是我们预防网络威胁的最佳武器

随着攻击面的不断扩大以及攻击技术的日趋复杂,安全行业目前正面临着严重的“安全技能短缺”。因此,我们过去所使用的安全保护策略可能已经不再像以前那么有效了,而现在唯一能帮我们对抗网络犯罪分子的盟友/武器,可能就是机器学习技术了。

尽管很多大学和在职培训机构已经尽了最大的努力,但到2022年市场上预计将出现180万左右的安全专业职位空缺。这场“危机”之所以会到来,其中一个原因就在于物联网设备数量的直线上升将导致攻击面呈指数增长。与此同时,很多传统的犯罪组织以及流氓国家也正在成为网络犯罪领域中的主要力量,他们所拥有的资源和技术可能比以往安全社区所面临的任何情况都要可怕得多。

但幸运的是,机器学习和其他形式的人工智能技术已经成熟到足以加入网络安全防御战线的最前线了。计算机分析趋势、处理大规模数据以及检测异常的能力都要远远高于人类能力。在机器学习算法的的帮助下,计算机可以根据一系列基本规则来将其应用到大规模数据集上。当它们不停地对这些规则进行迭代测试后,它们对数据的理解将会更加深刻和复杂。

利用机器学习增强安全防御、检测和响应能力

人工智能拥抱大数据

作者:刘超

1. 机器什么时候才能懂人心

虽说有了大数据,人的欲望总是这个不能够满足。虽说在大数据平台里面有搜索引擎这个东西,想要什么东西我一搜就出来了。但是也存在这样的情况,我想要的东西不会搜,表达不出来,搜索出来的又不是我想要的。例如音乐软件里面推荐一首歌,这首歌我没听过,当然不知道名字,也没法搜,但是软件推荐给我,我的确喜欢,这就是搜索做不到的事情。当人们使用这种应用的时候,会发现机器知道我想要什么,而不是说当我想要的时候,去机器里面搜索。这个机器真像我的朋友一样懂我,这就有点人工智能的意思了。

人们很早就在想这个事情了。最早的时候,人们想象,如果要是有一堵墙,墙后面是个机器,我给它说话,它就给我回应,我如果感觉不出它那边是人还是机器,那它就真的是一个人工智能的东西了。

2. 让机器学会推理

我们能相信AI吗?

作者:Russell James

人工智能(AI)是未来技术的核心。很少有一种技术能像人工智能那样惠及社会。人工智能系统从大量复杂的非结构化信息中学习,并将其转化为可实施的见解。可以想象,在未来的几十年内,由于可以收集和分析的数据量不断增加,人类可以在各个领域取得重大突破,比如医学创新、气候分析和复杂的全球经济管理等等。

就像对人产生信任需要时间一样,对AI系统建立信任也不可能短时间内完成。但这并不意味着单靠时间就能解决人工智能的信任问题。人们总是希望事情会像期望的那样发展,但正像人类一样,AI也会犯错。尽管AI发展如此迅猛,但目前还是处于起步阶段。现在人们接触到的大部分系统都使用深度学习,这只是AI的一种形式。对于发现模式并将其用于识别、分类和预测的应用来说,深度学习是非常理想的选择,比如给购物者提供针对性的建议等。

然而,由于对神经网络模型运行方式的理解不够,这些系统仍然会出现错误,这些错误可能是由于训练集的限制或算法中未知的偏差造成的。这些错误带来了“AI无赖”的可怕结果,比如在Twitter上发布种族主义和性别歧视信息的聊天机器人,或者展示种族和性别偏见的AI程序。 对AI系统建立信任需要做什么呢?

深思 | AI黑箱:我们要用AI解释AI?

AI算法对人类生活的影响越来越大,但它们内部的运作往往是不透明的,人们对这种技术的工作方式也愈加感到担忧。MIT科技评论曾经发表一篇题为“人工智能中的黑暗秘密”的文章,警告说:“没有人真正知道先进的机器学习算法是怎样工作的,而这恐将成为一大隐忧。”由于这种不确定性和缺乏问责制,纽约大学AI Now Institute的一份报告建议负责刑事司法、医疗保健、社会福利和教育的公共机构不应该使用AI技术。

输入的数据和答案之间的不可观察的空间通常被称为“黑箱”(black box)——名称来自飞机上强制使用的飞行记录仪“黑匣子”(实际上是橙色的,而非黑色),并且经常在空难事故后用于向调查人员提供有关飞机当时运作情况的数据。在人工智能领域,这个术语描述了AI技术如何在“暗处”运作的景象:我们提供数据、模型和架构,然后计算机给出答案,同时以一种看似不可能的方式继续学习——显然对于我们人类来说,这太难理解了。

黑箱没有什么可怕的

深度解析 | 人工智能 (AI):到超级智能的路径

什么是AI?

MAFIA

人工智能或者是AI可能对很多人来说只是一个科幻的概念,但最近在这领域有很多很有趣的进展。

首先,AI并不是机器人。机器人只是AI的身体,而AI是机器人的头脑。但在很多情况下AI是无体的,比如智能手机的语音助手只是AI软件和数据组成的。

AI的口径或等级可以分成三大类:

Artificial Narrow Intelligence (ANI)

短秤weak AI,这类AI只专注于一个单一功能或领域,比如当世界象棋冠军。

Artificial General Intelligence (AGI)

短秤strong AI,这类AI跟人一样聪明,人能做或想到的事它都能实现。人类到目前还没研发出真正的AGI,要实现这个比实现ANI难得多,因为AGI要会抽象地思考、解读、和从经验快速学习。

让人工智能摆脱偏见

作者:Francisco Socal,Imagination Technologies

人们都曾看过电影里机器控制了世界而人类被毁灭的场景。好在这些电影只是娱乐性的,现实世界是不会发生的。然而,一个更应该关注的问题是:算法偏见。

所谓“算法偏见”是指在看似没有恶意的程序设计中带着设计者的偏见,或者所采用的数据是带有偏见的。结果当然是带来了各种问题,例如,被曲解的谷歌搜索,合格的考生无法进入医学院就学,聊天机器人在推特上散布种族主义和性别歧视信息等。

人工智能和物联网发展推动云计算进入3.0时代

“互联网+”加速了云计算的普及,目前约有 80% 的企业用户将其IT系统运行在云中。与此同时,人工智能和物联网的发展,带动了海量终端以及海量数据交互分析的需求,进一步加速了云计算市场和技术格局的改变。

目前云计算的演进过程可以分为三个阶段

• 第一阶段,中小企业通过云计算实现从“无”到“有”的IT功能

• 第二阶段,云计算成为企业级用户IT核心应用的补充资源

• 第三阶段,在原生应用、人工智能和物联网驱动下,云计算成为企业IT的核心资源

当前,大多数企业正处于云计算的第二阶段,越来越多的企业开始选择将业务部署上云。

大数据、人工智能、物联网等新技术的快速发展,推动着云计算与边缘计算在架构和技术上的融合,以满足高性能计算、大数据分析的需求,以及智能终端对数据的快速采集、实时分析,最大限度地挖掘企业的业务创新能力和发展潜力。通过对云计算的持续演进,企业不仅能得到阶段性的云投资回报,还能获得不断升级云计算的能力、云和边缘技术融合的能力,以及通过云生态圈和云平台提供云服务的能力。

推荐 10 个饱受好评且功能独特的开源人工智能项目

关于人工智能的项目,相信大家都看过或者用过不少了,但它们的大多数看上去都十分“高大上”,让人感觉要掌握他们犹如习屠龙之术一样。事实上,有很多关于人工智能的项目还是十分实用的,而且用途还十分有趣,下面就简单为大家盘点 10 个功能独特的开源人工智能项目。

1. STYLE2PAINTS:强大的为线稿上色的 AI

推荐理由:新一代的强大线稿上色 AI,可根据用户上传的自定义色彩给线稿进行上色。项目提供了在线使用网站,十分方便使用。

推荐 10 个饱受好评且功能独特的开源人工智能项目

2. SerpentAI:基于 Python 的教 AI 打游戏的学习框架

推荐理由:SerpentAI 旨在为机器学习和 AI 研究提供一个有价值的工具。但同时,对于爱好者来说,它也是非常有趣的。

人工智能也有负能量,我们得提前做好准备

最近几天,各种对2018年的科技预测层出不穷,其中对AI的畅想占了大头,内容差不多是一片喜庆祥和。

但事有两来,当我们开始从AI中收获价值的时候,技术升级后带来的潜在风险也在升温。这就像汽车当然好过牛车,但汽车也会带来各种各样的交通事故。我们当然不能因此禁止汽车上路,但是也不能对交通问题视而不见。

今天我们来预测几个,很可能在2018年进入我们眼帘的“人工智能负能量”。

毕竟做好准备,是解决问题的前提条件。

一、人工智能伦理问题开始出现个案

2017年1月,在加利福尼亚州阿西洛马举行的Beneficial Al会议上,近千名人工智能相关领域的专家,联合签署了著名的《阿西洛马人工智能23条原则》。

随后,各种关于人工智能伦理道德的讨论、会议,以及相关协会和科技组织开始出现在公众视野里。

《23条原则》的主要内容,就是呼吁人工智能不能损害人类的利益和安全,同时人工智能必须可以被人类控制,同时人类要尽量尊重人工智能和机器人的安全。

听起来颇有点科幻的味道,但是在各行各业开始部署AI,尤其开始利用AI进行自动化决策的时候,人工智能的伦理与道德问题或许真的会浮出水面。

同步内容
--电子创新网--
粤ICP备12070055号