IBM

IBM预测未来5年对人类产生最大影响的5大创新

IBM认为,随着人工智能(AI)的迅速进步、超级天文望远镜、智能传感器和医疗设备的发展,从医疗卫生、环境到对地球、宇宙的了解等各个方面都将受益。当然这些预测都是基于目前出现的技术和研发水平,谁也不知道未来5年还会出现什么创新。

现在就看看IBM的科学家们对近期的愿景,到2022年我们可以再比照,就知道他们是否正确了:

1、得益于AI,说话将成为了解心理是否健康的窗口

5年内我们说的话和写的字都可以成为心理健康和身体健康的信号。最新的认知系统通过分析我们说话和书写,找到早期发育紊乱、心理疾病和神经退行性疾病的信号,帮助医生和患者更好预测、监控和跟踪这些健康问题。虽然看起来将语言线索与疾病信号联系起来还有段距离,但这种试验系统已经出现。去年南加州大学的团队建立一个项目,能检测到正常说话方式的变化并发现患上抑郁症的信号。

2、通过AI和强大的新设备,具备超级英雄视觉成为可能

最新一期《自然》杂志刊登了量子计算机领域一项重大突破:IBM公司科学家利用其研发的全新算法,成功在7量子位系统中模拟出氢化铍(BeH2)分子,是迄今量子系统模拟的最大、最复杂分子,打破了以往纪录。新研究意味着用小型量子系统研发新药和各种新材料指日可待。

当今超级计算机能模拟氢化铍和其他简单分子,并已在物理学和化学领域广泛应用。但模拟分子面临的最大挑战是计算化合物的基本能态,即必须模拟出每个原子内每个电子与其他所有原子的原子核间相互作用,这种相互作用遵循的是微观层面的量子力学原理,对传统超级计算机来说,模拟出这些量子特性的分子结构不仅要消耗大量能量,而且随着分子内原子数增加,模拟愈加困难。

科学家于是将目光投向量子计算机,认为其能克服传统计算机无法解决的难题。但量子计算机非常敏感,其准确性通常会受到温度或电磁场等波动的影响。此研究之前的纪录是,用3个量子位模拟出氢气这一结构简单的分子。

新研究打破了这一局限。IBM研究团队利用其开发的全新算法,在特定金属超导体制作的7量子位系统中计算出氢化锂(LiH)、氢气(H2)和氢化铍的最低能态,并模拟出这3种分子。其中氢化铍为迄今在量子系统中模拟的最复杂分子,创造了量子系统模拟新纪录。

「AI For Business」,是昔日蓝色巨人IBM 对其人工智能的定位,清晰而坚定,即便其营收连续21个月下滑、遭到投资人的质疑,也未曾改变。

对于这家最善于把脉未来趋势的公司,在人工智能席卷而来时当然也早有准备,比如他们的明星产品Watson。

认知商业,这是 IBM 人工智能的战略方向,而毫无疑问Watson 是实现一切战略的核心。

从最近的信息中,我们不断看到Watson在不同领域的大小动作,与某医院签约,入驻某家机构,和某公司战略合作,一副沃森很忙的样子。而忙的一切,也都成了为IBM努力赚钱的最终结果。

至于一家有国际影响力的巨头公司,当然提钱不免有些俗气,除此之外,它更想让人知道的是这家公司在人工智能的诗和远方:教AI来表现得更像人脑。

今天,我们希望通过这篇文章来试图描述这位重要玩家在其AI上的布局和观点,希望对你有帮助。

灵感来源:大脑

人类最伟大的思想家也逃脱不了从自然界寻求创作的灵感的路径,比如达芬奇设计的“ Ornithoper ”(翼型飞机)。

即便现在也没有改变。人工智能和机器学习方面的突破性进步也是以从自然语言中最先进的计算机构提取设计线索:那就是人的大脑。

IBM宣布深度学习取得了新的里程碑 处理时间更短更有效

据国外媒体报道,IBM研究所已经在分布式深度学习(DDL)中取得了一个新的里程碑,在接近交易效率的情况下,构建了一种可通过上百个处理器扩展DDL的软件。

IBM宣布深度学习取得了新的里程碑 处理时间更短更有效

深度学习技术是人工智能(AI)的一个分支,可模仿人脑的工作原理。它也是微软、Facebook、亚马逊和谷歌的重大关注焦点。

IBM的这项研究解决了深度学习的主要挑战之一:虽然大型神经网络和大型数据集有助于深度学习,但也会带来更长的训练时间。

培训大规模、深度学习的人工智能模型可能需要几天或几周的时间。

这个过程需要很长时间,因为扩展的处理器会相互通信。

事实上,随着处理器的加速,情况变得更糟。更快的处理器可以学习得更快,但与传统软件一样,它们之间的通信无法跟上。

IBM研究所的IBM研究员和系统加速及记忆主管Hillery Hunter在一篇博客文章中写道:“基本上,更聪明、更快的处理器需要更好的交流方式,或者他们不同步,大部分时间都在等待对方的结果。”

“所以,如果没有速度可能降低性能。”

IBM发布基于内存的人工智能计算架构

美国IBM公司发文称,该公司研究人员实现了在内存计算技术上的一次重大突破,发明了一种可以运行在100万个相变内存(PCM)上的无监督式机器学习算法,有望比传统计算机在计算速度和能耗利用效率方面提升200倍,非常适合实现人工智能应用中的高密度、低功耗、大规模的并行计算系统。这一成果发表在《自然·通讯》杂志上。

内存计算或可计算储存,是近年来新兴的一个概念,其原理是运用内存设备的物理特性同时进行信息的储存和处理,不采用传统上的内建缓存,并通过总线连接外部内存的阶层式架构,而是省略总线设计,直接把内存和 CPU 核心做在一起,尽最大的可能消除计算过程中因数据迁移所造成的延迟,显著提升计算效率。

IBM此次设计的内存计算架构中使用的相变内存设备由两个电极包夹着一层锗锑碲复合材料构成,微弱的电流可以使其加热,复合材料内部状态随着温度上升而发生改变,从无定形态变成晶态,利用了结晶动力学原理进行运算。这与IBM公司2016年8月发布的人造神经元的工作原理相同。

未来,IBM可能继续将人造神经元与内存计算架构相结合,像大脑一样,使逻辑的产生以及信息的存储都在同一处发生,非常适合于人工智能计算。这一成果也是IBM创造“人工大脑”的又一最新进展。

IBM称构建50量子比特量子计算处理器:计算能力惊人

IBM发布消息称已经构建成功50量子比特的量子计算处理器的样机,将使用在下一代的IBM Q系统中,提供给客户,BM的量子计算和人工智能研究部门的负责人Dario Gil在接受纽约时报采访时称,此前,全世界还没有一家公司可以在这样的尺度上构建一个量子计算机,与传统计算机相比,量子计算机能够达到惊人的计算能力。
IBM称构建50量子比特量子计算处理器:计算能力惊人
IBM 公司日前宣布其量子处理器取得了两项重大的进展,包括首款上线的 IBM Q 系统将配备 20 量子比特处理器,同时在超导量子比特设计、连接性和应用开发包方面都将有所改善。该系统的一致性时间(Coherence times,即可用于执行量子计算的时间量)平均可达 90 微秒,居业界首位,而且允许高保真的量子运算。同时IBM 还成功构建并测量了具有类似性能指标的 50 量子比特原型处理器。这款新的处理器扩展了 20 量子比特架构,将会在下一代 IBM Q 系统中使用。

IBM最新成果:利用机器学习算法预测精神分裂症准确率达74%

近日,IBM 科学家和阿尔伯塔大学加拿大埃德蒙顿分校在《自然》杂志的合作期刊《精神分裂症》(Schizophrenia) 上发布了新的数据,证明 AI 和机器学习算法能够以 74% 的准确率帮助预测精神分裂症病例。这项追溯性分析还表明,根据在大脑不同区域观察到的活动之间的关联,该技术能够从很高的相关性预测精神分裂症患者特定症状的严重程度。

这项开创性研究还可以帮助科学家识别更可靠、客观的神经影像生物指标 (Neuroimaging Biomarkers),用于预测精神分裂症及其严重等级。

精神分裂症是一种慢性衰弱性神经障碍,每 1,000 个人中有 7 到 8 个人会受其影响。精神分裂症患者可能出现幻觉、错觉或思维障碍,还可能出现认知障碍,比如无法集中注意力和身体缺陷,比如运动障碍。

阿尔伯塔大学的精神病学兼神经科学教授 Serdar Dursun 博士表示:“这种独特、富有创新的多学科方法加深了我们对精神分裂症的神经生物学原理的理解,可以帮助改善该疾病的治疗和管理。

我们在大脑中发现了许多重要的异常连接,未来的研究可以探索这些连接,而且 AI 创建的模型让我们离发现基于神经影像的客观模式更进了一步,这些模式可以作为精神分裂症的诊断和预后指标。”

IBM关于2022年的五大技术预测

据Next Big Future网站报道,IBM做出了关于2022年的五大技术预测:人工智能诊断心理健康、超成像及人工智能赋予人类超级英雄视觉、“宏观镜”协助理解关于复杂地球的无穷细节、“芯片上”的医学实验室从纳米层面探测疾病、智能传感器以光速探测环境污染。

一、人工智能诊断心理健康

5年后,认知型计算机将通过分析病人的讲话或书写,挖掘从语言(包括含义、语法和语调)中透露出的迹象。将这些量度的结果与可穿戴设备、成像系统结合起来,为健康专家绘出更完整的个人状况图像,以更好地甄别、理解及治疗潜在疾病,无论是帕金森氏症、阿尔茨海默氏症、亨廷顿氏症、创伤后应激障碍(PTSD),还是孤独症、注意力缺陷以及多动障碍等神经发育问题。一度被忽视的迹象将成为评估病人进入特定心理状态的可能性依据或评估其治疗计划效果的清晰信号,来自家庭的日常评估将为常规临床治疗提供补充。

二、超成像及人工智能赋予人类超级英雄视觉

随着计算机全面进入纳米时代,工程师们发现想要遵循摩尔定律变得越来越难了。

1965 年,Intel创始人戈登·摩尔提出了提出了“摩尔定律”,即集成电路上可容纳的晶体管数量大约每隔 1-2 年便会增加一倍,性能也随之翻倍。

五十多年来,摩尔定律一直有效,但目前业界的预测是,未来 10-15 年,在进行三次技术升级后,芯片制造工艺将达到 5 纳米,这意味着单个晶体管栅极的长度将仅为10个原子大小。在此基础上继续突破几乎是不可能的——从技术上讲,你不可能造出单个原子大小的晶体管。
图丨研究人员想象出的单原子晶体管概念图

另外,因为考虑到生产成本,制造商们将不再有意愿继续改进制程工艺,因为目前的芯片计算能力基本可以满足需求。这一趋势其实在模拟芯片市场早就出现了,很多模拟芯片厂商还在使用五年前的工艺来生产产品。

IBM类人脑芯片再获突破 擅长感觉和图形识别

据物理学家组织网近日报道,美国空军研究实验室与IBM公司合作研发的人工智能超级计算机再度引起关注,这一模拟人脑神经网络设计的64芯片系统,数据处理能力已经相当于包含6400万个神经细胞和160亿个神经突触的类脑功能,机器学习性能超过了目前任何其他硬件模型。
IBM类人脑芯片再获突破 擅长感觉和图形识别
这个名叫“TrueNorth(真北)”的神经突触系统由4块芯片板组成,每块芯片板装载16个芯片,构成一个64芯片阵列,能安装到标准的4U服务器中。

“真北”与传统芯片最大的不同在于,传统计算机的处理器需要时钟来充当“人体心脏”功能,但“真北”不需这样的时钟,其各个交错的神经网络平行操作,如果一个芯片不能正常工作,阵列中的其他芯片不会受到影响。

同步内容
--电子创新网--
粤ICP备12070055号