人工智能(Artificial Intelligence),是研究、开发用于模拟、延伸和扩展人工智能的理论、方法、技术及应用系统的一门新的技术科学。
它起源于20世纪五六十年代,经过半个多世纪的演变,经历了符号主义、连接主义和行为主体三次浪潮的相互交织发展,到如今,作为一项新兴的通用技术,正在推动着社会生活与各行各业的巨变。
现阶段人们普遍认为:深度学习+大规模计算+大数据=人工智能。
一、什么是深度学习?
在人工智能领域,机器学习是其中的一个技术流派,通过从已知样本中提炼规律来获得判断未知样本的智能;深度学习则是机器学习的一种,它所学习出来的模型是深度神经网络。
具体来说,机器学习可以理解为机器从已知的经验数据(样本)中,通过某种特定的方法(算法),自己去寻找提炼(训练/学习)出一些规律(模型);提炼出的规律就可以用来判断一些未知的事情(预测),自2006年以来,机器学习领域深度学习(Deep Learning)取得了突破性的进展。
深度学习是一种特殊的机器学习,在语音和图像识别方面取得的效果,远远超过先前相关技术。
它通过学习将世界表示为嵌套的概念层次结构来实现强大的功能和灵活性,每个概念都是根据更简单的概念进行定义的,而更抽象的表示则用不那么抽象的概念计算出来。
深度学习算法分「训练」和「推理」两个过程。
简单来讲,人工智能需要以大数据为基础,通过「训练」得到各种参数(也就是模型),然后把模型传递给「推理」部分,得到最终结果。
神经网络分为前向计算(包括矩阵相乘、卷积、循环层)和后向更新(主要是梯度运算)两类,「训练」是两者兼而有之,「推理」主要是前向计算,都包含大量并行运算。
一般来说,「训练+推理」在云端进行,终端人工智能硬件只负责「推理」。
二、算力:人工智能的核心要素
数据:
人类要获取一定的技能都必须经过不断地训练,才能熟能生巧,AI也是如此。人工智能的根基是训练,只有经过大量的训练,神经网络才能总结出规律,应用到新的样本上。只有拥有大量数据,且能覆盖各种可能的场景,才能得到一个表现良好的智能模型。
算力:
有了数据之后,需要进行不断地重复的训练。深度学习中有三个概念叫Epoch(“一代训练”),Batch(“一批数据”),Iteration(“一次训练”)。仅仅将训练集从头到尾训练一遍是不够的,需要把训练集翻来覆去训练很多轮。训练和推理都需要强大算力的支撑。
算法:
神经网络算法和深度学习是目前最主流的人工智能算法。
算力是人工智能的三大要素之一,需要芯片的支撑,这是人工智能进一步发展并实现产业化的关键。
三、人工智能的研究者选择了GPU
最初,并不是GPU选择了人工智能,而是人工智能的研究者选择了GPU,进而成就了GPU:2012年Alex Krizhevsky(前谷歌计算机科学家)利用深度学习+GPU的方案,一举赢得Image Net LSVRC-2010 图像识别大赛,并奇迹般地将识别成功率从74%提升到85%。
NVIDIA敏锐地洞察到了这一趋势,于是耗费巨大的人力物力优化基于自家GPU的CUDA深度学习生态系统,在三年时间里将GPU性能提升了65倍,并提供基于其GPU的从后端模型训练到前端推理应用的全套深度学习解决方案,使得一般的开发人员都可以非常容易地使用GPU进行深度学习开发或高性能运算,从而奠定了其目前的王者之位。
GPU是AI时代的算力核心,但AI算力的构成不仅仅只是GPU加速芯片,还需要构建包括网络互联、操作系统、深度学习框架及相应 SDK、算法与应用程序等,形成一个完整的计算生态系统。
可以说,是人工智能和GPU互相成就了对方:人工智能算法促进GPU的发展,而GPU也让算法更加简单。
本文转自:渲大师,转载此文目的在于传递更多信息,版权归原作者所有。如不支持转载,请联系小编demi@eetrend.com删除。