LSTM

基于标准化生成流的人体运动风格迁移方法

近期,清华大学温玉辉博士后、刘永进教授、中科院计算所副研究员高林、香港城市大学傅红波教授等合作,在CVPR2021上发表论文,提出了一种基于标准化生成流(Glow)的自回归运动风格迁移方法,并在GitHub上开源了Jittor代码。

LSTM原理及实现(一)

当我们处理与事件发生的时间轴有关系的问题时,比如自然语言处理,文本处理,连续几天的天气状况,语音识别,机器翻译等。在考虑这些和时间轴相关的问题时,传统的神经网络就无能为力了,因此就有了RNN。这里介绍RNN基本原理是为了铺垫我们的重点LSTM网络。

LSTM 为何如此有效?这五个秘密是你要知道的

长短期记忆网络(LSTM)不仅能够解决 RNN无法处理长距离的依赖的问题,还能够解决神经网络中常见的梯度爆炸或梯度消失等问题,在处理序列数据方面非常有效。有效背后的根本原因有哪些?本文结合简单的案例,带大家了解关于 LSTM 的五个秘密,也解释了 LSTM如此有效的关键所在。

【视频】LSTM在Imagination神经网络加速器上的运行

Mozilla的DeepSpeech是一个开源的语音转文本引擎,其训练模型是基于百度深度语言研究论文的机器学习。我们将概述如何运行该模型的0.5.1版本,通过在Imagination神经网络加速器(NNA)上加速静态LSTM网络,为汽车应用创建语音助手原型。

简单理解LSTM神经网络

在传统神经网络中,模型不会关注上一时刻的处理会有什么信息可以用于下一时刻,每一次都只会关注当前时刻的处理。举个例子来说,我们想对一部影片中每一刻出现的事件进行分类,如果我们知道电影前面的事件信息,那么对当前时刻事件的分类就会非常容易。