Attention 直观理解
什么是 Attention?通常很多教程或教材会告诉你,Attention 就是一种注意力,它可以让你关注更应该关注的,而忽略那些不应该关注的,Attention 通常代表某种兴趣点或关联性,Attention 机制使得模型会更关注有关联性的特征。但是这种表达非常抽象,即使是用了比喻的方法,仍然不好
循环神经网络 RNN 简析
循环神经网络 RNN前言要看懂这篇文章需要你对机器学习有基本的了解,至少了解 MLP 的原理,本文并不是零基础文章。时序数据与模型时序数据指的是一系列带有时序关系的数据,例如一段文本,先出现哪个字后出现哪个字是有时序关系的,字词顺序颠倒会导致意义不同,时序数据指的就是这一类数据点前后存在相关性的数据
- 1