19-深度学习-NLP自然语言处理原理和进阶 - 猎人搜索 轻松搜寻全网资源
- file:13:VanillaRNN的回顾复习.mp4
- file:12:理解LSTM长短时记忆_记住Topo和公式.mp4
- file:15:LSTM的回顾复习_LSTM手写数字识别.mp4
- file:11:利用RNN循环神经网络对MNIST手写数字识别.mp4
- file:RNN_Attention机制.pdf
- file:9:理解RNN循环神经网络拓扑结构.mp4
- file:16:双向RNN_LSTM.mp4
- file:17:RNN里面应用的Topology结构.mp4
- file:14:补充讲一下为什么RNN中链越长越容易梯度消失.mp4
- file:20:Transformer_Positional_使用逻辑_网络结构总结(1).mp4
- file:19:Transformer_Self-Attention_Multi-head(1).mp4
- file:18:Seq2Seq中Attention注意力机制(1).mp4
- file:7:分层Softmax应用到CBOW模型上.mp4
- file:5:Skip-gram模型思想和计算过程.mp4
- file:2:NPLM神经网络语言模型.mp4
- file:6:Huffman树_分层Softmax的思想.mp4
- file:3:词向量的作用.mp4
- file:Word2Vec.pdf
- file:22:BERT理论(1).mp4
- file:21:ELMO.mp4
- file:23:ERNIE_GPT.mp4
- folder:19-深度学习-NLP自然语言处理原理和进阶
- folder:章节2:循环神经网络原理与优化
- folder:章节3:从Attention机制到Transformer
- folder:章节1:词向量与词嵌入
- folder:章节4:ELMO_BERT_GPT
分享时间 | 2025-03-25 |
---|---|
入库时间 | 2025-03-25 |
状态检测 | 有效 |
资源类型 | QUARK |
分享用户 | 荷* |
资源有问题?点此举报