Transformer原理与代码精讲
├── 01 课程介绍
│   └── 01 课程介绍.mp4
├── 02 Transformer原理精讲
│   ├── 01 注意力机制和自注意力机制.mp4
│   ├── 02 Transformer的架构概述.mp4
│   ├── 03 Transformer Encoder的多头注意力.mp4
│   ├── 04 Transformer Encoder的位置编码.mp4
│   ├── 05 Transformer 残差链接、LayerNorm、FFN.mp4
│   ├── 06 Transformer Decoder.mp4
│   ├── 07 Transformer的训练及性能.mp4
│   └── 08 Transformer的机器翻译工作流程.mp4
├── 03 Transformer代码精讲(Pytorch)
│   ├── 01 安装pytorch.mp4
│   ├── 02 Transformer的Encoder代码解读.mp4
│   ├── 03 Transformer的Decoder代码解读.mp4
│   ├── 04 Transformer的超参设置代码解读.mp4
│   ├── 05 Transformer的训练示例(人为随机数据)代码解读.mp4
│   └── 06 Transformer的训练示例(机器翻译)代码解读.mp4
└── 04 Transformer代码精讲(TensorFlow 2)
    ├── 01 安装TensorFlow.mp4
    ├── 02 Transformer的数据集加载与预处理代码解读.mp4
    ├── 03 Transformer的位置编码与多头注意力代码解读.mp4
    ├── 04 Transformer的Transformer类代码解读.mp4
    ├── 05 Transformer的优化器与损失函数代码解读.mp4
    ├── 06 Transformer的训练代码解读.mp4
    └── 07 Transformer的推理与权重保存代码解读.mp4
免责声明:
1、本站资源所有言论和图片纯属用户个人意见,与本站立场无关
2、本站所有资源收集于互联网,由用户分享,该帖子作者与本站不享有任何版权,如有侵权请联系本站删除
3、本站部分内容转载自其它网站,但并不代表本站赞同其观点和对其真实性负责
4、如本帖侵犯到任何版权问题,请立即告知本站,本站将及时予与删除并致以最深的歉意