2025年2月新春班大模型原理与训练实战(视频+课件)
├── 大语言模型快速入门(课件) [目录]
│ ├── 【预习课】Lesson 1 谷歌邮箱Gmail注册.ts
│ ├── 【预习课】Lesson 2 OpenAI账号注册.ts
│ ├── 【预习课】Lesson 3 ChatGPT Plus升级流程.ts
│ ├── 【预习课】Lesson 4 ChatGPT防封指南.ts
│ ├── Ch 1.1 OpenAI官网使用说明.ts
│ ├── Ch 1.2 本地调用OpenAI API方法.ts
│ ├── Ch 2.1 Completion模型与Chat模型介绍.ts
│ ├── Ch 2.2 Completion.create函数参数详解.ts
│ ├── Ch 2.3 Completion.create函数调参数实践.ts
│ ├── Ch 2.4手动创建可调节对话风格的对话机器人创建.ts
│ ├── Ch 3.1 大语言模型原生能力与涌现能力介绍.ts
│ ├── Ch 3.2 提示工程技术入门.ts
│ ├── Ch 4.1 One-shot&Few-shot提示方法.ts
│ ├── Ch 4.2 Zero-shot-CoT提示法(新).ts
│ ├── Ch 4.3Few-shot-CoT提示法.ts
│ ├── Ch 4.4 LtM提示方法.ts
│ ├── Ch 5.1 SCAN指令翻译项目介绍与数据集准备.ts
│ ├── Ch 5.2 针对SCAN数据集的Few-shot-LtM提示工程流程.ts
│ ├── Ch 5.3 SCAN指令翻译项目完整建模流程.ts
│ ├── Ch 6.1 Chat Completion模型背景介绍.ts
│ ├── Ch 6.2 Chat Completion模型发展现状.ts
│ ├── Ch 7.1 Chat Completion模型API详解.ts
│ ├── Ch 7.2 Messages参数设置技巧.ts
│ └── Ch 7.3 基于特定知识的简易问答机器人创建方法.ts
├── 第二阶段:从0到1训练大模型 (13小节) [目录]
│ ├── 【从0到1训练】1 大模型训练的基本流程.mp4
│ ├── 【从0到1训练】10 T级代码数据集权限申请与拉取.mp4
│ ├── 【从0到1训练】10.5 关于并行化以及DeepSeek的Q&A.mp4
│ ├── 【从0到1训练】2 MateConv Mini的训练数据选择与解析.mp4
│ ├── 【从0到1训练】3 MateConv Mini的分词器训练实战.mp4
│ ├── 【从0到1训练】4 MateConv Mini的Jsonl数据清洗与预处理.mp4
│ ├── 【从0到1训练】5 MateConv的T级数据收集流程.mp4
│ ├── 【从0到1训练】6 HF镜像站使用+CLI无需代理拉取HF数据.mp4
│ ├── 【从0到1训练】7 hfd多线程多文件并行拉取数据集.mp4
│ ├── 【从0到1训练】8 多线程并行化参数设置详解.mp4
│ ├── 【从0到1训练】9 各类文本数据集hfd+Openxlab拉取.mp4
│ ├── 0.1 大模型硬件配置详解.mp4
│ └── 0.2 【云环境部署】AutoDL云算力入门与部署指南.mp4
├── 课件&代码 [目录]
│ ├── 01 大模型入门基础【课件】 [目录]
│ │ ├── 【导学】Ch 1 OpenAI在线大模型生态与ChatGLM-6B大模型介绍.pdf
│ │ ├── 预习课课件.txt
│ │ ├── Ch 1更新_本地调用OpneAI API流程及OpenAI官网使用指南.ipynb
│ │ ├── Ch 2更新_Completions模型API使用指南.ipynb
│ │ ├── Ch 3 提示工程技术入门.pdf
│ │ ├── Ch 4更新_基于思维链的高阶提示策略.ipynb
│ │ ├── Ch 5更新_ 借助LtM提示工程攻克SCAN指令翻译难题.ipynb
│ │ ├── Ch 6 GPT大模型入门介绍.pdf
│ │ └── Ch 7更新_ ChatCompletions模型API使用指南.ipynb
│ ├── 02_大模型必备Pytorch基础【课件】 [目录]
│ │ ├── Lesson 0-6 [目录]
│ │ │ ├── 【PDF配套代码】code [目录]
│ │ │ │ ├── Lesson 1.张量(Tensor)的创建和索引.ipynb
│ │ │ │ ├── Lesson 2.张量的索引、分片、合并以及维度调整.ipynb
│ │ │ │ ├── Lesson 3.张量的广播和科学运算.ipynb
│ │ │ │ ├── Lesson 4.张量的线性代数运算.ipynb
│ │ │ │ ├── Lesson 5.基本优化思想与最小二乘法.ipynb
│ │ │ │ └── Lesson 6.动态计算图与梯度下降入门.ipynb
│ │ │ ├── Lesson 1.张量(Tensor)的创建和索引.pdf
│ │ │ ├── Lesson 2.张量的索引、分片、合并以及维度调整.pdf
│ │ │ ├── Lesson 3.张量的广播和科学运算.pdf
│ │ │ ├── Lesson 4.张量的线性代数运算.pdf
│ │ │ ├── Lesson 5.基本优化思想与最小二乘法.pdf
│ │ │ └── Lesson 6.动态计算图与梯度下降入门.pdf
│ │ ├── Lesson 07 [目录]
│ │ │ └── Lesson 7 认识深度学习,认识PyTorch.pdf
│ │ ├── Lesson 08 [目录]
│ │ │ ├── 【PDF配套代码】Lesson 8.ipynb
│ │ │ └── Lesson 8 单层神经网络.pdf
│ │ └── Lesson 09 [目录]
│ │ ├── 【PDF配套代码】Lesson 9.ipynb
│ │ └── Lesson 9 深层神经网络.pdf
│ ├── 03_NLP高效入门【课件】 [目录]
│ │ ├── Lesson 1 神经网络入门 [目录]
│ │ │ ├── 【PDF配套代码】Lesson 1.ipynb
│ │ │ └── Lesson 1 神经网络的损失函数.pdf
│ │ ├── Lesson 2 DNN [目录]
│ │ │ ├── 【PDF配套代码】Lesson 2.ipynb
│ │ │ ├── creditcard.csv
│ │ │ ├── Lesson 2 神经网络的学习.pdf
│ │ │ └── MINST-FASHION数据集.zip
│ │ └── Lesson 3 RNN [目录]
│ │ ├── 加餐所用数据集&代码 [目录]
│ │ │ ├── jaychou_lyrics.txt
│ │ │ ├── RNN手动复现——情感分类任务.ipynb
│ │ │ ├── RNN手动复现——文本生成任务.ipynb
│ │ │ └── sentiment_analysis.csv
│ │ └── Lesson 3 RNN.ipynb
│ ├── 04_大模型必备Python基础【课件】 [目录]
│ │ ├── 作业与拓展阅读 [目录]
│ │ │ ├── 【延申阅读】Lesson 18.冻集合的创建与使用.ipynb
│ │ │ ├── 【延伸阅读】Lesson 8.字符串常用方法(二).ipynb
│ │ │ └── Python基础作业 - 控制流语句与函数练习(附答案).ipynb
│ │ ├── 00 Python Lesson 0.pdf
│ │ ├── 01 Python的安装与环境配置.pdf
│ │ ├── 课纲.png
│ │ ├── Lesson 1.Hello World!(新).ipynb
│ │ ├── Lesson 10.列表的常用方法(一).ipynb
│ │ ├── Lesson 11.列表常用方法(二).ipynb
│ │ ├── Lesson 12.元组对象的创建和索引.ipynb
│ │ ├── Lesson 13.元组的常用方法.ipynb
│ │ ├── Lesson 14.字典对象的创建和索引.ipynb
│ │ ├── Lesson 15.字典的常用方法.ipynb
│ │ ├── Lesson 16.集合的创建.ipynb
│ │ ├── Lesson 17.集合的常用方法.ipynb
│ │ ├── Lesson 18.冻集合的创建与使用.ipynb
│ │ ├── Lesson 19.控制语句(一):判别语句.ipynb
│ │ ├── Lesson 20.控制语句(二):循环语句.ipynb
│ │ ├── Lesson 21.控制语句(三):条件循环.ipynb
│ │ ├── Lesson 22.函数(一):函数的使用.ipynb
│ │ ├── Lesson 23.函数(二):函数的参数.ipynb
│ │ ├── Lesson 24.函数(三):变量作用域与lambda函数.ipynb
│ │ ├── Lesson 25.类的创建.ipynb
│ │ ├── Lesson 26.类的方法和继承.ipynb
│ │ ├── Lesson 27.NumPy基础.ipynb
│ │ ├── Lesson 28.NumPy数组的常用方法.ipynb
│ │ ├── Lesson 29.Numpy的广播与科学计算.ipynb
│ │ ├── Lesson 2数值型对象的创建方法.ipynb
│ │ ├── Lesson 3.数值型对象的科学运算.ipynb
│ │ ├── Lesson 30.Pandas入门.ipynb
│ │ ├── Lesson 31.DataFrame数据结构基础.ipynb
│ │ ├── Lesson 4.布尔型对象.ipynb
│ │ ├── Lesson 5.字符串型对象的创建.ipynb
│ │ ├── Lesson 6.字符串索引.ipynb
│ │ ├── Lesson 7.字符串的常用方法(一).ipynb
│ │ ├── Lesson 8.字符串常用方法(二).ipynb
│ │ └── Lesson 9.列表的索引.ipynb
│ ├── 05_2小时极速版大模型训练【课件】 [目录]
│ │ ├── 软件安装 [目录]
│ │ │ ├── AutoDL-SSH-Tools.zip
│ │ │ └── finalshellx64.exe
│ │ ├── model [目录]
│ │ │ ├── LMConfig.py
│ │ │ └── model.py
│ │ ├── 2小时mateconv训练的文档.txt
│ │ ├── dataset.py
│ │ ├── full_sft.py
│ │ ├── MateConv分词器训练.ipynb
│ │ ├── MateConv预训练过程.ipynb
│ │ ├── MateConv指令微调过程.ipynb
│ │ ├── pretrain.py
│ │ └── requirements.txt
│ ├── P1 大模型顶尖架构原理精讲 [目录]
│ │ ├── 模型脚本 [目录]
│ │ │ └── LLaMA.py
│ │ ├── 多模态大模型(1)+CLIP-正课1+2.ipynb
│ │ ├── Class 1 DeepSeekV3深度原理与架构精讲.ipynb
│ │ ├── Class 2 DeepSeekV3 MLA与混合专家模型精讲.ipynb
│ │ ├── CLIP+architecture.pdf
│ │ ├── GPT原理精讲与架构复现(lesson 1~3).ipynb
│ │ ├── LLaMA原理精讲与架构复现.ipynb
│ │ ├── LLava architecture v2.pdf
│ │ └── Transformer原理.ipynb
│ └── P2 从零到一训练大模型 [目录]
│ ├── MateConv Mini [目录]
│ │ ├── 软件安装 [目录]
│ │ │ ├── AutoDL-SSH-Tools.zip
│ │ │ └── finalshellx64.exe
│ │ ├── MateConv_Dataset [目录]
│ │ │ ├── mobvoi_seq_monkey_general_open_corpus.jsonl
│ │ │ ├── mobvoi_seq_monkey_general_open_corpus.zip
│ │ │ ├── pretrain_data_32000.bin
│ │ │ ├── pretrain_data_6400.bin
│ │ │ ├── sft_data_multi.csv
│ │ │ ├── sft_data_single.csv
│ │ │ ├── sft_data_zh.jsonl
│ │ │ └── tokenizer_train.jsonl
│ │ ├── model [目录]
│ │ │ ├── .ipynb_checkpoints [目录]
│ │ │ │ ├── dataset-checkpoint.py
│ │ │ │ ├── LMConfig-checkpoint.py
│ │ │ │ └── model-checkpoint.py
│ │ │ ├── mateconv_tokenizer [目录]
│ │ │ │ ├── .ipynb_checkpoints [目录]
│ │ │ │ │ └── merges-checkpoint.txt
│ │ │ │ ├── merges.txt
│ │ │ │ ├── tokenizer_config.json
│ │ │ │ ├── Tokenizer.ipynb
│ │ │ │ ├── tokenizer.json
│ │ │ │ └── vocab.json
│ │ │ ├── dataset.py
│ │ │ ├── LMConfig.py
│ │ │ └── model.py
│ │ ├── out [目录]
│ │ │ ├── full_sft_512.pth
│ │ │ ├── full_sft_768.pth
│ │ │ ├── pretrain_512.pth
│ │ │ └── pretrain_768.pth
│ │ ├── full_sft.py
│ │ ├── openai_api.py
│ │ ├── pretrain.py
│ │ ├── requirements.txt
│ │ └── web_chat.py
│ ├── 01_大模型部署与训练硬件选择指南.pdf
│ ├── 从0到1训练 Part 1 数据收集与数据预处理 Live1&Live2.ipynb
│ ├── 从0到1训练 Part 2 MateConv Mini模型构建与预训练流程 Live1.ipynb
│ ├── AutoDL租赁与使用方法.pdf
│ └── inference.ipynb
├── 预习:学习路径及Transformer 入门 (17小节) [目录]
│ ├── 00 不同基础不同目标的学习路径规划.mp4
│ ├── 1【Transformer】1 Transformer与注意力机制入门.mp4
│ ├── 10【Transformer】10 编码器结构详解之前馈神经网络FFN.mp4
│ ├── 11【Transformer】11 完整Transformer结构下的解码器Decoder.mp4
│ ├── 12【Transformer】12 Decoder的输入与teacher forcing.mp4
│ ├── 13【Transformer】13 掩码与掩码注意力机制 v2.mp4
│ ├── 14【Transformer】14 填充掩码与前瞻掩码的实现.mp4
│ ├── 15【Transformer】15 编码-解码注意力层.mp4
│ ├── 16【Transformer】16 Decoder-Only结构下的Decoder.mp4
│ ├── 17【Transformer】16 Decoder-Only结构下的Decoder.mp4
│ ├── 2【Transformer】2 Attention注意力机制的本质.mp4
│ ├── 3【Transformer】3 Transformer中的注意力计算流程 & 多头注意力机制.mp4
│ ├── 4【Transformer】4 Transformer的基本架构.mp4
│ ├── 5【Transformer】5 Embedding与位置编码.mp4
│ ├── 6【Transformer】6 正余弦编码的数学与实用意义.mp4
│ ├── 7【Transformer】7 正余弦编码的实际计算与高维空间可视化.mp4
│ ├── 8【Transformer】8 编码器结构详解之残差链接.mp4
│ └── 9【Transformer】9 编码器结构详解之Layer Normalization.mp4
├── 直播回放 [目录]
│ ├── 【大模型训练】MateConv mini预训练流程 Live3.MP4
│ ├── 【大模型训练】MateConv mini预训练流程 Live4.MP4
│ ├── 【大模型训练】MateConv mini预训练流程.mp4
│ └── 【大模型训练】MateConv mini预训练流程Live2.mp4
├── LlaMA [目录]
│ ├── 01 环境准备与算力准备.ts
│ ├── 02 预训练微调数据集准备.ts
│ ├── 03 训练定制化Tokenizer.ts
│ ├── 04 llama-like模型的预训练(上).ts
│ ├── 05 llama-like模型的预训练(下).ts
│ └── 06 指令微调 + 结果展示.ts
├── nlp入门 [目录]
│ ├── 【神经网络入门】1 SSE与二分类交叉熵损失.ts
│ ├── 【神经网络入门】2 二分类交叉熵的原理与实现.ts
│ ├── 【神经网络入门】3 多分类交叉熵的原理与实现.ts
│ ├── 【DNN】1 梯度下降中的两个关键问题.ts
│ ├── 【DNN】2.1 反向传播的原理.ts
│ ├── 【DNN】2.2 反向传播的实现.ts
│ ├── 【DNN】3 走出第一步:动量法Momentum.ts
│ ├── 【DNN】4 开始迭代:batch与epochs.ts
│ ├── 【DNN】5.1 在Fashion-MNIST数据集上实现完整的神经网络(上).ts
│ ├── 【DNN】5.2 在Fashion-MNIST数据集上实现完整的神经网络(下).ts
│ ├── 【RNN】1.1 欢迎来到NLP的世界.ts
│ ├── 【RNN】1.2 大模型的行业影响与发展.ts
│ ├── 【RNN】2.1 深度学习中的时间序列数据.ts
│ ├── 【RNN】2.2 文字序列数据 - 结构与分词操作.ts
│ ├── 【RNN】2.3 文字序列数据 - Token与编码.ts
│ ├── 【RNN】3.1~3.2 RNN的架构与数据流.ts
│ ├── 【RNN】3.3 各类NLP任务下循环神经网络的输入与输出.ts
│ ├── 【RNN】3.4.1 认识PyTorch中nn.RNN层.ts
│ ├── 【RNN】3.4.2 在PyTorch中实现RNN.ts
│ ├── 【RNN】3.4.3 深度神经网络的实现.ts
│ ├── 【RNN】3.4.4 自定义循环层中的循环数据流.ts
│ ├── 【RNN】3.4.5 双向循环神经网络.ts
│ ├── 【RNN】3.4.6【加餐】手动实现RNN执行情感分类任务.ts
│ ├── 【RNN】3.4.7【加餐】手动实现RNN执行文本生成任务.ts
│ ├── 【RNN】3.5.1 RNN反向传播的数学流程.ts
│ └── 【RNN】3.5.2 RNN各类缺陷的数学本质.ts
├── PART1:LLaMA架构原理精讲与复现 (28小节) [目录]
│ ├── 【LLaMA】1 LLaMA中的Decoder架构详解.mp4
│ ├── 【LLaMA】10 大语言模型评估方法 + KV缓存效果验证.mp4
│ ├── 【LLaMA】10.5 Q&A+科研指导+大模型发论文方向指南.mp4
│ ├── 【LLaMA】11 门控前馈网络 (1) GLU与Silu激活函数.mp4
│ ├── 【LLaMA】12 门控前馈网络 (2) FFN层的代码实现.mp4
│ ├── 【LLaMA】13 混合专家模型 (1) MOE模型的架构与训练流程.mp4
│ ├── 【LLaMA】14 混合专家模型 (2) 瓶颈问题与辅助损失.mp4
│ ├── 【LLaMA】14.5 MOE相关的Q&A.mp4
│ ├── 【LLaMA】15 混合专家模型 (3) 常见的辅助损失函数.mp4
│ ├── 【LLaMA】16 混合专家模型 (4) MOE的专家权重损失函数.mp4
│ ├── 【LLaMA】17 混合专家模型 (5) 代码实现MOE的门控机制.mp4
│ ├── 【LLaMA】18 混合专家模型 (6) 代码实现MOE的控机制数据流.mp4
│ ├── 【LLaMA】19 混合专家模型 (7) MOE联用FFN层与LLaMA.mp4
│ ├── 【LLaMA】2 LLaMA中的Embedding层.mp4
│ ├── 【LlaMA】20 混合专家模型的Q&A + 面试题 + 学习方法分享.mp4
│ ├── 【LlaMA】21 LLaMA架构复现 (1) 大模型架构适配deepspeed与hf.mp4
│ ├── 【LlaMA】22 LLaMA架构复现 (2) TransformerBlock与打包器.mp4
│ ├── 【LlaMA】23 LlaMA架构复现 (3) 自回归推理函数与网络配置.mp4
│ ├── 【LLaMA】3 RMSNorm均方根层归一化.mp4
│ ├── 【LLaMA】4 旋转位置编码ROPE.mp4
│ ├── 【LLaMA】4.5 旋转位置编码的Q&A.mp4
│ ├── 【LLaMA】5 KV缓存的原理与初步实现.mp4
│ ├── 【LLaMA】5.5 时间复杂度、机器翻译等Q&A.mp4
│ ├── 【LLaMA】6 注意力的代码实现(1) 注意力计算流程.mp4
│ ├── 【LLaMA】7 注意力的代码实现(2) Flash Attention与掩码.mp4
│ ├── 【LLaMA】7.5 有关掩码和算力的Q&A.mp4
│ ├── 【LLaMA】8 注意力的代码实现(3) KV缓存下QKV矩阵的生成.mp4
│ └── 【LLaMA】9 注意力的代码实现(4) KV缓存下的编码与注意力输出.mp4
├── PART2:GPT 架构原理精讲与复现 (13小节) [目录]
│ ├── 【GPT】原理与架构复现 (3).mp4
│ ├── 【GPT3.5】1 GPT发展梳理与GPT3.5架构图详解.mp4
│ ├── 【GPT3.5】10 reZERO残差链接的原理与实现.mp4
│ ├── 【GPT3.5】11 梯度检查点技术的原理.mp4
│ ├── 【GPT3.5】2 文字数据处理流程简述与Embedding.mp4
│ ├── 【GPT3.5】3 轴向位置编码原理详解.mp4
│ ├── 【GPT3.5】4 轴向位置编码代码实现与LayerNorm.mp4
│ ├── 【GPT3.5】5 GPT的门控前馈神经网络.mp4
│ ├── 【GPT3.5】6 基于KV缓存的增量推理.mp4
│ ├── 【GPT3.5】6.5 关于GPT的一些Q&A.mp4
│ ├── 【GPT3.5】7 GPT中的多头注意力机制.mp4
│ ├── 【GPT3.5】8 多头注意力机制在pytorch中的封装实现.mp4
│ └── 【GPT3.5】9 门控前馈网络与马卡龙注意力机制.mp4
├── PART3:多模态架构CLIP与LlaVa (3小节) [目录]
│ ├── 【多模态】CLIP多模态预训练流程与Llava架构.mp4
│ ├── 【多模态】CLIP架构与预训练流程 (2).mp4
│ └── 【多模态】CLIP架构与预训练流程.mp4
├── PART4:DeepSeekV3 [目录]
│ ├── 【DeepSeekv3】1 整体架构与分布式基础概念.mp4
│ ├── 【DeepSeekv3】2 分布式嵌入层与投影层.mp4
│ ├── 【DeepSeekv3】3 MLA潜在注意力 (1) 从自回归掩码看KV缓存机制.mp4
│ ├── 【DeepSeekv3】4 MLA潜在注意力 (2) 针对KV缓存的改进.mp4
│ └── 【DeepSeekv3】5 DeepSeekMOE的MOE架构与创新.mp4
├── python基础 [目录]
│ ├── Lesson 1.Hello World!.mp4
│ ├── Lesson 10.列表的常用方法(一).mp4
│ ├── Lesson 11.列表常用方法(二).mp4
│ ├── Lesson 12.元组对象的创建与索引.mp4
│ ├── Lesson 13.元组的常用方法.mp4
│ ├── Lesson 14.字典对象的创建与索引.mp4
│ ├── Lesson 15.字典的常用方法.mp4
│ ├── Lesson 16.集合的创建(新).mp4
│ ├── Lesson 17.集合的常用方法(新).mp4
│ ├── Lesson 18.冻集合的创建与使用.mp4
│ ├── Lesson 19.控制语句(一):判别语句.mp4
│ ├── Lesson 2.数值型对象的创建.mp4
│ ├── Lesson 20.控制语句(二):循环语句.mp4
│ ├── Lesson 21.控制语句(三):条件循环.mp4
│ ├── Lesson 22.函数(一):函数的使用.mp4
│ ├── Lesson 23.函数(二):函数的参数.mp4
│ ├── Lesson 24.函数(三):变量作用域与lambda函数.mp4
│ ├── Lesson 25.类的创建.mp4
│ ├── Lesson 26.类的方法和继承.mp4
│ ├── Lesson 27.NumPy基础.mp4
│ ├── Lesson 28.NumPy数组的常用方法.mp4
│ ├── Lesson 29.NumPy的广播与科学计算.mp4
│ ├── Lesson 3.数值型对象的科学运算.mp4
│ ├── Lesson 30.Pandas入门.mp4
│ ├── Lesson 31.DataFrame数据结构基础.mp4
│ ├── Lesson 4.布尔型对象.mp4
│ ├── Lesson 5.字符串型对象的创建.mp4
│ ├── Lesson 6.字符串索引.mp4
│ ├── Lesson 7.字符串的常用方法(一).mp4
│ ├── Lesson 8.字符串常用方法(二).mp4
│ └── Lesson 9.列表对象的创建与索引.mp4
└── pytorch [目录]
├── Lesson 1 张量的创建与常用方法.ts
├── Lesson 2 张量的索引、分片、合并及维度调整.ts
├── Lesson 3 张量的广播和科学运算.ts
├── Lesson 4 张量的线性代数运算.ts
├── Lesson 5 基本优化方法与最小二乘法.ts
├── Lesson 6 动态计算图与梯度下降入门.ts
├── Lesson 7.1 神经网络的诞生与发展.ts
├── Lesson 7.2 机器学习中的基本概念.ts
├── Lesson 7.3 深入理解PyTorch框架.ts
├── Lesson 8.1单层回归神经网络 & Tensor新手避坑指南.ts
├── Lesson 8.2 torch.nn.Linear实现单层回归网络的正向传播.ts
├── Lesson 8.3 二分类神经网络的原理与实现.ts
├── Lesson 8.4 torch.nn.functional实现单层二分类网络的正向传播.ts
├── Lesson 8.5 多分类神经网络.ts
├── Lesson 9.1 从异或门问题认识多层神经网络.ts
├── Lesson 9.2 黑箱:深度神经网络的不可解释性.ts
├── Lesson 9.3 & 9.4 层与激活函数.ts
└── Lesson 9.5 从0实现深度神经网络的正向传播.ts
免责声明:
1、本站资源所有言论和图片纯属用户个人意见,与本站立场无关
2、本站所有资源收集于互联网,由用户分享,该帖子作者与本站不享有任何版权,如有侵权请联系本站删除
3、本站部分内容转载自其它网站,但并不代表本站赞同其观点和对其真实性负责
4、如本帖侵犯到任何版权问题,请立即告知本站,本站将及时予与删除并致以最深的歉意
1、本站资源所有言论和图片纯属用户个人意见,与本站立场无关
2、本站所有资源收集于互联网,由用户分享,该帖子作者与本站不享有任何版权,如有侵权请联系本站删除
3、本站部分内容转载自其它网站,但并不代表本站赞同其观点和对其真实性负责
4、如本帖侵犯到任何版权问题,请立即告知本站,本站将及时予与删除并致以最深的歉意
评论(0)