2022-机器学习相关规定
32:27
2021-机器学习相关规定
32:45
第一节 2021 -(上)- 机器学习基本概念简介
50:00
2021 -(下)- 深度学习基本概念简介
58:35
2022-Colab 教学
12:34
2022-PyTorch Tutorial 1
31:01
2022-PyTorch Tutorial 2
15:52
2021-Google Colab 教学
09:24
2021-Pytorch 教学 part 1
22:01
2021-Pytorch 教学 part 2(英文有字幕)
09:21
2022-作业 HW1
40:36
2021-作业 HW1
18:58
(选修)To Learn More - 深度学习简介
46:29
(选修)To Learn More - 反向传播(Backpropagation)
31:26
(选修)To Learn More - 预测神奇宝贝 Pokemon
01:18:36
(选修)To Learn More - 分类神奇宝贝 Pokemon
01:09:40
(选修)To Learn More - 逻辑回归
01:07:12
第二节 2021 - 机器学习任务攻略
51:24
2021 - 类神经网络训练不起来怎么办(一)局部最小值(local minima) 与鞍点(saddle point)
33:45
2021 - 类神经网络训练不起来怎么办(二)批次(batch) 与动量(momentum)
30:59
2021 - 类神经网络训练不起来怎么办(三)自动调整学习率(Learning Rate)
37:42
2021 - 类神经网络训练不起来怎么办(四)损失函数(Loss) 也可能有影响
19:27
2022 - 再探宝可梦、数码宝贝分类器 — 浅谈机器学习原理
01:14:00
(选修)To Learn More - Gradient Descent 样例 1
02:36
(选修)To Learn More - Gradient Descent 样例 2
01:41
(选修)To Learn More - Optimization for Deep Learning(1_2)
54:35
(选修)To Learn More - Optimization for Deep Learning(2_2)
54:31
2022 - 作业 HW2
20:04
2021 - 作业说明 HW2 中文低画质版
30:50
2021 - 作业说明 HW2-英文有字幕高清版
26:55
第三节 2021 - 卷积神经网络(CNN)
55:40
2022 - 为什么用了验证集(validation set) 结果却还是过拟合(overfitting) 了呢?
08:56
2022 - 鱼与熊掌可以兼得的机器学习
41:35
(选修)To Learn More - Spatial Transformer Layer
32:55
2022 - 作业说明 HW3
34:21
2021- 作业说明 HW3 中文低画质
24:55
2021- 作业说明 HW3 英文高画质有字幕
29:07
第四节 2021 - 自注意力机制(Self-attention)(上)
28:18
2021 - 自注意力机制(Self-attention)(下)
45:57
(选修)To Learn More - Recurrent Neural Network(Part I)
48:59
(选修)To Learn More - Recurrent Neural Network(Part II)
01:30:50
(选修)To Learn More - Graph Neural Network(1_2)
39:01
(选修)To Learn More - Graph Neural Network(2_2)
01:11:36
(选修)To Learn More - Unsupervised Learning - Word Embedding
40:38
2022 - 作业说明 HW4
19:23
2021 - 作业说明 HW4-中文低画质版
25:22
2021 - 作业说明 HW4-英文无字幕高清版
22:43
第五节 2021 - 类神经网络训练不起来怎么办(五)批次标准化(Batch Normalization)
30:55
2021 - Transformer(上)
32:47
2021 - Transformer(下)
01:00:33
2022 - 各式各样神奇的自注意力机制(Self-attention) 变型
01:11:16
(选修)To Learn More - Non-Autoregressive Sequence Generation
01:01:52
(选修)To Learn More - Pointer Network
13:35
2022 - 作业说明 HW5
37:52
2021 - 作业说明 HW5 中文 + Judgeboi 讲解
50:17
2021 - 作业说明 HW5 slides tutorial -英文版机翻
16:48
2021 - 作业说明 HW5 code tutorial -英文版机翻
16:14
第六节 2021 - 生成式对抗网络(GAN)(一)– 基本概念介紹
39:08
2021 - 生成式对抗网络(GAN)(二)– 理论介绍与 WGAN
46:40
2021 - 生成式对抗网络(GAN)(三)– 生成器效能评估与条件式生成
49:46
2021 - 生成式对抗网络(GAN)(四)– Cycle GAN
23:40
(选修)To Learn More - GAN Basic Theory
01:20:19
(选修)To Learn More - General Framework
25:04
(选修)To Learn More - WGAN, EBGAN
50:07
(选修)To Learn More - Unsupervised Learning - Deep Generative Model(Part I)
29:34
(选修)To Learn More - Unsupervised Learning - Deep Generative Model(Part II)
01:03:31
(选修)To Learn More - Flow-based Generative Model
01:07:51
2021 - 作业说明 HW6 中文版低画质
29:03
2021 - 作业说明 HW6 英文版高画质有字幕
12:20
2022 - 作业说明 HW6
38:51
第七节 2021 - 自监督式学习(一)– 芝麻街与进击的巨人
07:09
2021 - 自监督式学习(二)– BERT 简介
50:40
2021 - 自监督式学习(三)– BERT 的奇闻轶事
24:13
2021 - 自监督式学习(四)– GPT 的野望
17:04
2022 - 如何有效的使用自督导式模型 - Data-Efficient & Parameter-Efficient Tuning
01:22:09
2022 - 语音与影像上的神奇自督导式学习模型
01:21:59
(选修)To Learn More - BERT and its family - Introduction and Fine-tune
50:08
(选修)To Learn More - ELMo, BERT, GPT, XLNet, MASS, BART, UniLM, ELECTRA, others
01:11:46
(选修)To Learn More - Multilingual BERT
39:13
(选修)To Learn More - 來自獵人暗黑大陸的模型 GPT-3
29:57
2021 - 作业说明 HW7 中文版低画质
21:07
2022 - Homework 7
25:56
第八节 2021 - 自编码器(Auto-encoder)(上)– 基本概念
19:01
2021 - 自编码器(Auto-encoder)(下)– 领结变声器与更多应用
30:35
2021 - Anomaly Detection(1_7)
13:23
2021 - Anomaly Detection(2_7)
14:10
2021 - Anomaly Detection(3_7)
14:05
2021 - Anomaly Detection(4_7)
04:08
2021 - Anomaly Detection(5_7)
12:18
2021 - Anomaly Detection(6_7)
12:20
2021 - Anomaly Detection(7_7)
06:02
(选修)To Learn More - Unsupervised Learning - Linear Methods
01:40:21
(选修)To Learn More - Unsupervised Learning - Neighbor Embedding
30:59
2021 - 作业说明 HW8 中文版低画质
25:44
2022 - 作业说明 Homework 8
21:31
第九节 2021 - 机器学习的可解释性(上)– 为什么神经网络可以正确分辨宝可梦和数码宝贝
49:08
2021 - 机器学习的可解释性(下)–机器心中的猫长什么样子
22:46
2022 - 自然语言处理上的对抗式攻击(由姜成翰助教讲授)- Part 1
56:06
2021 - 作业说明 HW9 中文版低画质
42:22
2022 - Homework 9
10:35
第十节 2021 - 来自人类的恶意攻击(Adversarial Attack)(上)– 基本概念
29:50
2021 - 来自人类的恶意攻击(Adversarial Attack)(下)– 类神经网络能否躲过人类深不见底的恶意
46:33
2022 - 自然语言处理上的对抗式攻击(由姜成翰助教讲授)- Part 2
01:26:22
2022 - 自然语言处理上的对抗式攻击(由姜成翰助教讲授)- Part 3
01:10:20
2022 - 自然语言处理上的模仿攻击(Imitation Attack) 以及后门攻击(Backdoor Attack)(由姜成翰助教讲授)
43:13
(选修)To Learn More - More about Adversarial Attack(1_2)
29:58
(选修)To Learn More - More about Adversarial Attack(2_2)
29:45
2021 - 作业说明 HW10 中文版低画质
36:50
2022 - Homework 10
30:30
第十一节 2021 - 概述领域自适应(Domain Adaptation)
34:33
2022 - 恶搞自督导式学习模型 BERT 的三个故事
53:43
2021 - 作业说明 HW11 Domain Adaptation
51:55
2022 - 作业说明 Homework11
31:55
第十二节 2021 - 概述增強式學習(一)– 增强式学习和机器学习一样都是三个步骤
45:02
2021 - 概述增强式学习(二)– Policy Gradient 与修课心情
41:15
2021 - 概述增强式学习(三)– Actor-Critic
34:41
2021 - 概述增强式学习(四)– 回馈非常罕見的時候怎么办?机器的望梅止渴
17:35
2021 - 概述增强式学习(五)– 如何从示范中学习?逆向增強式学习(Inverse RL)
27:08
2021 - 作业说明 HW12 中文高清
21:59
2022 - 作业说明 HW12(英文版)- 1_2
13:15
(选修)To Learn More - Deep Reinforcement Learning
01:06:22
第十三节 2021 - 神经网络压缩(一)- 类神经网络剪枝(Pruning) 与大乐透假说(Lottery Ticket Hypothesis)
29:32
2021 - 神经网络压缩(二)- 从各种不同的面向來压缩神经网络
56:46
(选修)To Learn More - Proximal Policy Optimization(PPO)
41:34
(选修)To Learn More - Q-learning(Basic Idea)
49:44
(选修)To Learn More - Q-learning(Advanced Tips)
38:31
(选修)To Learn More - Q-learning(Continuous Action)
14:58
(选修)To Learn More - Geometry of Loss Surfaces(Conjecture)
17:07
2021 - 作业说明 HW13 中文高清
33:52
2022 - 作业说明 HW13
36:07
第十四节 2021 - 机器终身学习(一)- 为什么今日的人工智能无法成为天网?灾难性遗忘(Catastrophic Forgetting)
32:00
2021 - 机器終身学习(二)- 灾难性遗忘(Catastrophic Forgetting)
36:39
2021 - 作业说明 HW14 中文高清
27:49
2022 - 作业说明 HW14
22:03
第十五节 2021 - 元学习 Meta Learning(一)- 元学习和机器学习一样也是三個步骤
46:21
2021 - 元学习 Meta Learning(二)- 万物皆可 Meta
31:37
2022 - 各种奇葩的元学习(Meta Learning) 用法
31:13
(选修)To Learn More - Meta Learning – MAML(1)
07:41
(选修)To Learn More - Meta Learning – MAML(2)
07:52
(选修)To Learn More - Meta Learning – MAML(3)
10:22
(选修)To Learn More - Meta Learning – MAML(4)
05:14
(选修)To Learn More - Meta Learning – MAML(5)
13:22
(选修)To Learn More - Meta Learning – MAML(6)
06:33
(选修)To Learn More - Meta Learning – MAML(7)
08:54
(选修)To Learn More - Meta Learning – MAML(8)
05:11
(选修)To Learn More - Meta Learning – MAML(9)
06:53
(选修)To Learn More - Gradient Descent as LSTM(1_3)
11:40
(选修)To Learn More - Gradient Descent as LSTM(2_3)
10:06
(选修)To Learn More - Gradient Descent as LSTM(3_3)
10:39
(选修)To Learn More - Meta Learning – Metric-based(1)
10:30
(选修)To Learn More - Meta Learning – Metric-based(2)
05:15
(选修)To Learn More - Meta Learning – Metric-based(3)
11:30
(选修)To Learn More - Meta Learning - Train+Test as RNN
07:48
2022 - 作业说明 HW15
17:54
【机器学习】课程结语 完结撒花
27:41