机器学习 -- 李宏毅 2021/2022 春机器学习课程(进行中)

2022-机器学习相关规定

32:27

2021-机器学习相关规定

32:45

第一节 2021 -(上)- 机器学习基本概念简介

50:00

2021 -(下)- 深度学习基本概念简介

58:35

2022-Colab 教学

12:34

2022-PyTorch Tutorial 1

31:01

2022-PyTorch Tutorial 2

15:52

2021-Google Colab 教学

09:24

2021-Pytorch 教学 part 1

22:01

2021-Pytorch 教学 part 2(英文有字幕)

09:21

2022-作业 HW1

40:36

2021-作业 HW1

18:58

(选修)To Learn More - 深度学习简介

46:29

(选修)To Learn More - 反向传播(Backpropagation)

31:26

(选修)To Learn More - 预测神奇宝贝 Pokemon

01:18:36

(选修)To Learn More - 分类神奇宝贝 Pokemon

01:09:40

(选修)To Learn More - 逻辑回归

01:07:12

第二节 2021 - 机器学习任务攻略

51:24

2021 - 类神经网络训练不起来怎么办(一)局部最小值(local minima) 与鞍点(saddle point)

33:45

2021 - 类神经网络训练不起来怎么办(二)批次(batch) 与动量(momentum)

30:59

2021 - 类神经网络训练不起来怎么办(三)自动调整学习率(Learning Rate)

37:42

2021 - 类神经网络训练不起来怎么办(四)损失函数(Loss) 也可能有影响

19:27

2022 - 再探宝可梦、数码宝贝分类器 — 浅谈机器学习原理

01:14:00

(选修)To Learn More - Gradient Descent 样例 1

02:36

(选修)To Learn More - Gradient Descent 样例 2

01:41

(选修)To Learn More - Optimization for Deep Learning(1_2)

54:35

(选修)To Learn More - Optimization for Deep Learning(2_2)

54:31

2022 - 作业 HW2

20:04

2021 - 作业说明 HW2 中文低画质版

30:50

2021 - 作业说明 HW2-英文有字幕高清版

26:55

第三节 2021 - 卷积神经网络(CNN)

55:40

2022 - 为什么用了验证集(validation set) 结果却还是过拟合(overfitting) 了呢?

08:56

2022 - 鱼与熊掌可以兼得的机器学习

41:35

(选修)To Learn More - Spatial Transformer Layer

32:55

2022 - 作业说明 HW3

34:21

2021- 作业说明 HW3 中文低画质

24:55

2021- 作业说明 HW3 英文高画质有字幕

29:07

第四节 2021 - 自注意力机制(Self-attention)(上)

28:18

2021 - 自注意力机制(Self-attention)(下)

45:57

(选修)To Learn More - Recurrent Neural Network(Part I)

48:59

(选修)To Learn More - Recurrent Neural Network(Part II)

01:30:50

(选修)To Learn More - Graph Neural Network(1_2)

39:01

(选修)To Learn More - Graph Neural Network(2_2)

01:11:36

(选修)To Learn More - Unsupervised Learning - Word Embedding

40:38

2022 - 作业说明 HW4

19:23

2021 - 作业说明 HW4-中文低画质版

25:22

2021 - 作业说明 HW4-英文无字幕高清版

22:43

第五节 2021 - 类神经网络训练不起来怎么办(五)批次标准化(Batch Normalization)

30:55

2021 - Transformer(上)

32:47

2021 - Transformer(下)

01:00:33

2022 - 各式各样神奇的自注意力机制(Self-attention) 变型

01:11:16

(选修)To Learn More - Non-Autoregressive Sequence Generation

01:01:52

(选修)To Learn More - Pointer Network

13:35

2022 - 作业说明 HW5

37:52

2021 - 作业说明 HW5 中文 + Judgeboi 讲解

50:17

2021 - 作业说明 HW5 slides tutorial -英文版机翻

16:48

2021 - 作业说明 HW5 code tutorial -英文版机翻

16:14

第六节 2021 - 生成式对抗网络(GAN)(一)– 基本概念介紹

39:08

2021 - 生成式对抗网络(GAN)(二)– 理论介绍与 WGAN

46:40

2021 - 生成式对抗网络(GAN)(三)– 生成器效能评估与条件式生成

49:46

2021 - 生成式对抗网络(GAN)(四)– Cycle GAN

23:40

(选修)To Learn More - GAN Basic Theory

01:20:19

(选修)To Learn More - General Framework

25:04

(选修)To Learn More - WGAN, EBGAN

50:07

(选修)To Learn More - Unsupervised Learning - Deep Generative Model(Part I)

29:34

(选修)To Learn More - Unsupervised Learning - Deep Generative Model(Part II)

01:03:31

(选修)To Learn More - Flow-based Generative Model

01:07:51

2021 - 作业说明 HW6 中文版低画质

29:03

2021 - 作业说明 HW6 英文版高画质有字幕

12:20

2022 - 作业说明 HW6

38:51

第七节 2021 - 自监督式学习(一)– 芝麻街与进击的巨人

07:09

2021 - 自监督式学习(二)– BERT 简介

50:40

2021 - 自监督式学习(三)– BERT 的奇闻轶事

24:13

2021 - 自监督式学习(四)– GPT 的野望

17:04

2022 - 如何有效的使用自督导式模型 - Data-Efficient & Parameter-Efficient Tuning

01:22:09

2022 - 语音与影像上的神奇自督导式学习模型

01:21:59

(选修)To Learn More - BERT and its family - Introduction and Fine-tune

50:08

(选修)To Learn More - ELMo, BERT, GPT, XLNet, MASS, BART, UniLM, ELECTRA, others

01:11:46

(选修)To Learn More - Multilingual BERT

39:13

(选修)To Learn More - 來自獵人暗黑大陸的模型 GPT-3

29:57

2021 - 作业说明 HW7 中文版低画质

21:07

2022 - Homework 7

25:56

第八节 2021 - 自编码器(Auto-encoder)(上)– 基本概念

19:01

2021 - 自编码器(Auto-encoder)(下)– 领结变声器与更多应用

30:35

2021 - Anomaly Detection(1_7)

13:23

2021 - Anomaly Detection(2_7)

14:10

2021 - Anomaly Detection(3_7)

14:05

2021 - Anomaly Detection(4_7)

04:08

2021 - Anomaly Detection(5_7)

12:18

2021 - Anomaly Detection(6_7)

12:20

2021 - Anomaly Detection(7_7)

06:02

(选修)To Learn More - Unsupervised Learning - Linear Methods

01:40:21

(选修)To Learn More - Unsupervised Learning - Neighbor Embedding

30:59

2021 - 作业说明 HW8 中文版低画质

25:44

2022 - 作业说明 Homework 8

21:31

第九节 2021 - 机器学习的可解释性(上)– 为什么神经网络可以正确分辨宝可梦和数码宝贝

49:08

2021 - 机器学习的可解释性(下)–机器心中的猫长什么样子

22:46

2022 - 自然语言处理上的对抗式攻击(由姜成翰助教讲授)- Part 1

56:06

2021 - 作业说明 HW9 中文版低画质

42:22

2022 - Homework 9

10:35

第十节 2021 - 来自人类的恶意攻击(Adversarial Attack)(上)– 基本概念

29:50

2021 - 来自人类的恶意攻击(Adversarial Attack)(下)– 类神经网络能否躲过人类深不见底的恶意

46:33

2022 - 自然语言处理上的对抗式攻击(由姜成翰助教讲授)- Part 2

01:26:22

2022 - 自然语言处理上的对抗式攻击(由姜成翰助教讲授)- Part 3

01:10:20

2022 - 自然语言处理上的模仿攻击(Imitation Attack) 以及后门攻击(Backdoor Attack)(由姜成翰助教讲授)

43:13

(选修)To Learn More - More about Adversarial Attack(1_2)

29:58

(选修)To Learn More - More about Adversarial Attack(2_2)

29:45

2021 - 作业说明 HW10 中文版低画质

36:50

2022 - Homework 10

30:30

第十一节 2021 - 概述领域自适应(Domain Adaptation)

34:33

2022 - 恶搞自督导式学习模型 BERT 的三个故事

53:43

2021 - 作业说明 HW11 Domain Adaptation

51:55

2022 - 作业说明 Homework11

31:55

第十二节 2021 - 概述增強式學習(一)– 增强式学习和机器学习一样都是三个步骤

45:02

2021 - 概述增强式学习(二)– Policy Gradient 与修课心情

41:15

2021 - 概述增强式学习(三)– Actor-Critic

34:41

2021 - 概述增强式学习(四)– 回馈非常罕見的時候怎么办?机器的望梅止渴

17:35

2021 - 概述增强式学习(五)– 如何从示范中学习?逆向增強式学习(Inverse RL)

27:08

2021 - 作业说明 HW12 中文高清

21:59

2022 - 作业说明 HW12(英文版)- 1_2

13:15

(选修)To Learn More - Deep Reinforcement Learning

01:06:22

第十三节 2021 - 神经网络压缩(一)- 类神经网络剪枝(Pruning) 与大乐透假说(Lottery Ticket Hypothesis)

29:32

2021 - 神经网络压缩(二)- 从各种不同的面向來压缩神经网络

56:46

(选修)To Learn More - Proximal Policy Optimization(PPO)

41:34

(选修)To Learn More - Q-learning(Basic Idea)

49:44

(选修)To Learn More - Q-learning(Advanced Tips)

38:31

(选修)To Learn More - Q-learning(Continuous Action)

14:58

(选修)To Learn More - Geometry of Loss Surfaces(Conjecture)

17:07

2021 - 作业说明 HW13 中文高清

33:52

2022 - 作业说明 HW13

36:07

第十四节 2021 - 机器终身学习(一)- 为什么今日的人工智能无法成为天网?灾难性遗忘(Catastrophic Forgetting)

32:00

2021 - 机器終身学习(二)- 灾难性遗忘(Catastrophic Forgetting)

36:39

2021 - 作业说明 HW14 中文高清

27:49

2022 - 作业说明 HW14

22:03

第十五节 2021 - 元学习 Meta Learning(一)- 元学习和机器学习一样也是三個步骤

46:21

2021 - 元学习 Meta Learning(二)- 万物皆可 Meta

31:37

2022 - 各种奇葩的元学习(Meta Learning) 用法

31:13

(选修)To Learn More - Meta Learning – MAML(1)

07:41

(选修)To Learn More - Meta Learning – MAML(2)

07:52

(选修)To Learn More - Meta Learning – MAML(3)

10:22

(选修)To Learn More - Meta Learning – MAML(4)

05:14

(选修)To Learn More - Meta Learning – MAML(5)

13:22

(选修)To Learn More - Meta Learning – MAML(6)

06:33

(选修)To Learn More - Meta Learning – MAML(7)

08:54

(选修)To Learn More - Meta Learning – MAML(8)

05:11

(选修)To Learn More - Meta Learning – MAML(9)

06:53

(选修)To Learn More - Gradient Descent as LSTM(1_3)

11:40

(选修)To Learn More - Gradient Descent as LSTM(2_3)

10:06

(选修)To Learn More - Gradient Descent as LSTM(3_3)

10:39

(选修)To Learn More - Meta Learning – Metric-based(1)

10:30

(选修)To Learn More - Meta Learning – Metric-based(2)

05:15

(选修)To Learn More - Meta Learning – Metric-based(3)

11:30

(选修)To Learn More - Meta Learning - Train+Test as RNN

07:48

2022 - 作业说明 HW15

17:54

【机器学习】课程结语 完结撒花

27:41


参考资料快照
参考资料快照

本文短链接:
If you have any questions or feedback, please reach out .