AI 论文精读 https://www.bilibili.com/video/BV1H44y1t75x/
深度学习经典、新论文逐段精读 https://github.com/mli/paper-reading
ReLU 函数其实是分段线性函数,把所有的负值都变为 0,而正值不变,这种操作被成为单侧抑制。 可别小看这个简单的操作,正因为有了这单侧抑制,才使得神经网络中的神经元也具有了稀疏激活性。
因为中间断开了链接,所以泛化的结果是两部分解决不同的功能,提取不同类别的特征。 这么训应该不止颜色上面分开,应该有很多方面都是分开的,只是做视觉容易去关注颜色上的特征。
正常情况下,梯度应该在 0 附近的高斯分布。 有点像泰勒展开啊。
1:27:05
1:06:19 不知道这玩意有啥用。
需要有一定的机器学习的背景。 图是一个非常强大的东西,但是它的强大也带来了很多问题:很难在图上做出优化,图一般比较稀疏,有效的在 CPU、GPU、加速器上计算是一件比较难的事情;图神经网络对超参数比较敏感。 图神经网络门槛比较高,这些年吸引了很多人对他的研究,但在工业界上的应用还需要时间的积累。 很多图是交互图(既是优点(非常漂亮)又是缺点(门槛太高,有时用一个公式可以清晰的将其表达出来))。
46:18 刺猬摸电线,卷麻了。 这么多年了,GAN、SVM 和 强化学习 的 数学部分,还是没有彻底吃透。
经典论文 GAN。一个分布,通过学习一个模型去近似,收敛多多少少要看运气。判断两个统计是否同一个分布,训练一个二分类分类器即可。
训练一个 GAN 可能很困难,它经常会遇到各种问题,其中最主要的问题有以下三点:
收敛失败:由于许多因素(已知和未知),GANs 经常无法收敛。
令 $f(y) = a \log(y) + b \log(1 - y)$
求导 $\frac{\partial}{\partial y} (a \log(y) + b \log(1 - y)) = 0$ \(\frac{a}{y} + \frac{b}{1 - y} (-1) = 0 \\ a - ay = by \\ y = \frac{a}{a + b}\)
所以 $D(x)^* = \frac{p_{data}(x)}{p_{data}(x) + p_g(x)}$
当 $p_{data}(x) = p_g(x)$ 时,$D(x)^* = \frac{1}{2}$
二 . \(V(D, G) = E_{x \sim p_{data}(x)} [\log \frac{1}{2}] + E_{z \sim p_z(z)} [\log \frac{1}{2}] \\ = - \log(2) - \log(2) = - 2 \log(2) \quad \text{ 取其对应极大值。}\)
三 . 定义 KL 散度。任意两个分布 $P$ 和 $Q$ 的差异度量。
\[D_{KL}(P||Q) = E_{x \sim P} [\log (\frac{P(x)}{Q(x)})] \\ = E_{x \sim P} [\log (\frac{P(x)}{Q(x)})] - \log 2\]四 . 代入后,得:
\[V(G, D) = - \log(4) + KL(\frac{p_{data} + p_g}{2} || \frac{p_{data} + p_g}{2}) + KL(\frac{p_g}{2} || \frac{p_{data} + p_g}{2}) \\ \text{ 设 JS 散度 } JSD(P||Q) = \frac{1}{2} D_{KL}(P||\frac{P+Q}{2}) + \frac{1}{2} D_{KL}(Q||\frac{P+Q}{2}) \\ \text{ 可从容地看出散度表示了这两个分布的重合度量。}\] \[V(G, D) = - \log(4) + 2 JSD({p_{data}} || {p_g})\]最终目标,$\min_G V(D, G) = - \log(4)$,当且仅当 $p_{data} = p_g$。
45:49
\(P\left(w_i \mid w_1, \ldots, w_{i-1}, w_{i+1}, \ldots, w_n\right)\) \(P\left(w_i \mid w_1, \ldots w_{i-1}\right) \text { 和 } P\left(w_i \mid w_{i+1}, \ldots w_n\right)\)
1:11:31
感觉关键的是不要对原始数据做过多的处理,让 AI 自己去学习规律。 想法不值钱,没钱的 lab 也没法搞,所以最近几年好的模型都是谷歌微软推进的。
CNN 1. translation equivariance 2. locality.
一篇论文,内容如此饱满,做实验都要做好久好久。
真的是 力大飞砖 。 Vision Transformer 挑战了 CNN 在 CV 中绝对的统治地位。 Vision Transformer 得出的结论是如果在足够多的数据上做预训练, 在不依赖 CNN 的基础上,直接用自然语言上的 Transformer 也能 CV 问题解决得很好。 Transformer 打破了 CV、NLP 之间的壁垒。
47:04
Mu Li is scalable and efficient tutor
经典论文 2022 MAE。前沿 AI 距离普通人越来越远,以 MAE 这个“便宜”论文为例: 每次训练都需要使用 128 个 TPUv3 的核,训练一天以上,换算大概几千美金; 整个论文大概要做几十上百个实验,整体下来大概几十万美金。 AI 每次改进都有点反直觉,都是靠做实验进步的。
增强不增强我不好说,但是我认为可以抑制过拟合。
05:35 何恺明 涵盖 ResNet、Faster RCNN、Mask RCNN、MoCO 和 MAE。
暗通道去雾 https://zhuanlan.zhihu.com/p/418174496
年轻的时候我们有太多的纠结,好像走错了一步棋自己的人生就可能满盘皆输。 但其实我们中的大多数人都只是普通人,花了很多的力气来思考来做抉择,最终还是只能度过平凡的一生。 我们处在某个时间点上,总是想看到未来,却忘了最该做的是走好现在的路。 我在读研期间看书的时候,压根就没想到将来面试的时候考官会问到专业问题,但如果我没有认真学习专业知识,就一定回答不出考官的问题。 也许读完研你会觉得它没有卵用,但是不读研你未必就能成为一个有多少用的人。
1:24:11
\[\mathcal{L}_q=-\log \frac{\exp \left(q \cdot k_{+} / \tau\right)}{\sum_{i=0}^K \exp \left(q \cdot k_i / \tau\right)}\]Momentum Contrast From the above perspective, contrastive learning is a wayof building a discrete dictionary on high-dimensional con.tinuous inputs such as images. The dictionary is dynamic inthe sense that the keys are randomly sampled, and that thekey encoder evolves during training. Our hypothesis is thatgood features can be learned by a large dictionary that cov-ers a rich set of negative samples, while the encoder for thedictionary keys is kept as consistent as possible despite itsevolution. Based on this motivation, we present MomentumContrast as described next.
1:32:01
InstDisc
03:28
52:51
发表在 Nature 的封面文章 AI 辅助直觉(AI-guided intuition)希望通过机器学习辅助发现纯数学的猜想和定理。
Swin transformer 是 2021 年 ICCV 的 best paper。 才过去三年,AI 像过了一个世纪,现在看论文都有点考古的感觉了。 基础性的工作基本都是 Meta、Google、Microsoft、OpenAI 推动的,它们真的改变了世界。
https://zhuanlan.zhihu.com/p/659117181 Swin Transformer 学习笔记
1:00:22
上图从左到右,我们可以看到:
The Question about the mask of window attention #38 https://github.com/microsoft/Swin-Transformer/issues/38
RegNet 由 Facebook 用 NAS 搜出的模型,Efficient Net 是 google 用 NAS 搜索出的模型性能都很好。之前的 VIT 由于没有用好的数据增强,而且缺少偏置归纳所以效果较差。 而 DeiT 用了更好的数据增强和模型蒸馏的方法效果更好。而 Swin 效果更好一些。 但与 Efficient Net 不分伯仲,虽然效果胜于 EffNet 但参数量计算速度不如 EffNet b 展示,先在更大的数据集上做预训练,在在 ImageNet-1k 上微调做测试,会提升其性能。
Patch Merging 十分类似于 Pixel Shuffle 的上采样的反过程。Pixel Shuffle 是 low level 任务中常用的上采样。
在进行神经网络架构搜索时,以下是一些常见的步骤和考虑因素:
数学基础 —— 生成模型必备知识 https://pytorch.org/vision/stable/models.html ConvNext RegNet EfficientNet
某种程度上可以说,Swin Transformer 就是披着 Transformer 皮的 CNN。 Swin Transformer 像 CNN 一样具有层级式结构,而且它的计算复杂度是跟输入图像的大小呈线性增长的。这种层级式结构使得它在下游任务上的表现非常好,如 Swin Transformerr 在 COCO 和 ADE20K 上的效果都非常的好,远远超越了之前最好的方法。
最大的创新就是使用了基于 Shifted Window 的自注意力,可以看到,相比于全局自注意力,它在有效地减少了的计算量的同时,还保持了很好的效果,因此对很多视觉的任务,尤其是对下游密集预测型的任务是非常有帮助的。
但是如果 Shifted Window 操作不能用到 NLP 领域里,其实在模型大一统上论据就不是那么强了,所以作者说接下来他们的未来工作就是要把 Shifted Windows 用到 NLP 里面(看了下 github,现在还没有实现),如果真的能做到这一点,那 Swin Transformer 真的就是一个里程碑式的工作了,NLP 和 CV 模型真正大一统的未来也就来了。
09:00
1:15:29 MSA row-wise gated self-attention with pair bias.
好复杂的模型。
突然想起来中科院张真人说过的一句话:如果你看到了科学的突破进展,只能说明你还没有搞懂发展历史。真正的科学进步都是一点一点堆起来的。
14:11
1:38:26 我个人感觉,4 亿张图片的训练集就肯定或多或少包括了那 30 类数据集中相似的图片,就像 LLM 那种,我感觉这些 zero-shot 就其实都是早就 train 过的原因。
CLIP 为 CV 研究者打开了一片非常非常广阔的天地,原因在于 CLIP 真的把自然语言级别的抽象概念带到计算机视觉里了。当然肯定有其它类似工作,但 CLIP 跨过了奇点。
作者在 Prompt_Engineering_for_ImageNet.ipynb 列出了使用的这 80 个 context prompts,比如有 "a photo of many {}" 适合包含多个物体的情况,"a photo of the hard to see {}" 可能适合一些小目标或比较难辨认的目标。
上面的 prompt template 是 a photo of a {} Prompt engineering:避免歧义和与 NLP 那边保持一致,避免 distribution gap(分布误差) Prompt ensembling:多用提示的模板 prompt template,然后综合一下选最高的 这个就是咒语。
Torch 计算 cross_entropy 时直接输入 label 的 id,它会先转成一个 one-hot 矩阵,np.range(n) 就会因此转为一个 n 维的单位矩阵,正好跟文本表征和图片表征的相似矩阵计算交叉熵。 一文读懂三篇少样本微调 CLIP 的论文及代码实现细节
局限
[中文字幕] OpenAI CLIP 论文解读 https://www.bilibili.com/video/BV1Cv411h72S/
52:57 视频理解。 Two-Stream Convolutional Networks for Action Recognition in Videos
1:29:59
沐神关于做研究的启发: 做研究不要一条路走到黑,做过程你可以一条路走到黑,但是在做研究的时候,你要灵活一些,不要一条路走到黑。你需要尝试从一个新的角度来看问题。
gpt2 还是做语言模型,但是在做到下游任务的时候,会用一个叫做 zero-shot 的设定,zero-shot 是说,在做到下游任务的时候,不需要下游任务的任何标注信息,那么也不需要去重新训练已经预训练好的模型。这样子的好处是我只要训练好一个模型,在任何地方都可以用。 如果作者就是在 gpt1 的基础上用一个更大的数据集训练一个更大的模型,说我的结果比 Bert 好一些,可能也就好那么一点点,不是好那么多的情况下,大家会觉得 gpt2 这篇文章就没什么意思了,工程味特别重。那么我换一个角度,选择一个更难的问题,我说做 zero-shot。虽然结果可能没那么厉害了,没那么有优势,但是新意度一下就来了。
https://blog.csdn.net/zcyzcyjava/article/details/127006287
去重复,LSH 算法(Local Sensitive Hash)。
人脑相当于一个已经预训练好的模型,预训练来自于基因遗传?!
47:59
44:01 有点像机器翻译。
I can safely say the results of AlphaCode exceeded my expectations. I was skeptical because even in simple competitive problems it is often required not only to implement the algorithm, but also (and this is the most difficult part) to invent it. AlphaCode managed to perform at the level of a promising new competitor. I can't wait to see what lies ahead!
1:19:56
52:31
I3D Two-Stream Inflated 3D ConvNets
Bootstrapping 3D filters from 2D Filters. 从预先训练的 ImageNet 模型中引导参数来初始化 I3D: 作者将图像重复复制到视频序列中将图像转换为 (boring) 视频。 然后,在 ImageNet 上对 3D 模型进行隐式预训练,满足我们所谓的无聊视频固定点 ((boring) 视频上的池化激活应与原始单个图像输入上的池化激活相同 ),这可以实现通过在时间维度上重复 2D 滤波器的权重 N 次,并且通过除以 N 来重新缩放它们,这确保了卷积滤波器响应是相同的。
51:15 TSN 很多分段算结果。
1:37:40
数据压缩 灵活的一致性的模型和容灾 一致性哈希 向量钟
大规模机器学习框架的四重境界 https://www.leiphone.com/category/yanxishe/89T9wKWOxwCTCSHZ.html
1:08:32
有些 AI 论文会做很多实验,就没有出乌龙或者 bug 的吗?
这个卷积呢,拆分成了一个顺序的啊,先做空间再做时间的卷积形式。 那作者这里呢,也说了两点啊,就是说这种拆分的形式为什么比原来这个纯使用 3D 网络的好的原因。
时间维度,不做下采样。
1:02:14 这届航展非常特别,几乎是一个转折点,武器全面无人化、智能化。也算是 AI 的下游应用了,机器狗已经能达到实战的水平了。 Keras 之父谷歌离职,tensorflow 败给了 pytorch。
58:48
流水线并行(Pipeline Parallelism),数据并行(Data Parallelism)和张量并行(Tensor Parallesim)。
经典的流水线并行范式有 Google 推出的 Gpipe,和微软推出的 PipeDream。 两者的推出时间都在 2019 年左右,大体设计框架一致。 主要差别为:在梯度更新上,Gpipe 是同步的,PipeDream 是异步的。 异步方法更进一步降低了 GPU 的空转时间比。 虽然 PipeDream 设计更精妙些,但是 Gpipe 因为其“够用”和浅显易懂,更受大众欢迎(torch 的 pp 接口就基于 Gpipe)。
note 时间换空间。主要思路是用算力换内存(计算换显存,反向求导时需要的中间结果从 checkpoint 重新计算),以及用带宽换显存。
很多地方没彻底听明白了。
56:08
54:23
52:21
45:02
1:03:40
1:27:55
43:57
44:14
1:03:26
1:15:43
1:04:26
33:23
1:12:16
1:12:25
55:47
1:07:11
1:03:29
1:23:38
1:01:52
1:06:29
1:20:39
日期 | 标题 | 时长 | 视频(播放数) |
---|---|---|---|
3/30/23 | GPT-4 | 1:20:38 | video |
3/23/23 | 大模型时代下做科研的四个思路 | 1:06:29 | video |
3/10/23 | [Anthropic LLM] | 1:01:51 | video |
1/20/23 | [Helm] 全面语言模型评测 | 1:23:37 | video |
1/11/23 | 多模态论文串讲 · 下 | 1:03:29 | video |
12/29/22 | [Instruct GPT] | 1:07:10 | video |
12/19/22 | [Neural Corpus Indexer] 文档检索 | 55:47 | video |
12/12/22 | 多模态论文串讲 · 上 | 1:12:27 | video |
11/14/22 | OpenAI Whisper 精读 | 1:12:16 | video |
11/07/22 | 在讲 OpenAI Whisper 前先做了一个剪视频小工具 | 23:39 | video |
10/23/22 | [Chain of Thought] 论文、代码和资源 | 33:21 | video |
9/17/22 | CLIP 改进工作串讲(下) | 1:04:26 | video |
9/2/22 | CLIP 改进工作串讲(上) | 1:14:43 | video |
7/29/22 | [ViLT] 论文精读 | 1:03:26 | video |
7/22/22 | 理由、论据和担保【研究的艺术· 四】 | 44:14 | video |
7/15/22 | 如何讲好故事、故事里的论点【研究的艺术· 三】 | 43:56 | video |
7/8/22 | [DALL·E 2] 逐段精读 | 1:27:54 | video |
7/1/22 | 明白问题的重要性【研究的艺术· 二】 | 1:03:40 | video |
6/24/22 | 跟读者建立联系【研究的艺术· 一】 | 45:01 | video |
6/17/22 | [Zero] 逐段精读 | 52:21 | video |
6/10/22 | [DETR] 逐段精读 | 54:22 | video |
6/3/22 | [Megatron LM] 逐段精读 | 56:07 | video |
5/27/22 | GPipe 逐段精读 | 58:47 | video |
5/5/22 | [Pathways] 逐段精读 | 1:02:13 | video |
4/28/22 | [视频理解论文串讲](下) | 1:08:32 | video |
4/21/22 | 参数服务器(Parameter Server) 逐段精读 | 1:37:40 | video |
4/14/22 | [视频理解论文串讲](上) | 51:15 | video |
3/31/22 | [I3D] 论文精读 | 52:31 | video |
3/24/22 | 斯坦福 2022 年 AI 指数报告 精读 | 1:19:56 | video |
3/17/22 | AlphaCode 论文精读 | 44:00 | video |
3/10/22 | [OpenAI Codex] 论文精读 | 47:58 | video |
3/3/22 | GPT, GPT-2, [GPT-3] 精读 | 1:29:58 | video |
2/24/22 | Two-Stream 逐段精读 | 52:57 | video |
2/10/22 | CLIP 逐段精读 | 1:38:25 | video |
2/6/22 | 你(被)吐槽过 论文不够 novel 吗? | 14:11 | video |
1/23/22 | AlphaFold 2 精读 | 1:15:28 | video |
1/18/22 | 如何判断(你自己的)研究工作的价值 | 9:59 | video |
1/15/22 | [Swin Transformer] 精读 | 1:00:21 | video |
1/7/22 | 指导数学直觉 | 52:51 | video |
1/5/22 | AlphaFold 2 预告 | 03:28 | video |
12/20/21 | 对比学习 论文综述 | 1:32:01 | video |
12/15/21 | [MoCo] 逐段精读 | 1:24:11 | video |
12/9/21 | 如何找研究想法 1 | 5:34 | video |
12/8/21 | [MAE] 逐段精读 | 47:04 | video |
11/29/21 | [ViT] 逐段精读 | 1:11:30 | video |
11/18/21 | [BERT] 逐段精读 | 45:49 | video |
11/9/21 | GAN 逐段精读 | 46:16 | video |
11/3/21 | 零基础多图详解 图神经网络(GNN/GCN) | 1:06:19 | video |
10/27/21 | [Transformer] 逐段精读 (视频中提到的文献 1) |
1:27:05 | video |
10/22/21 | [ResNet] 论文逐段精读 | 53:46 | video |
10/21/21 | 撑起计算机视觉半边天的 [ResNet] | 11:50 | video |
10/15/21 | AlexNet 论文逐段精读 | 55:21 | video |
10/14/21 | 9 年后重读深度学习奠基作之一:AlexNet | 19:59 | video |
10/06/21 | 如何读论文 | 06:39 | video |
包括已经录制完成和之后将要介绍的论文。选取的原则是 10 年内深度学习里有影响力文章(必读文章),或者近期比较有意思的文章。当然这十年里重要的工作太多了,不可能一一过一遍。在选取的时候我会偏向一些之前 直播课 中没讲到过的。 欢迎大家在 讨论区 里提供建(点)议(歌)。
总论文数 67,录制完成数 32
(这里引用采用的是 semanticscholar,是因为它提供 API 可以自动获取,不用手动更新。)
已录制 | 年份 | 名字 | 简介 |
---|---|---|---|
✅ | 2012 | AlexNet | 深度学习热潮的奠基作 |
2014 | [VGG] | 使用 3x3 卷积构造更深的网络 | |
2014 | [GoogleNet] | 使用并行架构构造更深的网络 | |
✅ | 2015 | [ResNet] | 构建深层网络都要有的残差连接。 |
2017 | [MobileNet] | 适合终端设备的小 CNN | |
2019 | [EfficientNet] | 通过架构搜索得到的 CNN | |
2021 | [Non-deep networks] | 让不深的网络也能在 ImageNet 刷到 SOTA |
已录制 | 年份 | 名字 | 简介 |
---|---|---|---|
✅ | 2020 | [ViT] | Transformer 杀入 CV 界 |
✅ | 2021 | [Swin Transformer] | 多层次的 Vision Transformer |
2021 | [MLP-Mixer] | 使用 MLP 替换 self-attention | |
✅ | 2021 | [MAE] | BERT 的 CV 版 |
已录制 | 年份 | 名字 | 简介 |
---|---|---|---|
✅ | 2014 | GAN | 生成模型的开创工作 |
2015 | [DCGAN] | 使用 CNN 的 GAN | |
2016 | [pix2pix] | ||
2016 | [SRGAN] | 图片超分辨率 | |
2017 | [WGAN] | 训练更加容易 | |
2017 | [CycleGAN] | ||
2018 | [StyleGAN] | ||
2019 | [StyleGAN2] | ||
2020 | [DDPM] | Diffusion Models | |
2021 | [Improved DDPM] | 改进的 DDPM | |
2021 | [Guided Diffusion Models] | 号称超越 GAN | |
2021 | [StyleGAN3] | ||
✅ | 2022 | [DALL.E 2] | CLIP + Diffusion models,文本生成图像新高度 |
已录制 | 年份 | 名字 | 简介 |
---|---|---|---|
2014 | [R-CNN] | Two-stage | |
2015 | [Fast R-CNN] | ||
2015 | [Faster R-CNN] | ||
2016 | [SSD] | Single stage | |
2016 | [YOLO] | ||
2017 | [Mask R-CNN] | ||
2017 | [YOLOv2] | ||
2018 | [YOLOv3] | ||
2019 | [CenterNet] | Anchor free | |
✅ | 2020 | [DETR] | Transformer |
已录制 | 年份 | 名字 | 简介 |
---|---|---|---|
✅ | 2018 | [InstDisc] | 提出实例判别和 memory bank 做对比学习 |
✅ | 2018 | [CPC] | 对比预测编码,图像语音文本强化学习全都能做 |
✅ | 2019 | [InvaSpread] | 一个编码器的端到端对比学习 |
✅ | 2019 | [CMC] | 多视角下的对比学习 |
✅ | 2019 | [MoCov1] | 无监督训练效果也很好 |
✅ | 2020 | [SimCLRv1] | 简单的对比学习(数据增强 + MLP head + 大 batch 训练久) |
✅ | 2020 | [MoCov2] | MoCov1 + improvements from SimCLRv1 |
✅ | 2020 | [SimCLRv2] | 大的自监督预训练模型很适合做半监督学习 |
✅ | 2020 | [BYOL] | 不需要负样本的对比学习 |
✅ | 2020 | [SWaV] | 聚类对比学习 |
✅ | 2020 | [SimSiam] | 化繁为简的孪生表征学习 |
✅ | 2021 | [MoCov3] | 如何更稳定的自监督训练 ViT |
✅ | 2021 | [DINO] | transformer 加自监督在视觉也很香 |
已录制 | 年份 | 名字 | 简介 |
---|---|---|---|
✅ | 2014 | DeepVideo | 提出 sports1M 数据集,用深度学习做视频理解 |
✅ | 2014 | [Two-stream] | 引入光流做时序建模,神经网络首次超越手工特征 |
✅ | 2014 | [C3D] | 比较深的 3D-CNN 做视频理解 |
✅ | 2015 | [Beyond-short-snippets] | 尝试使用 LSTM |
✅ | 2016 | [Convolutional fusion] | 做 early fusion 来加强时空间建模 |
✅ | 2016 | [TSN] | 超级有效的视频分段建模,bag of tricks in video |
✅ | 2017 | [I3D] | 提出 Kinetics 数据集,膨胀 2D 网络到 3D,开启 3D-CNN 时代 |
✅ | 2017 | [R2+1D] | 拆分 3D 卷积核,使 3D 网络容易优化 |
✅ | 2017 | [Non-local] | 引入自注意力做视觉问题 |
✅ | 2018 | [SlowFast] | 快慢两支提升效率 |
✅ | 2021 | [TimeSformer] | 视频中第一个引入 transformer,开启 video transformer 时代 |
已录制 | 年份 | 名字 | 简介 |
---|---|---|---|
✅ | 2021 | CLIP | 图片和文本之间的对比学习 |
✅ | 2021 | [ViLT] | 第一个摆脱了目标检测的视觉文本模型 |
✅ | 2021 | [ViLD] | CLIP 蒸馏帮助开集目标检测 |
✅ | 2021 | [GLIP] | 联合目标检测和文本定位 |
✅ | 2021 | [CLIP4Clip] | 拿 CLIP 直接做视频文本 retrieval |
✅ | 2021 | [ActionCLIP] | 用多模态对比学习有监督的做视频动作分类 |
✅ | 2021 | [PointCLIP] | 3D 变 2D,巧妙利用 CLIP 做点云 |
✅ | 2022 | [LSeg] | 有监督的开集分割 |
✅ | 2022 | [GroupViT] | 只用图像文本对也能无监督做分割 |
✅ | 2022 | [CLIPasso] | CLIP 跨界生成简笔画 |
✅ | 2022 | [DepthCLIP] | 用文本跨界估计深度 |
已录制 | 年份 | 名字 | 简介 |
---|---|---|---|
✅ | 2017 | [Transformer] | 继 MLP、CNN、RNN 后的第四大类架构 |
✅ | 2018 | GPT | 使用 Transformer 解码器来做预训练 |
✅ | 2018 | [BERT] | Transformer 一统 NLP 的开始 |
✅ | 2019 | GPT-2 | 更大的 GPT 模型,朝着 zero-shot learning 迈了一大步 |
✅ | 2020 | [GPT-3] | 100 倍更大的 GPT-2,few-shot learning 效果显著 |
已录制 | 年份 | 名字 | 简介 |
---|---|---|---|
✅ | 2014 | 参数服务器 | 支持千亿参数的传统机器学习模型 |
✅ | 2018 | GPipe | 流水线(Pipeline)并行 |
✅ | 2019 | [Megatron-LM] | 张量(Tensor)并行 |
✅ | 2019 | [Zero] | 参数分片 |
✅ | 2022 | [Pathways] | 将 Jax 拓展到上千 TPU 核上 |
已录制 | 年份 | 名字 | 简介 |
---|---|---|---|
✅ | 2021 | 图神经网络介绍 | GNN 的可视化介绍 |
已录制 | 年份 | 名字 | 简介 |
---|---|---|---|
2014 | [Adam] | 深度学习里最常用的优化算法之一 | |
2016 | [为什么超大的模型泛化性不错] | ||
2017 | 为什么 Momentum 有效 | Distill 的可视化介绍 |
已录制 | 年份 | 名字 | 简介 |
---|---|---|---|
2016 | AlphaGo | 强化学习出圈 | |
2020 | AlphaFold | 赢得比赛的的蛋白质 3D 结构预测 | |
✅ | 2021 | AlphaFold 2 | 原子级别精度的蛋白质 3D 结构预测 |
✅ | 2021 | [Codex] | 使用注释生成代码 |
✅ | 2021 | 指导数学直觉 | 分析不同数学物体之前的联系来帮助发现新定理 |
✅ | 2022 | AlphaCode | 媲美一般程序员的编程解题水平 |
1 [斯坦福 100+ 作者的 200+ 页综述],2 [对 LayerNorm 的新研究],3 [对 Attention 在 Transformer 里面作用的研究] ↩