生成模型

有监督:
给定数据(x,y),x为输出,y是对应的标签
目的:学习一个映射f: x→y
用于分类、回归、目标检测、语义分割、图像描述等

无监督:
数据:只有x,没有标签
目标:学习隐藏的信息(数据背后隐藏的结构、主题、情感等)
用于聚类、特征降维、特征学习、密度估计等

判别模型:
同时需要输入X和标签Y,试图通过某个判别函数建模条件分布P(Y|X)
例如softmax回归,SVM等
不能建模P(X),即观测到某个样本的概率

生成模型:
不需要标签Y,试图建模P(X, Y), P(X|Y), P(X)等
可以建模P(X),可以生成新的样本

显式的密度估计:显式定义和求解$p_{model}(x)$,最大似然估计、马尔科夫链

隐式的密度估计:学习一个可以从中抽样出样本的模型$p_{model}(x)$,但并不显式定义它,GAN

隐变量模型

image.png
借助因变量z,$p(x|z;\theta)$可以用$f(z,\theta)$逼近,进而把概率密度估计问题转化为函数逼近问题
image.png

蒙特卡洛采样法

对大多数任务来说,精确估计往往不可行,因而转为近似估计
蒙特卡洛技术是建立在数值采样基础上的近似推断方法
image.png
image.png

穷尽所有的z非常困难
缩小z的取值范围:原本从任意分布P(z)中采样得到z→变为从后验分布p(z|X)中采样得到z

变分自动编码器

变分推断是一种通过函数最优化近似估计概率的方法
基本思想:提出一个分布家族,进一步从中得到一个接近目标分布的分布
image.png
编码器:采样神经网络学习z的分布p(z),例如高斯分布,从p(z)中抽样一个z
解码器:采用另一个神经网络从p(x|z)抽样得到x
改良:原本从任意分布P(z)中采样得到z→变为从后验分布p(z|X)中采样得到z
image.png

image.png

目标函数:学习模型参数$\theta$,以最大化训练数据的对数似然
image.png

image.png

训练:最大化下界(ELBO)
image.png

image.png

Conditional VAE

image.png


生成模型
http://example.com/2024/11/27/Notes/课程/大三(上)/神经网络与深度学习/生成模型/
许可协议