我将会在此分享我的学习笔记,资料,以及一些生活中的点滴。

谢谢每一位朋友的友好访问!

阅读全文 »

ILVR(Iterative Latent Variable Refinement)介绍

论文:ILVR: Conditioning Method for Denoising Diffusion Probabilistic Models

阅读全文 »

ResNet

网络退化:层次变深后性能还不如之前的网络(并不是梯度消失或梯度爆炸,也不是过拟合)

image-20221226111804113
image-20221226111804113

右侧的支路也被称为短路连接(shortcut connection)。引入短路连接,既没有引入额外的参数,也没有增加计算复杂度。

求和之后再用ReLU激活函数。注意输入和输出必须为同维(逐个元素相加)。

过去是直接拟合\(H(x)\),现在是拟合残差\(F(x)=H(x)-x\)

残差块的结构:

image-20221226111612290
image-20221226111612290

残差网络的优点:①易于优化收敛。②解决网络退化问题。③可以使网络变得很深,准确率大大提升。

resnet_main.py

阅读全文 »

卷积神经网络

深度学习处理的数据一般是[0,1],而图片数据的取值范围是[0,255],所以一般导入图片数据的时候做一次预处理/255。

彩色图片有3个通道,每个通道上都是以[0,255]的数值进行图片对应通道上的存储。

全连接神经网络参数众多,难以训练,而且容易过拟合,因因此引入了卷积神经网络。

特征图上的每个数值都是通过上一层的输入通过卷积核计算得到的。

将卷积层进行层层堆叠,就形成了深度卷积网络。在目前的硬件条件下,可以实现几百上千层的卷积层结构。卷积层越多,对复杂结构的特征识别能力越强。

激活函数一般是ReLU(把小于零的值剔除)。

池化层可以放大主要特征,忽略掉几个像素的偏差,抓住主要矛盾,忽略次要矛盾。可以减少数据维度,减少训练参数,避免过拟合。

批归一化的好处:①收敛速度更快(避免的了梯度离散现象,能更好的的更新参数)②更容易得到更好的解 ③训练更稳定

Lenet5_main.py

阅读全文 »

0 图形生成指标的要求

众所周知,评价生成模型最基本的要考虑以下两方面

阅读全文 »

概率扩散模型(DDPM)与分数扩散模型(SMLD)的联系与区别

论文发表时间顺序:SMLD→DDPM→SDEs

阅读全文 »