神经网络基础 线性函数拟合线性回归可以找到一些点的集合背后的规律:一个点集可以用一条直线来拟合,这条拟合出来的直线的参数特征,就是线性回归找到的点集背后的规律 感知机感知机模型𝐻 𝒙 = sign(𝒘_𝑇 𝒙 + 𝑏)对应一个超平面𝒘_𝑇 𝒙 + 𝑏 = 0,模型参数是(𝒘, 𝑏)。感知机的目标是找到一个(𝒘, 𝑏),将线性可分的数据集T中的所有的样本点正确地分为 Notes > 课程 > 大三(上) > 智能计算系统 #神经网络
编程框架使用 深度学习编程框架:将深度学习算法中的基本操作封装成一系列组件,这一系列深度学习组件,即构成一套深度学习框架 pytorch概述主要优点简洁易懂:API设计简洁一致,基本上是tensor、autograd、nn三层封装便于调试:采用动态图,可以进行调试强大高效:提供了非常丰富的模型组件 pytorch和tensorflowTensorflow在工业界拥有完备的解决方案和用户基础 pytorch编程模 Notes > 课程 > 大三(上) > 智能计算系统 #智能计算系统 #Pytorch
第三章作业 计算AlexNet、VGG19、ResNet152三个网络中的神经元数目及可训练的参数数目AlexNetproceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf 根据论文中给出的网络结构AlexNet共有五层卷积层和三层全连接层其中第一层卷积层有96个卷 Notes > 课程 > 大三(上) > 智能计算系统
编程框架机理 Pytorch的设计原则 要性能更要易用 简介抽象而非隐藏细节 始于python,忠于python Pytorch的计算图机制常见求导方法: 手动求解法 数值求导法 符号求导法 自动求导法 分布式计算机制 不同的分布式计算方法:数据并行:对数据进行分区模型并行:对程序进行分区混合并行:同时对数据和程序进行分区 编译机制 Notes > 课程 > 大三(上) > 智能计算系统 #智能计算系统
A2分析与简答 • A2.1 (5 points) 尝试解释Epoch、Iteration、Batch几个概念及其不同,尝试说明batch_size的选择依据和影响。Epoch代表全部的训练数据在模型中训练的次数Iteration表示在一个Epoch中参数更新的次数Batch表示一次正向和反向传播中的一组数据样本batch_size表示Batch中的数据量。小的batch_size可能会导致训练过程不稳定,但梯度 Notes > 课程 > 大三(上) > 神经网络与深度学习 #深度学习
A6分析与简答 A6.1 (5分) 分析卷积神经网络中用1×1的卷积核的作用。一文读懂卷积神经网络中的1x1卷积核 - 知乎 改变通道数 当卷积核的个数大于或小于输入通道数时,可以改变输出的通道数 增加非线性 1x1卷积核可以在不改变特征维度的情况下添加非线性激活 A6.2 (5分) 计算函数$𝑦 = max(𝑥_1,⋯,𝑥_𝐷)$和函数$𝑦 = argmax(𝑥_1,⋯,𝑥 Notes > 课程 > 大三(上) > 神经网络与深度学习 #深度学习 #神经网络
ChatEdit ChatEditChatEdit是一个数据集,用于评估在此背景下的图像编辑和对话能力。ChatEdit是根据CelebA-HQ数据集(30k张1024×1024面部图像数据集,它提供了 40 个面部属性的二进制注释)构建的,包含与图像上的用户编辑请求相对应的带注释的多轮对话,21个可编辑属性 TODO:数据集是什么类型?一张图像和几个标签?图像生成后怎么判断生成是否符合要求 交互式面部图像编辑 跟 Notes > 论文
扩散模型论文todo 检查句号后面空格 论文检查: 论文中公式全部检查 公式文字部分也对应检查 图表全部检查 图表文字部分也对应检查 参考文献检查 20和29参考文献重点检查 学历补充 word格式整理好 检查论文,12.4之前 对比学习生成 hardsample自动数据增强识别出假数据https://arxiv.org/pdf/2207.00148.pdfhttps://arxiv.org/pd Notes > 论文 #扩散模型