前馈神经网络
激活函数激活函数:最关键部分 激活函数:连续并可导的非线性函数 激活函数及其导函数要尽可能简单 激活函数的导函数要在一个合适的区间内 Sigmoid型函数:指一类S型曲线函数,为两端饱和函数,包括Logistic函数和Tanh函数 Logistic函数:Logistic 函数可以看成是一个“挤压”函数,把一个实数域的输入“挤压”到 (0, 1) Tanh函数:Tanh函数可以看作放大并平
卷积神经网络
全连接神经网络: 参数太多 训练困难 网络结构复杂 没有考虑到图像的空间结构信息 动机比起浅层神经网络,深度神经网络会更难训练,然而,如果训练好一个深度网络,它会比浅层网络强大的多因此,有必要开发一种能够训练的深度网络结构卷积神经网络可以简化网络结构,同时利用空间结构信息 卷积神经网络卷积运算卷积经常用在信号处理中,用于计算信号的延迟累积 局部感受野单个视觉细胞仅对部分区域的特定模式反应局部感
实验 用numpy搭建全连接神经网络用于手写数字识别
【代码+原理讲解】使用Numpy实现一个简单的四层全连接神经网络(手写数字识别,mnist数据集,正确率98.58%) - 知乎入门讲解:使用numpy实现简单的神经网络(BP算法)-CSDN博客结合代码和公式对全连接神经网络的实现进行分析 数据处理1234567891011121314151617181920# 标准化处理 if normalize: for _ in ('
图神经网络
图是一种描述样本间关系的通用语言 图神经网络图神经网络是一种基于图结构数据的深度学习方法,学习图结构数据中的节点特征、边特征、图级表示 图是图神经网络研究的基本对象;𝐺=(𝑉,𝐸) 是描述复杂事务的数据表示形式,由节点和边组成; 可描述不规则数据(非欧式数据),充分利用数据间关系信息 使用神经网络变换、聚合来自目标节点其邻居的信息,迭代生成节点嵌入表示 对于单个节点,求取邻居