pytorch的batch normalize使用详解

yipeiwu_com6年前Python基础

torch.nn.BatchNorm1d()

1、BatchNorm1d(num_features, eps = 1e-05, momentum=0.1, affine=True)

对于2d或3d输入进行BN。在训练时,该层计算每次输入的均值和方差,并进行平行移动。移动平均默认的动量为0.1。在验证时,训练求得的均值/方差将用于标准化验证数据。

num_features:表示输入的特征数。该期望输入的大小为'batch_size x num_features [x width]'

Shape: - 输入:(N, C)或者(N, C, L) - 输出:(N, C)或者(N,C,L)(输入输出相同)

2、BatchNorm2d(同上)

对3d数据组成的4d输入进行BN。

num_features: 来自期望输入的特征数,该期望输入的大小为'batch_size x num_features x height x width'

Shape: - 输入:(N, C,H, W) - 输出:(N, C, H, W)(输入输出相同)

3、BatchNorm3d(同上)

对4d数据组成的5d输入进行BN。

以上这篇pytorch的batch normalize使用详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持【听图阁-专注于Python设计】。

相关文章

pytorch中交叉熵损失(nn.CrossEntropyLoss())的计算过程详解

pytorch中交叉熵损失(nn.CrossEntropyLoss())的计算过程详解

公式 首先需要了解CrossEntropyLoss的计算过程,交叉熵的函数是这样的: 其中,其中yi表示真实的分类结果。这里只给出公式,关于CrossEntropyLoss的其他详细细...

windows 10下安装搭建django1.10.3和Apache2.4的方法

windows 10下安装搭建django1.10.3和Apache2.4的方法

环境介绍 python3.5.2 64位 django 1.10.3 apache 2.4 64位 windows 10 重点在apache上。 python 和dj...

Python 多维List创建的问题小结

背景 最近在学Python,我觉得学习一个新语言最好的方式就是写一个简单的项目,所以就打算写一个简单的俄罗斯方块游戏。那么在写的过程中遇到了一个小问题。 def __init__...

python循环嵌套的多种使用方法解析

这篇文章主要介绍了python循环嵌套的多种使用方法解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 使用循环嵌套来获取100以内的...

使用NumPy和pandas对CSV文件进行写操作的实例

数组存储成CSV之类的区隔型文件: 下面代码给随机数生成器指定种子,并生成一个3*4的NumPy数组 将一个数组元素的值设为NaN: In [26]: import numpy a...