torch.nn.init.calculate_gain(nonlinearity, param=None)
torch.nn.Module(*args, **kwargs)
torch.sum(input, *, dtype=None)
torch.nn.init.orthogonal_(tensor, gain=1)
torch.nn.init.constant_(tensor, val)
torch.Tensor
1. 2015年,ILSVRCC比赛中,ResNet错误率首次降到5%以下,战胜了人类。 2. 机器学习中数据的类型 图片文本音频数据RGB / RGBA字符串通用格式:16bit 振幅44.1kHz采样频率 图片: 1. 包含了很多像素点,一个像素一个...
torch.nn.init.normal_(tensor, mean=0.0, std=1.0)
将Softmax函数应用于n维输入张量,重新缩放它们,使得n维输出张量的元素位于01的范围内,且总和为1。当输入张量是稀疏张量时,未指定的值被视为-inf。
将输入张量形状为1的维度去除并返回。比如输入向量的形状为A×1×B×1×C×1×D,则输出向量形状就为A×B×C×D。当给定参数dim时,则操作只在给定维度dim上。例如,输入向量的形状为A×1×B,使用,输出向量的形状...
torch.nn.init.kaiming_uniform_(tensor, a=0, mode='fan_in', nonlinearity='leaky_relu')
对输入数据做线性变换yxATb。
torch.nn.init.uniform_(tensor, a=0.0, b=1.0)
torch.nn.init.trunc_normal_(tensor, mean=0.0, std=1.0, a=- 2.0, b=2.0)
torch.nn.init.dirac_(tensor, groups=1)
计算input和other的元素最大值。
张量 自动求导的理解
torch.t(input) → Tensor
torch.nn.init.sparse_(tensor, sparsity, std=0.01)
torch.nn.init.xavier_uniform(tensor, gain=1)
torch.nn.init.xavier_normal_(tensor, gain=1.0)
torch.exp(input, *, out=None) → Tensor
torch.zeros
相关文章:· 深入浅出Pytorch函数——torch.maxkeepdimTruedimdim。