分类 PyTorch 教程 下的文章


撰写于:  浏览:1288 次  分类:PyTorch 教程
1、SGD原理介绍随机梯度下降(Stochastic Gradient Descent,简称SGD)是基于梯度的一种优化算法,用于寻找损失函数最小化的参数配置。SGD通过计算每个样本的梯度来更新参数,并在每次更新中随机选择一个或一批样本。SGD的原理相对简单,它通过计算损失函数对每个训练样本的梯度来更新参数。具体步骤如下:1、随机选择一个训练样本;[...]

撰写于:  浏览:565 次  分类:PyTorch 教程
关于范数的定义,有多种情况,如下所示:0 范数:当前向量中的元素之和1 范数:对应向量元素只差的绝对值之和2 范数: 元素的平方和再开方p 范数: 元素的绝对值的P次方之和再开P次方import torch a = torch.rand(2, 1) # a 的一范数 print(torch.norm(a, p=1)) # a 的二范数 prin[...]

撰写于:  浏览:609 次  分类:PyTorch 教程
1、Sequential 简介Sequential表示一个连续的容器,模块将按照它们在构造函数中传递的顺序添加到容器其中。Sequential的forward()方法接受任何输入并将其转发到它包含的第一个模块。然后,它将输出顺序“链接”到每个后续模块的输入,最终返回最后一个模块的输出。Sequential提供的优于手动调用模块序列的价值在于,它允许[...]

撰写于:  浏览:529 次  分类:PyTorch 教程
ModuleList 可以像常规 Python 列表一样进行索引。1、ModuleList 代码举例class MyModule(nn.Module): def __init__(self): super().__init__() self.linears = nn.ModuleList([nn.Linear[...]

撰写于:  浏览:508 次  分类:PyTorch 教程
Quantization refers to techniques for performing computations and storing tensors at lower bitwidths than floating point precision. PyTorch supports both per tensor and per ch[...]

撰写于:  浏览:755 次  分类:PyTorch 教程
nn.Embeddingtorch.nn.Embedding 是 PyTorch 中一个重要的模块,用于创建一个简单的查找表,它存储固定字典和大小的嵌入(embeddings)。这个模块通常用于存储单词嵌入并使用索引检索它们。接下来,我将详细解释 Embedding 模块的用途、用法、特点以及如何使用它。用途单词嵌入:在自然语言处理中,Embedd[...]

撰写于:  浏览:615 次  分类:PyTorch 教程
torch.nn.Conv3D 说明nn.Conv3d 是 PyTorch 中实现三维卷积操作的类。输入数据参数说明:输入张量的维度应为 (N, C_in, D, H, W),其中: N: 批量大小 (batch size),即一批输入数据中包含的样本数量。 C_in: 输入通道数 (number of input channels),即输入数据的[...]

撰写于:  浏览:657 次  分类:PyTorch 教程
1、UninitializedParameter 简介UninitializedParameter意为:未初始化的参数。UninitializedParameter是torch.nn.Parameter的一种特殊情况,其中数据的形状是未知的。与torch.nn.Parameter不同,UninitializedParameter不包含任何数据,尝试[...]

撰写于:  浏览:702 次  分类:PyTorch 教程
在PyTorch中,每个Tensor都有三大属性:torch.dtype、torch.device、torch.layout1、torch.dtype 属性https://pytorch.org/docs/stable/tensor_attributes.html#torch.dtype2、torch.device 属性https://pytorc[...]

撰写于:  浏览:613 次  分类:PyTorch 教程
1、PyTorch自动微分的入门例子首先,我们先看一下PyTorch官网的入门例子,代码如下所示:import torch x = torch.ones(5) # input tensor y = torch.zeros(3) # expected output w = torch.randn(5, 3, requires_grad=True[...]

撰写于:  浏览:590 次  分类:PyTorch 教程
通常numpy.where()有两种用法:np.where(condition, x, y) 以及 np.where(condition),本文详细给大家介绍一下。1、np.where(condition, x, y)当where内有三个参数时,第一个参数表示条件,当条件成立时where方法返回x,当条件不成立时where返回y>>&g[...]

撰写于:  浏览:899 次  分类:PyTorch 教程
一般来说我们最常见到的用法是这样的:device = torch.device("cuda" if torch.cuda.is_available() else "cpu")等同于:if torch.cuda.is_available(): device = torch.device("cu[...]

撰写于:  浏览:978 次  分类:PyTorch 教程
在PyTorch中,torch.clamp()函数用于将张量中的元素限制在指定的最小值和最大值之间。这个函数对于防止梯度爆炸、梯度消失或处理异常值非常有用。下面我们将深入探讨这个函数的工作原理、参数、应用场景以及与其它相关函数的比较。1、clamp函数的工作原理torch.clamp()函数通过比较每个元素与最小值和最大值,将所有小于最小值的元素设[...]

撰写于:  浏览:937 次  分类:PyTorch 教程
1、网络权重初始化存在的问题早期的参数初始化方法普遍随机初始化。最常用的随机初始化方法是从均值为0、方差为1的高斯分布中随机采样得到权重。需要注意的是,随机初始化所使用的值的范围可能会对网络性能产生重大影响。如果权重以过大或过小的值初始化,可能会导致训练过程收敛缓慢甚至导致网络发散。2、Xavier Initialization诞生背景Xavier[...]

撰写于:  浏览:3451 次  分类:PyTorch 教程
提示:本文修订于2024年10月19日。1、《PyTorch面试精华》的特点简介《PyTorch面试精华》不仅仅是面试,更是对PyTorch以及AI深度学习技术的系统化、全面化的汇集和沉淀,适用人群即包括刚迈入校门的大一新生,也包括工作十年的职场老鸟;即可以让非AI专业的业余兴趣者增长见识,也可以为专业的AI面试官提供精品题库。自电子教程上线以来,[...]

关注公众号,了解站长最新动态

    友情链接