pytorch:我们可以直接在forward()函数中使用nn.Module层吗? - python

通常,
在构造函数中,我们声明要使用的所有层。
在前向功能中,我们定义了如何从输入到输出运行模型。

我的问题是,如果直接在forward()函数中调用那些预定义/内置的 nn。这种Keras function API样式适用于 Pytorch 吗?如果没有,为什么?

更新:以这种方式构造的TestModel 确实运行成功,没有发出警报。但是与传统方法相比,训练损失将缓慢下降。

import torch.nn as nn
from cnn import CNN

class TestModel(nn.Module):
    def __init__(self):
        super().__init__()
        self.num_embeddings = 2020
        self.embedding_dim = 51

    def forward(self, input):
        x = nn.Embedding(self.num_embeddings, self.embedding_dim)(input)
        # CNN is a customized class and nn.Module subclassed
        # we will ignore the arguments for its instantiation 
        x = CNN(...)(x)
        x = nn.ReLu()(x)
        x = nn.Dropout(p=0.2)(x)
        return output = x

参考方案

您需要考虑可训练参数的范围。

例如,如果您在模型的forward函数中定义了一个conv层,则此“层”的范围及其可训练的参数对于该函数而言是局部的,并且在每次调用forward方法后都会被丢弃。您无法更新和训练每次forward通过后不断丢弃的权重。
但是,当conv层是model的成员时,其范围将扩展到forward方法之外,并且只要model对象存在,可训练参数就会保留。这样,您可以更新和训练模型及其权重。

在Pytorch中重复张量的特定列 - python

我有一个大小为X的pytorch张量m x n和一个长度为num_repeats的非负整数n列表(假定sum(num_repeats)> 0)。在forward()方法中,我想创建一个大小为X_dup的张量m x sum(num_repeats),其中i的列X重复num_repeats[i]次。张量X_dup将在forward()方法的下游使用,因此需…

Python GPU资源利用 - python

我有一个Python脚本在某些深度学习模型上运行推理。有什么办法可以找出GPU资源的利用率水平?例如,使用着色器,float16乘法器等。我似乎在网上找不到太多有关这些GPU资源的文档。谢谢! 参考方案 您可以尝试在像Renderdoc这样的GPU分析器中运行pyxthon应用程序。它将分析您的跑步情况。您将能够获得有关已使用资源,已用缓冲区,不同渲染状态上…

Python:图像处理可产生皱纹纸效果 - python

也许很难描述我的问题。我正在寻找Python中的算法,以在带有某些文本的白色图像上创建皱纹纸效果。我的第一个尝试是在带有文字的图像上添加一些真实的皱纹纸图像(具有透明度)。看起来不错,但副作用是文本没有真正起皱。所以我正在寻找更好的解决方案,有什么想法吗?谢谢 参考方案 除了使用透明性之外,假设您有两张相同尺寸的图像,一张在皱纹纸上明亮,一张在白色背景上有深…

Python uuid4,如何限制唯一字符的长度 - python

在Python中,我正在使用uuid4()方法创建唯一的字符集。但是我找不到将其限制为10或8个字符的方法。有什么办法吗?uuid4()ffc69c1b-9d87-4c19-8dac-c09ca857e3fc谢谢。 参考方案 尝试:x = uuid4() str(x)[:8] 输出:"ffc69c1b" Is there a way to…

PyTorch-将张量与标量相乘会得出零向量 - python

我不知道为什么张量结果全为0。这里有什么问题吗?>>> import torch >>> import numpy as np >>> import math >>> torch.__version__ '0.4.1' >>> np.__versio…