咔叽游戏

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
查看: 392|回复: 0

[python] Pytorch生成随机数Tensor的方法汇总

[复制链接]
  • TA的每日心情
    无聊
    2019-4-21 13:02
  • 签到天数: 3 天

    [LV.2]圆转纯熟

    发表于 2020-10-4 13:22:28 | 显示全部楼层 |阅读模式
    在使用PyTorch做实验时经常会用到生成随机数Tensor的方法,比如:
      torch.rand()torch.randn()torch.normal()torch.linespace()
    均匀分布
    torch.rand(*sizes, out=None) → Tensor
    返回一个张量,包含了从区间[0, 1)的均匀分布中抽取的一组随机数。张量的形状由参数sizes定义。
    参数:
    sizes (int…) - 整数序列,定义了输出张量的形状
    out (Tensor, optinal) - 结果张量
    1. torch.rand(2, 3)
    2. [[0.0836 0.6151 0.6958],
    3. [0.6998 0.2560 0.0139]]
    4. [torch.FloatTensor of size 2x3]
    复制代码
    标准正态分布
    torch.randn(*sizes, out=None) → Tensor
    返回一个张量,包含了从标准正态分布(均值为0,方差为1,即高斯白噪声)中抽取的一组随机数。张量的形状由参数sizes定义。
    参数:
    sizes (int…) - 整数序列,定义了输出张量的形状
    out (Tensor, optinal) - 结果张量
    1. torch.randn(2, 3)
    2. 0.5419 0.1594 -0.0413
    3. -2.7937 0.9534 0.4561
    4. [torch.FloatTensor of size 2x3]
    复制代码
    离散正态分布
    torch.normal(means, std, out=None) → → Tensor
    返回一个张量,包含了从指定均值means和标准差std的离散正态分布中抽取的一组随机数。
    标准差std是一个张量,包含每个输出元素相关的正态分布标准差。
    参数:
    means (float, optional) - 均值
    std (Tensor) - 标准差
    out (Tensor) - 输出张量
    1. torch.normal(mean=0.5, std=torch.arange(1, 6))
    2. -0.1505
    3. -1.2949
    4. -4.4880
    5. -0.5697
    6. -0.8996
    7. [torch.FloatTensor of size 5]
    复制代码
    线性间距向量
    torch.linspace(start, end, steps=100, out=None) → Tensor
    返回一个1维张量,包含在区间start和end上均匀间隔的step个点。
    输出张量的长度由steps决定。
    参数:
    start (float) - 区间的起始点
    end (float) - 区间的终点
    steps (int) - 在start和end间生成的样本数
    out (Tensor, optional) - 结果张量
    1. torch.linspace(3, 10, steps=5)
    2. 3.0000
    3. 4.7500
    4. 6.5000
    5. 8.2500
    6. 10.0000
    7. [torch.FloatTensor of size 5]
    复制代码
    到此这篇关于Pytorch生成随机数Tensor的方法汇总的文章就介绍到这了,更多相关Pytorch生成随机数Tensor内容请搜索咔叽论坛以前的文章或继续浏览下面的相关文章希望大家以后多多支持咔叽论坛!

    原文地址:https://www.jb51.net/article/195219.htm

    QQ|免责声明|小黑屋|手机版|Archiver|咔叽游戏

    GMT+8, 2024-3-29 06:51

    Powered by Discuz! X3.4

    © 2001-2023 Discuz! Team.

    快速回复 返回顶部 返回列表