測試代碼:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
|
import torch import torch.nn as nn #inplace為True,將會改變輸入的數據 ,否則不會改變原輸入,只會產生新的輸出 m = nn.ReLU(inplace = True ) input = torch.randn( 7 ) print ( "輸入處理前圖片:" ) print ( input ) output = m( input ) print ( "ReLU輸出:" ) print (output) print ( "輸出的尺度:" ) print (output.size()) print ( "輸入處理后圖片:" ) print ( input ) |
輸出為:
輸入處理前圖片:
1
|
tensor([ 1.4940 , 1.0278 , - 1.9883 , - 0.1871 , 0.4612 , 0.0297 , 2.4300 ]) |
ReLU輸出:
1
|
tensor([ 1.4940 , 1.0278 , 0.0000 , 0.0000 , 0.4612 , 0.0297 , 2.4300 ]) |
輸出的尺度:
1
|
torch.Size([ 7 ]) |
輸入處理后圖片:
1
|
tensor([ 1.4940 , 1.0278 , 0.0000 , 0.0000 , 0.4612 , 0.0297 , 2.4300 ]) |
結論:
1
|
nn.ReLU(inplace = True ) |
inplace為True,將會改變輸入的數據 ,否則不會改變原輸入,只會產生新的輸出
以上這篇pytorch方法測試——激活函數(ReLU)詳解就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持服務器之家。
原文鏈接:https://blog.csdn.net/tmk_01/article/details/80679991