国产片侵犯亲女视频播放_亚洲精品二区_在线免费国产视频_欧美精品一区二区三区在线_少妇久久久_在线观看av不卡

腳本之家,腳本語言編程技術及教程分享平臺!
分類導航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務器之家 - 腳本之家 - Python - Python 實現LeNet網絡模型的訓練及預測

Python 實現LeNet網絡模型的訓練及預測

2022-03-07 00:09Serins Python

本文將為大家詳細講解如何使用CIFR10數據集訓練模型以及用訓練好的模型做預測。代碼具有一定價值,感興趣的小伙伴可以學習一下

1.LeNet模型訓練腳本

整體的訓練代碼如下,下面我會為大家詳細講解這些代碼的意思

import torch
import torchvision
from torchvision.transforms import transforms
import torch.nn as nn
from torch.utils.data import DataLoader
from pytorch.lenet.model import LeNet
import torch.optim as optim
import numpy as np
import matplotlib.pyplot as plt

transform = transforms.Compose(
  # 將數據集轉換成tensor形式
  [transforms.ToTensor(),
   # 進行標準化,0.5是均值,也是方差,對應三個維度都是0.5
   transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))]
)

# 下載完整的數據集時,download=True,第一個為保存的路徑,下載完后download要改為False
# 為訓練集時,train=True,為測試集時,train=False
train_set = torchvision.datasets.CIFAR10('./data', train=True,
                                       download=False, transform=transform)

# 加載訓練集,設置批次大小,是否打亂,number_works是線程數,window不設置為0會報錯,linux可以設置非零
train_loader = DataLoader(train_set, batch_size=36,
                        shuffle=True, num_workers=0)

test_set = torchvision.datasets.CIFAR10('./data', train=False,
                                      download=False, transform=transform)
# 設置的批次大小一次性將所有測試集圖片傳進去
test_loader = DataLoader(test_set, batch_size=10000,
                       shuffle=False, num_workers=0)

# 迭代測試集的圖片數據和標簽值
test_img, test_label = next(iter(test_loader))

# CIFAR10的十個類別名稱
classes = ('plane', 'car', 'bird', 'cat', 'deer',
         'dog', 'frog', 'horse', 'ship', 'truck')

# # ----------------------------顯示圖片-----------------------------------
# def imshow(img, label):
#     fig = plt.figure()
#     for i in range(len(img)):
#         ax = fig.add_subplot(1, len(img), i+1)
#         nping = img[i].numpy().transpose([1, 2, 0])
#         npimg = (nping * 2 + 0.5)
#         plt.imshow(npimg)
#        ax.set_title(title)
#         plt.axis('off')
#     plt.show()
# 
# 
# batch_image = test_img[: 5]
# label_img = test_label[: 5]
# imshow(batch_image, label_img)
# # ----------------------------------------------------------------------

net = LeNet()
# 定義損失函數,nn.CrossEntropyLoss()自帶softmax函數,所以模型的最后一層不需要softmax進行激活
loss_function = nn.CrossEntropyLoss()
# 定義優化器,優化網絡模型所有參數
optimizer = optim.Adam(net.parameters(), lr=0.001)

# 迭代五次
for epoch in range(5):
  # 初始損失設置為0
  running_loss = 0
  # 循環訓練集,從1開始
  for step, data in enumerate(train_loader, start=1):
      inputs, labels = data
      # 優化器的梯度清零,每次循環都需要清零,否則梯度會無限疊加,相當于增加批次大小
      optimizer.zero_grad()
      # 將圖片數據輸入模型中
      outputs = net(inputs)
      # 傳入預測值和真實值,計算當前損失值
      loss = loss_function(outputs, labels)
      # 損失反向傳播
      loss.backward()
      # 進行梯度更新
      optimizer.step()
      # 計算該輪的總損失,因為loss是tensor類型,所以需要用item()取具體值
      running_loss += loss.item()
      # 每500次進行日志的打印,對測試集進行預測
      if step % 500 == 0:
          # torch.no_grad()就是上下文管理,測試時不需要梯度更新,不跟蹤梯度
          with torch.no_grad():
              # 傳入所有測試集圖片進行預測
              outputs = net(test_img)
              # torch.max()中dim=1是因為結果為(batch, 10)的形式,我們只需要取第二個維度的最大值
              # max這個函數返回[最大值, 最大值索引],我們只需要取索引就行了,所以用[1]
              predict_y = torch.max(outputs, dim=1)[1]
              # (predict_y == test_label)相同返回True,不相等返回False,sum()對正確率進行疊加
              # 因為計算的變量都是tensor,所以需要用item()拿到取值
              accuracy = (predict_y == test_label).sum().item() / test_label.size(0)
              # running_loss/500是計算每一個step的loss,即每一步的損失
              print('[%d, %5d] train_loss: %.3f   test_accuracy: %.3f' %
                    (epoch+1, step, running_loss/500, accuracy))
              running_loss = 0.0

print('Finished Training!')

save_path = 'lenet.pth'
# 保存模型,字典形式
torch.save(net.state_dict(), save_path)

(1).下載CIFAR10數據集

首先要訓練一個網絡模型,我們需要足夠多的圖片做數據集,這里我們用的是torchvision.dataset為我們提供的CIFAR10數據集(更多的數據集可以去pytorch官網查看pytorch官網提供的數據集)

train_set = torchvision.datasets.CIFAR10('./data', train=True,
                                       download=False, transform=transform)
test_set = torchvision.datasets.CIFAR10('./data', train=False,
                                      download=False, transform=transform)

這部分代碼是下載CIFAR10,第一個參數是下載數據集后存放的路徑,train=True和False對應下載的訓練集和測試集,transform是對應的圖像增強方式

(2).圖像增強

transform = transforms.Compose(
  # 將數據集轉換成tensor形式
  [transforms.ToTensor(),
   # 進行標準化,0.5是均值,也是方差,對應三個維度都是0.5
   transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))]
)

這就是簡單的圖像圖像增強,transforms.ToTensor()將數據集的所有圖像轉換成tensor, transforms.Normalize()是標準化處理,包含兩個元組對應均值和標準差,每個元組包含三個元素對應圖片的三個維度[channels, height, width],為什么是這樣排序,別問,問就是pytorch要求的,順序不能變,之后會看到transforms.Normalize([0.485, 0.406, 0.456], [0.229, 0.224, 0.225])這兩組數據,這是官方給出的均值和標準差,之后標準化的時候會經常用到

(3).加載數據集

# 加載訓練集,設置批次大小,是否打亂,number_works是線程數,window不設置為0會報錯,linux可以設置非零
train_loader = DataLoader(dataset=train_set, batch_size=36,
                        shuffle=True, num_workers=0)
test_loader = DataLoader(dataset=test_set, batch_size=36,
                       shuffle=False, num_workers=0)

這里只簡單的設置的四個參數也是比較重要的,第一個就是需要加載的訓練集和測試集,shuffle=True表示將數據集打亂,batch_size表示一次性向設備放入36張圖片,打包成一個batch,這時圖片的shape就會從[3, 32, 32]----》[36, 3, 32, 32],傳入網絡模型的shape也必須是[None, channels, height, width],None代表一個batch多少張圖片,否則就會報錯,number_works是代表線程數,window系統必須設置為0,否則會報錯,linux系統可以設置非0數

(4).顯示部分圖像

def imshow(img, label):
  fig = plt.figure()
  for i in range(len(img)):
      ax = fig.add_subplot(1, len(img), i+1)
      nping = img[i].numpy().transpose([1, 2, 0])
      npimg = (nping * 2 + 0.5)
      plt.imshow(npimg)
      ax.set_title(title)
      plt.axis('off')
  plt.show()


batch_image = test_img[: 5]
label_img = test_label[: 5]
imshow(batch_image, label_img)

這部分代碼是顯示測試集當中前五張圖片,運行后會顯示5張拼接的圖片

Python 實現LeNet網絡模型的訓練及預測

由于這個數據集的圖片都比較小都是32x32的尺寸,有些可能也看的不太清楚,圖中顯示的是真實標簽,注:顯示圖片的代碼可能會這個報警(Clipping input data to the valid range for imshow with RGB data ([0…1] for floats or [0…255] for integers).),警告解決的方法:將圖片數組轉成uint8類型即可,即 plt.imshow(npimg.astype(‘uint8'),但是那樣顯示出來的圖片會變,所以暫時可以先不用管。

(5).初始化模型

數據圖片處理完了,下面就是我們的正式訓練過程

net = LeNet()
# 定義損失函數,nn.CrossEntropyLoss()自帶softmax函數,所以模型的最后一層不需要softmax進行激活
loss_function = nn.CrossEntropyLoss()
# 定義優化器,優化模型所有參數
optimizer = optim.Adam(net.parameters(), lr=0.001)

首先初始化LeNet網絡,定義交叉熵損失函數,以及Adam優化器,關于注釋寫的,我們可以ctrl+鼠標左鍵查看CrossEntropyLoss(),翻到CrossEntropyLoss類,可以看到注釋寫的這個標準包含LogSoftmax函數,所以搭建LetNet模型的最后一層沒有使用softmax激活函數

Python 實現LeNet網絡模型的訓練及預測

(6).訓練模型及保存模型參數

for epoch in range(5):
  # 初始損失設置為0
  running_loss = 0
  # 循環訓練集,從1開始
  for step, data in enumerate(train_loader, start=1):
      inputs, labels = data
      # 優化器的梯度清零,每次循環都需要清零,否則梯度會無限疊加,相當于增加批次大小
      optimizer.zero_grad()
      # 將圖片數據輸入模型中得到輸出
      outputs = net(inputs)
      # 傳入預測值和真實值,計算當前損失值
      loss = loss_function(outputs, labels)
      # 損失反向傳播
      loss.backward()
      # 進行梯度更新(更新W,b)
      optimizer.step()
      # 計算該輪的總損失,因為loss是tensor類型,所以需要用item()取到值
      running_loss += loss.item()
      # 每500次進行日志的打印,對測試集進行測試
      if step % 500 == 0:
          # torch.no_grad()就是上下文管理,測試時不需要梯度更新,不跟蹤梯度
          with torch.no_grad():
              # 傳入所有測試集圖片進行預測
              outputs = net(test_img)
              # torch.max()中dim=1是因為結果為(batch, 10)的形式,我們只需要取第二個維度的最大值,第二個維度是包含十個類別每個類別的概率的向量
              # max這個函數返回[最大值, 最大值索引],我們只需要取索引就行了,所以用[1]
              predict_y = torch.max(outputs, dim=1)[1]
              # (predict_y == test_label)相同返回True,不相等返回False,sum()對正確結果進行疊加,最后除測試集標簽的總個數
              # 因為計算的變量都是tensor,所以需要用item()拿到取值
              accuracy = (predict_y == test_label).sum().item() / test_label.size(0)
              # running_loss/500是計算每一個step的loss,即每一步的損失
              print('[%d, %5d] train_loss: %.3f   test_accuracy: %.3f' %
                    (epoch+1, step, running_loss/500, accuracy))
              running_loss = 0.0
              
print('Finished Training!')

save_path = 'lenet.pth'
# 保存模型,字典形式
torch.save(net.state_dict(), save_path)

這段代碼注釋寫的很清楚,大家仔細看就能看懂,流程不復雜,多看幾遍就能理解,最后再對訓練好的模型進行保存就好了(* ̄︶ ̄)

 

2.預測腳本

上面已經訓練好了模型,得到了lenet.pth參數文件,預測就很簡單了,可以去網上隨便找一張數據集包含的類別圖片,將模型參數文件載入模型,通過對圖像進行一點處理,喂入模型即可,下面奉上代碼:

import torch
import numpy as np
import torchvision.transforms as transforms
from PIL import Image
from pytorch.lenet.model import LeNet

classes = ('plane', 'car', 'bird', 'cat', 'deer',
         'dog', 'frog', 'horse', 'ship', 'truck')

transforms = transforms.Compose(
  # 對數據圖片調整大小
  [transforms.Resize([32, 32]),
   transforms.ToTensor(),
   transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))]
)

net = LeNet()
# 加載預訓練模型
net.load_state_dict(torch.load('lenet.pth'))
# 網上隨便找的貓的圖片
img_path = '../../Photo/cat2.jpg'
img = Image.open(img_path)
# 圖片的處理
img = transforms(img)
# 增加一個維度,(channels, height, width)------->(batch, channels, height, width),pytorch要求必須輸入這樣的shape
img = torch.unsqueeze(img, dim=0)

with torch.no_grad():
  output = net(img)
  # dim=1,只取[batch, 10]中10個類別的那個維度,取預測結果的最大值索引,并轉換為numpy類型
  prediction1 = torch.max(output, dim=1)[1].data.numpy()
  # 用softmax()預測出一個概率矩陣
  prediction2 = torch.softmax(output, dim=1)
  # 得到概率最大的值得索引
  prediction2 = np.argmax(prediction2)
# 兩種方式都可以得到最后的結果
print(classes[int(prediction1)])
print(classes[int(prediction2)])

反正我最后預測出來結果把貓識別成了狗,還有90.01%的概率,就離譜哈哈哈,但也說明了LeNet這個網絡模型確實很淺,特征提取的不夠深,才會出現這種。

到此這篇關于Python 實現LeNet網絡模型的訓練及預測的文章就介紹到這了,更多相關LeNet網絡模型訓練及預測內容請搜索服務器之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持服務器之家!

原文鏈接:https://blog.csdn.net/Serins/article/details/121477739

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 在线色网 | 日本一区二区免费在线播放 | 国产成年人电影在线观看 | 日韩一区在线播放 | 在线观看91免费视频 | 日本成人 | 午夜欧美一区二区三区在线播放 | 国产精品1区2区在线观看 | 欧美成人免费 | 在线影院av | 日韩电影一区二区在线观看 | 精品国产成人 | 亚洲国内精品 | 老女肥熟av免费观看 | 国产在线第一页 | 亚洲电影在线看 | 亚洲日本中文字幕 | 成人精品久久久 | 久久五月天婷婷 | 欧美一区二区三区在线看 | 日日夜夜一区二区 | 一本大道av伊人久久综合 | 国产一区二区三区视频在线观看 | 亚洲人成在线播放 | 老司机午夜影院 | 日韩精品专区在线影院重磅 | 亚洲综合无码一区二区 | 精品视频免费在线 | 久久婷婷欧美 | 国产精品剧情一区二区三区 | 一区二区欧美在线 | 91精品国产综合久久香蕉 | 久久精品国产清自在天天线 | 亚洲欧美中文字幕 | 蜜臀精品久久久久久蜜臀 | 欧美一区在线视频 | 超碰人人爱 | 中文久久 | 亚洲一区在线视频 | 网站毛片 | 国产精品成人一区二区三区 |