saver的用法
1. saver的背景介紹
我們經常在訓練完一個模型之后希望保存訓練的結果,這些結果指的是模型的參數,以便下次迭代的訓練或者用作測試。tensorflow針對這一需求提供了saver類。
saver類提供了向checkpoints文件保存和從checkpoints文件中恢復變量的相關方法。checkpoints文件是一個二進制文件,它把變量名映射到對應的tensor值 。
只要提供一個計數器,當計數器觸發時,saver類可以自動的生成checkpoint文件。這讓我們可以在訓練過程中保存多個中間結果。例如,我們可以保存每一步訓練的結果。
為了避免填滿整個磁盤,saver可以自動的管理checkpoints文件。例如,我們可以指定保存最近的n個checkpoints文件。
2. saver的實例
下面以一個例子來講述如何使用saver類
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
|
import tensorflow as tf import numpy as np x = tf.placeholder(tf.float32, shape = [none, 1 ]) y = 4 * x + 4 w = tf.variable(tf.random_normal([ 1 ], - 1 , 1 )) b = tf.variable(tf.zeros([ 1 ])) y_predict = w * x + b loss = tf.reduce_mean(tf.square(y - y_predict)) optimizer = tf.train.gradientdescentoptimizer( 0.5 ) train = optimizer.minimize(loss) istrain = false train_steps = 100 checkpoint_steps = 50 checkpoint_dir = '' saver = tf.train.saver() # defaults to saving all variables - in this case w and b x_data = np.reshape(np.random.rand( 10 ).astype(np.float32), ( 10 , 1 )) with tf.session() as sess: sess.run(tf.initialize_all_variables()) if istrain: for i in xrange (train_steps): sess.run(train, feed_dict = {x: x_data}) if (i + 1 ) % checkpoint_steps = = 0 : saver.save(sess, checkpoint_dir + 'model.ckpt' , global_step = i + 1 ) else : ckpt = tf.train.get_checkpoint_state(checkpoint_dir) if ckpt and ckpt.model_checkpoint_path: saver.restore(sess, ckpt.model_checkpoint_path) else : pass print (sess.run(w)) print (sess.run(b)) |
- istrain:用來區分訓練階段和測試階段,true表示訓練,false表示測試
- train_steps:表示訓練的次數,例子中使用100
- checkpoint_steps:表示訓練多少次保存一下checkpoints,例子中使用50
- checkpoint_dir:表示checkpoints文件的保存路徑,例子中使用當前路徑
2.1 訓練階段
使用saver.save()方法保存模型:
- sess:表示當前會話,當前會話記錄了當前的變量值
- checkpoint_dir + 'model.ckpt':表示存儲的文件名
- global_step:表示當前是第幾步
訓練完成后,當前目錄底下會多出5個文件。
打開名為“checkpoint”的文件,可以看到保存記錄,和最新的模型存儲位置。
2.1測試階段
測試階段使用saver.restore()方法恢復變量:
sess:表示當前會話,之前保存的結果將被加載入這個會話
ckpt.model_checkpoint_path:表示模型存儲的位置,不需要提供模型的名字,它會去查看checkpoint文件,看看最新的是誰,叫做什么。
運行結果如下圖所示,加載了之前訓練的參數w和b的結果
以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持服務器之家。
原文鏈接:https://blog.csdn.net/u011500062/article/details/51728830