Tensorflow可以使用訓(xùn)練好的模型對新的數(shù)據(jù)進(jìn)行測試,有兩種方法:第一種方法是調(diào)用模型和訓(xùn)練在同一個py文件中,中情況比較簡單;第二種是訓(xùn)練過程和調(diào)用模型過程分別在兩個py文件中。本文將講解第二種方法。
宜賓ssl適用于網(wǎng)站、小程序/APP、API接口等需要進(jìn)行數(shù)據(jù)傳輸應(yīng)用場景,ssl證書未來市場廣闊!成為創(chuàng)新互聯(lián)公司的ssl證書銷售渠道,可以享受市場價(jià)格4-6折優(yōu)惠!如果有意向歡迎電話聯(lián)系或者加微信:18980820575(備注:SSL證書合作)期待與您的合作!模型的保存
tensorflow提供可保存訓(xùn)練模型的接口,使用起來也不是很難,直接上代碼講解:
#網(wǎng)絡(luò)結(jié)構(gòu) w1 = tf.Variable(tf.truncated_normal([in_units, h2_units], stddev=0.1)) b1 = tf.Variable(tf.zeros([h2_units])) y = tf.nn.softmax(tf.matmul(w1, x) + b1) tf.add_to_collection('network-output', y) x = tf.placeholder(tf.float32, [None, in_units], name='x') y_ = tf.placeholder(tf.float32, [None, 10], name='y_') #損失函數(shù)與優(yōu)化函數(shù) cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1])) train_step = tf.train.AdamOptimizer(rate).minimize(cross_entropy) saver = tf.train.Saver() with tf.Session() as sess: sess.run(init) saver.save(sess,"save/model.ckpt") train_step.run({x: train_x, y_: train_y})
當(dāng)前文章:Tensorflow實(shí)現(xiàn)在訓(xùn)練好的模型上進(jìn)行測試-創(chuàng)新互聯(lián)
網(wǎng)址分享:http://m.rwnh.cn/article30/ddodpo.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供定制網(wǎng)站、網(wǎng)站建設(shè)、網(wǎng)站設(shè)計(jì)、小程序開發(fā)、App開發(fā)、微信公眾號
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容