先学习几个英文单词
summary 汇总,摘要
scope 范围
我这是很早以前的笔记,后来有了博客才发布的,有些内容比较老,懒得改了。
先说明总体流程
暂时不管怎么编程,假设已经有了如下代码,可执行的。
# encoding:utf-8
import tensorflow as tf
print('version:', tf.__version__)
foo = tf.Variable(3, name='foo')
bar = tf.Variable(2, name='bar')
result = tf.add(foo, bar, name='add')
# 初始化变量
init = tf.global_variables_initializer()
# 启动图 (graph)
sess = tf.Session()
sess.run(init)
res = sess.run(result)
print('result:', res)
train_writer = tf.summary.FileWriter('log2', sess.graph)
可视化效果,先感性认识一下
可视化简要步骤
1.运行该代码
// 此时在log2中已经生成文件
2.启动可视化工具
a. 找到tensorflow下的tensorboard.py文件,运行该文件,python tensorboard.py --logdir=...../log2/ 注意这里的路径和代码里的路径要一致 (这是老版本的)
b. 直接运行 tensorboard --host=10.10.101.2 --port=6099 --logdir="my_graph"
// tensorBoard 不需要额外的安装,在tensorflow安装完成时,TensorBoard会被自动安装
// port host 可有可无
// 目录不带引号
3. 在浏览器中 访问 localhost:6006,点击graphs,即可看到
4. 注意每运行一次代码就要重启这个工具
详细说明
1. 数据序列化
tf可视化实际上是把运算数据序列化到本地,然后用浏览器加载这些数据
这个本地文件叫 ‘事件文件’,通过tensorboard来读取
weights = tf.Variable(tf.random_normal([3,2]), name='w')
sess = tf.Session()
writer = tf.summary.FileWriter('log2', sess.graph) # 序列化
SummaryWriter 两个参数,第一个参数是序列化的地址,第二个参数可选,如果输入了该参数,tensorboard就会显示图像。
2. 名字的作用域 scope
tf.name_scope() 会创建一个作用域,该作用域下的变量名都会加上该作用域的名字
with tf.name_scope('test'):
weights = tf.Variable(tf.random_normal([3,2]), name='w')
sess = tf.Session()
writer = tf.summary.FileWriter('log2', sess.graph)
以上两步基本上就可以实现画图了
但是可视化不止画图
3.可视化内容
1. events 就是那些变量, 序列化后存到本地
// 通过向节点附加 scalar_summary 操作来输出变量
2. graphs 就是图,图里只有网络结构,没有数据
3. histograms 是直方图,把数据画成直方图
// 通过向节点附加 histogram_summary 操作来输出直方图
这其实都是先存数据,再可视化,所以也是需要在绘画中执行,那么如果你想输出很多数据,就需要在会话中挨个输出,很麻烦
tf 提供了一个合并操作,就是将这些输出合并,在会话中一次性全部输出,接口 tf.merge_all_summaries()
# coding:utf-8
import tensorflow as tf
import numpy as np
# 此代码仅用于可视化
x_data = np.random.rand(100).astype("float32")
with tf.name_scope('y_data'):
y_data = x_data * 2.5 + 0.8
# tf.histogram_summary("method_demo"+"/y_data",y_data)
tf.summary.histogram("method_demo"+"/y_data",y_data)
with tf.name_scope('W'):
W = tf.Variable(tf.random_uniform([1], -200.0, 200.0))
tf.summary.histogram("method_demo"+"/W",W)
with tf.name_scope('b'):
b = tf.Variable(tf.zeros([1]))
tf.summary.histogram("method_demo"+"/b",b)
with tf.name_scope('y'):
y = W * x_data + b
tf.summary.histogram("method_demo"+"/y",y)
# 最小化均方
with tf.name_scope('loss'):
loss = tf.reduce_mean(tf.square(y - y_data))
tf.summary.histogram("method_demo"+"/loss",loss)
tf.summary.scalar("method_demo222"+'loss',loss)
optimizer = tf.train.GradientDescentOptimizer(0.7)
with tf.name_scope('train'):
train = optimizer.minimize(loss)
init = tf.global_variables_initializer()
sess = tf.Session()
#合并到Summary中
merged = tf.summary.merge_all()
#选定可视化存储目录
writer = tf.summary.FileWriter('log2',sess.graph)
sess.run(init)
# 开始计算
for step in range(500):
sess.run(train)
# tf.histogram_summary('method_demo'+'/train',train)
if step % 5 == 0:
print(step, "W:",sess.run(W),"b:", sess.run(b))
result = sess.run(merged) #merged也是需要run的
writer.add_summary(result,step) #result是summary类型 (result 纵坐标 step 横坐标)
运行 tensorboard,即可在浏览器访问
异常记录
1. InvalidArgumentError (see above for traceback): You must feed a value for placeholder tensor 'input/input_y' with dtype float and shape [100,1]
这个问题我查了好久,各种回答都有,都验证无效,解决方案见代码
# 以下皆可
merged = tf.summary.merge_all()
# merged = tf.summary.merge([loss_scalar])
writer = tf.summary.FileWriter('logs', sess.graph)
sess.run(init)
for i in range(1000):
loss2, _ = sess.run([loss, optimizer], feed_dict={input_x:x[:, np.newaxis], input_y:y[:, np.newaxis]})
# result = sess.run(merged) # 这样写报错
# InvalidArgumentError (see above for traceback): You must feed a value for placeholder tensor 'input/input_y' with dtype float and shape [100,1]
result = sess.run(merged, feed_dict={input_x:x[:, np.newaxis], input_y:y[:, np.newaxis]})
writer.add_summary(result, i)
需要喂参数
来源:oschina
链接:https://my.oschina.net/u/4329662/blog/3639461