Tensorflow的structure的例子(一)

烂漫一生 提交于 2020-04-06 10:39:24

本例子包括两部分内容:logging的使用和tf的整体流程训练。

经常用print,感觉很方便,但是没有一下输出自己想要输出的内容,所以想到用logging代替print。

首先是logging的配置文件logger.conf,前面有了解过日志系统。

# logging.basicConfig函数各参数:
# filename: 指定日志文件名
# filemode: 和file函数意义相同,指定日志文件的打开模式,'w'或'a'
# format: 指定输出的格式和内容,format可以输出很多有用信息,如上例所示:
#  %(levelno)s: 打印日志级别的数值
#  %(levelname)s: 打印日志级别名称
#  %(pathname)s: 打印当前执行程序的路径,其实就是sys.argv[0]
#  %(filename)s: 打印当前执行程序名
#  %(funcName)s: 打印日志的当前函数
#  %(lineno)d: 打印日志的当前行号
#  %(asctime)s: 打印日志的时间
#  %(thread)d: 打印线程ID
#  %(threadName)s: 打印线程名称
#  %(process)d: 打印进程ID
#  %(message)s: 打印日志信息
# datefmt: 指定时间格式,同time.strftime()
# level: 设置日志级别,默认为logging.WARNING
# stream: 指定将日志的输出流,可以指定输出到sys.stderr,sys.stdout或者文件,默认输出到sys.stderr,当stream和filename同时指定时,stream被忽略

###############################################
[loggers]
keys=root,example01,example02

[logger_root]
level=DEBUG
handlers=hand01,hand02

[logger_example01]
handlers=hand01,hand02
qualname=example01
propagate=0

[logger_example02]
handlers=hand01,hand03
qualname=example02
propagate=0

###############################################

[handlers]
keys=hand01,hand02,hand03

[handler_hand01]
class=StreamHandler
level=INFO
formatter=form02
args=(sys.stderr,)

[handler_hand02]
class=FileHandler
level=INFO
formatter=form01
args=('Proj.log', 'a')

[handler_hand03]
class=handlers.RotatingFileHandler
level=INFO
formatter=form02
args=('Proj.log', 'a', 10*1024*1024, 5)

###############################################

[formatters]
keys=form01,form02

[formatter_form01]
format=%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s
datefmt=%a, %d %b %Y %H:%M:%S

[formatter_form02]
format=%(name)-12s: %(levelname)-8s %(message)s
datefmt=
然后是test_1.py的代码:

import numpy as np
import tensorflow as tf
import logging.config
logging.config.fileConfig("logger.conf")
logger = logging.getLogger("example01")

#create data
x_data=np.random.rand(100)#.astype(np.float32)
logging.info('This is the type of x_data:%s',x_data.dtype)
x_data=x_data.astype(np.float32)
# logging.info('This is the type of x_data:%s',x_data.dtype)
y_data=x_data*0.1+0.3
#create tensorflow structure
Weights =tf.Variable(tf.random_uniform([1],-1.0,1.0))
biases =tf.Variable(tf.zeros([1]))
y=Weights*x_data +biases

loss=tf.reduce_mean(tf.square(y-y_data))
optimizer=tf.train.GradientDescentOptimizer(0.5)

train=optimizer.minimize(loss)

#tensorflow structure end
init=tf.global_variables_initializer()
sess=tf.Session()
sess.run(init)
for step in range(201):
    sess.run(train)
    if step%20==0:
        print(step,sess.run(Weights),sess.run(biases))
如果中途想调用老版本的tf,中间的global_variables_initializer()函数替换成initialize_all_tables()。新版本的这个函数已经废弃了。

如果还用这个函数的话会报:

FailedPreconditionError (see above for traceback): Attempting to use uninitialized value local/hidden_1/w
         [[Node: local/hidden_1/w/read = Identity[T=DT_FLOAT, _class=["loc:@local/hidden_1/w"], _device="/job:worker/replica:0/task:1/cpu:0"](local/hidden_1/w)]]
的错误。

屏幕输出:

0 [ 0.57068026] [ 0.03290105]
20 [ 0.22996345] [ 0.22493491]
40 [ 0.13604316] [ 0.27918199]
60 [ 0.10999594] [ 0.2942265]
80 [ 0.10277221] [ 0.29839882]
100 [ 0.10076882] [ 0.29955596]
120 [ 0.10021321] [ 0.29987687]
140 [ 0.10005914] [ 0.29996586]
160 [ 0.1000164] [ 0.29999053]
180 [ 0.10000455] [ 0.29999739]
200 [ 0.10000127] [ 0.29999927]


发布了347 篇原创文章 · 获赞 635 · 访问量 266万+
标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!