mnist

深度学习笔记1

心不动则不痛 提交于 2020-03-06 12:56:45
深度学习中整个模型建立的大概思路 1、导入所需要的包(tensorflow,numpy) import tensorflow as tf import numpy as np from tensorflow . examples . tutorials . mnist import input_data 1.5编写所需的函数 #权重初始化 def weight_variable ( shape ) : initial = tf . truncated_normal ( shape , stddev = 0.1 ) return tf . Variable ( initial ) def bias_variable ( shape ) : initial = tf . constant ( 0.1 , shape = shape ) return tf . Variable ( initial ) #卷积和池化 def conv2d ( x , w ) : return tf . nn . conv2d ( x , w , strides = [ 1 , 1 , 1 , 1 ] , padding = "SAME" ) def max_pool_2x2 ( x ) : return tf . nn . max_pool ( x , ksize = [ 1 , 2 , 2 , 1 ]

mnist数据集离线安装

我只是一个虾纸丫 提交于 2020-03-04 23:38:29
1、下载mnist数据集 将下面的地址复制到迅雷下载数据集 https://s3.amazonaws.com/img-datasets/mnist.npz 2、配置文件 将下载好的mnist.npz复制到 “C:\Users\Administrator.keras\datasets” 3、使用mnist数据集 from keras.datasets import mnist (x_train,y_train),(x_test,y_test)=mnist.load_data()#加载数据 来源: CSDN 作者: haodawei123 链接: https://blog.csdn.net/haodawei123/article/details/104655496

第三节,CNN案例-mnist手写数字识别

无人久伴 提交于 2020-03-04 15:53:43
卷积:神经网络不再是对每个像素做处理,而是对一小块区域的处理,这种做法加强了图像信息的连续性,使得神经网络看到的是一个图像,而非一个点,同时也加深了神经网络对图像的理解,卷积神经网络有一个批量过滤器,通过重复的收集图像的信息,每次收集的信息都是小块像素区域的信息,将信息整理,先得到边缘信息,再用边缘信息总结从更高层的信息结构,得到部分轮廓信息,最后得到完整的图像信息特征,最后将特征输入全连接层进行分类,得到分类结果。 卷积: 经过卷积以后,变为高度更高,长和宽更小的图像,进行多次卷积,就会获得深层特征。 1)256*256的输入(RGB为图像深度) 2)不断的利用卷积提取特征,压缩长和宽,增大深度,也就是深层信息越多。 3)分类 池化: 提高鲁棒性。 搭建简单的卷积神经网络进行mnist手写数字识别 网络模型: 两个卷积层,两个全连接层 输入[sample*28*28*1](灰度图) [ 28 * 28 *1 ] --> (32个卷积核,每个大小5*5*1,sample方式卷积) --> [ 28 * 28 * 32] --> (池化 2*2 ,步长2)--> [14 *14 *32] [ 14 * 14 *32] --> (64个卷积核,每个大小 5 * 5 * 32,sample方式卷积) --> [14 * 14 *64] --> (池化 2*2 ,步长2)--> [7 *

来杯Caffe——在ubuntu下安装Caffe框架并测试

六眼飞鱼酱① 提交于 2020-03-03 00:27:50
Caffe是一种深度学习框架...blablabla...... Caffe要在ubuntu下安装 1. 安装依赖 sudo apt-get install libatlas-base-dev sudo apt-get install libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev libboost-all-dev libhdf5-serial-dev sudo apt-get install libgflags-dev libgoogle-glog-dev liblmdb-dev protobuf-compiler 2. 下载Caffe # 从自己的git仓库下更快,我的仓库地址 https://git.oschina.net/rongfangliu/caffe.gitgit clone https://github.com/BVLC/caffe.git cd caffe cp Makefile.config.example Makefile.config 3. 修改生成时配置文件 修改 Makefile.config 文件的第8行,将CPU_ONLY的注释打开,只使用CPU(当然是因为穷diao如我没有N卡) # Adjust Makefile.config (for example, if using

Output and Broadcast shape mismatch in MNIST, torchvision

丶灬走出姿态 提交于 2020-03-01 06:15:57
问题 I am getting following error when using MNIST dataset in Torchvision RuntimeError: output with shape [1, 28, 28] doesn't match the broadcast shape [3, 28, 28] Here is my code: import torch from torchvision import datasets, transforms transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5)), ]) trainset = datasets.MNIST('~/.pytorch/MNIST_data/', download=True, train=True, transform=transform) trainloader = torch.utils.data.DataLoader

Output and Broadcast shape mismatch in MNIST, torchvision

跟風遠走 提交于 2020-03-01 06:15:06
问题 I am getting following error when using MNIST dataset in Torchvision RuntimeError: output with shape [1, 28, 28] doesn't match the broadcast shape [3, 28, 28] Here is my code: import torch from torchvision import datasets, transforms transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5)), ]) trainset = datasets.MNIST('~/.pytorch/MNIST_data/', download=True, train=True, transform=transform) trainloader = torch.utils.data.DataLoader

MNIST & Catboost保存模型并预测

老子叫甜甜 提交于 2020-02-26 13:03:23
安装 pip install catboost 数据集 分类 : MNIST (60000条数据784个特征),已上传 CSDN 代码 import random import numpy as np import pandas as pd import matplotlib.pyplot as plt from catboost import CatBoostClassifier from sklearn.model_selection import train_test_split train = pd.read_csv('./input/mnist/train.csv') train.head() X = train.iloc[:, 1:] # 训练数据 y = train['label'] #标签 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # 划分训练、测试集 def plot_digits(instances, images_per_row=10): '''绘制数据集 :param instances: 部分数据集 :type instances: numpy.ndarray :param images_per_row:

TensorFlow分布式训练MNIST分类器

放肆的年华 提交于 2020-02-23 11:10:39
http://c.biancheng.net/view/2004.html 本节以分布式方式训练完整的 MNIST 分类器。 该案例受到下面博客文章的启发: http://ischlag.github.io/2016/06/12/async-distributed-tensorflow/ ,运行在 TensorFlow 1.2 上的代码可以在网址 https://github.com/ischlag/distributed-tensorflow-example 上找到。 注意,这个案例基于上一节,所以按顺序阅读可能会很方便。 具体做法 导入一些标准模块并定义运行计算的 TensorFlow 集群,然后为指定任务启动服务: 读取 MNIST 数据并定义用于训练的超参数: 检查角色是参数服务器还是 worker,如果是 worker 就定义一个简单的稠密神经网络,定义一个优化器以及用于评估分类器的度量(例如精确度): 启动一个监督器作为分布式设置的主机,主机是管理集群其余部分的机器。会话由主机维护,关键指令是 sv=tf.train.Supervisor(is_chief=(FLAGS.task_index==0))。另外,通过 prepare_or_wait_for_session(server.target),监督器将等待模型投入使用。请注意,每个 worker

安装Tensorflow windows10

荒凉一梦 提交于 2020-02-23 00:44:51
一:安装Anaconda和Tensorflow 1:从官方网站下载Anaconda https://www.anaconda.com/download/ 2:进行软件安装(这个和普通的没什么特别区别) 注意一点: 3:安装完成Anaconda之后进行环境变量的测试 进入到windows中的命令模式: (1)检测anaconda环境是否安装成功:conda --version 四, 安装Tensorflow    安装Tensorflow时,需要从Anaconda仓库中下载,一般默认链接的都是国外镜像地址,下载肯定很慢啊(跨国呢!),这里我是用国内清华镜像,需要改一下链接镜像的地址。这里,我们打开刚刚安装好的Anaconda中的 Anaconda Prompt,然后输入:     conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/     conda config --set show_channel_urls yes     这两行代码用来改成连接清华镜像的     接下来安装Tensorflow,在Anaconda Prompt中输入:     conda create -n tensorflow python=3.5.2 (3.5

tensorboard基础使用

烂漫一生 提交于 2020-02-22 04:43:38
github上的tensorboard项目:https://github.com/tensorflow/tensorboard/blob/master/README.md 目录 基础介绍 基本使用 几种图 实例源码 一、基本介绍 tensorboard:一个网页应用,可以方便观察TensorFlow的运行过程和网络结构等(过程可视化) 工作流程 Summary Ops:从TensorFlow获取数据 Ops是指tf.matmul、tf.nn.relu等,也就是在TensorFlow图中的操作 执行过程中的张量包含序列化的原始缓存,它会被写到磁盘并传给TensorBoard。然后需要执行summary op,来恢复这些结果,实现对TensorBoard中的数据可视化 summary ops包括:tf.summary.scalar, tf.summary.image, tf.summary.audio, tf.summary.text, tf.summary.histogram tags:给数据一个名字 当进行summary op时,也可以给一个tag。这个tag是该op记录的数据的名字,作为一种标识 Event Files和logDir:如何加载数据 summary.FileWriters从TensorFlow把summary 数据写到磁盘中特定的目录,也就是logDir