一、人工神经网络库
Pytorch ———— 让计算机 确定神经网络的结构 + 实现人工神经元 + 搭建人工神经网络 + 选择合适的权重
(1)确定人工神经网络的 结构:
只需要告诉Pytorch 神经网络 中的神经元个数 每个神经元是怎么样的【比如 输入 输出 非线性函数】 各神经元的连接方式
(2)确定人工神经元的权重值:
只需要告诉 pytorch 什么样的权重值比较好
(3)处理 输入和输出:
pytorch 可以和其他库合作,协助处理神经网络的 输入和输出
二、利用Pytorch 实现 迷你AlphaGo
可以把X[0] X[1] X[2] 三个输入看作 当前局势,把y看作下一步要下的棋,把g看作胜率函数,以找到 最优的 下棋策略
我们不需要知道 从X到 y的 关系的形式,只需要搭建神经网络
不需要告诉神经元的权重都是多少,pytorch 可以帮助找到 神经元的权重
步骤:
只需要把下方 四段代码,前后连接,即可
(1)定义神经网络
from torch.nn import Linear,ReLU,Sequential net = Sequential( Linear(3,8), #第一层 8 个神经元 ReLU(),# 第一层神经元的 非线性函数是max(·,0) Linear(8,8), #第二层 8个神经元 ReLU(),#非线性函数是max(·,0) Linear(8,1), #第三层 1 个神经元 )
这个序列中 有三个Linear 类实例 ————> 说明这个 神经网络 有3层
第一个Linear 类实例 用参数 3 8 来构造,这两个参数 说明每个神经元都有 3个输入,一共有8 个神经元
这个序列中有两个ReLU 类实例,也就是说,其中两个层的神经元的非线性函数都是 max(·,0)
这个神经网络最后一层没有使用非线性函数 max(·,0) ————原因: 我们希望将要制作的 应用既能输出≥0 的结果,也能输出<0 的结果
(2)测试函数g()
def g(x,y): x0,x1,x2 = x[:,0] ** 0,x[:,1] ** 1,x[:,2] ** 2 y0 = y[:,0] return (x0 + x1 + x2) * y0 - y0 * y0 - x0 * x1 * x2
(3)寻找合适的神经元的权重
import torch from torch.optim import Adam optimizer = Adam(net.parameters()) for step in range(1000): optimizer.zero_grad() x = torch.randn(1000,3) y = net(x) outputs = g(x,y) loss = -torch.sum(outputs) loss.backward() optimizer.step() if step % 100 == 0: print('第{}次迭代损失 = {}'.format(step,loss))
第0次迭代损失 = -533.194091796875 第100次迭代损失 = -1128.9976806640625 第200次迭代损失 = -1480.289794921875 第300次迭代损失 = -1731.8543701171875 第400次迭代损失 = -1867.0120849609375 第500次迭代损失 = -1623.46728515625 第600次迭代损失 = -1827.7152099609375 第700次迭代损失 = -1860.97216796875 第800次迭代损失 = -1743.3468017578125 第900次迭代损失 = -1622.2218017578125
代码在第三行构造了优化器 optimizer,这个优化器每次可以改良所有权重值,但是这个改良不是一步到位的
需要让优化器反复循环很多次【后面缩进的语句都是要循环的内容】 ———— 每次需要告诉优化器 每次改良的依据是什么
通过 optimizer.step() 完成权重的改良
完成后,就训练好了神经网络
(4)测试神经网络的性能
#生成测试数据 x_test = torch.randn(2,3) print('测试输入:{}'.format(x_test)) # 查看神经网络的计算结果 y_test = net(x_test) print ('人工神经网络计算结果: {}'.format(y_test)) print('g的值:{}'.format(g(x_test,y_test))) #根据理论,计算参考答案 def argmax_g(x): x0,x1,x2 = x[:,0] ** 0,x[:,1] ** 1,x[:,2] ** 2 return 0.5 * (x0 + x1 + x2)[:, None] yref_test = argmax_g(x_test) print('理论最优值:{}'.format(yref_test)) print('g的值:{}'.format(g(x_test,yref_test)))
测试输入:tensor([[ 0.1865, 1.4210, 1.1290], [-0.2137, 0.1621, 0.9952]]) 人工神经网络计算结果: tensor([[1.9692], [1.0804]], grad_fn=<AddmmBackward>) g的值:tensor([1.5885, 0.9977], grad_fn=<SubBackward0>) 理论最优值:tensor([[1.8479], [1.0762]]) g的值:tensor([1.6032, 0.9977])
可以断定,我们的神经网络 已经正确地 输出了最优结果
由于 验证代码的输入是随机确定的。所以每次运行的输入和输出都不一样