动手学深度学习(Pytorch版)代码实践 -深度学习基础-07多层感知机基础版
07多层感知机基础版
import torch
from torch import nn
from d2l import torch as d2l
import liliPytorch as lp
batch_size = 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)
#实现一个具有单隐藏层的多层感知机
#输入层的神经元数量784,输出层的神经元数量10, 隐藏层的神经元数量256
num_inputs, num_outputs, num_hiddens = 784, 10, 256
#第一层
"""
torch.randn初始化权重使用的是正态分布,可以有效打破对称性,
让每个神经元学习不同的特征,从而提高网络的表达能力和训练效果。
而使用全零或全一初始化会导致对称性问题,使得网络无法有效训练
"""
W1 = nn.Parameter(#权重矩阵,形状为(784, 256),使用正态分布随机初始化
torch.randn(num_inputs, num_hiddens, requires_grad=True) * 0.01
)
b1 = nn.Parameter(#偏置向量,初始化为全零,形状为(256)
torch.zeros(num_hiddens,requires_grad=True) * 0.01
)
#第二层
W2 = nn.Parameter(#权重矩阵,形状为(256, 10),使用正态分布随机初始化
torch.randn(num_hiddens, num_outputs,requires_grad=True) * 0.01
)
b2 = nn.Parameter(#偏置向量,初始化为全零,形状为(10)
torch.zeros(num_outputs, requires_grad=True) * 0.01
)
#包含所有网络参数的列表
params = [W1, b1, W2, b2]
#实现RelU激活函数
def relu(X):
a = torch.zeros_like(X)
return torch.max(X,a)
#实现我们的模型
def net(X):
#-1 表示自动推断批量大小。
#X.reshape((-1, num_inputs)) 将输入 X 重塑为形状 (batch_size, num_inputs)
X = X.reshape((-1, num_inputs))
# @运算符进行矩阵乘法
H = relu(X @ W1 + b1) # 隐藏层
return (H @ W2 + b2) # 输出层
loss = nn.CrossEntropyLoss(reduction='none')
num_epochs = 10
updater = torch.optim.SGD(params, lr = 0.1)
#训练
lp.train_ch3(net, train_iter, test_iter, loss, num_epochs, updater)
#验证
lp.predict_ch3(net, test_iter)
d2l.plt.show()
运行结果:
epoch: 1,train_loss: 1.049810703786214,train_acc: 0.6473166666666667,test_acc: 0.7147 epoch: 2,train_loss: 0.5967115777969361,train_acc: 0.7906333333333333,test_acc: 0.8078 epoch: 3,train_loss: 0.5182829195022584,train_acc: 0.8189833333333333,test_acc: 0.8115 epoch: 4,train_loss: 0.48012483253479005,train_acc: 0.8311833333333334,test_acc: 0.8145 epoch: 5,train_loss: 0.45687386004130043,train_acc: 0.8388166666666667,test_acc: 0.8265
免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理! 图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库和百度,360,搜狗等多加搜索引擎自动关键词搜索配图,如有侵权的图片,请第一时间联系我们,邮箱:ciyunidc@ciyunshuju.com。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!
