糖尿病康复,内容丰富有趣,生活中的好帮手!
糖尿病康复 > 【Pytorch神经网络实战案例】02 CIFAR-10数据集:Pytorch使用GPU训练CNN模版-方法②

【Pytorch神经网络实战案例】02 CIFAR-10数据集:Pytorch使用GPU训练CNN模版-方法②

时间:2018-09-11 00:38:52

相关推荐

【Pytorch神经网络实战案例】02 CIFAR-10数据集:Pytorch使用GPU训练CNN模版-方法②

import torchimport torchvisionfrom torch import nnfrom torch.utils.tensorboard import SummaryWriterfrom torch.utils.data import DataLoader# 取消全局证书验证(当项目对安全性问题不太重视时,推荐使用,可以全局取消证书的验证,简易方便)import sslssl._create_default_https_context = ssl._create_unverified_context# 定义训练设备===》使用CPU进行训练方法②# device=torch.device("cpu")# 定义训练设备===》使用GPU进行训练方法②# device=torch.device("cuda")# 定义训练设备===》使用第X张GPU进行训练方法②# device=torch.device("cuda:0")# 定义训练设备===》根据机器情况选择能否用GPU进行训练方法②device=torch.device("cuda" if torch.cuda.is_available() else "cup")print("当前程序正在{}上运行".format(device))# 准备数据集train_data=torchvision.datasets.CIFAR10("datas-train",train=True,transform=torchvision.transforms.ToTensor(),download=True)test_data=torchvision.datasets.CIFAR10("datas-test",train=False,transform=torchvision.transforms.ToTensor(),download=True)# 获得数据集的长度train_data_size=len(train_data)test_data_size=len(test_data)print("训练--数据集的长度为:{}".format(train_data_size))print("测试--数据集的长度为:{}".format(test_data_size))# 利用DataLoader加载数据集# Batch Size定义:一次训练所选取的样本数。# Batch Size的大小影响模型的优化程度和速度。同时其直接影响到GPU内存的使用情况,假如你GPU内存不大,该数值最好设置小一点。train_dataloader=DataLoader(train_data,batch_size=64)test_dataloader=DataLoader(test_data,batch_size=64)# 创建网络模型# 搭建神经网络class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__()self.model = nn.Sequential(# Conv2d中##in_channels:输入的通道数目 【必选】##out_channels: 输出的通道数目 【必选】##kernel_size:卷积核的大小,类型为int 或者元组,当卷积是方形的时候,只需要一个整数边长即可,卷积不是方形,要输入一个元组表示 高和宽。【必选】##stride: 卷积每次滑动的步长为多少,默认是 1 【可选】##padding(手动计算):设置在所有边界增加值为0的边距的大小(也就是在feature map 外围增加几圈 0 ),## 例如当 padding =1 的时候,如果原来大小为 3 × 3 ,那么之后的大小为 5 × 5 。即在外围加了一圈 0 。【可选】##dilation:控制卷积核之间的间距【可选】nn.Conv2d(3, 32, 5, 1, 2),# MaxPool2d中:# #kernel_size(int or tuple) - max pooling的窗口大小,# # stride(int or tuple, optional) - max pooling的窗口移动的步长。默认值是kernel_size# # padding(int or tuple, optional) - 输入的每一条边补充0的层数# # dilation(int or tuple, optional) – 一个控制窗口中元素步幅的参数# # return_indices - 如果等于True,会返回输出最大值的序号,对于上采样操作会有帮助# # ceil_mode - 如果等于True,计算输出信号大小的时候,会使用向上取整,代替默认的向下取整的操作nn.MaxPool2d(2),nn.Conv2d(32, 32, 5, 1, 2),nn.MaxPool2d(2),nn.Conv2d(32, 64, 5, 1, 2),nn.MaxPool2d(2),nn.Flatten(),# nn.Linear()是用于设置网络中的全连接层的,在二维图像处理的任务中,全连接层的输入与输出一般都设置为二维张量,形状通常为[batch_size, size]# 相当于一个输入为[batch_size, in_features]的张量变换成了[batch_size, out_features]的输出张量。nn.Linear(64*4*4, 64),nn.Linear(64, 10))def forward(self, x):x = self.model(x)return xtudui=Tudui()# 定义训练设备===》使用GPU进行训练方法②tudui=tudui.to(device)# 损失函数# 使用交叉熵==>分类loss_fn=nn.CrossEntropyLoss()# 定义训练设备===》使用GPU进行训练方法②loss_fn=loss_fn.to(device)# 优化器learning_rate=0.01 #学习速率optimizer=torch.optim.SGD(tudui.parameters(),lr=learning_rate)#设置训练网络的参数#记录训练的次数total_train_step=0# 记录测试的次数test_train_step=0# 训练的轮次epoch=10# 添加tensorboardwriter=SummaryWriter("firstjuan")for i in range(epoch): #0-9print("-----------第{}轮训练开始-----------".format(i+1))tudui.train()# 训练步骤开始for data in train_dataloader:imgs,targets=data# 定义训练设备===》使用GPU进行训练方法②imgs = imgs.to(device)targets = targets.to(device)outputs=tudui(imgs)#将计算所得的output的数值与真实数值进行对比,即求差loss=loss_fn(outputs,torch.squeeze(targets).long())#优化器优化模型optimizer.zero_grad()loss.backward()optimizer.step()# 记录训练train的次数+1total_train_step=total_train_step+1if total_train_step %100==0 : #减少输出 方便查看测试结果print("训练次数:{},损失值loss:{}".format(total_train_step,loss))writer.add_scalar("train_loss",loss.item(),total_train_step)# 测试步骤开始tudui.eval()total_test_loss=0# 正确率total_accuracy=0with torch.no_grad(): #保证网络模型的梯度保持没有,仅需要测试,不需要对梯度进行优化与调整for data in test_dataloader:imgs,targets=data# 定义训练设备===》使用GPU进行训练方法②imgs = imgs.to(device)targets = targets.to(device)outputs=tudui(imgs)loss=loss_fn(outputs,targets)total_test_loss=total_test_loss+loss.item()# 1为横向 0为竖 计算正确率accuracy=(outputs.argmax(1)==targets).sum()total_accuracy=total_accuracy+accuracyprint("整体测试集上的Loss:{}".format(total_test_loss))print("整体测试集上的正确率accuracy:{}".format(total_accuracy/test_data_size))writer.add_scalar("test_accuracy", total_test_loss, test_train_step)writer.add_scalar("test_loss",total_accuracy/test_data_size,test_train_step)# 记录测试test的次数+1test_train_step=test_train_step+1# 保存模型# torch.save(tudui.state_dict(),"tudui_{}".format(i))torch.save(tudui,"tudui_{}.pth".format(i))print("模型已经保存")writer.close()

import torchfrom torch import nn# 搭建神经网络class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__()self.model = nn.Sequential(# Conv2d中##in_channels:输入的通道数目 【必选】##out_channels: 输出的通道数目 【必选】##kernel_size:卷积核的大小,类型为int 或者元组,当卷积是方形的时候,只需要一个整数边长即可,卷积不是方形,要输入一个元组表示 高和宽。【必选】##stride: 卷积每次滑动的步长为多少,默认是 1 【可选】##padding(手动计算):设置在所有边界增加值为0的边距的大小(也就是在feature map 外围增加几圈 0 ),## 例如当 padding =1 的时候,如果原来大小为 3 × 3 ,那么之后的大小为 5 × 5 。即在外围加了一圈 0 。【可选】##dilation:控制卷积核之间的间距【可选】nn.Conv2d(3, 32, 5, 1, 2),# MaxPool2d中:# #kernel_size(int or tuple) - max pooling的窗口大小,# # stride(int or tuple, optional) - max pooling的窗口移动的步长。默认值是kernel_size# # padding(int or tuple, optional) - 输入的每一条边补充0的层数# # dilation(int or tuple, optional) – 一个控制窗口中元素步幅的参数# # return_indices - 如果等于True,会返回输出最大值的序号,对于上采样操作会有帮助# # ceil_mode - 如果等于True,计算输出信号大小的时候,会使用向上取整,代替默认的向下取整的操作nn.MaxPool2d(2),nn.Conv2d(32, 32, 5, 1, 2),nn.MaxPool2d(2),nn.Conv2d(32, 64, 5, 1, 2),nn.MaxPool2d(2),nn.Flatten(),# nn.Linear()是用于设置网络中的全连接层的,在二维图像处理的任务中,全连接层的输入与输出一般都设置为二维张量,形状通常为[batch_size, size]# 相当于一个输入为[batch_size, in_features]的张量变换成了[batch_size, out_features]的输出张量。nn.Linear(64*4*4, 64),nn.Linear(64, 10))def forward(self, x):x = self.model(x)return xif __name__ == '__main__':tudui = Tudui()input = torch.ones((64, 3, 32, 32))output = tudui(input)print(output.shape)

如果觉得《【Pytorch神经网络实战案例】02 CIFAR-10数据集:Pytorch使用GPU训练CNN模版-方法②》对你有帮助,请点赞、收藏,并留下你的观点哦!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。