卷积神经网络学习——第二部分:卷积神经网络训练的基本流程.pdf

卷积神经网络学习——第二部分:卷积神经网络训练的基本流程.pdf

  1. 1、本文档共3页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

卷积神经⽹络学习——第⼆部分:卷积神经⽹络训练的基本流程

卷积神经⽹络学习——第⼆部分:卷积神经⽹络训练的基本流程

importtorch

importtorchvision

importtorch.nnasnn

importtorch.optimasoptim

importtorch.nn.functionalasF

fromtorch.autogradimportVariable

fromtorchvisionimportdatasets,transforms

#步骤⼀:数据载⼊

#1.transforms.Compose()将各种预处理操作组合到⼀起

#2.transforms.ToTensor()将图⽚转换成PyTorch中处理的对象Tensor.在转化的过程中PyTorch⾃动将图⽚标准化了,也就是说Tensor的范⽤是(0,1)之间

#3.transforms.Normalize()要传⼊两个参数:均值、⽅差,做的处理就是减均值,再除以⽅差。将图⽚转化到了(-1,1)之间

#4.注意因为图⽚是灰度图,所以只有⼀个通道,如果是彩⾊图⽚,有三个通道,transforms.Normalize([a,b,c],[d,e,f])来表⽰每个通道对应的均值和⽅差。

data_tf=transforms.Compose([transforms.ToTensor(),

transforms.Normalize([0.5],[0.5])

])

#PyTorch的内置函数torchvision.datasets.MNIST导⼊数据集

#这⾥存储的还是MNIST数据集的格式,但是不⼀样的是这个数据集当中的元素是以tensor格式存储的

train_dataset=datasets.MNIST(

root=/Users/air/Desktop/【2020秋】数据科学基础/第三次作业,

train=True,

transform=data_tf,

download=True

)

test_dataset=datasets.MNIST(

root=/Users/air/Desktop/【2020秋】数据科学基础/第三次作业,

train=False,

transform=data_tf

)

#定义超参数

BATCH_SIZE=128训练的#包的⼤⼩,通过将训练包分为2的倍数以加快训练过程的⽅式

LR=1e-2学习率#,学习率太⼩会减慢训练效果,学习率太⾼会导致准确率降低

EPOCHS=5定义循环#次数,避免因为次数太多导致时间过长

#torch.utils.data.DataLoader建⽴⼀个数据迭代器,传⼊数据集和batchsize,通过shuffle=True来表⽰每次迭代数据的时候是否将数据打乱。

#测试集⽆需打乱顺序;训练集打乱顺序,为了增加训练模型的泛化能⼒

#但是由于这⾥的训练集本⾝就已经满⾜要求,所以打乱顺序对于泛化能⼒本⾝的提升并不是必要的

train_loader=torch.utils.data.DataLoader(train_dataset,

batch_size=BATCH_SIZE,

shuffle=True)

test_loader=torch.utils.data.DataLoader(test_dataset,

batch_size=BATCH_SIZE,

shuffle=False)

进⼀步了解⼀下~博主写的也是真的好

  ⾸先,按照国际惯例,我们先⽤⼀个流程图来展⽰⼀下每⼀次训练过程。

开始

将训练集输⼊到模型进⾏训练

对结果采⽤交叉熵巡视计算模型

文档评论(0)

肖必伟 + 关注
实名认证
内容提供者

随便说所

1亿VIP精品文档

相关文档