文章 2023-08-16 来自:开发者社区

深度学习框架Pytorch学习笔记

由于工作原因,需要使用到深度学习pytorch框架,所以,跟随视频学习了深度学习框架的使用方法,视频链接如下:PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】_哔哩哔哩_bilibili1、安装pytorch在windows下使用pytorch,首先找到anaconda官网,安装64位windows版本,然后使用清华的源替换掉anaconda默认源,详细教程如下(2条消息) 【20....

深度学习框架Pytorch学习笔记
文章 2023-05-18 来自:开发者社区

Pytorch学习笔记:TensorBoard

前言作者是老朋友奥辰,本文是他Pytorch系列学习笔记之一,如果大家感兴趣,我再邀请他写个完整、系统的Pytorch教程1 开启TensorBoard的WEB应用2 SummaryWriter类3 写入数据3.1 标量数据3.2 图像数据3.3 模型结构4 总结训练模型过程中,经常需要追踪一些性能指标的变化情况,以便了解模型的实时动态,例如:回归任务中的MSE、分类任务中的Accuracy、生....

Pytorch学习笔记:TensorBoard
文章 2023-05-18 来自:开发者社区

【OCR学习笔记】8、OCR移动端网络汇总与PyTorch实现(二)

1.3 ShuffleNetShuffleNet是由2017年07月发布的轻量级网络,设计用于移动端设备,在MobileNet之后的网络架构。主要的创新点在于使用了分组卷积(group convolution)和通道打乱(channel shuffle)。分组卷积(group convolution)分组卷积最早由AlexNet中使用。由于当时的硬件资源有限,训练AlexNet时卷积操作不能全部....

【OCR学习笔记】8、OCR移动端网络汇总与PyTorch实现(二)
文章 2023-05-18 来自:开发者社区

【OCR学习笔记】8、OCR移动端网络汇总与PyTorch实现(一)

1 轻量化网络简介前面所提网络在向着越来越大、越来越深的方向发展,但在实际应用中计算性能有限,但又有着极强的业务需求。对于效率问题,可以想到的方法通常是对模型进行压缩与剪枝,降低网络的参数量,从而降低计算量加快推理速度。相较于对模型进行后处理的方法,轻量化模型设计则是另辟蹊径。轻量化模型主要是设计更加高效的网络计算方式,在降低网络参数的同时,不损失性能。常用的四个轻量化模型系列:SqueezeN....

【OCR学习笔记】8、OCR移动端网络汇总与PyTorch实现(一)
文章 2023-02-22 来自:开发者社区

Pytorch学习笔记-07 模型finetune

模型保存与加载序列化与反序列化torch.save主要参数:obj :对象f :输出路径torch.load主要参数f :文件路径map_location :指定存放位置 cpu or gpu法1: 保存整个 Moduletorch.save(net,path)法2: 保存模型参数state_dict = net.state_dict()torch.save(state_dict , path)....

Pytorch学习笔记-07 模型finetune
文章 2023-02-22 来自:开发者社区

Pytorch学习笔记-06 Normalization layers

Why NormalizationInternal Covariate Shift (ICS):数据尺度 分布异常,导致训练困难Batch NormalizationBatch Normalization :批标准化批:一批数据,通常为 mini batch《Batch Normalization: Accelerating Deep Network Training by Reducing I....

Pytorch学习笔记-06 Normalization layers
文章 2023-02-22 来自:开发者社区

Pytorch学习笔记-05 可视化工具 TensorBoard

SummaryWriter功能:提供创建event file 的高级接口主要属性:log_dir event file 输出文件夹comment :不指定 log_dir 时,文件夹后缀filename_suffix event fileadd_scalar功能:记录标量tag :图像的标签名,图的唯一标识scalar_value :要记录的标量global_step x 轴add_scalar....

Pytorch学习笔记-05 可视化工具 TensorBoard
文章 2023-02-22 来自:开发者社区

Pytorch学习笔记-04 权值初始化与损失函数

权值初始化Xavier初始化方差一致性:保持数据尺度维持在恰当范围,通常方差为 110种初始化方法Xavier 均匀分布Xavier 正态分布Kaiming 均匀分布Kaiming 正态分布均匀分布正态分布常数分布正交矩阵初始化单位矩阵初始化稀疏矩阵初始化损失函数损失函数:衡量模型输出与真实标签的差异nn.CrossEntropyLoss功能:nn.LogSoftmax 与 nn.NLLLoss....

Pytorch学习笔记-04 权值初始化与损失函数
文章 2023-02-22 来自:开发者社区

Pytorch学习笔记-03 模型创建

模型创建步骤两要素:构建子模块init()拼接子模块forward()nn.Modulenn.Moduleparameters : 存储管理 nn.Parameter 类modules : 存储管理 nn.Module 类buffers :存储管理缓冲属性,如 BN 层中的 running_mean总结一个 module 可以包含多个子 module一个 module 相当于一个运算,必须实现 ....

Pytorch学习笔记-03 模型创建
文章 2023-02-22 来自:开发者社区

Pytorch学习笔记-02 数据读取与处理

DataLoader 与 Dataset深度学习模型训练一般流程torch.utils.data.DataLoader功能:构建可迭代的数据装载器dataset: Dataset类,决定数据从哪读取及如何读取batchsize : 批大小num_works: 是否多进程读取数据shuffle: 每个epoch是否乱序drop_last:当样本数不能被batchsize整除时,是否舍弃最后一批数据....

Pytorch学习笔记-02 数据读取与处理

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

相关镜像