文章 2022-12-08 来自:开发者社区

深度学习入门(4)【深度学习实战】无框架实现两层神经网络的搭建与训练过程

上一篇文章《深度学习入门(3)神经网络参数梯度的计算方式》主要介绍神经网络中的参数梯度是如何计算的。本文将直接使用之前公众号介绍过损失函数、激活函数以及梯度计算直接手动实现一个两层的神经网络训练过程。也许有人会说使用pytorch或者tensorflow框架,几行代码就可以搭建一个神经网络,为什么要自己手动去实现呢?我觉得使用现成框架确实很容易搭建一个神经网络,但是对于其中的计算原理如果不了解的....

深度学习入门(4)【深度学习实战】无框架实现两层神经网络的搭建与训练过程
文章 2022-12-03 来自:开发者社区

一文让你掌握22个神经网络训练技巧

神经网络训练是一个非常复杂的过程,在这过程中,许多变量之间相互影响,因此我们研究者在这过程中,很难搞清楚这些变量是如何影响神经网络的。而本文给出的众多tips就是让大家,在神经网络训练过程中,更加简单方便的加速训练网络。当然,这些tips并不是训练网络的必要过程,而是作为一些启发式建议,让大家更好的理解自己手上的工作任务,并且有针对性的选择合适的技术。首先,选择一个很好的初始训练状态,是一个很广....

一文让你掌握22个神经网络训练技巧
文章 2022-12-01 来自:开发者社区

手撕Desenet卷积神经网络-pytorch-详细注释版(可以直接替换自己数据集)-直接放置自己的数据集就能直接跑。跑的代码有问题的可以在评论区指出,看到了会回复。训练代码和预测代码均有。

论文链接:https://arxiv.org/pdf/1608.06993.pdf没法下载论文的看我下面的百度云链接,在里面有论文Desenet(Densely Connected Convolutional Networks),翻译过来就是密集连接的卷积神经网络。Desenet网络是相较于Resnet更为先进的网络,简单来说两者的区别就是,Resnet网络是将前2层,或者前3层之前卷积层获取的....

手撕Desenet卷积神经网络-pytorch-详细注释版(可以直接替换自己数据集)-直接放置自己的数据集就能直接跑。跑的代码有问题的可以在评论区指出,看到了会回复。训练代码和预测代码均有。
文章 2022-11-30 来自:开发者社区

手撕Googlenet卷积神经网络-pytorch-详细注释版(可以直接替换自己数据集)-直接放置自己的数据集就能直接跑。跑的代码有问题的可以在评论区指出,看到了会回复。训练代码和预测代码均有。

Googlenet是2014年被提出来的一种全新的神经网络结构,我个人认为他跟Resnet一样都是具有划时代意义的神经网络,当然他的意义不仅在于获得该年 ImageNet 竞赛中 Classification Task(分类任务)第一名,而是他跟Resnet一样都代表一种网络结构的改变,Resnet提出来残差网络结构,Googlenet提出了多尺度融合的网络结构,这种结构非常有意义。在目标检测领....

手撕Googlenet卷积神经网络-pytorch-详细注释版(可以直接替换自己数据集)-直接放置自己的数据集就能直接跑。跑的代码有问题的可以在评论区指出,看到了会回复。训练代码和预测代码均有。
文章 2022-11-30 来自:开发者社区

手撕Resnet卷积神经网络-pytorch-详细注释版(可以直接替换自己数据集)-直接放置自己的数据集就能直接跑。跑的代码有问题的可以在评论区指出,看到了会回复。训练代码和预测代码均有。

Resnet(Deep residual network, ResNet),深度残差神经网络,卷积神经网络历史在具有划时代意义的神经网络。与Alexnet和VGG不同的是,网络结构上就有很大的改变,在大家为了提升卷积神经网络的性能在不断提升网络深度的时候,大家发现随着网络深度的提升,网络的效果变得越来越差,甚至出现了网络的退化问题,80层的网络比30层的效果还差,深度网络存在的梯度消失和爆炸问题....

手撕Resnet卷积神经网络-pytorch-详细注释版(可以直接替换自己数据集)-直接放置自己的数据集就能直接跑。跑的代码有问题的可以在评论区指出,看到了会回复。训练代码和预测代码均有。
文章 2022-11-29 来自:开发者社区

手撕VGG卷积神经网络-pytorch-详细注释版(可以直接替换自己数据集)-直接放置自己的数据集就能直接跑。跑的代码有问题的可以在评论区指出,看到了会回复。训练代码和预测代码均有。

VGG”代表了牛津大学的Oxford Visual Geometry Group,VGG的Classification模型从原理上并没有与传统的CNN模型有太大不同。大家所用的Pipeline也都是:训练时候:各种数据Augmentation(剪裁,不同大小,调亮度,饱和度,对比度,偏色),剪裁送入CNN模型,Softmax,Backprop。测试时候:尽量把测试数据又各种Augmenting(....

手撕VGG卷积神经网络-pytorch-详细注释版(可以直接替换自己数据集)-直接放置自己的数据集就能直接跑。跑的代码有问题的可以在评论区指出,看到了会回复。训练代码和预测代码均有。
文章 2022-11-09 来自:开发者社区

从头训练一个神经网络!教它学会莫奈风格作画!⛵

作者:韩信子@ShowMeAI 深度学习实战系列:https://www.showmeai.tech/tutorials/42 PyTorch 实战系列:https://www.showmeai.tech/tutorials/44 本文地址:https://www.showmeai.tech/article-detail/324 声明:版权所有,转载请联系平台与作者并注明出处 收藏ShowMe.....

从头训练一个神经网络!教它学会莫奈风格作画!⛵
文章 2022-10-18 来自:开发者社区

神经网络训练loss不下降原因以及解决办法

train loss与test loss结果分析train loss 不断下降,test loss不断下降,说明网络仍在学习;      在训练过程中loss可能会出现几次震荡现象,但是整体有上升趋势就说明网络还在学习,可以继续训练。train loss 不断下降,test loss趋于不变,说明网络过拟合过拟合最直观的表现就是 training accuracy ....

问答 2022-09-22 来自:开发者社区

Overview中机器学习5-神经网络的训练有什么内容呀?

Overview中机器学习5-神经网络的训练有什么内容呀?

文章 2022-07-25 来自:开发者社区

DL之DNN:基于sklearn自带california_housing加利福尼亚房价数据集利用GD神经网络梯度下降算法进行回归预测(数据较多时采用mini-batch方式训练会更快)

目录基于sklearn自带california_housing加利福尼亚房价数据集利用GD神经网络梯度下降算法进行回归预测(数据较多时采用mini-batch方式训练会更快)输出结果实现代码基于sklearn自带california_housing加利福尼亚房价数据集利用GD神经网络梯度下降算法进行回归预测(数据较多时采用mini-batch方式训练会更快)     &...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。