阿里云文档 2025-05-08

Alibaba Cloud Linux 2系统中TCP拥塞控制算法BBR对网络性能有影响,如何处理?

Alibaba Cloud Linux 2系统的内核TCP拥塞控制目前支持Reno、BBR和Cubic三种算法,在不同的网络场景下,这些算法的控制性能将会有所差异。本文将介绍Alibaba Cloud Linux 2系统中TCP拥塞控制算法BBR(Bottleneck Bandwidth and RTT)对网络性能的影响原因及相应的解决方案。

文章 2022-07-25 来自:开发者社区

DL之DNN:基于sklearn自带california_housing加利福尼亚房价数据集利用GD神经网络梯度下降算法进行回归预测(数据较多时采用mini-batch方式训练会更快)

目录基于sklearn自带california_housing加利福尼亚房价数据集利用GD神经网络梯度下降算法进行回归预测(数据较多时采用mini-batch方式训练会更快)输出结果实现代码基于sklearn自带california_housing加利福尼亚房价数据集利用GD神经网络梯度下降算法进行回归预测(数据较多时采用mini-batch方式训练会更快)     &...

文章 2022-07-25 来自:开发者社区

DL之DCGAN(Keras框架):基于keras框架利用深度卷积对抗网络DCGAN算法对MNIST数据集实现图像生成(保存h5模型→加载模型)

目录基于keras框架利用深度卷积对抗网络DCGAN算法对MNIST数据集实现图像生成设计思路输出结果核心代码相关文章DL之DCGAN(Keras框架):基于keras框架利用深度卷积对抗网络DCGAN算法对MNIST数据集实现图像生成(保存h5模型→加载模型)DL之DCGAN(Keras框架):基于keras框架利用深度卷积对抗网络DCGAN算法对MNIST数据集实现图像生成(保存h5模型→加....

DL之DCGAN(Keras框架):基于keras框架利用深度卷积对抗网络DCGAN算法对MNIST数据集实现图像生成(保存h5模型→加载模型)
文章 2022-07-23 来自:开发者社区

DL之CNN:卷积神经网络算法简介之原理简介——CNN网络的3D可视化(LeNet-5为例可视化)

CNN网络的3D可视化3D可视化地址:http://scs.ryerson.ca/~aharley/vis/conv/1、LeNet-5为例可视化

DL之CNN:卷积神经网络算法简介之原理简介——CNN网络的3D可视化(LeNet-5为例可视化)
文章 2022-02-17 来自:开发者社区

DL之DCGAN:基于keras框架利用深度卷积对抗网络DCGAN算法对MNIST数据集实现图像生成

设计思路输出结果X像素取值范围是[-1.0, 1.0]_________________________________________________________________Layer (type)                 Output Shape       &...

DL之DCGAN:基于keras框架利用深度卷积对抗网络DCGAN算法对MNIST数据集实现图像生成
文章 2022-02-17 来自:开发者社区

DL之CNN:卷积神经网络算法简介之原理简介——CNN网络的3D可视化(LeNet-5为例可视化)

CNN网络的3D可视化1、LeNet-5为例可视化

DL之CNN:卷积神经网络算法简介之原理简介——CNN网络的3D可视化(LeNet-5为例可视化)
文章 2022-02-17 来自:开发者社区

DL之CNN:利用卷积神经网络算法(2→2,基于Keras的API-Sequential)利用MNIST(手写数字图片识别)数据集实现多分类预测

输出结果1.10.0Size of:- Training-set:  55000- Validation-set: 5000- Test-set:  10000Epoch 1/1  128/55000 [..............................] - ETA: 15:39 - loss: 2.3021 - acc: 0.0703  25....

DL之CNN:利用卷积神经网络算法(2→2,基于Keras的API-Sequential)利用MNIST(手写数字图片识别)数据集实现多分类预测
文章 2022-02-17 来自:开发者社区

DL框架之MXNet :神经网络算法简介之MXNet 常见使用方法总结(神经网络DNN、CNN、RNN算法)之详细攻略(个人使用)

MXNet 常见使用方法1、关于GPU、CPU运算1、目前MxNet支持相同平台下的变量运算,如果一个变量在GPU一个变量在CPU,则需要通过copyto之类的方式来统一。MxNet中,可以通过gpu_device=mx.gpu()来创建GPU的context。下边的方式是切换到GPU上执行运算。gpu_device=mx.gpu() # Change this to mx.cpu() in a....

文章 2022-02-17 来自:开发者社区

DL:神经网络算法简介之耗算力的简介、原因、经典模型耗算力计算、GPU使用之详细攻略

神经网络算法耗算力的简介        通过比特币来理解算力。算力(也称哈希率)是比特币网络处理能力的度量单位。即为计算机(CPU)计算哈希函数输出的速度。比特币网络必须为了安全目的而进行密集的数学和加密相关操作。 例如,当网络达到10Th/s的哈希率时,意味着它可以每秒进行10万亿次计算。神经网络算法耗算力的原因      ....

DL:神经网络算法简介之耗算力的简介、原因、经典模型耗算力计算、GPU使用之详细攻略
文章 2022-02-17 来自:开发者社区

DL:神经网络算法简介之Affine 层的简介、使用方法、代码实现之详细攻略

Affine 层的简介         Affine层:神经网络的正向传播中,进行的矩阵的乘积运算,在几何学领域被称为“仿射变换”。几何中,仿射变换包括一次线性变换和一次平移,分别对应神经网络的加权和运算与加偏置运算。Affine层的计算图:求矩阵的乘积与偏置的和的运算用计算图表示。各个节点间传播的是矩阵。Affine层的反向传播:注意变量是多维数组。反向....

DL:神经网络算法简介之Affine 层的简介、使用方法、代码实现之详细攻略

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

域名解析DNS

关注DNS行业趋势、技术、标准、产品和最佳实践,连接国内外相关技术社群信息,追踪业内DNS产品动态,加强信息共享,欢迎大家关注、推荐和投稿。

+关注