新手指引

轻量应用服务器是一款可快速搭建且易于管理的轻量级云服务器,面向单台服务器提供了一键部署应用、一站式域名解析、安全管理以及运维监控等服务。本文介绍了轻量应用服务器的基础知识、快速使用流程、控制台的使用指引、计费方式、以及新手...

什么GPU云服务器

对比项 GPU云服务器 GPU自建服务器 灵活性 能够快速开通一台或多台GPU云服务器实例。实例规格(vCPU、内存及GPU)支持灵活变更,并且支持在线升降配。带宽升降自由。服务器购买周期长。服务器规格固定,无法灵活变更。带宽一次性购买,无法...

产品优势

阿里GPU云服务器具有广阔的覆盖范围、超强的计算能力、出色的网络性能和灵活的购买方式,神行工具包(DeepGPU)是专门为GPU云服务器搭配的具有GPU计算服务增强能力的免费工具集。本文主要介绍GPU云服务器和神行工具包(DeepGPU)的优势。...

产品范围

专属区域可以支持的产品范围 专属区域支持的产品范围 IaaS产品:云服务器 ECS、弹性裸金属服务器 EBM、GPU 云服务器、FPGA 云服务器、Alibaba Cloud Linux、容器服务 ACK、容器镜像服务 ACR、块存储 EBS、对象存储 OSS、文件存储 NAS、...

云速搭部署GPU云服务器

通过云速搭实现GPU云服务器的部署,这里使用 ECS 的 UserData 特性自动安装GPU 驱动、AIACC 等组件,减少配置工作量。涉及产品 专有网络VPC GPU云服务器 弹性公网IP 云速搭CADT 方案架构 操作步骤 具体操作步骤请参考《云速搭部署 GPU ...

阿里异构计算产品总览

什么是异构计算 异构计算(Heterogeneous Computing)是指使用不同类型指令集和体系架构的计算单元组成系统的计算方式,目前主要包括GPU云服务器、FPGA云服务器 以及弹性加速计算实例EAIS 等。异构计算能够让最适合的专用硬件去服务最适合...

API参考

如果您熟悉网络服务协议和一种以上编程语言,推荐您调用API管理您的上资源和开发自己的应用程序。GPU云服务器适用的API和云服务器ECS一致,详情请参见 ECS API简介 和 ECS API概览。

最佳实践概览

服务器迁移中心SMC功能强大、优势明显,能够实现方便快捷的迁移服务器,更多信息,请参见 什么服务器迁移中心。场景介绍 服务器迁移中心提供了以下场景迁移的最佳实践:场景 场景说明 各源环境迁移至阿里 SMC支持多种Windows以及Linux...

什么是神行工具包(DeepGPU)

神行工具包(DeepGPU)是阿里专门为GPU云服务器搭配的GPU计算服务增强工具集合,旨在帮助开发者在GPU云服务器上更快速地构建企业级服务能力。GPU云服务器搭配神行工具包(DeepGPU)中的组件可以帮助您更方便地利用阿里上GPU资源,...

私网传输迁移

操作场景 场景一:源服务器迁移上云,但没有公网访问能力 您需要通过VPN网关、高速通道物理专线、智能接入网关将源服务器上VPC打通,并为源服务器设置代理服务器,然后通过代理服务器访问SMC实现私网迁移源服务器。场景二:源服务器...

基本概念

服务器迁移 可将服务器、虚拟机、云服务器的业务迁移到阿里,提高业务迁移到阿里的效率。更多信息,请参见 各源环境迁移至阿里。VMware无代理迁移 通过VMware Agentless无侵入式迁移技术,可将VMware虚拟机的业务迁移到阿里,提高...

服务器迁移指引

服务器迁移中心SMC(Server Migration Center)是阿里自主研发的迁移平台,可将您的单台或多台源服务器迁移至阿里上。SMC概述 服务器迁移中心SMC(Server Migration Center)能够将单台或多台源服务器迁移至阿里上。源服务器包括IDC...

什么是推理引擎DeepGPU-LLM

DeepGPU-LLM是阿里研发的基于GPU云服务器的大语言模型(Large Language Model,LLM)推理引擎,在处理大语言模型任务中,该推理引擎可以为您提供高性能的大模型推理服务。产品简介 DeepGPU-LLM作为阿里开发的一套推理引擎,具有易用性...

微软许可证与软件保障

在阿里使用微软许可证有两种方式:使用阿里提供的许可证 直接购买和使用阿里提供的微软许可证,包括运行Windows Server操作系统的公共镜像和预装了SQL Server的市场镜像。使用自带许可证 根据软件保障条款和微软许可证迁移性在阿里...

错误码和状态码说明

说明 当探测成功或探测失败时,请您优先关注监控自定义的错误码。如果因DNS或网络等原因造成探测失败,服务端不会返回响应结果,则不会有HTTP状态码。监控自定义错误码说明 协议 错误码 含义 HTTP 610 探测超时或请求响应超时,包含TCP...

本地盘最佳实践

您可以使用 备份(Cloud Backup)将企业数据中心的数据、分支机构数据,或上资源备份到 备份(Cloud Backup)的上备份仓库。详情请参见 什么备份。方式二:搭建冗余架构 搭建多节点冗余数据架构,降低本盘故障带来的影响。您...

离线异步任务场景

本文介绍什么GPU离线异步任务场景和如何使用函数计算GPU异步调用、异步有状态调用服务离线AI推理、离线AI训练、离线GPU加速场景,以及如何基于非Web Server模式的Custom Container满足离线GPU应用场景。场景介绍 在离线异步应用场景中,...

配置共享GPU调度cGPU算力调度策略

ACK集群Pro版 的共享GPU功能基于cGPU实现。共享GPU算力隔离提供不同的分配策略,您可以在ACK Pro版集群中通过设置共享GPU组件的Policy来选择不同的分配策略。本文介绍通过配置共享GPU算力分配策略,实现不同效果的算力分配。关于cGPU的更多...

计算资源优化

GPU 云服务器 EGS(Elastic GPU Service):GPU云服务器是基于GPU与CPU应用的计算服务器GPU在执行复杂的数学和几何计算方面有着独特的优势,特别是在浮点运算、并行运算等方面,GPU可以提供上百倍于CPU的计算能力。GPU的功能特性如下:...

云服务使用限制索引

弹性计算 云服务 使用限制 云服务器ECS 使用限制 弹性裸金属服务器 使用限制 FPGA云服务器 使用限制 GPU云服务器 使用限制 存储容量单位包 使用限制 块存储 使用限制 轻量应用服务器 使用限制 专有宿主机 使用限制 批量计算 使用限制 容器...

异构计算产品最佳实践概览

GPU云服务器 搭建Linux环境License Server 使用GRID驱动必须申请相应的License,同时需要将License部署在License Server上,本教程以Ubuntu 18.04操作系统为例,介绍如何搭建Linux操作系统的License Server。搭建Windows环境的License ...

应用场景

GPU云服务器适用于视频转码、图片渲染、AI训练、AI推理、云端图形工作站等场景,神行工具包(DeepGPU)为了配合GPU云服务器的计算服务增强能力,也适用于所有AI训练场景和AI推理场景。本文主要介绍GPU云服务器和神行工具包(DeepGPU)的...

云服务器ECS对比

如果您需要使用更丰富的实例类型,如通用型、计算型、大数据型、弹性裸金属服务器GPU/FPGA/NPU异构计算型等,支持高并发网站、视频编解码、大型游戏、复杂分布式集群应用等业务场景,请使用云服务器ECS产品。关于云服务器ECS的更多实例...

GPU虚拟化型

本文介绍云服务器ECS GPU虚拟化型实例规格族的特点,并出了具体的实例规格。主售(推荐类型)GPU虚拟化型实例规格族sgn7i-vws(共享CPU)GPU虚拟化型实例规格族vgn7i-vws GPU虚拟化型实例规格族vgn6i 在售(如果售罄,建议使用主售的规格...

使用RAPIDS加速机器学习最佳实践

方案优势 阿里云GPU云服务器资源丰富,可灵活选择在GPU上搭建RAPIDS加速机器学习环境。使用容器服务Kubernetes版部署RAPIDS加速机器学习环境。共享存储NAS可提供强大的存储性能。部署架构图 选用的产品列表 产品名称 说明 GPU云服务器 该...

GPU集群中加速AI模型训练

本文适用于AI图片的训练场景,使用文件存储CPFS/NAS作为共享存储,使用容器服务Kubernetes版管理GPU云服务器集群实现AI图片的训练加速。方案优势 使用阿里的容器服务ACK可快速搭建AI图片训练基础环境。使用CPFS存储训练数据,支持多个...

使用RAPIDS加速图像搜索最佳实践

方案优势 阿里云GPU云服务器资源丰富,可灵活选择在GPU上搭建RAPIDS加速图像搜索环境。使用容器服务Kubernetes版可快速部署图像搜索环境和分发应用。共享存储NAS可提供强大的存储性能。部署架构图 选用的产品列表 产品名称 说明 GPU云服务...

使用AIACC-Training(AIACC训练加速)加速BERT Fine...

本文适用于自然语言训练场景,例如,通过使用GPU云服务器和极速型NAS训练BERT Finetune模型,同时使用AIACC-Training(AIACC训练加速)进行该模型的训练加速,可有效加快多机多卡的训练速度,提升模型的训练效率和性能。说明 BERT...

ACK集群实现GPU AI模型训练

场景描述 本方案适用于AI图片训练场景,使用CPFS和NAS作为共享存储,利用容器服务Kubernetes版管理GPU云服务器集群进行图片AI训练。解决问题 搭建AI图片训练基础环境。使用CPFS存储训练数据。使用飞天AI加速训练工具加速训练。使用Arena一...

使用ACK服务实现GPU的成本优化

GPU云服务器 该服务提供了GPU算力的弹性计算服务,具有超强的计算能力,可有效缓解计算压力,提升您的业务效率,帮助您提高企业竞争力。容器服务ACK 该服务提供了高性能且可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理...

产品优势

使用EAIS实例:您只需要购买如下计算资源:产品 实例规格 指标数据 云服务器ECS ecs.r6.6xlarge 24 vCPU 192 GiB 弹性计算加速实例EAIS eais.ei-a6.4xlarge 16 TFLOPS/FP32,32 GB/显存 综上所述,如果您购买GPU实例,则只能在已有的固定...

DNS服务器状态

概述 登录 解析DNS控制台,进入 域名解析 页面 权威域名 页签下,可查看到 DNS服务器地址 状态的检测提醒,分别包含如下四个状态:DNS服务器状态 状态说明 域名的DNS信息未查询到 指解析未查询到域名的DNS配置信息;可能的原因:域名未...

GPU云服务器计费

GPU云服务器计费相关功能与云服务器ECS一致,本文为您介绍GPU云服务器涉及的计费项、计费方式、续费和退费说明等。计费项及其计费方式 一台GPU实例包括计算资源(vCPU、内存和GPU)、镜像、块存储等资源,其中涉及计费的GPU资源如下表所示...

部署GPU云服务器

请按照标签顺序依次点击 新建>新建空白应用,构建如下图所示的包含GPU云服务器实例的应用架构:本文所选地域为 华北2(北京)可用区H。双击GPU实例,配置相关参数。参考 创建GPU实例,选择对应的实例规格、镜像及版本。需要修改自定义登录...

基本概念

本文汇总使用GPU云服务器过程中涉及的基本概念,方便您查询和了解相关概念。GPU云服务器相关概念 概念 说明 GPU 图形处理器(Graphics Processing Unit)。相比CPU具有众多计算单元和更多的流水线,适合用于大规模并行计算等场景。CUDA ...

准实时推理场景

本文介绍什么是准实时推理场景,以及如何使用GPU按量实例,以及如何基于GPU按量实例构建使用成本较低的准实时推理服务。场景介绍 在准实时推理应用场景中,工作负载具有以下一个或多个特征。调用稀疏 日均调用几次到几万次,日均GPU实际...

神行工具包(DeepGPU)计费

使用神行工具包(DeepGPU)本身不需要额外支付费用,您只需要为执行计算任务过程中使用的阿里资源(例如云服务器ECS或文件存储NAS)进行付费。神行工具包中的组件主要包括 AI训练加速器Deepytorch Training、AI推理加速器Deepytorch ...

出错提示SourceServer.Error导入异常

当迁移源类型是 阿里ECS云服务器 类型时 源服务器系统没有安装助手,或者助手没有正常运行。当有详细错误码S1_*时,可能是源服务器系统条件检测出错,不同的错误码的可能原因如下:S1_101:源系统未禁用SElinux。S1_102:源系统未...

上云须知

GPU云服务器 是基于GPU应用的计算服务,多适用于AI深度学习、视频处理、科学计算、图形可视化等应用场景。网络规划 容器集群基础设施(云服务器 ECS)的网络类型选择:专有网络VPC或经典网络。专有网络VPC:推荐使用。采用二层隔离,相对...

准实时推理场景

本文介绍什么是准实时推理场景,以及如何使用GPU按量实例,以及如何基于GPU按量实例构建使用成本较低的准实时推理服务。场景介绍 在准实时推理应用场景中,工作负载具有以下一个或多个特征。调用稀疏 日均调用几次到几万次,日均GPU实际...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
GPU云服务器 云服务器 ECS 轻量应用服务器 负载均衡 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用