GPU云服务器

GPU云服务器提供GPU加速计算能力,实现GPU计算资源的即开即用和弹性伸缩。作为阿里弹性计算家族的一员,GPU云服务器结合了GPU计算力与CPU计算力,满足您在人工智能、高性能计算、专业图形图像处理等场景中的需求。

云速搭部署GPU云服务器

通过云速搭实现GPU云服务器的部署,这里使用 ECS 的 UserData 特性自动安装GPU 驱动、AIACC 等组件,减少配置工作量。涉及产品 专有网络VPC GPU云服务器 弹性公网IP 云速搭CADT 方案架构 操作步骤 具体操作步骤请参考《云速搭部署 GPU ...

GPU云服务器安全性说明

GPU云服务器上安全性是阿里和客户的共同责任,是阿里在面对当前的网络安全形势和挑战时所采取的措施,以及提高用户在使用账号、实例、操作系统和资源等方面的安全性所具备的能力。GPU云服务器上安全性涉及的内容与云服务器ECS...

API参考

如果您熟悉网络服务协议和一种以上编程语言,推荐您调用API管理您的上资源和开发自己的应用程序。GPU云服务器适用的API和云服务器ECS一致,详情请参见 ECS API简介 和 ECS API概览。

什么是神行工具包(DeepGPU)

神行工具包(DeepGPU)是阿里专门为GPU云服务器搭配的GPU计算服务增强工具集合,旨在帮助开发者在GPU云服务器上更快速地构建企业级服务能力。GPU云服务器搭配神行工具包(DeepGPU)中的组件可以帮助您更方便地利用阿里上GPU资源,...

使用RAM进行访问控制

GPU云服务器使用RAM进行访问控制时,其身份管理、权限策略以及服务关联角色与云服务器ECS一致,具体说明如下:身份管理 使用RAM用户和RAM角色,通过授权来访问和管理阿里账号(即主账号)下的资源。更多信息,请参见 身份管理。基于身份...

产品优势

阿里GPU云服务器具有广阔的覆盖范围、超强的计算能力、出色的网络性能和灵活的购买方式,神行工具包(DeepGPU)是专门为GPU云服务器搭配的具有GPU计算服务增强能力的免费工具集。本文主要介绍GPU云服务器和神行工具包(DeepGPU)的优势。...

什么是GPU云服务器

对比项 GPU云服务器 GPU自建服务器 灵活性 能够快速开通一台或多台GPU云服务器实例。实例规格(vCPU、内存及GPU)支持灵活变更,并且支持在线升降配。带宽升降自由。服务器购买周期长。服务器规格固定,无法灵活变更。带宽一次性购买,无法...

ACK集群实现GPU AI模型训练

场景描述 本方案适用于AI图片训练场景,使用CPFS和NAS作为共享存储,利用容器服务Kubernetes版管理GPU云服务器集群进行图片AI训练。解决问题 搭建AI图片训练基础环境。使用CPFS存储训练数据。使用飞天AI加速训练工具加速训练。使用Arena一...

GPU云服务器计费

GPU云服务器计费相关功能与云服务器ECS一致,本文为您介绍GPU云服务器涉及的计费项、计费方式、续费和退费说明等。计费项及其计费方式 一台GPU实例包括计算资源(vCPU、内存和GPU)、镜像、块存储等资源,其中涉及计费的GPU资源如下表所示...

什么是推理引擎DeepGPU-LLM

DeepGPU-LLM是阿里研发的基于GPU云服务器的大语言模型(Large Language Model,LLM)的推理引擎,在处理大语言模型任务中,该推理引擎可以为您提供高性能的大模型推理服务。产品简介 DeepGPU-LLM作为阿里开发的一套推理引擎,具有易用...

部署GPU云服务器

请按照标签顺序依次点击 新建 应用,构建如下图所示的包含GPU云服务器实例的应用架构:本文所选地域为华北2(北京)可用区H。双击GPU实例,配置相关参数。参考 创建GPU实例,选择对应的实例规格、镜像及版本。修改自定义登录密码。在 实例...

安装GPU拓扑感知调度组件

前提条件 已创建ACK Pro集群,且集群的实例规格类型选择为 GPU云服务器。更多信息,请参见 创建Kubernetes托管版集群。获取集群KubeConfig并通过kubectl工具连接集群。系统组件版本满足以下要求。组件 版本要求 Kubernetes 1.18.8及以上...

directx-device-plugin-windows

在阿里上使用虚拟化GPU云服务器时,directx-device-plugin-windows可以为Windows容器提供基于DirectX构建的GPU加速功能。关于虚拟化GPU云服务器的详细介绍,请参见 GPU虚拟化型。directx-device-plugin-windows仅支持v1.20.4及其以上版本...

准实时推理场景

与函数计算同等GPU规格的GPU云服务器单价约为 14元/小时。更多计费详情,请参见 GPU云服务器计费。示例一 假设您的GPU函数一天调用量为3600次,每次为1秒钟,使用4 GB显存规格的GPU实例(模型大小为3 GB左右)。您的日均资源利用率(仅时间...

准实时推理场景

与函数计算同等GPU规格的GPU云服务器单价约为 14元/小时。更多计费详情,请参见 GPU云服务器计费。示例一 假设您的GPU函数一天调用量为3600次,每次为1秒钟,使用4 GB显存规格的GPU实例(模型大小为3 GB左右)。您的日均资源利用率(仅时间...

异构计算产品最佳实践概览

GPU云服务器 部署NGC环境构建深度学习开发环境 以搭建TensorFlow深度学习框架为例,介绍如何在GPU实例上部署NGC环境以实现深度学习开发环境的预安装。使用eRDMA容器镜像快速配置eRDMA提升网络性能 将eRDMA功能引入容器(Docker)环境提供更...

安装CUDA

如果您想要在GPU云服务器上进行GPU加速计算任务(例如科学计算或大规模并行计算等),则需要安装CUDA开发运行环境。CUDA提供了一整套工具和库,可以帮助您进行GPU加速的程序开发,以充分发挥NVIDIA GPU的计算潜力,提高计算性能和加速运行...

安装共享GPU调度组件

已创建 ACK集群Pro版 且集群实例规格架构设置为 GPU云服务器,请参见 创建ACK托管集群。已获取集群KubeConfig并通过kubectl工具连接集群。使用限制 请勿将共享GPU调度的节点的CPU Policy设置为 static。cGPU服务的隔离功能不支持以UVM的...

安装并使用DeepNCCL

开发人员可以根据实际业务情况,在不同的GPU云服务器上安装DeepNCCL通信库,以加速分布式训练或推理性能。本文主要介绍在Ubuntu或CentOS操作系统的GPU实例上安装和使用DeepNCCL的操作方法。说明 关于DeepNCCL的更多信息,请参见 什么是AI...

使用DeepGPU-LLM镜像快速构建模型的推理环境

说明 DeepGPU-LLM是阿里研发的基于GPU云服务器的大语言模型(Large Language Model,LLM)推理引擎,可以帮助您实现大语言模型在GPU上的高性能推理优化功能。更多信息,请参见 什么是推理引擎DeepGPU-LLM。准备工作 获取DeepGPU-LLM容器...

配置共享GPU调度节点选卡策略

配置项 说明 实例规格 架构 选择 GPU云服务器,选择多个GPU实例规格。由于只有在节点有多张GPU卡的情况下,节点选卡策略才能看出效果,建议选择带有多张GPU卡机型。期望节点数 设置节点池初始节点数量。如无需创建节点,可以填写为0。节点...

什么是AI通信加速库DeepNCCL

DeepNCCL是为阿里神龙异构产品开发的一种用于多GPU互联的AI通信...相关文档 针对分布式训练或者多卡推理中的AI通信场景,在不同的GPU云服务器上安装DeepNCCL通信库,可以加速分布式训练或推理性能。具体操作,请参见 安装并使用Deepnccl。

安装并使用DeepGPU-LLM进行模型推理

在处理大语言模型(LLM)任务中,您可以根据实际业务部署情况,选择在不同环境(例如GPU云服务器环境或Docker环境)下安装推理引擎DeepGPU-LLM,然后通过使用DeepGPU-LLM实现大语言模型(例如Llama模型、ChatGLM模型、百川Baichuan模型或...

快速部署TensorRT-LLM构建大语言模型的推理环境

说明 购买镜像时,系统镜像本身是免费的,您只需要支付GPU云服务器的费用。在实例购买页的 镜像 区域,查看 市场镜像 页签下是否已选中所购买镜像。下图以购买的镜像被选中为例,如果镜像未被选中,则您需要继续单击 重新选择镜像,选择...

阿里异构计算产品总览

GPU云服务器 GPU云服务器是基于GPU应用的计算服务器GPU在执行复杂的数学和几何计算方面有着独特的优势。特别是浮点运算、并行运算等方面,GPU可以提供上百倍于CPU的计算能力。作为阿里弹性计算家族的一员,GPU云服务器结合了GPU计算力...

通过ack-co-scheduler使用共享GPU调度

chmod+x/usr/local/bin/kubectl-inspect-cgpu 步骤三:创建GPU节点 创建GPU云服务器,并安装驱动和nvidia-container-runtime。具体操作,请参见 创建节点池。说明 如果您添加节点池时已经创建GPU节点并配置好环境,可以跳过此步骤。如果您...

配置共享GPU调度仅共享不隔离策略

配置项 说明 实例规格 架构 选择 GPU云服务器,选择多个GPU实例规格。本文以使用GPU卡V100为例进行说明。期望节点数 设置节点池初始节点数量。如无需创建节点,可以填写为0。节点标签 单击,添加如下记录:键 为 ack.node.gpu.schedule,值...

使用MPS实现GPU共享调度和显存隔离

添加GPU节点时,您需要将实例规格架构设置为 GPU云服务器。具体操作,请参见 添加已有节点 或 创建节点池。节点标签 单击 节点标签 的,设置 键 为ack.node.gpu.schedule,值 为mps。重要 每个GPU节点只有打上标签 ack.node.gpu.schedule=...

使用GPU拓扑感知调度(Pytorch版)

前提条件 已创建ACK Pro集群,且集群的实例规格类型选择为 GPU云服务器。更多信息,请参见 创建Kubernetes托管版集群。已安装 Arena。已安装GPU拓扑感知调度组件。系统组件版本满足以下要求。组件 版本要求 Kubernetes 1.18.8及以上版本 ...

GPU云服务器(gn/vgn/sgn系列)

作为阿里弹性计算家族的一员,GPU云服务器结合了GPU计算力与CPU计算力,满足您在人工智能、高性能计算、专业图形图像处理等场景中的需求。背景信息 在阅读各个实例规格族的特点及详细指标之前,您需要提前学习以下信息:了解实例规格命名...

GPU监控

监控通过安装在阿里云主机(ECS实例)上的监控插件,采集GPU的监控数据,您还可以为这些监控项设置报警规则。当某个监控项达到报警条件时,会给您发送报警通知,以便您及时关注其动态。前提条件 请确保您已在云服务器ECS上创建GPU计算...

应用场景

GPU云服务器应用场景 直播实时视频转码 阿里云GPU云服务器重点支持2019年天猫双11狂欢夜直播的实时视频转码,以高画质、低带宽、高分辨率、实时的综合优势服务于天猫双11狂欢夜当天直播业务4K、2K、1080P等各个分辨率的转码。具体说明如下...

附录:诊断支持场景及说明

诊断入口:ECS GPU设备健康检查 ECS盘扩容未生效 诊断产品:云服务器ECS 诊断对象:运行中的Linux ECS实例 功能描述:当用户发现云服务器ECS 盘申请了扩容但未生效时,可通过 ECS盘扩容未生效 诊断工具快速排查ECS 盘是否正常。...

实例规格分类与命名

其作为阿里弹性计算家族的一员,结合了GPU计算力与CPU计算力,满足您在人工智能、高性能计算、专业图形图像处理等场景中的需求,例如,在并行运算方面,使用GPU云服务器可显著提高计算效率。异构服务型:异构服务型实例video-trans适用于...

重启实例

GPU实例作为云服务器ECS的一类实例规格,保持了与ECS实例相同的管理操作。本文介绍如何通过控制台重启实例。前提条件 待重启的实例必须处于 运行中 状态。背景信息 重启操作是维护云服务器的一种常用方式,如系统更新、重启保存相关配置等...

GPU监控

监控通过安装在阿里云主机(ECS实例)上的监控插件,采集GPU的监控数据,您还可以为这些监控项设置报警规则。当某个监控项达到报警条件时,会给您发送报警通知,以便您及时关注其动态。前提条件 请确保您已在云服务器ECS上创建GPU计算...

GPU虚拟化型(vgn/sgn系列)

本文为您介绍云服务器ECS GPU虚拟化型实例规格族的特点,并列出了具体的实例规格。GPU虚拟化型实例规格族sgn7i-vws(共享CPU)GPU虚拟化型实例规格族vgn7i-vws GPU虚拟化型实例规格族vgn6i-vws GPU虚拟化型实例规格族sgn7i-vws(共享CPU)...

神行工具包(DeepGPU)计费

使用神行工具包(DeepGPU)本身不需要额外支付费用,您只需要为执行计算任务过程中使用的阿里资源(例如云服务器ECS或文件存储NAS)进行付费。神行工具包中的组件主要包括 AI训练加速器Deepytorch Training、AI推理加速器Deepytorch ...

GPU计算型(gn/ebm/scc系列)

本文为您介绍云服务器ECS GPU计算型实例规格族的特点,并列出了具体的实例规格。背景信息 在阅读各个实例规格族的特点及详细指标之前,您需要提前学习以下信息:了解实例规格命名及分类:帮助您更好地理解实例规格族的命名及分类信息,了解...
共有198条 < 1 2 3 4 ... 198 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
专有宿主机 云虚拟主机 GPU云服务器 DDoS防护 云安全中心 人工智能平台 PAI
新人特惠 爆款特惠 最新活动 免费试用