什么是神行工具包(DeepGPU)

神行工具包(DeepGPU)是阿里专门为GPU云服务器搭配的GPU计算服务增强工具集合,旨在帮助开发者在GPU云服务器上更快速地构建企业级服务能力。GPU云服务器搭配神行工具包(DeepGPU)中的组件可以帮助您更方便地利用阿里上GPU资源,...

GPU云服务器安全性说明

GPU云服务器上安全性是阿里和客户的共同责任,是阿里在面对当前的网络安全形势和挑战时所采取的措施,以及提高用户在使用账号、实例、操作系统和资源等方面的安全性所具备的能力。GPU云服务器上安全性涉及的内容与云服务器ECS...

产品优势

阿里GPU云服务器具有广阔的覆盖范围、超强的计算能力、出色的网络性能和灵活的购买方式,神行工具包(DeepGPU)是专门为GPU云服务器搭配的具有GPU计算服务增强能力的免费工具集。本文主要介绍GPU云服务器和神行工具包(DeepGPU)的优势。...

GPU云服务器

GPU云服务器提供GPU加速计算能力,实现GPU计算资源的即开即用和弹性伸缩。作为阿里弹性计算家族的一员,GPU云服务器结合了GPU计算力与CPU计算力,满足您在人工智能、高性能计算、专业图形图像处理等场景中的需求。

云速搭部署GPU云服务器

通过云速搭实现GPU云服务器的部署,这里使用 ECS 的 UserData 特性自动安装GPU 驱动、AIACC 等组件,减少配置工作量。涉及产品 专有网络VPC GPU云服务器 弹性公网IP 云速搭CADT 方案架构 操作步骤 具体操作步骤请参考《云速搭部署 GPU ...

什么是GPU云服务器

对比项 GPU云服务器 GPU自建服务器 灵活性 能够快速开通一台或多台GPU云服务器实例。实例规格(vCPU、内存及GPU)支持灵活变更,并且支持在线升降配。带宽升降自由。服务器购买周期长。服务器规格固定,无法灵活变更。带宽一次性购买,无法...

AIGC文本生成视频

本文介绍如何使用GPU云服务器搭建Stable Diffusion模型,并基于ModelScope框架,实现使用文本生成视频。背景信息 自多态模型GPT-4发布后,AIGC(AI Generated Content,AI生成内容)时代正扑面而来,从单一的文字文本,演化到更丰富的图片...

快速搭建AI对话机器人

本文介绍如何使用阿里云GPU云服务器,基于ChatGLM-6B语言模型快速搭建AI对话机器人。背景信息 ChatGLM-6B是一个开源的、支持中英双语对话的语言模型,它基于General Language Model(GLM)架构,具有62亿参数;并使用了和ChatGPT相似的技术...

从0快速搭建个人版“对话大模型”

本教程介绍如何在阿里云GPU云服务器上基于 Alpaca大模型 快速搭建个人版“对话大模型”。背景信息 Alpaca大模型 是一款基于LLaMA的大语言模型,它可以模拟自然语言进行对话交互,并协助用户完成写作、翻译、编写代码、生成脚本等一系列创作...

阿里异构计算产品总览

GPU云服务器 GPU云服务器是基于GPU应用的计算服务器GPU在执行复杂的数学和几何计算方面有着独特的优势。特别是浮点运算、并行运算等方面,GPU可以提供上百倍于CPU的计算能力。作为阿里弹性计算家族的一员,GPU云服务器结合了GPU计算力...

API参考

如果您熟悉网络服务协议和一种以上编程语言,推荐您调用API管理您的上资源和开发自己的应用程序。GPU云服务器适用的API和云服务器ECS一致,详情请参见 ECS API简介 和 ECS API概览。

Tesla或GRID驱动安装指引

GPU实例本身并未配备相关驱动,只有安装了驱动的GPU实例,才能实现计算加速或图形渲染等功能。根据不同GPU实例规格安装与之匹配的Tesla或GRID驱动,...如果GPU实例安装驱动后,在使用过程中遇到黑屏或其他问题,请参见 GPU云服务器常见问题。

使用RAM进行访问控制

GPU云服务器使用RAM进行访问控制时,其身份管理、权限策略以及服务关联角色与云服务器ECS一致,具体说明如下:身份管理 使用RAM用户和RAM角色,通过授权来访问和管理阿里账号(即主账号)下的资源。更多信息,请参见 身份管理。基于身份...

安装CUDA

如果您想要在GPU云服务器上进行GPU加速计算任务(例如科学计算或大规模并行计算等),则需要安装CUDA开发运行环境。CUDA提供了一整套工具和库,可以帮助您进行GPU加速的程序开发,以充分发挥NVIDIA GPU的计算潜力,提高计算性能和加速运行...

什么是推理引擎DeepGPU-LLM

DeepGPU-LLM是阿里研发的基于GPU云服务器的大语言模型(Large Language Model,LLM)推理引擎,在处理大语言模型任务中,该推理引擎可以为您提供高性能的大模型推理服务。产品简介 DeepGPU-LLM作为阿里开发的一套推理引擎,具有易用性...

安装并使用DeepNCCL

开发人员可以根据实际业务情况,在不同的GPU云服务器上安装DeepNCCL通信库,以加速分布式训练或推理性能。本文主要介绍在Ubuntu或CentOS操作系统的GPU实例上安装和使用DeepNCCL的操作方法。说明 关于DeepNCCL的更多信息,请参见 什么是AI...

计费常见问题

本文汇总了轻量应用服务器计费的常见问题。轻量应用服务器计费项有哪些?轻量应用服务器计费项主要包括套餐配置费用、数据盘费用、超额流量费用。更多信息,请参见 计费项。创建快照和自定义镜像是否收费?在轻量应用服务器中创建快照...

GPU云服务器计费

GPU云服务器计费相关功能与云服务器ECS一致,本文为您介绍GPU云服务器涉及的计费项、计费方式、续费和退费说明等。计费项及其计费方式 一台GPU实例包括计算资源(vCPU、内存和GPU)、镜像、块存储等资源,其中涉及计费的GPU资源如下表所示...

应用场景

GPU云服务器适用于视频转码、图片渲染、AI训练、AI推理、云端图形工作站等场景,神行工具包(DeepGPU)为了配合GPU云服务器的计算服务增强能力,也适用于所有AI训练场景和AI推理场景。本文主要介绍GPU云服务器和神行工具包(DeepGPU)的...

重启实例

GPU实例作为云服务器ECS的一类实例规格,保持了与ECS实例相同的管理操作。本文介绍如何通过控制台重启实例。前提条件 待重启的实例必须处于 运行中 状态。背景信息 重启操作是维护云服务器的一种常用方式,如系统更新、重启保存相关配置等...

基本概念

本文汇总使用GPU云服务器过程中涉及的基本概念,方便您查询和了解相关概念。GPU云服务器相关概念 概念 说明 GPU 图形处理器(Graphics Processing Unit)。相比CPU具有众多计算单元和更多的流水线,适合用于大规模并行计算等场景。CUDA ...

管理时间同步服务

如果您需要配置为阿里的NTP服务器,请按照下面步骤中的 NTP服务器 进行配置,具体请参见 阿里NTP服务器地址列表。关于如何选择阿里NTP服务器地址,请参见 NTP服务同步异常怎么办?执行以下命令,进入 chrony 配置文件。sudo vim/etc/...

ASP协议

对于无快速持续变化的场景(例如文档基本操作、网页浏览)和有快速持续变化的场景(例如视频播放、游戏),ASP协议构建的流化引擎可以智能地根据场景选择流化路径,支持普通云电脑和GPU云电脑。先进的压缩算法 云电脑内的屏幕内容往往是...

GPU监控

请确保您已在云服务器ECS上安装监控插件。具体操作,请参见 安装监控插件。监控项说明 您可以从GPU、实例和应用分组维度查看GPU相关监控项。GPU的监控项如下表所示。监控项 单位 MetricName Dimensions(Agent)GPU维度解码器使用率%...

升级配置

随着业务的发展,已购买的服务器的计算资源(vCPU、内存)、存储资源(系统盘容量)以及网络资源(流量配额、公网带宽),可能出现不再满足业务需求的情况,您可以选择合适的套餐升级轻量应用服务器的配置。使用限制 仅支持以套餐的形式...

API概览

DescribeCloudAssistantStatus 查询助手安装状态 查询轻量云服务器是否安装助手。DescribeInvocationResult 查询单个命令的执行结果 查询单个命令的执行结果。RunCommand 执行命令 在轻量应用服务器上执行命令。DescribeInvocations ...

最佳实践

容器与原生 如何利用存储网关作为Windows Docker存储访问OSS 在Linux Docker容器中挂载使用存储网关 Windows应用 利用存储网关搭建Windows文件共享服务器 利用存储网关的SMB共享搭建windows FTP服务器访问对象存储OSS 如何基于...

使用DeepGPU-LLM镜像快速构建模型的推理环境

说明 DeepGPU-LLM是阿里研发的基于GPU云服务器的大语言模型(Large Language Model,LLM)推理引擎,可以帮助您实现大语言模型在GPU上的高性能推理优化功能。更多信息,请参见 什么是推理引擎DeepGPU-LLM。准备工作 获取DeepGPU-LLM容器...

安装和使用Deepytorch Training

前提条件 已创建阿里云GPU实例,且GPU实例需满足以下要求:操作系统为Alibaba Cloud Linux、CentOS 7.x、Ubuntu 18.04或更高版本。已安装NVIDIA Driver、CUDA且满足相应的版本要求。创建GPU实例时,选择镜像后,建议您同时选中 安装GPU驱动...

异构服务型

云服务器ECS异构服务型实例video-trans适用于视频转码、图像与视频内容处理以及帧图像提取等场景。通过本文您可以具体了解该实例的特点以及包含的实例规格和指标数据等。video-trans特点 提供专属硬件资源和物理隔离 高密度转码,例如显示...

CentOS 7.2升级内核失败提示“No package marked for ...

问题描述 CentOS 7.2升级内核失败提示以下报错信息。No package marked for Update 问题原因 由于/etc/yum.conf 配置文件 exclude 配置项会导致针对 kernel 的升级...相关文档 避免Linux实例升级内核系统无法启动的方法 适用于 服务器 ECS

Token鉴权概述

消息队列 MQTT 版 通过Token鉴权模式向MQTT客户端提供临时访问权限。您可通过MQTT Token服务来给本地账号系统管理的用户颁发临时的访问凭证,并限制访问权限,以实现对单一客户端、单一资源的细粒度权限控制。本文介绍使用流程以及相关...

配置助手Agent网络权限

本文介绍如何为 助手Agent 所在实例配置安全组规则,从而更方便地管理 助手Agent 的网络权限。背景信息 为了确保您正常使用助手,实例需要能访问相关的服务域名或IP地址才能完成您指定的动作,例如执行助手命令。您需要允许以下出...

Token鉴权概述

消息队列 MQTT 版 通过Token鉴权模式向MQTT客户端提供临时访问权限。您可通过MQTT Token服务来给本地账号系统管理的用户颁发临时的访问凭证,并限制访问权限,以实现对单一客户端、单一资源的细粒度权限控制。本文介绍使用流程以及相关...

按量付费

秒级计费 盘(系统盘)云盘单价*云盘容量*计费时长 从按量付费实例创建完成开始计费,到实例释放时结束计费。秒级计费 重要 单个出账周期(1小时)内,系统盘有最短计费时长:1 vCPU:若单个出账周期内系统盘使用时间不足10分钟,按10...

按量付费

秒级计费 盘(系统盘)云盘单价*云盘容量*计费时长 从按量付费实例创建完成开始计费,到实例释放时结束计费。秒级计费 重要 单个出账周期(1小时)内,系统盘有最短计费时长:1 vCPU:若单个出账周期内系统盘使用时间不足10分钟,按10...

升级或续费说明

创建轻量应用服务器、轻量应用负载均衡、轻量容器服务和轻量数据库服务 时支持设置自动续费,您也可以在创建后手动续费。随着业务的发展,如果已购买的资源不再满足业务需求,您可以升级配置。本文介绍如何升级和手动续费相关资源。背景...

漏洞管理常见问题

处理建议:进入该服务器的系统服务管理,开启Windows Update Service后,再次在安全中心控制台上尝试修复该漏洞。服务器磁盘空间小于500 MB。处理建议:扩容或清理磁盘后,再次在安全中心控制台上尝试修复该漏洞。Linux软件漏洞、...

什么是计算优化编译器AIACC-AGSpeed

AIACC-AGSpeed(AIACC 2.0-AIACC Graph Speeding)是阿里云推出的一个基于PyTorch深度学习框架研发的计算优化编译,用于优化PyTorch深度学习模型在阿里云GPU异构计算实例上的计算性能,相比原始的神龙AI加速引擎AIACC,AIACC-AGSpeed是...

神行工具包(DeepGPU)计费

使用神行工具包(DeepGPU)本身不需要额外支付费用,您只需要为执行计算...与神行工具包关联的阿里资源主要包括云服务器ECS、对象存储OSS以及文件存储NAS,关联资源的具体计费标准如下:云服务器ECS计费 对象存储OSS计费 文件存储NAS计费
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
GPU云服务器 云服务器 ECS 轻量应用服务器 Web应用防火墙 人工智能平台 PAI 弹性公网IP
新人特惠 爆款特惠 最新活动 免费试用