GPU云服务器

GPU云服务器提供GPU加速计算能力,实现GPU计算资源的即开即用和弹性伸缩。作为阿里云弹性计算家族的一员,GPU云服务器结合了GPU计算力与CPU计算力,满足您在人工智能、高性能计算、专业图形图像处理等场景中的需求。

骑士

骑士是一款经受百万级主机稳定性考验的主机安全加固产品,拥有自动化实时入侵威胁检测、病毒查杀、漏洞智能修复、基线一键核查等功能,是构建主机安全防线的统一管理平台。

专有宿主机

阿里云专有宿主机(Dedicated Host,简称DDH)是阿里云专为企业客户定制优化的解决方案,具有物理资源独享、部署更灵活、配置更丰富、性价比更高等特点,可以有效地降低企业上云的TCO。

云虚拟主机

阿里云虚拟主机主要用于搭建网站,提供预装网站运行环境,赠送正版数据库,可通过图形化控制面板管理,包括独享系列虚机和共享系列虚机。独享系列适合企业建站客户,提供独享的服务器资源,无资源争抢更稳定,不限流量更快速、独立IP更易...

弹性加速计算实例EAIS

弹性加速计算实例EAIS(Elastic Accelerated Computing ...EAIS可以将CPU资源与GPU资源成功解耦,帮助您将GPU资源附加到ECS实例上,构建成您希望得到的GPU实例规格,用于推理场景下的弹性使用,从而提高资源利用率,降低成本。

密钥管理服务

密钥管理服务KMS(Key Management Service)提供密钥的安全托管及密码运算等服务。借助KMS,您可以安全、便捷的使用密钥,专注于开发加解密等功能场景。

加密服务

加密服务CloudHSM(Alibaba Cloud Data Encryption Service)即云密码,是云上的加密解决方案。加密服务使用经国家密码管理局检测...借助加密服务,用户能够对密钥进行安全可靠的管理,也能使用多种加密算法来对数据进行可靠的加解密运算

批量计算

批量计算(BatchCompute)是一种适用于大规模并行批处理作业的分布式云服务。BatchCompute可支持海量作业并发规模,系统自动完成资源管理,作业调度和数据加载,按实际使用量计费。

文件存储 CPFS

CPFS(Cloud Paralleled File System)是一种并行文件系统。CPFS的数据存储在集群中的多个数据节点,可由多个客户端同时访问,从而能够为大型高性能计算机集群提供高IOPS、高吞吐、低时延的数据存储服务。

弹性 Web 托管

阿里云弹性Web托管是新一代的网站应用托管产品,基于先进的容器资源隔离技术,采用多层沙箱保护提供安全运行环境,同时针对运行环境提供了多种扩展服务,提供了可视化的控制面板。既拥有了传统虚拟主机的易用性,同时具备攻击隔离、...

云原生数仓 AnalyticDB PostgreSQL

兼容Greenplum开源数据仓库,MPP全并行架构,广泛兼容PostgreSQL/Oracle的语法生态,新一代向量引擎性能超越传统数据库引擎10倍以上,分布式SQL优化器实现复杂查询语句免调优。实现了对海量数据的即席查询分析、ETL 处理及可视化探索,是各...

服务器迁移中心

服务器迁移中心SMC是阿里云自主研发的迁移平台。使用SMC,可将您的单台或多台迁移源迁移至阿里云。迁移源包括IDC服务器、虚拟、其他云平台的云主机或其他类型的服务器。

云数据库专属集群 MyBase

云数据库专属集群 MyBase 是由多台主机(底层服务器,如ECS I2服务器、神龙服务器)组成的集群,相对于托管数据库,可以实现更灵活的资源调度、更强大的企业级数据库服务、更丰富的权限等。

应用发现服务

应用发现服务(Application Discovery Service)是一款面向企业上云场景,针对评估、规划、建设、迁移的需求的迁云评估工具。...资产,分析识别主机和进程信息、资源使用水位以及各应用和组件之间的依赖关系,向企业智能推荐相应云服务。

什么是GPU云服务器

GPU在执行复杂的数学和几何计算方面有着独特的优势,特别是在浮点运算、并行运算等方面,GPU可以提供上百倍于CPU的计算能力。GPU的功能特性如下: 拥有大量擅长处理大规模并发计算的算术运算单元(ALU)。能够支持多线程并行的高吞吐量运算...

常见问题

适用场景 适用于计算密集,相似度高,且多线程并行的高吞吐量运算场景。适用于对响应速度有要求,且逻辑复杂的串行运算场景。普通ECS实例规格族是否支持升级或变更为GPU实例规格族?普通ECS实例规格族不支持直接升级或变更为GPU实例规格族...

阿里云异构计算产品总览

特别是浮点运算、并行运算等方面,GPU可以提供上百倍于CPU的计算能力。作为阿里云弹性计算家族的一员,GPU云服务器结合了GPU计算力与CPU计算力,同时实现了GPU计算资源的即开即用和弹性伸缩。满足您在人工智能、高性能计算、专业图形图像...

应用场景

常用存储:并行文件存储系统CPFS。CTR预估 常用框架:TensorFlow。模型:Wide&Deep模型。常用存储:文件系统HDFS。NLP自然语言处理 常用框架:TensorFlow。模型:Transformer、Bert模型。常用存储:并行文件存储系统CPFS。AI推理的典型业务...

GPU监控

本文为您介绍如何通过云监控控制台和API查询GPU监控数据。前提条件 请确保您已在云服务器ECS上创建GPU计算型实例,且已安装GPU驱动。具体操作,请参见创建未配备驱动的GPU实例。请确保您已在云服务器ECS上安装云监控插件。具体操作,请参见...

基本概念

本文汇总使用GPU云服务器过程中涉及的基本概念,方便您查询和了解相关概念。GPU云服务器概念 名词 说明 相关文档 GPU 图形处理器(Graphics Processing Unit)。相比CPU具有众多计算单元和更多的流水线,适合用于大规模并行计算等场景。...

NVIDIA驱动安装指引

由于GPU实例本身未配备相关驱动,因此您需要根据实际业务场景选择合适的GPU实例规格,安装与之匹配的NVIDIA驱动。本文将为您详细介绍不同场景下购买实例安装驱动的指引。驱动说明 阿里云GPU实例支持安装以下两种NVIDIA驱动:GPU驱动...

新功能发布记录

本文仅为您介绍异构产品的相关发布记录,如果您需要了解ECS的量发布记录,请参见新功能发布记录。2021年07月 功能名称 功能描述 发布时间 发布地域 相关文档 实例规格族 发布GPU计算型实例规格族gn7i。2021-07-01 全部 实例规格族 2021年...

什么是GPU容器共享技术cGPU

即多个容器共享一张GPU卡,从而实现业务的安全隔离,提高GPU硬件资源的利用率降低使用成本。为什么选择cGPU 更加开放 适配开源标准的Kubernetes和NVIDIA Docker方案。更加简单 无需重编译AI应用,运行时无需替换CUDA库,升级CUDA、cuDNN...

卸载GPU驱动

您可以手动卸载GPU驱动,卸载命令需要根据GPU驱动的安装方式和操作系统类型而定。背景信息 本文步骤均需要以root用户登录进行操作。如果您是普通用户,请使用sudo命令获取root权限后再操作。如果您是通过创建GPU实例自动安装了GPU驱动,...

通过Docker安装使用cGPU服务

cGPU服务可以隔离GPU资源,实现多个容器共用一张显卡。本章节介绍如何在GPU实例上安装和使用cGPU服务。前提条件 安装cGPU服务前,请完成以下准备工作:提交工单获取cGPU安装包下载链接。确保GPU实例满足以下要求: GPU实例规格为gn6i、gn6v...

GPU计算型

本章节介绍云服务器ECS GPU计算型实例规格族的特点,列出了具体的实例规格。售(推荐类型)GPU计算型实例规格族gn7i GPU计算型实例规格族gn7 GPU计算型实例规格族gn6i GPU计算型实例规格族gn6e GPU计算型实例规格族gn6v GPU计算型弹性...

GPU计算型实例中安装GPU驱动(Windows)

由于目前暂不支持通过创建GPU实例自动配置Windows操作系统的GPU驱动,为保证您能正常使用所创建的GPU实例,需要在创建实例后前往NVIDIA官网获取GPU驱动手动安装。本文为您提供详细操作指导。背景信息 GPU实例仅支持安装与其操作系统一致...

GPU AI模型训练最佳实践

本方案适用于AI图片训练场景,使用CPFS/NAS作为共享存储,利用容器服务Kubernetes版管理GPU云服务器集群进行图片AI训练。实现的方式 搭建AI图片训练基础环境。使用CPFS存储训练数据。使用飞天AI加速训练服务加速训练。使用Arena一键提交...

BertLarge分布式训练(流水并行

模型并行 将模型按照Layer粒度切分为不同的Stage,将其分配至不同的GPU中执行,以降低每张GPU卡中的模型显存占用,从而提高Batch Size。Stage之间使用Activation通信代替梯度同步,大幅度降低卡间通信量。例如在BertLlarge模型中,每轮...

通过ACK安装使用cGPU服务

通过部署YAML文件创建cGPU,使用cGPU的显存隔离能力,实现GPU设备资源的高效利用。具体操作,请参见运行cGPU服务示例。监控和隔离GPU资源 通过cGPU服务,在无需修改现有GPU程序的前提下,保障多个容器共享同一个GPU的同时,实现彼此的...

更新NVIDIA驱动

如果您的驱动版本已不适用于当前场景,或者您安装了错误的驱动类型或版本导致GPU实例无法使用,您可以通过卸载当前驱动再安装所需驱动的方式,完成NVDIA驱动的更新。本文将为您提供卸载及安装不同类型和操作系统的驱动的操作指引。卸载...

GPU实例上使用RAPIDS加速机器学习任务

本文介绍了如何在GPU实例上基于NGC环境使用RAPIDS加速库,加速数据科学和机器学习任务,提高计算资源的使用效率。背景信息 RAPIDS,全称Real-time Acceleration Platform for Integrated Data Science,是NVIDIA针对数据科学和机器学习推出...

GPU计算型实例中安装GPU驱动(Linux)

如果您在创建GPU计算型实例时没有配置自动安装GPU驱动,或者在公共镜像中没有您需要的操作系统或版本,为保证您能正常使用您创建的GPU实例,请在创建后手动安装驱动。本文为您介绍如何为操作系统为Linux的GPU实例手动安装GPU驱动。背景信息...

产品优势

GPU容器共享技术cGPU拥有节约成本和可灵活分配资源的优势,从而实现您业务的安全隔离。节约成本 随着显卡技术的不断发展,半导体制造工艺的进步,单张GPU卡的力越来越强,同时价格也越来越高。但在很多的业务场景下,一个AI应用不需要...

应用场景

GPU云服务器适用于视频转码、图片渲染、AI训练、AI推理、云端图形工作站等场景。直播实时视频转码 阿里云异构GPU和FPGA服务器重点支持2019年天猫双11狂欢夜直播的实时视频转码,以高画质、低带宽、高分辨率、实时的综合优势服务天猫双11...

创建配备GPU驱动的GPU实例(Linux)

本文适用于仅需要进行深度学习、AI等非图形计算的通用计算业务场景,该场景推荐您使用支持配备GPU驱动的GPU计算型实例。本文为您提供在创建Linux操作系统的GPU计算型实例时,配置自动安装GPU驱动的详细操作指导。背景信息 阿里云目前仅支持...

使用ACK服务实现GPU成本优化

本方案适用于在利用阿里云容器服务ACK部署GPU集群后,出于成本优化的考虑,对于集群中GPU利用率不高的应用,使用GPU容器共享技术cGPU让一定数量的应用共享一张GPU卡,从而提高利用率。对于GPU利用率较高的应用,则不做改动。实现了灵活管理...

GPU实例上安装GRID驱动(Windows)

当您需要使用Windows操作系统的GPU计算型实例或GPU虚拟化型实例应用于OpenGL、Direct3D等图形计算场景时,请必须安装GRID驱动。如果您未在创建GPU实例时,通过镜像市场购买配备了GRID驱动的镜像,或者未找到您需要的操作系统及版本,那么,...

GPU虚拟化型

本文介绍云服务器ECS GPU虚拟化型实例规格族的特点,列出了具体的实例规格。售(推荐类型)轻量级GPU计算型实例规格族vgn6i 在售(如果售罄,建议使用售的规格族)轻量级GPU计算型实例规格族vgn5i 轻量级GPU计算型实例规格族vgn6i ...

RAPIDS加速图像搜索最佳实践

本方案适用于使用RAPIDS加速平台和GPU云服务器来对图像搜索任务进行加速的场景。相比CPU,利用GPU+RAPIDS在图像搜索场景下可以取得非常明显的加速效果。解决的问题 搭建RAPIDS加速图像搜索环境。使用容器服务Kubernetes版部署图像搜索环境...
< 1 2 3 4 ... 120 >
跳转至: GO

新品推荐

你可能感兴趣

热门推荐

新人福利专场 阿里云试用中心 企业支持计划 飞天会员助力企业低成本上云 智能财税30天免费试用 云解析DNS新用户首购低至36元/年起 ECS限时升级特惠6.5折