先进、高性价比的 AI 算力, 快速部署大模型

丰富多样的 GPU 算力和 AI 开发人工智能平台 PAI,支持通义全系列模型快速部署,轻松构建 AI 应用

丰富多样的 GPU 算力和 AI 开发人工智能平台 PAI,支持通义全系列模型快速部署,轻松构建 AI 应用

log先进、弹性、超强计算性能
96GB显存
支撑全参数长上下文推理,满足专业推理场景需求
log全尺寸模型覆盖
671B 模型
支持48/96G显存,提供全尺寸模型推理能力
log高性价比的 GPU 算力
1折
A10 1折起,L20供给充裕、性价比高
  • 先进的 AI 算力和 PAI
  • GPU 超强算力
  • 强大的推理性能
  • PAI 一键部署
  • GPU 快速部署
  • AI 场景组合购
  • 客户案例
  • 高性价比的 AI 产品
先进、弹性且丰富的 AI 算力和 AI 开发平台 PAI,支持快速部署通义全系列模型
供给充裕、高性价比的 AI 算力和至高免费7000万大模型 tokens,加速 AI 应用落地 预约 AI 专家服务
供给充裕、高性价比的 AI 算力,加速 AI 应用落地 预约 AI 专家服务

先进、规模的 GPU 算力

大幅降低训练、推理成本,加速应用落地

icon同硬件环境,推理性能提升超100%

iconLLM 大模型微调训练性能提升50%

icon助力 Finetune 性能最高提升40%

阿里云 AI Stack 轻松构建 AI 应用

训推一体,开机即用,支持 DeepSeek 满血版和 Qwen 单机部署

icon单机 16 卡 1.5TB+ 超大显存,卡间互联 700GB/s

icon支持机间 1.6T 通信带宽,低时延无拥塞通信

icon训推统一资源池、一体化调度,内置模型秒级启动

AI 专用的训推平台 PAI

国内过半的大模型训推基座

iconAI 训推一体引擎,90%+ 有效算力利用效率

icon可扩展 10万卡 规模的算力集群

icon每日企业训练推理任务数 5万+

申请更多 AI 算力优惠

先进、领先的大模型限免超7000万 tokens,加速多场景 AI 应用落地

查看更多

充裕丰富的 GPU 卡型,强大优异的推理性能,应对严峻的 AI 技术挑战
丰富的 GPU 卡型,支持 1~8卡灵活配置,轻松应对全尺寸模型推理,按需选配,弹性伸缩,让每一块卡都发挥极致性能 预约 AI 专家服务
丰富的 GPU 卡型,支持 1~8卡灵活配置,轻松应对全尺寸模型推理,按需选配,弹性伸缩,让每一块卡都发挥极致性能 预约 AI 专家服务
  • 高性能、高并发推理卡型

    96GB 显存 + 900GB/s NVLink + Transformer 引擎,让大模型推理更快、更稳、更高效!

    • 96GB 显存,支撑全参数长上下文推理

      长文推理

      依托大容量显存支撑,可完整加载 Qwen-72B、235B、671B等大规模模型,支持长上下文推理,满足专业推理场景需求,提升推理稳定性

    • 900GB/s NVLink卡间交互,推理吞吐更强

      吞吐强劲

      支持高达 900GB/s 的 NVLink 互联和 4.0TB/s 显存带宽,显著降低多卡通信和解码延迟,在长序列生成任务中实现更高吞吐和并发响应推理速度

    • 4000GB/s 显存带宽 ,推理性能更优

      推理性能强

      显著减少数据访问延迟,加快响应速度,支持更高并发的在线服务性能比提升,每 Token 生成时间更短,提升推理效率

  • 高性价比、轻量高效的推理卡型

    L20 GPU 支持 1~8 卡灵活配置,AMD Genoa 处理器,48GB 显存,轻松应对中小模型推理!

    • 48GB 显存,推理生成响应快

      响应高效

      专为生成式 AI 设计,适用于中小规模 LLM 模型推理、搜索推荐训练推理,单卡即可支撑高并发 API 服务,降低初创企业算力门槛

    • 32B 及以下模型优选 ,轻量推理部署高效

      轻量高效

      专为大模型推理优化,轻松驾驭32B参数以下模型,显著提升云端推理任务的吞吐能力,实现快速响应与高并发处理

    • 864GB/s 显存带宽 ,中小模型性价比优选

      性价比高

      显著提升数据传输效率,支持快速加载模型参数和处理大规模数据,在处理中小规模模型时具备良好的性能与成本平衡

人工智能平台 PAI 一键部署 通义千问
人工智能平台 PAI 为 AI 研发提供了全链路支持,Model Gallery + PAI-EAS 一键部署通义千问系列大模型 预约 AI 专家服务
Model Gallery + PAI-EAS 一键部署通义千问系列大模型 预约 AI 专家服务

人工智能平台 PAI 部署

提供包含数据标注、模型构建、模型训练、模型部署、推理优化在内的 AI 开发全链路服务。
产品详情
部署步骤
  • 01登录控制台
  • 02点击模型卡片
  • 03一键部署服务
部署说明
用户通过人工智能平台 PAI 的 Model Gallery,无须写代码即可完成模型部署。同时,对于希望自持模型的用户,PAI-DSW 和 PAI-DLC 可支持 Qwen 开源模型的微调训练。
立即购买

PAI 通用节省计划-入门版

¥59/1年

AIGC/大模型适用的模型在线服务平台,将模型一键部署为在线推理服务或AI-Web应用。

立即购买

PAI ArtLab基础版套餐

¥112.98/6个月

AIGC/大模型适用的模型在线服务平台,将模型一键部署为在线推理服务或AI-Web应用。

模型部署

立即部署 Qwen3模型

10.5元/小时起,快速部署、微调

PAI-Model Gallery集成了众多 AI 开源社区中优质的预训练模型,并且基于开源模型支持零代码实现模型训练(微调)、模型压缩、模型评测、模型部署的全部过程,给您带来更快、更高效、更便捷的 AI 应用体验。

一键部署
GPU 云服务器 快速部署 通义千问
GPU 云服务器的高性能并行计算能力,通过 vLLM 模型推理框架快速部署通义千问系列大模型 预约 AI 专家服务
GPU 云服务器 通过 vLLM 模型推理框架快速部署通义千问系列大模型 预约 AI 专家服务

GPU 云服务器部署

在 GPU 云服务器上,使用 vLLM 推理框架快速部署通义千问3 开源版。部署后,您可以通过标准化的 OpenAI 兼容接口调用通义千问3 模型。
产品详情
部署步骤
  • 01登录控制台
  • 02选择模型
  • 03安装运行环境
  • 04部署完成
部署说明
通过 vLLM 模型推理框架部署通义千问3。凭借 GPU 云服务器的高性能并行计算能力,可以大幅加速大型模型的推理过程,尤其适用于处理大规模数据集和高并发请求场景,从而显著提升推理速度与吞吐量。
精选 AI 场景组合购,专享组合折扣价
专为 AI 和大模型而设计,帮助提升 AI 应用开发效率 
活动规则
专为 AI 和大模型而设计,帮助提升 AI 应用开发效率 
活动规则
AI 打造专属企业风格海报
AI 加速计算与存储
云端护航 DeepSeek 畅享
服务海量客户,加速万千企业 AI 转型
海艺 AI
任意门
妙鸭相机
海艺 AI
任意门
妙鸭相机
海艺 AI 是一家在 AIGC 垂直领域的行业先锋,专注于生成式AI的研发和应用,核心产品 SeaArt 是一款高效易用且用户友好的人工智能绘画工具。了解详情
海艺 AI 是一家在 AIGC 垂直领域的行业先锋,专注于生成式AI的研发和应用,核心产品 SeaArt 是一款高效易用且用户友好的人工智能绘画工具。了解详情
更多高性价比且算力充裕的 AI 产品,开启 AI 新时代
阿里云百炼提供开箱即用的大模型调用,可免费领取千万 tokens,更有超值 AI 算力实现大模型训推 
活动规则
阿里云百炼提供开箱即用的大模型调用 
活动规则

一键调用的大模型

先进高性价比的 AI 算力

通义大模型,性能全面领先,超7000万 tokens 免费体验
立即查看