阿里云文档 2026-01-14

调用ListModelCategory接口查询模型类别-人工智能平台 PAI-阿里云

查询模型类别列表。

文章 2025-04-29 来自:开发者社区

Qwen3 全尺寸模型支持通过阿里云PAI-ModelGallery 一键部署

一、模型简介 Qwen3 是 Qwen 系列最新一代的大语言模型,提供了一系列密集(Dense)和混合专家(MOE)模型。基于广泛的训练,Qwen3 在推理、指令跟随、Agent 能力和多语言支持方面取得了突破性的进展,具有以下关键特性: 独特支持在思考模式(用于复杂逻辑推理、数学和编码)和 非思考模式(用于高效通用对话)之间无缝切换,确保在各种场景下的最佳性能。 ...

Qwen3 全尺寸模型支持通过阿里云PAI-ModelGallery 一键部署
文章 2025-03-07 来自:开发者社区

云上一键部署通义千问 QwQ-32B 模型,阿里云 PAI 最佳实践

QwQ-32B 模型简介 3月6日,阿里云发布并开源了全新的推理模型通义千问QwQ-32B。通过大规模强化学习,千问QWQ-32B在数学、代码及通用能力上实现质的飞跃,整体性能比肩Deepseek-R1。在保持强劲性能的同时,千问QwQ-32B还大幅降低了部署使用成本。 在一系列权威基准测试中,千问QwQ-32B模型表现异常出色,几乎完全超越了OpenAI-o1-mini,比肩最...

云上一键部署通义千问 QwQ-32B 模型,阿里云 PAI 最佳实践
文章 2025-01-10 来自:开发者社区

云上一键部署 DeepSeek-V3 模型,阿里云 PAI-Model Gallery 最佳实践

1. DeepSeek-V3 模型简介 DeepSeek-V3 是 DeepSeek 发布的 MoE(Mixture-of-Experts)大语言模型,总参数量为6710亿,每个 token 激活的参数量为370亿。为了实现高效的推理和成本效益的训练,DeepSeek-V3 采用了 MLA(Multi-head ...

云上一键部署 DeepSeek-V3 模型,阿里云 PAI-Model Gallery 最佳实践
文章 2024-01-11 来自:开发者社区

Mixtral 8X7B MoE模型在阿里云PAI平台的微调部署实践

1.引言Mixtral 8x7B 是Mixtral AI最新发布的大语言模型,在许多基准测试上表现优于 GPT-3.5,是当前最为先进的开源大语言模型之一。阿里云人工智能平台PAI是面向开发者和企业的机器学习/深度学习平台,提供了对于 Mixtral 8x7B 模型的全面支持,开发者和企业用户可以基于 PAI-快速开始(PAI-QuickStart)轻松完成Mixtral 8x7B 模型的微调和....

Mixtral 8X7B MoE模型在阿里云PAI平台的微调部署实践
文章 2024-01-11 来自:开发者社区

Mixtral 8X7B MoE模型基于阿里云人工智能平台PAI实践合集

1.背景Mixtral 8x7B大模型是Mixtral AI推出的基于decoder-only架构的稀疏专家混合网络(Mixture-Of-Experts,MOE)开源大语言模型。这一模型具有46.7B的总参数量,对于每个token,路由器网络选择八组专家网络中的两组进行处理,并且将其输出累加组合,在增加模型参数总量的同时,优化了模型推理的成本。在大多数基准测试中,Mixtral 8x7B模型与....

Mixtral 8X7B MoE模型基于阿里云人工智能平台PAI实践合集

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云机器学习平台PAI

阿里云机器学习PAI(Platform of Artificial Intelligence)面向企业及开发者,提供轻量化、高性价比的云原生机器学习平台,涵盖PAI-iTAG智能标注平台、PAI-Designer(原Studio)可视化建模平台、PAI-DSW云原生交互式建模平台、PAI-DLC云原生AI基础平台、PAI-EAS云原生弹性推理服务平台,支持千亿特征、万亿样本规模加速训练,百余落地场景,全面提升工程效率。

+关注