在ACK中使用KTransformers部署DeepSeek-R1模型
KTransformers框架实现了多种LLM推理优化,进一步减少了推理阶段的显存占用,从而提高推理性能和降低GPU资源成本。本文介绍如何在阿里云容器服务 Kubernetes 版中通过KTransformers实现高效部署671B参数的DeepSeek-R1-Q4_K_M量化模型推理服务。
安全责任共担模型
安全合规在ACK集群托管架构下遵循责任共担原则,其中容器服务ACK负责集群控制面组件(包括Kubernetes控制平面组件和etcd)以及集群服务相关阿里云基础设施的默认安全性。本文介绍阿里云容器服务ACK的安全责任共担模型。
在ACK中快速体验大语言模型
部署模型时,您可以根据自身需求选择模型来源以及部署模型的平台。本文以Qwen1.5-4B-Chat模型、GPU类型为T4卡为例,演示如何在ACK中快速部署ModelScope模型、HuggingFace模型及本地模型。
使用Arena进行模型微调和模型管理
本文以大语言模型Qwen-7B-Chat为例,并结合Arena工具,演示如何在提交模型微调作业的同时,对模型微调作业所产生的模型进行管理。
基于KServe使用Fluid实现模型加速
随着技术的发展,AI应用的模型数据越来越大,但是通过存储服务(如OSS、NAS等)拉取这些大文件时可能会出现长时间的延迟和冷启动问题。您可以利用Fluid显著提升模型加载速度,从而优化推理服务的性能,特别是对于基于KServe的推理服务而言。本文以Qwen-7B-Chat-Int8模型、GPU类型为V100卡为例,演示如何在KServe中使用Fluid实现模型加速。
Kubernetes容器网络模型解析
云原生(Cloud Native)可以认为是一套技术体系或生态,它包含2大部分:云(Cloud)和原生(Native)。云(Cloud)表示应用程序位于云中,而不是传统的数据中心;原生(Native)表示应用程序从设计之初即考虑到云的环境,原生为云而设计,在云上以最佳状态运行,充分利用和发挥云平台的弹性和分布式优势。 ...

Kubernetes 容器网络模型和典型实现
导读:前文 Kubernetes 中的 ClusterIP、NodePort、LoadBalancer、Ingress 服务访问方式比较中总结了服务接入访问的主要方式,以及它们之间隐含关系。有了这些概念基础后,K8s 应用开发和服务部署就容易很多了,但 Under the hood 服务访问究竟是如何实现的呢?这篇内容就 Kubernetes 的网络模型和典型的容器网络实现,特别是阿里云自己的容....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。
容器服务Kubernetes版您可能感兴趣
- 容器服务Kubernetes版profiling
- 容器服务Kubernetes版ai
- 容器服务Kubernetes版部署
- 容器服务Kubernetes版serverless
- 容器服务Kubernetes版调度
- 容器服务Kubernetes版大模型
- 容器服务Kubernetes版推理服务
- 容器服务Kubernetes版gateway
- 容器服务Kubernetes版优化
- 容器服务Kubernetes版实践
- 容器服务Kubernetes版集群
- 容器服务Kubernetes版容器
- 容器服务Kubernetes版pod
- 容器服务Kubernetes版应用
- 容器服务Kubernetes版云原生
- 容器服务Kubernetes版服务
- 容器服务Kubernetes版阿里云
- 容器服务Kubernetes版 Pod
- 容器服务Kubernetes版docker
- 容器服务Kubernetes版k8s
- 容器服务Kubernetes版 Docker
- 容器服务Kubernetes版kubernetes
- 容器服务Kubernetes版节点
- 容器服务Kubernetes版安装
- 容器服务Kubernetes版 K8S
- 容器服务Kubernetes版配置
- 容器服务Kubernetes版架构
- 容器服务Kubernetes版网络
- 容器服务Kubernetes版资源
- 容器服务Kubernetes版 kubernetes