阿里云文档 2025-01-24

创建GPU实例时自动安装或加载Tesla驱动

针对通用计算场景或图形加速场景,您可以在创建GPU实例时自动安装或加载Tesla驱动,也可以在创建GPU实例后手动安装Tesla驱动,配备了驱动的GPU实例才能提供更好的计算性能和图形渲染能力。本文介绍如何在创建GPU实例时自动安装或加载Tesla驱动。

阿里云文档 2024-12-27

使用TensorRT-LLM构建模型的推理环境

在GPU的实例上安装推理引擎TensorRT-LLM,可以帮助您快速且方便地构建大语言模型(例如Llama模型、ChatGLM模型、百川Baichuan模型或通义千问Qwen模型)的推理环境,主要应用在智能对话系统、文本分析等自然语言处理业务场景。本文为您介绍如何在GPU实例上安装和使用TensorRT-LLM来快速构建大语言模型的高性能推理优化功能。

阿里云文档 2024-12-23

安装并使用DeepGPU-LLM进行大语言模型的推理服务

在处理大语言模型(LLM)任务中,您可以根据实际业务部署情况,选择在不同环境(例如GPU云服务器环境或Docker环境)下安装推理引擎DeepGPU-LLM,然后通过使用DeepGPU-LLM实现大语言模型(例如Llama模型、ChatGLM模型、百川Baichuan模型或通义千问Qwen模型)在GPU上的高性能推理优化功能。

阿里云文档 2024-08-23

更换GPU实例的操作系统时如何取消自动安装GPU(Tesla)驱动功能

创建GPU实例时,选择镜像后并同时选择了安装GPU驱动选项,则创建实例后会自动安装GPU(Tesla)驱动。如果因某种原因(例如当前使用的操作系统不能满足业务需求),您需要更换该GPU实例的操作系统,则同时也需要取消自动安装Tesla驱动功能,单独手动安装适配新操作系统的Tesla驱动,确保正常使用GPU实例的高性能特性。

阿里云文档 2024-08-20

通过YUM方式快速安装NVIDIA Tesla驱动(Alibaba Cloud Linux 3)

针对Alibaba Cloud Linux 3系统的GPU计算型实例,如果创建实例时未自动安装NVIDIA Tesla驱动,通过手动方式安装该驱动时,需要您先下载软件包,然后编译安装并配置CUDA等组件,操作比较繁琐,而采用YUM方式可以快速安装NVIDIA Tesla驱动及相关组件(例如CUDA、PyTorch以及TensorFlow等),可以更快更好地发挥GPU的高性能计算能力,或提供更流畅的...

文章 2023-08-03 来自:开发者社区

系统类配置(五)【ubuntu14.04下安装cuda8+nvidia-410.78+cudnn6.0 +tensorflow-gpu==1.4.0。】

1.安装nviidia-410.78驱动。参考链接。2.验证开发环境参考链接。3.下载cuda8。下载链接。我们按照上述方案进行选择,之后选择下载Base Installer。下载完成之后的话,我们会在ubuntu的下载目录下找到。下载完成之后我习惯将其放入home文件夹中。采用MD5检验序号,看看序号是否会对得上:禁用nouveau驱动没有输出表示禁用成功,如果没有禁用成功的话,参考最开始分享....

系统类配置(五)【ubuntu14.04下安装cuda8+nvidia-410.78+cudnn6.0 +tensorflow-gpu==1.4.0。】
文章 2023-07-13 来自:开发者社区

Linux和Windows系统下安装深度学习框架所需支持:Anaconda、Paddlepaddle、Paddlenlp、pytorch,含GPU、CPU版本详细安装过程

Linux和Windows系统下安装深度学习框架所需支持:Anaconda、Paddlepaddle、Paddlenlp、pytorch,含GPU、CPU版本详细安装过程 1.下载 Anaconda 的安装包 Anaconda安装:Anaconda是一个开源的Python发行版本,其包含了conda、Python等180多个科学包及其依赖项。使用Anaconda可以通过创建多个独立的Pyth...

Linux和Windows系统下安装深度学习框架所需支持:Anaconda、Paddlepaddle、Paddlenlp、pytorch,含GPU、CPU版本详细安装过程

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

云服务器ECS

做技术先进、性能优异、稳如磐石的弹性计算!

+关注