文章 2025-04-09 来自:开发者社区

MindIE LLM场景快速上手实验

MindIE是昇腾自研推理框架,本实验手册可指导小白用户快速掌握MindIE在LLM(large language model)场景的基本功能,包括:大模型推理功能测试、大模型性能测试、大模型精度测试、服务化推理部署、benchmark测试等。 1 实验准备 1.1 软硬件环境 本实验使用的设备是800I A2服务器,已经参考官网文档(安装驱动和固件-MindIE安装指南...

MindIE LLM场景快速上手实验
文章 2024-05-30 来自:开发者社区

Web LLM 实验:间接注入

前言 Web LLM 各组织都在急于集成大型语言模型 (LLM),以改善其在线客户体验。这使他们面临 Web LLM ,这些利用模型对无法直接访问的数据、API 或用户信息的访问权限。例如,可能: 检索 LLM 有权访问的数据。此类数据的常见来源包括 LLM 的提示、训练集以及提供给模型的 API。 通过 API 触发有害操作。例如,攻击者可以使用...

Web LLM 实验:间接注入
文章 2024-05-30 来自:开发者社区

Web LLM 实验:利用 LLM 中不安全的输出处理

前言 Web LLM 各组织都在急于集成大型语言模型 (LLM),以改善其在线客户体验。这使他们面临 Web LLM ,这些攻击利用模型对无法直接访问的数据、API 或用户信息的访问权限。例如,可能: 检索 LLM 有权访问的数据。此类数据的常见来源包括 LLM 的提示、训练集以及提供给模型的 API。 通过 API 触发有害操作。例如,攻击者可以...

Web LLM 实验:利用 LLM 中不安全的输出处理
文章 2024-05-30 来自:开发者社区

Web LLM 实验:利用 LLM API 实现命令注入

前言 Web LLM 各组织都在急于集成大型语言模型 (LLM),以改善其在线客户体验。这使他们面临 Web LLM 攻击,这些攻击利用模型对无法直接访问的数据、API 或用户信息的访问权限。例如,可能: 检索 LLM 有权访问的数据。此类数据的常见来源包括 LLM 的提示、训练集以及提供给模型的 API。 通过 API 触发有害操作。例如,攻击者...

Web LLM 实验:利用 LLM API 实现命令注入
文章 2024-05-30 来自:开发者社区

Web LLM 实验:利用 LLM API 实现 SQL 注入

前言 Web LLM 各组织都在急于集成大型语言模型 (LLM),以改善其在线客户体验。这使他们面临 Web LLM ,这些利用模型对无法直接访问的数据、API 或用户信息的访问权限。例如,攻击可能: 检索 LLM 有权访问的数据。此类数据的常见来源包括 LLM 的提示、训练集以及提供给模型的 API。 通过 API 触发有害操作。例如,攻击者可以...

Web LLM 实验:利用 LLM API 实现 SQL 注入
文章 2023-11-06 来自:开发者社区

基于通用LLM的一次测试用例自动生成的实验

基于通用LLM的一次测试用例自动生成的实验 选择很多,最后选择了讯飞的星火做本次实验,原因还是因为讯飞的LLM的API是有免费额度的,案例代码相对比较成熟易学易用 1 LLM和基于LLM的应用 最近这段实际LLM已经变成了一个炙手可热的词汇,现在任何技术不了到LLM都感觉好像没有彻底聊完一样。那么LLM到底是什么呢?其实LLM(大语言模型)是一种语言模型,由具有许多参数的人工神经...

基于通用LLM的一次测试用例自动生成的实验
文章 2023-11-06 来自:开发者社区

通过Chain Prompts方式将LLM的能力引入测试平台:正交实验测试用例生成

通过Chain Prompts方式将LLM的能力引入测试平台:正交实验测试用例生成Chain PromptsChain Prompts是指在一个对话或文本生成任务中,将前一个提示的输出作为下一个提示的输入,形成一个连续的链条。这种方法常常用于创建连贯的、有上下文关联的文本。在对话系统中,这种方法可以模拟真实对话中的连续性,使得生成的回复更加自然和流畅。利用Chain Prompts,可以将LLM....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

{"cardStyle":"productCardStyle","productCode":"kvstore","productCardInfo":{"productTitle":"Tair KVCache","productDescription":"阿里云数据库 Tair KVCache 为 LLM 推理提供分布式动态分级缓存服务,通过软硬协同设计实现智能路由和缓存资源的最优管理,优化 GPU 服务器资源利用率的同时提升 LLM 推理的速度和吞吐性能,实现降本增效。","productContentLink":"https://www.aliyun.com/product/kvcache","isDisplayProductIcon":true,"productButton1":{"productButtonText":"了解详情","productButtonLink":"https://www.aliyun.com/product/kvcache"},"productButton2":{"productButtonText":"立即咨询","productButtonLink":"https://page.aliyun.com/form/act176452088/index.htm?spm=5176.30063692.J__Z58Z6CX7MY__Ll8p1ZOR.1.66a55ac316TezL"},"productButton3":{"productButtonText":"","productButtonLink":""},"productPromotionInfoBlock":[{"$id":"0","productPromotionGroupingTitle":"最新活动","productPromotionInfoFirstText":"","productPromotionInfoFirstLink":"","productPromotionInfoSecondText":"邀请试用","productPromotionInfoSecondLink":"https://page.aliyun.com/form/act176452088/index.htm?spm=5176.30063692.J__Z58Z6CX7MY__Ll8p1ZOR.3.66a55ac316TezL"},{"$id":"1","productPromotionGroupingTitle":"快速入门","productPromotionInfoFirstText":"Tair KVCache 产品介绍","productPromotionInfoFirstLink":"https://help.aliyun.com/zh/redis/product-overview/tair-kvcache?spm=5176.30063692.J_zhz1C6uKKPBvN1fur6xih.1.b87b5ac3Iu5Wen#ef4997358dmto","productPromotionInfoSecondText":"","productPromotionInfoSecondLink":""},{"$id":"2","productPromotionGroupingTitle":"产品动态","productPromotionInfoFirstText":"","productPromotionInfoFirstLink":"","productPromotionInfoSecondText":"Tair KVCache 推理缓存解决方案","productPromotionInfoSecondLink":"https://developer.aliyun.com/article/1658082"},{"$id":"3","productPromotionGroupingTitle":"产品推荐","productPromotionInfoFirstText":"云数据库 Tair(兼容 Redis®*)","productPromotionInfoFirstLink":"https://www.aliyun.com/product/tair","productPromotionInfoSecondText":"","productPromotionInfoSecondLink":""}],"isOfficialLogo":false},"activityCardInfo":{"activityTitle":"","activityDescription":"","cardContentBackgroundMode":"LightMode","activityContentBackgroundImageLink":"","activityCardBottomInfoSelect":"activityPromotionInfoBlock"}}