文章 2024-10-22 来自:开发者社区

前端大模型入门(四):不同文本分割器对比和效果展示-教你如何根据场景选择合适的长文本分割方式

在前端开发大模型应用的时候,处理和分割文本是常见需求,毕竟现在的大模型输入输出都有限-嵌入等也是有token限制的,合理的文本分割能显著提高模型的表现。Langchain提供了多种文本分割方式,本文将对比五种文本分割器:CharacterTextSplitter、RecursiveCharacterTextSplitter、T...

文章 2024-10-22 来自:开发者社区

前端大模型入门(三):编码(Tokenizer)和嵌入(Embedding)解析 - llm的输入

 LLM的核心是通过对语言进行建模来生成自然语言输出或理解输入,两个重要的概念在其中发挥关键作用:Tokenizer 和 Embedding。本篇文章将对这两个概念进行入门级介绍,并提供了针对前端的js示例代码,帮助读者理解它们的基本原理/作用和如何使用。 1. 什么是Tokenizer? Tokenizer 是一种将自然语言文本转化为模型可以处理的数字表示的工具。自然...

前端大模型入门(三):编码(Tokenizer)和嵌入(Embedding)解析 - llm的输入
文章 2024-10-22 来自:开发者社区

前端大模型入门(二):掌握langchain的核心Runnable接口

​ Langchain.js 是 Langchain 框架的 JavaScript 版本,专为前端和后端 JavaScript 环境设计。在最新的 v0.3 版本中,引入了一个强大的接口——Runnable。该接口提供了一个灵活的执行方式,可以与不同类型的模型和逻辑无缝集成。 本文将重点讲解 Runnable 接口,并通过实现一个自定义的 ...

前端大模型入门(二):掌握langchain的核心Runnable接口
文章 2024-10-22 来自:开发者社区

前端大模型入门(一):用 js+langchain 构建基于 LLM 的应用

利用大模型开发应用时,我们有时候要第一时间给出用户相应,也就是使用流式调用的方式。这时候前端处理响应,就需要特殊的处理:利用处理可读流的方式从响应中读取数据。 随着大语言模型(LLM)在各种应用中的广泛使用,如何高效地从服务器获取模型生成的长文本响应成为一个重要问题。传统的HTTP请求模式通常等待...

前端大模型入门(一):用 js+langchain 构建基于 LLM 的应用
文章 2024-10-11 来自:开发者社区

前端大模型入门:Transformer.js 和 Xenova-引领浏览器端的机器学习变革

除了调用别人的api接口使用transformer技术,你是否想过将大模型在浏览器中运行呢?尤其是WebGPU的出现,性能比WebGL高不少,很多小任务真的不再需要在一个中心运行了。 不少同学买课学python了,但我还是在坚持用js尝试,相信一切都可以用js实现的,下面就介绍下我是如何实现的吧~~ 随着人工智能和深度学习的普及,越来越多的应用开始借助强大的...

前端大模型入门:Transformer.js 和 Xenova-引领浏览器端的机器学习变革

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里巴巴终端技术

阿里巴巴终端技术最新内容汇聚在此,由阿里巴巴终端委员会官方运营。阿里巴巴终端委员会是阿里集团面向前端、客户端的虚拟技术组织。我们的愿景是着眼用户体验前沿、技术创新引领业界,将面向未来,制定技术策略和目标并落地执行,推动终端技术发展,帮助工程师成长,打造顶级的终端体验。同时我们运营着阿里巴巴终端域的官方公众号:阿里巴巴终端技术,欢迎关注。

+关注