LLMs应用笔记
文章平均质量分 94
余生H
I AM A I,身上的刺蜕了,只想静静欣赏世界的美。前端、Nodejs后端、容器化云原生、LLMs、CV
展开
-
前端大模型入门:使用Transformers.js手搓纯网页版RAG(二)- qwen1.5-0.5B - 纯前端不调接口
书接上文,本文完了RAG的后半部分,在浏览器运行qwen1.5-0.5B实现了增强搜索全流程。但受限于浏览器和模型性能,仅适合于研究、离线和高隐私场景,但对前端小伙伴来说大模型也不是那么遥不可及了,附带全部代码,动手试试吧!原创 2024-09-28 11:07:50 · 354 阅读 · 0 评论 -
前端大模型入门:使用Transformers.js实现纯网页版RAG(一)
我将教你如何构建一个运行在浏览器的RAG系统,本文先介绍前部分-增强搜索的实现原理,记得参考代码跑一下哈原创 2024-09-27 18:12:54 · 862 阅读 · 0 评论 -
前端大模型入门:Transformer.js 和 Xenova-引领浏览器端的机器学习变革
通过介绍Transformer.js 和 Xenova系列模型,学会如何在网页中运行大模型吧原创 2024-09-27 09:56:57 · 882 阅读 · 0 评论 -
最新llama3.2小参数版本1B的古董机测试 - 支持128K上下文,表现优异,和移动端更配
Llama3.2新版本推出,很多人都关注它的多模态,但最小的1B却吸引了我的注意力,小小的它,蕴含了不少的威力!或许是移动端大模型应用的一个起点原创 2024-09-26 15:16:55 · 1034 阅读 · 0 评论 -
前端大模型入门:编码(Tokenizer)和嵌入(Embedding)解析 - llm的输入
大模型并不能直接理解文字等数据,所以需要利用编码+嵌入.本文利用两个js库来介绍了对比了二者的作用,看完立刻试试吧原创 2024-09-21 21:13:15 · 1375 阅读 · 0 评论 -
两个指令反过来说大模型就理解不了啦?或许该让第三者插足啦 -通过引入中间LLM预处理用户输入以提高多任务处理能力
两个无关的指令,交换顺序,Claude-Sonnet3.5就无法理解,这究竟是它太弱鸡,还是隐藏着其它秘密?这个本文倒没有研究!而是说说我怎么临时解决这个问题的吧原创 2024-09-20 09:03:01 · 855 阅读 · 0 评论