火云牌神
码龄22年
关注
提问 私信
  • 博客:5,721
    社区:11,467
    17,188
    总访问量
  • 10
    原创
  • 79,265
    排名
  • 128
    粉丝
  • 0
    铁粉
  • 学习成就

个人简介:20年以上工作经验,担当过Linux操作系统、嵌入式软件、游戏开发、企业级应用开发等技术工作。 擅长系统性逻辑思维,长于解决复杂的系统性软件问题,编写比较复杂稳定的底层软件系统。 最近几年专注于大数据和人工智能技术领域的研究。

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:马来西亚
  • 目前就职: 北京网非科技有限公司
  • 加入CSDN时间: 2002-06-30
博客简介:

liupras的博客

查看详细资料
  • 原力等级
    成就
    当前等级
    1
    当前总分
    59
    当月
    31
个人成就
  • 获得98次点赞
  • 内容获得0次评论
  • 获得89次收藏
创作历程
  • 12篇
    2024年
成就勋章
TA的专栏
  • AI编程实战
    9篇
  • 开发工具
    1篇
  • AI大模型
    1篇
兴趣领域 设置
  • 大数据
    数据仓库
  • 前端
    vue.js
  • 人工智能
    tensorflow
创作活动更多

HarmonyOS开发者社区有奖征文来啦!

用文字记录下您与HarmonyOS的故事。参与活动,还有机会赢奖,快来加入我们吧!

0人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

基于FastAPI实现简单的微服务API网关

本文阐述了基于FastAPI实现一个API网关的详细步骤。这样未来可以不断的在服务端像搭积木一样添加各种服务。 我们即将实现下面的简单的微服务架构,目前它只实现了请求转发功能。
原创
发布博客 2024.11.14 ·
411 阅读 ·
8 点赞 ·
0 评论 ·
9 收藏

用FastAPI和langchain做本地大模型的API

本文讲述了如何使用FastAPI和langchain框架,包装本地大模型llama3.1,实现语言翻译功能的API。 相对于Flask,使用FastAPI做接口要简便得多。
原创
发布博客 2024.11.05 ·
625 阅读 ·
17 点赞 ·
0 评论 ·
9 收藏

使用Flask做langchain的API

本文讲述了如何使用一个利用本地大模型llama3.1实现语言翻译功能的API。 它用flask很轻松的将langchian服务开放为API,结合flasgger给文档添加注释并生成playground,并且使用jsonschema做json数据校验,轻松验证接口参数。
原创
发布博客 2024.11.03 ·
825 阅读 ·
24 点赞 ·
0 评论 ·
7 收藏

使用LangServe做本地大模型的API

`LangServe` 是一个 `Python` 包,专门用于将基于 `LangChain` 的程序和链部署为生产就绪的 API。 本文通过一个简单的应用演示`LangServe`如何使用。
原创
发布博客 2024.10.28 ·
379 阅读 ·
5 点赞 ·
0 评论 ·
5 收藏

基于langchian和对话式RAG实现知识问答

本文概述了基于langchian框架和对话式增强生成技术实现知识问答。 具体来说,系统自动记录聊天历史,并把它作为上下文提供给大模型,这样它让大模型产生了“记忆”,可以“理解”和关联上下文,体验更好。
原创
发布博客 2024.10.27 ·
282 阅读 ·
3 点赞 ·
0 评论 ·
8 收藏

基于langchain和本地大模型以及会话式检索增强生成技术实现知识问答

本文讲述了基于langchian框架,使用本地部署的nomic-embed-text模型做嵌入检索、llama3.1做回答内容生成的知识问答系统实例。 通过对比测试使用历史聊天记录和不使用历史聊天记录(即:以往的问题和答案)两种情况,我们可以明显看出来使用历史聊天记录的优点:它让大模型产生了“记忆”,可以“理解”和关联上下文,体验更好。
原创
发布博客 2024.10.09 ·
919 阅读 ·
7 点赞 ·
0 评论 ·
6 收藏

从零搭建基于langchain的本地大模型+本地向量数据库的RAG系统

这是从零开始搭建langchain本地化RAG服务(本地部署的lamma3.1+本地部署的chroma)的保姆级教程
原创
发布博客 2024.10.03 ·
278 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

使用langchain和本地部署的lamma3+chroma做RAG

在做RAG(RAG,Retrieval Augmented Generation,即:增强生成)系统时,经常会遇到数据安全、隐私保护等问题,此时使用本地部署的大模型和本地部署的矢量数据库时很必要的
原创
发布博客 2024.10.03 ·
855 阅读 ·
21 点赞 ·
0 评论 ·
19 收藏

在langchian中使用本地部署的llama3大模型

Ollama是一个工具和框架,主要用于本地部署和使用大语言模型(Large Language Models, LLMs)。它旨在帮助开发者和组织方便地在本地或私有环境中运行和交互这些模型,避免依赖外部API或云端服务,保护隐私并降低成本。langchain可以集成本地化大模型,实现智能问答等各种应用。
原创
发布博客 2024.10.03 ·
332 阅读 ·
5 点赞 ·
0 评论 ·
5 收藏

在Visual Studio Code中配置venv

相比其他环境管理工具,如conda,venv是Python内置的,轻量且容易上手,不需要额外安装和配置,特别适合一般的Python开发工作。 它对项目依赖的管理非常方便。
转载
发布博客 2024.10.03 ·
225 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

大语言模型都能做什么

与一般的AI模型相比,大模型的参数特别多(通常在10亿以上),训练时需要大规模的数据(动辄百万计,往往还需要进行大量的人工标注),可见大模型的训练成本通常比较高昂。
转载
发布博客 2024.09.19 ·
67 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

大模型的最大特色:涌现能力

涌现能力是在模型参数增加到某一临界点后突然出现的,这些能力包括但不限于语言理解能力、生成能力、逻辑推理能力等,而这种能力是小模型所不具备的。 这也是为什么chat GPT出现后让人眼前一亮:和它聊天与真人无异,不像是机器了!这主要应该归功于大模型的涌现能力。
原创
发布博客 2024.09.19 ·
489 阅读 ·
8 点赞 ·
0 评论 ·
5 收藏

Git-2.46.0-64-bit,windows 64位git客户端

发布资源 2024.08.27 ·
zip

Bitwise SSH Client 9.39,免费的SSH客户端

发布资源 2024.08.19 ·
zip

苏米团队账本 V0.51

发布资源 2016.12.21 ·
exe

苏米团队账本

发布资源 2016.11.25 ·
zip

cocos2d-x小游戏小狗快跑源码

发布资源 2016.01.21 ·
zip

自制单选(radiobox)和多选(checkbox)控件

发布资源 2014.06.07 ·
zip

使用Javascript实现遮屏效果

发布资源 2014.05.21 ·
zip

代码面试最常用的10大算法完整版

发布资源 2014.05.20 ·
rar
加载更多