自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

topfine的博客

AI学习

  • 博客(22)
  • 资源 (7)
  • 收藏
  • 关注

原创 LlamaIndex中应用自定义提示词提升回答质量

在 LlamaIndex 中,get_response_synthesizer 允许你自定义生成回答的方式,包括传入自定义提示词(prompt)。可以通过 response_mode 和 text_qa_template 等参数来控制回答的生逻辑。在 LlamaIndex 中优化提示词(Prompt Template)可以显著提升回答质量。

2025-05-18 23:08:16 987

原创 麒麟环境下Selenium的使用

本文主要介绍了在内网环境下、服务主机无域名的情况下,为了抓取内网其他系统网页数据,安装使用Selenium的方法。并详细介绍了离线安装python依赖包的方法。

2025-05-14 22:08:42 1297

原创 配置Nginx启用Https

本文主要介绍了在内网环境下、服务主机无域名的情况下,配置Nginx启用HTTPS的方法。服务主机操作系统为麒麟V10 SP3。

2025-05-13 21:47:48 1004

原创 WSL释放空间

在 WSL (Windows Subsystem for Linux) 中,Linux 发行版可能会占用越来越多的磁盘空间,即使删除文件后,空间也可能不会自动释放。这是因为 WSL 使用虚拟硬盘(VHDX 文件)来存储 Linux 文件系统,而 Windows 不会自动回收未使用的空间。下面介绍几种释放 WSL 磁盘空间的方法。

2025-04-28 23:08:08 817

原创 离线部署Ollama

怎样在内网中离线部署Ollama的方法如何离线加载模型内网上不了Internet,依据实践整理了离线部署Ollama的方法

2025-04-26 01:30:41 1027

原创 .NET、java、python语言连接SAP系统的方法

可用哪些技术与Sap系统连接怎样用Rfc技术连接SAP

2025-04-23 23:49:43 1053

原创 麒麟系统网络连接问题排查

麒麟系统网络连接有红色叹号,不能上外网 了。 首先执行 ping -c4 8.8.8.8 和 nc -zv 8.8.8.8 53,如果 都能正常通信,说明你的网络可以访问公共 DNS 服务器(如 Google DNS 8.8.8.8),但域名解析仍然失败,可能是 DNS 解析配置问题 或 系统 DNS 缓存/代理干扰。以下是进一步的排查和解决方案

2025-04-22 22:47:38 1381

原创 如何远程访问家中服务器-FRP内网穿透详细

如何远程访问家中服务器 FRP自动运行的方法

2025-04-21 23:50:05 1429

原创 Win10 C盘空间不足清理方法

轻松释放Win10 C盘空间

2025-04-20 08:05:05 1134

原创 向量数据库ChromaDB简介

什么是ChromaDB 相比传统数据库,有哪些独特优势 适合哪些应用场景 安装及使用案例 怎样监控性能

2025-04-19 01:40:09 1351

原创 浅谈情绪对话机器人系列(二)模型选型

如何为任务选择合适的模型训练模型的方法

2025-04-18 00:30:49 1166

原创 浅谈大模型评估

大模型常用的评估方法 有哪些重要的评估指标 有哪些主流的开源评估数据 怎样使用Opencompass进行评估

2025-04-15 00:01:22 927

原创 浅谈情绪对话机器人系列(一)构建微调数据集

情绪对话机器人,如何构建自己的训练数据集构建文本对话的步骤

2025-04-13 20:14:19 1015

原创 Ollama部署大模型详解

Ollama的优势在哪里? 如何启动Ollama 配置适合自己Ollama 加载本地模型的方法

2025-04-11 00:59:18 1236

原创 RAG & LLm大模型构建本地知识库

RAG与LLM的优势如何构建垂域(向量)知识库文本分块的技巧构建一套完整 RAG 系统的步骤

2025-04-05 00:57:23 1101

原创 大模型微调系列(三)QLoRA微调

认识常用的指令监督微调数据集如何构建自定义数据集为什么是QLoRA学会使用LLamFactory 进行QLoRA微调大模型

2025-03-30 17:23:07 1289

原创 大模型微调系列(四)自定义对话模板

介绍了自定义对话模板的方法

2025-03-29 22:45:01 876

原创 大模型微调系列(五)XTuner应用

1.安装XTuner2.快速上手微调大模型

2025-03-29 16:26:20 895

原创 大模型微调系列(二) 自定义数据集

认识alpaca指令监督微调数据集如何构建自定义数据集学会使用LLamFactory 进行LoRA微调大模型掌握大模型转换为GGUF的方法轻松使用 ollama 运行大模型

2025-03-26 23:29:04 745

原创 大模型微调系列(一) LoRA

大模型微调LoRA介绍,使用LLaMA-Factory微调了本地模型的自我认知

2025-03-26 01:28:25 791

原创 本地私有化部署大模型

本文主要介绍了大模下载、加载、部署、访问方法。

2025-03-23 23:30:59 1145

原创 AI模型环境准备

如 conda create --prefix /mnt/app/env/webui python=3.10,在/mnt/app/env/webui目录下创建python3.10虚拟环境。配置 Miniconda 启动时不自动激活 base 环境:conda config --set auto_activate_base false。列出可用虚拟系统 执行命令 wsl --list 启动 wsl -d Ubuntu-22.04。删除虚拟环境:conda remove -n myenv --all。

2025-03-23 23:24:29 483

AI大模型环境部署准备

AI模型环境准备 1. 为什么学习AI 兴趣,兴趣是前进的动力,兴趣是最好的老师!

2025-03-23

linux命令大全

linux命令大全,方便大家查找linux的相关命令,欢迎下载使用了

2018-06-09

Sap jco linux64运行环境包

Sap jco linux64运行环境包,包含文件如下: sapjco.jar 放在开发java运行库目录 lib下 librfccm.so libsapjcorfc.so Sap动态运行库放在 /usr/lib64目录下 libstdc++.so.5 libstdc++.so.5.0.7 libstdc++.so.6 libstdc++.so.6.0 C++动态链接库放在 /usr/lib64目录下

2017-09-07

sap jco 包

由于项目的需要整理了sap jco 包,含jco_for_+linux(附说明)、sapjco-ntintel-2.1.8、sapjco-linuxx86_64-2.1.10、sapjco30P_7-10005324

2015-12-31

SAP_BW学习笔记

根据网页整理得到,主要介绍BW最基本的内容。

2010-04-02

Visual Studio 2008试用解密方法

Visual Studio 2008 专业版是一组综合工具,可帮助开发人员更快地实现构想。Visual Studio 2008 专业版可为面向 Web(包括 ASP.NET AJAX)、Windows Vista、Windows Server 2008、2007 Microsoft Office system、SQL Server 2008 和 Windows Mobile 设备的项目开发提供支持。 解密方法

2009-11-12

Team Foundation Server 管理员手册

Team Foundation Server 管理员负责安装和维护 Team Foundation Server,并管理其他角色的权限和安全。Team Foundation Server 管理员还可以自定义过程模板。 Team Foundation Server 管理员必须是以下组的成员。

2009-11-12

log4net-1.2.10.zip(含源码)

log4net-1.2.10.zip(含源码)

2009-09-25

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除