自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(27)
  • 收藏
  • 关注

原创 【无标题】

wsl_update_x64ubuntu18.04wsl --updatewsl --shutdownsudo apt update && sudo apt upgrade -ysudo apt install ubuntu-desktop

2024-08-14 21:14:55 95

原创 maxkb docker

http://host.docker.internal:11434

2024-08-12 16:10:35 105

原创 jupyter notebook

cmd pip install jupyter -i https://pypi.tuna.tsinghua.edu.cn/simple

2024-07-31 10:02:50 159

原创 python调用ollama

print(ollama("中文回答什么是人工智能"))利用langchain调用;

2024-07-31 10:02:29 332

原创 llama-factory微调大模型

python3.10webui.py。

2024-07-25 17:38:27 116

原创 大模型平台

主要包括:Ollama,LM Studio,Ray Serve,GPT4ALL,vLLM,HuggingFace TGI,OpenLLM,LMDeploy, FastChat, LangChain。其中最方便的人人都可以部署的三种傻瓜方式包括Ollama,GPT4ALL和LM Studio,都支持window,MAC和linux操作系统,搜索官网直接下载安装应用即可。主要包括:llama.cpp,koboldcpp,PowerInfer,chatglm.cpp,qwen.cpp。目前主要是C或C++语言。

2024-07-13 20:02:53 357 1

原创 安装hyper-V

pushd "%~dp0"dir /b %SystemRoot%\servicing\Packages\*Hyper-V*.mum >hyper-v.txtfor /f %%i in ('findstr /i . hyper-v.txt 2^>nul') do dism /online /norestart /add-package:"%SystemRoot%\servicing\Packages\%%i"del hyper-v.txtDism /online /enable-feature /fe

2024-07-13 08:51:26 147

原创 docker安装open-webui

docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

2024-07-12 16:21:43 432

原创 windows安装docker

https://downloads.digitaltrends.com/docker-desktop/windowshttps://wslstorestorage.blob.core.windows.net/wslblob/wsl_update_x64.msi

2024-07-12 15:20:05 208

原创 docker 安装maxkb

docker安装maxkb命令。

2024-07-11 16:40:45 245

原创 利用ollama实现本地大模型RAG智能回答

配置HuggingFaceEmbeddings嵌入模型,这里我们用BAAI/bge-small-zh-v1.5。response = query_engine.query("今天星期几")# 配置ollama的LLM模型,这里我们用gemma:7b。# 将data文件夹下的文档建立索引。# 创建问答引擎,并提一个简单的问题。

2024-07-05 17:47:05 377

原创 【无标题】

访问Ollama官网(ollama.com)ollama run gemma。2、输入:ollma pull gemma。

2024-07-05 16:23:00 94

原创 gemma-2b大模型微调

bnb_4bit_quant_type="nf4", # 指定用于量化的数据类型。bnb_4bit_compute_dtype=torch.bfloat16 # 用于线性层计算的数据类型。output_dir="./outputs/gemma-new", # 微调后模型的输出路径。task_type="CAUSAL_LM", # 因果语言模型。model_id = "gemma-2b" # 模型的本地路径。load_in_4bit=True, # 启用4位加载。r=8, # LoRA中的秩。

2024-07-05 15:38:46 373

原创 python txt转excel转csv,增加标题栏

header = ['w1', 'w2'] # 根据实际列数和列名修改。# 读取txt文件,以空格作为分隔符。# 将数据写入Excel文件。# 将数据保存为CSV文件。

2024-07-05 09:49:03 173

原创 python txt转excel转csv文件

读取txt文件,以空格作为分隔符。# 将数据写入Excel文件。# 将数据保存为CSV文件。

2024-07-05 09:46:02 120

原创 whl网址

https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple/Simple Index https://download.pytorch.org/whl

2024-04-26 19:49:33 269

原创 python 分类文件存档

print('音频:%s 的预测结果标签为:%d' % (path, label))assert len(wav_output) >= 8000, "有效音频小于0.5s"# 要预测的音频文件。

2024-04-25 18:41:28 405

原创 python魔搭

print('生成结果' + result[OutputKeys.TEXT])print('输入文本:' + input + '\n')input = '以关键词“xx”写一副春联'

2024-04-23 19:35:45 146

原创 【无标题python bit】

response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history)response, history = model.chat(tokenizer, "你好", history=[])

2024-04-23 18:47:54 122

原创 torch与torchaudio关系

torch1.13.1就对应0.13.1。

2024-04-19 20:05:53 213

原创 python文件改名

file_extension = 'wav' # 声音文件的扩展名,例如:'wav', 'mp3'等。# 为文件分配编号并复制到新的文件夹。# 获取文件夹内的所有声音文件。

2024-04-19 15:20:20 299

原创 pytorch与torchvison版本对应关系

https://download.pytorch.org/whl/

2024-04-19 09:26:07 82

原创 python charm

model_path = "E:\p2\chatglm3-6b\ZhipuAI" #替换为您下载的ChatGLM3-6B 模型目录。#prompt = CHATGLM_V3_PROMPT_FORMAT.format(prompt="您是谁?# 载入ChatGLM3-6B模型并实现INT4量化。text=input("请输入:")# 请指定chatglm3-6b的本地路径。# 制作ChatGLM3格式提示词。# 执行推理计算,生成Tokens。# 对生成Tokens解码并显示。# 载入tokenizer。

2024-04-18 22:00:59 268

原创 python socket客户端

接收服务器返回的数据。# 关闭socket连接。# 创建一个socket对象。# 发送数据到服务器。

2024-04-16 18:32:22 385

原创 python socket服务端

result = client.read_holding_registers(0, 2, unit=1) # unit参数指定从站地址,如果只有一个从站可以省略此参数。client.write_register(0, 1234, unit=1) # unit参数指定从站地址,如果只有一个从站可以省略此参数。client = ModbusTcpClient('127.0.0.1', port=502) # 连接到本地地址,端口默认为502。# 读取保持寄存器的值,例如从地址0开始读取2个寄存器。

2024-04-16 18:31:50 399

原创 python串口通信

ser = serial.Serial('COM3', 9600, timeout=1) # 选择串口号(如COM3),波特率(如9600),超时时间(如1秒)ser.write(b'Hello, World!') # 发送字节串。data = ser.readline() # 读取一行数据。

2024-04-16 17:39:02 464

原创 python去重

'':

2024-04-16 11:36:39 279

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除