- 博客(27)
- 收藏
- 关注
原创 【无标题】
wsl_update_x64ubuntu18.04wsl --updatewsl --shutdownsudo apt update && sudo apt upgrade -ysudo apt install ubuntu-desktop
2024-08-14 21:14:55 95
原创 jupyter notebook
cmd pip install jupyter -i https://pypi.tuna.tsinghua.edu.cn/simple
2024-07-31 10:02:50 159
原创 大模型平台
主要包括:Ollama,LM Studio,Ray Serve,GPT4ALL,vLLM,HuggingFace TGI,OpenLLM,LMDeploy, FastChat, LangChain。其中最方便的人人都可以部署的三种傻瓜方式包括Ollama,GPT4ALL和LM Studio,都支持window,MAC和linux操作系统,搜索官网直接下载安装应用即可。主要包括:llama.cpp,koboldcpp,PowerInfer,chatglm.cpp,qwen.cpp。目前主要是C或C++语言。
2024-07-13 20:02:53 357 1
原创 安装hyper-V
pushd "%~dp0"dir /b %SystemRoot%\servicing\Packages\*Hyper-V*.mum >hyper-v.txtfor /f %%i in ('findstr /i . hyper-v.txt 2^>nul') do dism /online /norestart /add-package:"%SystemRoot%\servicing\Packages\%%i"del hyper-v.txtDism /online /enable-feature /fe
2024-07-13 08:51:26 147
原创 docker安装open-webui
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
2024-07-12 16:21:43 432
原创 windows安装docker
https://downloads.digitaltrends.com/docker-desktop/windowshttps://wslstorestorage.blob.core.windows.net/wslblob/wsl_update_x64.msi
2024-07-12 15:20:05 208
原创 利用ollama实现本地大模型RAG智能回答
配置HuggingFaceEmbeddings嵌入模型,这里我们用BAAI/bge-small-zh-v1.5。response = query_engine.query("今天星期几")# 配置ollama的LLM模型,这里我们用gemma:7b。# 将data文件夹下的文档建立索引。# 创建问答引擎,并提一个简单的问题。
2024-07-05 17:47:05 377
原创 gemma-2b大模型微调
bnb_4bit_quant_type="nf4", # 指定用于量化的数据类型。bnb_4bit_compute_dtype=torch.bfloat16 # 用于线性层计算的数据类型。output_dir="./outputs/gemma-new", # 微调后模型的输出路径。task_type="CAUSAL_LM", # 因果语言模型。model_id = "gemma-2b" # 模型的本地路径。load_in_4bit=True, # 启用4位加载。r=8, # LoRA中的秩。
2024-07-05 15:38:46 373
原创 python txt转excel转csv,增加标题栏
header = ['w1', 'w2'] # 根据实际列数和列名修改。# 读取txt文件,以空格作为分隔符。# 将数据写入Excel文件。# 将数据保存为CSV文件。
2024-07-05 09:49:03 173
原创 whl网址
https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple/Simple Index https://download.pytorch.org/whl
2024-04-26 19:49:33 269
原创 python 分类文件存档
print('音频:%s 的预测结果标签为:%d' % (path, label))assert len(wav_output) >= 8000, "有效音频小于0.5s"# 要预测的音频文件。
2024-04-25 18:41:28 405
原创 python魔搭
print('生成结果' + result[OutputKeys.TEXT])print('输入文本:' + input + '\n')input = '以关键词“xx”写一副春联'
2024-04-23 19:35:45 146
原创 【无标题python bit】
response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history)response, history = model.chat(tokenizer, "你好", history=[])
2024-04-23 18:47:54 122
原创 python文件改名
file_extension = 'wav' # 声音文件的扩展名,例如:'wav', 'mp3'等。# 为文件分配编号并复制到新的文件夹。# 获取文件夹内的所有声音文件。
2024-04-19 15:20:20 299
原创 python charm
model_path = "E:\p2\chatglm3-6b\ZhipuAI" #替换为您下载的ChatGLM3-6B 模型目录。#prompt = CHATGLM_V3_PROMPT_FORMAT.format(prompt="您是谁?# 载入ChatGLM3-6B模型并实现INT4量化。text=input("请输入:")# 请指定chatglm3-6b的本地路径。# 制作ChatGLM3格式提示词。# 执行推理计算,生成Tokens。# 对生成Tokens解码并显示。# 载入tokenizer。
2024-04-18 22:00:59 268
原创 python socket服务端
result = client.read_holding_registers(0, 2, unit=1) # unit参数指定从站地址,如果只有一个从站可以省略此参数。client.write_register(0, 1234, unit=1) # unit参数指定从站地址,如果只有一个从站可以省略此参数。client = ModbusTcpClient('127.0.0.1', port=502) # 连接到本地地址,端口默认为502。# 读取保持寄存器的值,例如从地址0开始读取2个寄存器。
2024-04-16 18:31:50 399
原创 python串口通信
ser = serial.Serial('COM3', 9600, timeout=1) # 选择串口号(如COM3),波特率(如9600),超时时间(如1秒)ser.write(b'Hello, World!') # 发送字节串。data = ser.readline() # 读取一行数据。
2024-04-16 17:39:02 464
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人