如何拥有自己的本地大语言模型

本文详细介绍了如何在Windows11环境中安装和配置ChatGLM3-6B模型,包括Python、Java环境设置,以及如何使用SpringAI和LangChain4j进行模型微调。同时,也涉及到了如何与WebUI框架集成和使用SpringAISDK进行API开发的步骤。
摘要由CSDN通过智能技术生成

一、环境需求

        本次demo是在win 11上进行搭建,模型选择为ChatGLM3-6B,python 版本为3.11,java 版本为jdk 17,node 版本为 node18.x。由于本人不擅长python,所以用java进行项目开发。

        项目思路是用ChatGLM3-6B开源大模型进行本地搭建,以api_server方式启动。此时搭配开源的ui框架就已经可以实现一个基本的GLM模型。进行模型微调和定制开发则采用spring ai + langchain4j。

        注意想在本地运行chatglm3-6b模型需要12G显存,否则以cpu方式运行程序会非常慢,内存要求也会要32g。

二、环境搭建

        conda安装直接跳过,直接进入正题

1、安装pytorch环境

        1.1官网 PyTorch

        1.2 pip安装

        注意安装时选择对应自己cuda版本的torch版本

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

2、下载ChatGLM3项目

        2.1仓库地址GitHub - THUDM/ChatGLM3: ChatGLM3 series: Open Bilingual Chat LLMs | 开源双语对话语言模型

3、下载chatglm3-6b模型

        3.1模型地址 https://huggingface.co/THUDM/chatglm3-6b

        3.2模型下载命令 

git clone https://huggingface.co/THUDM/chatglm3-6b

4、下载bge-large-zh-v1.5模型

        4.1模型地址https://huggingface.co/BAAI/bge-large-zh-v1.5

        4.2模型下载命令 

git clone https://huggingface.co/BAAI/bge-large-zh-v1.5
        上面这两个模型下载需要科学上网,后面补充网盘资源

        4.3把下载好的两个模型文件夹复制到ChatGLM3项目根目录下,复制好后文件目录如下        

        4.4修改openai_api_demo/api_server.py文件中设置模型路径的位置为以下路径

# set LLM path
MODEL_PATH = os.environ.get('MODEL_PATH', 'chatglm3-6b')
TOKENIZER_PATH = os.environ.get("TOKENIZER_PATH", MODEL_PATH)

# set Embedding Model path
EMBEDDING_PATH = os.environ.get('EMBEDDING_PATH', 'bge-large-zh-v1.5')

        4.5执行 下面命令以openai-api模式启动

 python ./openai_api_demo/api_server.py     

         出现以下日志时启动成功        

        此时可以通过api形式进行访问,编写自己的程序了,如果想直接使用本地模型,官方提供了一个带ui的启动方式,启动前修改basic_demo/web_demo_streamlit.py文件中设置模型路径的位置如下

MODEL_PATH = os.environ.get('MODEL_PATH', './chatglm3-6b')
TOKENIZER_PATH = os.environ.get("TOKENIZER_PATH", MODEL_PATH)

        然后执行下面命令即可弹出一个webui界面

streamlit run basic_demo/web_demo_streamlit.py

5、下载ChatGPT-Next-Web项目(使用开源web-ui)

        5.1github地址 GitHub - ChatGPTNextWeb/ChatGPT-Next-Web: A cross-platform ChatGPT/Gemini UI (Web / PWA / Linux / Win / MacOS). 一键拥有你自己的跨平台 ChatGPT/Gemini 应用。

        5.2在项目目录下新建一个.env.local文件,指定大模型地址为本地大模型,内容如下

OPENAI_API_KEY=none
BASE_URL=http://0.0.0.0:8000

        5.3执行 yarn run dev即可启动ui项目

6、搭建spring ai环境

        注意,该项目必须使用jdk>=17。

       6.1 创建一个springboot 3.x项目,pom如下

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>
    <parent>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-parent</artifactId>
        <version>3.2.3</version>
        <relativePath/> <!-- lookup parent from repository -->
    </parent>
    <groupId>com.iai</groupId>
    <artifactId>iask</artifactId>
    <version>0.0.1-SNAPSHOT</version>
    <name>iask</name>
    <description>iask</description>
    <properties>
        <java.version>17</java.version>
        <spring-ai.version>0.8.0</spring-ai.version>
    </properties>
    <dependencies>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-web</artifactId>
            <exclusions>
                <exclusion>
                    <groupId>org.springframework.boot</groupId>
                    <artifactId>spring-boot-starter-tomcat</artifactId>
                </exclusion>
            </exclusions>
        </dependency>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-undertow</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.ai</groupId>
            <artifactId>spring-ai-openai-spring-boot-starter</artifactId>
        </dependency>

        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-devtools</artifactId>
            <scope>runtime</scope>
            <optional>true</optional>
        </dependency>
        <dependency>
            <groupId>com.mysql</groupId>
            <artifactId>mysql-connector-j</artifactId>
            <scope>runtime</scope>
        </dependency>
        <dependency>
            <groupId>org.projectlombok</groupId>
            <artifactId>lombok</artifactId>
            <optional>true</optional>
        </dependency>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-test</artifactId>
            <scope>test</scope>
        </dependency>

        <dependency>
            <groupId>dev.langchain4j</groupId>
            <artifactId>langchain4j</artifactId>
            <version>0.27.1</version>
        </dependency>

        <dependency>
            <groupId>dev.langchain4j</groupId>
            <artifactId>langchain4j-spring-boot-starter</artifactId>
            <version>0.24.0</version>
        </dependency>
    </dependencies>
    <dependencyManagement>
        <dependencies>
            <dependency>
                <groupId>org.springframework.ai</groupId>
                <artifactId>spring-ai-bom</artifactId>
                <version>${spring-ai.version}</version>
                <type>pom</type>
                <scope>import</scope>
            </dependency>
        </dependencies>
    </dependencyManagement>

    <build>
        <plugins>
            <plugin>
                <groupId>org.springframework.boot</groupId>
                <artifactId>spring-boot-maven-plugin</artifactId>
                <configuration>
                    <excludes>
                        <exclude>
                            <groupId>org.projectlombok</groupId>
                            <artifactId>lombok</artifactId>
                        </exclude>
                    </excludes>
                </configuration>
            </plugin>
        </plugins>
    </build>
    <repositories>
        <repository>
            <id>spring-milestones</id>
            <name>Spring Milestones</name>
            <url>https://repo.spring.io/milestone</url>
            <snapshots>
                <enabled>false</enabled>
            </snapshots>
        </repository>
    </repositories>

</project>

        6.2配置application.yaml

server:
  port: 8886
  # undertow 配置
  undertow:
    # HTTP post内容的最大大小。当值为-1时,默认值为大小是无限的
    max-http-post-size: -1
    # 以下的配置会影响buffer,这些buffer会用于服务器连接的IO操作,有点类似netty的池化内存管理
    # 每块buffer的空间大小,越小的空间被利用越充分
    buffer-size: 512
    # 是否分配的直接内存
    direct-buffers: true
    threads:
      # 设置IO线程数, 它主要执行非阻塞的任务,它们会负责多个连接, 默认设置每个CPU核心一个线程
      io: 8
      # 阻塞任务线程池, 当执行类似servlet请求阻塞操作, undertow会从这个线程池中取得线程,它的值设置取决于系统的负载
      worker: 256
spring:
  ai:
    openai:
      api-key: none
      base-url: http://0.0.0.0:8000
      chat:
        options:
          model: chatglm3-6b

        6.3解决undertow使用默认websocket缓冲池警告(非必须)

        创建一个配置类UndertowConfig.java

package com.iai.iask.config;

import io.undertow.server.DefaultByteBufferPool;
import io.undertow.websockets.jsr.WebSocketDeploymentInfo;
import org.springframework.boot.web.embedded.undertow.UndertowServletWebServerFactory;
import org.springframework.boot.web.server.WebServerFactoryCustomizer;
import org.springframework.stereotype.Component;

/**
 * @author: wongcai
 * @date: 2024-03-12 15:42
 * @description: 解决启动io.undertow.websockets.jsr UT026010: Buffer pool was not set on WebSocketDeploymentInfo, the default pool will be used的警告
 */
@Component
public class UndertowConfig implements WebServerFactoryCustomizer<UndertowServletWebServerFactory> {

    /**
     * 设置 Undertow 的 websocket 缓冲池
     */
    @Override
    public void customize(UndertowServletWebServerFactory factory) {
        // 默认不直接分配内存 如果项目中使用了 websocket 建议直接分配
        factory.addDeploymentInfoCustomizers(deploymentInfo -> {
            WebSocketDeploymentInfo webSocketDeploymentInfo = new WebSocketDeploymentInfo();
            webSocketDeploymentInfo.setBuffers(new DefaultByteBufferPool(false, 512));
            deploymentInfo.addServletContextAttribute("io.undertow.websockets.jsr.WebSocketDeploymentInfo", webSocketDeploymentInfo);
        });
    }

}

7、测试代码

        7.1编写测试AiController.java

        

package com.iai.iask.aicontroller;


import org.springframework.ai.openai.OpenAiChatClient;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RequestParam;
import org.springframework.web.bind.annotation.RestController;

@RestController
@RequestMapping("/api/v1")
public class AiController {
    private final OpenAiChatClient chatClient;

    @Autowired
    public AiController(OpenAiChatClient chatClient) {
        this.chatClient = chatClient;
    }

    @RequestMapping("/chat")
    public String chat(@RequestParam(value = "message",defaultValue = "Hi") String message){
        return chatClient.call(message);
    }
}

        7.2浏览器访问测试

        

三、相关文件

        缺少部分逐渐补全

### 回答1: 很抱歉,ChatGPT是由OpenAI开发和维护的自然语言处理模型,其本地部署文件是不可公开的。如果您需要使用ChatGPT模型,您可以通过OpenAI的API访问该模型,或者使用基于该模型的开源软件库(如Hugging Face的Transformers库)进行开发和部署。如果您需要帮助使用ChatGPT或其他自然语言处理模型,我很乐意为您提供帮助和建议。 ### 回答2: 要获得ChatGPT的本地部署文件,您可以按照以下步骤操作: 1. 首先,您需要前往OpenAI官方网站并创建一个OpenAI帐户。 2. 登录您的帐户后,在OpenAI网站上导航到“ChatGPT”页面。 3. 在ChatGPT页面上,您将找到有关如何使用和访问ChatGPT的详细信息。在这个页面上,您会发现OpenAI提供了基于API的方式,供您通过网络接口进行文本对话的API调用。您可以使用此API来与ChatGPT进行对话,而无需进行本地部署。如果您只需在线调用ChatGPT而无需本地部署,那么您可以使用此API。 4. 如果您仍然需要ChatGPT的本地部署文件,您可以浏览OpenAI的GitHub存储库或其他类似的存储库,其中一些开发者可能已经共享了他们所创建的ChatGPT本地部署文件。您可以在这些存储库中查找相关文件并按照说明进行安装和配置。 5. 另外,如果您拥有ChatGPT的原始代码,您可以在自己的本地计算机上构建和运行ChatGPT。这是一个复杂的过程,需要一定的技术经验和计算资源。 6. 不过,您需要注意的是,OpenAI官方并未提供ChatGPT的官方本地部署文件。因此,使用第三方提供的本地部署文件或构建您自己的本地部署是目前获取ChatGPT的本地版本的可能途径。 请确保您仔细阅读并遵守OpenAI的使用准则和条款,确保您获得ChatGPT本地部署文件的方式是合法和符合OpenAI的规定的。 ### 回答3: 如果您需要ChatGPT的本地部署文件,可以按照以下步骤进行操作: 1. 首先,确保您已经拥有ChatGPT的本地运行环境。您需要安装Python环境以及相关的依赖项。 2. 其次,您需要前往OpenAI的GitHub页面,寻找名为"ChatGPT"的代码仓库。 3. 在代码仓库页面中,您可以找到用于本地部署的相关文件。这些文件包括模型的权重文件以及与之对应的代码文件。 4. 将这些文件下载到您的本地计算机上的合适位置。 5. 在下载完成后,您可以使用Python解释器运行代码文件,以启动ChatGPT模型的本地部署。 6. 在代码运行时,您可以通过与ChatGPT进行交互式的对话。根据您的需要,您可以根据输入进行响应生成。 请注意,ChatGPT的本地部署可能需要较强的计算能力和存储空间。另外,这些信息只是一般指导,具体的步骤可能因不同版本的ChatGPT而有所变化。因此,建议您查阅官方文档或寻求相关资源以获取更详细的说明和指导。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值