很赞的开源论文AI工具已获得62,500Star,GPT 学术优化 (GPT Academic)

“GPT 学术优化”(GPT Academic)是一个专注于自然语言处理和生成的开源项目,旨在利用GPT模型来优化学术领域的任务。为GPT/GLM等LLM大语言模型提供实用化交互接口,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm3等本地模型。接入通义千问, deepseekcoder, 讯飞星火, 文心一言, llama2, rwkv, claude2, moss等。

“GPT 学术优化”(GPT Academic)该项目可能涵盖以下几个主要方面:

  1. 学术写作和编辑

    • 提供工具和模型来帮助生成学术论文、摘要、文献综述等。通过微调模型,GPT Academic可以生成符合特定学术风格和格式的文本。
  2. 自动化文献综述

    • 使用GPT模型来自动生成或补充文献综述,这对研究人员来说是一个省时的工具。
  3. 数据集和训练

    • 该项目可能包括针对学术领域的数据集,用于微调和训练GPT模型,以提高其在处理学术文本时的准确性和相关性。
  4. 学术问答系统

    • 开发基于GPT的问答系统,可以回答学术领域的特定问题,如数学、物理、历史等。
  5. 文本分类和主题分析

    • 使用GPT模型来对学术论文进行分类或主题分析,帮助研究人员更好地组织和理解文献。
  • 新界面(修改config.py中的LAYOUT选项即可实现“左右布局”和“上下布局”的切换)

  • 所有按钮都通过读取functional.py动态生成,可随意加自定义功能,解放剪贴板

  • 润色/纠错
  • 如果输出包含公式,会以tex形式和渲染形式同时显示,方便复制和阅读

  • 懒得看项目代码?直接把整个工程炫ChatGPT嘴里

  • 多种大语言模型混合调用(ChatGLM + OpenAI-GPT3.5 + GPT4)


 

安装方法I:直接运行 (Windows, Linux or MacOS)

  1. 下载项目

    git clone --depth=1 https://github.com/binary-husky/gpt_academic.git
    cd gpt_academic
  2. 配置API_KEY等变量

    config.py中,配置API KEY等变量。特殊网络环境设置方法Wiki-项目配置说明

    「 程序会优先检查是否存在名为config_private.py的私密配置文件,并用其中的配置覆盖config.py的同名配置。如您能理解以上读取逻辑,我们强烈建议您在config.py同路径下创建一个名为config_private.py的新配置文件,并使用config_private.py配置项目,从而确保自动更新时不会丢失配置 」。

    「 支持通过环境变量配置项目,环境变量的书写格式参考docker-compose.yml文件或者我们的Wiki页面。配置读取优先级: 环境变量 > config_private.py > config.py 」。

  3. 安装依赖

    # (选择I: 如熟悉python, python推荐版本 3.9 ~ 3.11)备注:使用官方pip源或者阿里pip源, 临时换源方法:python -m pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/
    python -m pip install -r requirements.txt
    
    # (选择II: 使用Anaconda)步骤也是类似的 (https://www.bilibili.com/video/BV1rc411W7Dr):
    conda create -n gptac_venv python=3.11    # 创建anaconda环境
    conda activate gptac_venv                 # 激活anaconda环境
    python -m pip install -r requirements.txt # 这个步骤和pip安装一样的步骤

如果需要支持清华ChatGLM2/复旦MOSS/RWKV作为后端,请点击展开此处

  1. 运行
    python main.py

安装方法II:使用Docker

宝塔面板 Docker 一键安装:轻松部署 GPTAcademic 打造私有GPT学术应用icon-default.png?t=N7T8https://blog.csdn.net/iduiui997/article/details/140675065

  1. 部署项目的全部能力(这个是包含cuda和latex的大型镜像。但如果您网速慢、硬盘小,则不推荐该方法部署完整项目) 

  2. # 修改docker-compose.yml,保留方案0并删除其他方案。然后运行:
    docker-compose up
  3. 仅ChatGPT + GLM4 + 文心一言+spark等在线模型(推荐大多数人选择) 

    # 修改docker-compose.yml,保留方案1并删除其他方案。然后运行:
    docker-compose up

P.S. 如果需要依赖Latex的插件功能,请见Wiki。另外,您也可以直接使用方案4或者方案0获取Latex功能。

  1. ChatGPT + GLM3 + MOSS + LLAMA2 + 通义千问(需要熟悉Nvidia Docker运行时) 

    # 修改docker-compose.yml,保留方案2并删除其他方案。然后运行:
    docker-compose up

安装方法III:其他部署方法

  1. Windows一键运行脚本。 完全不熟悉python环境的Windows用户可以下载Release中发布的一键运行脚本安装无本地模型的版本。脚本贡献来源:oobabooga

  2. 使用第三方API、Azure等、文心一言、星火等,见Wiki页面

  3. 云服务器远程部署避坑指南。 请访问云服务器远程部署wiki

  4. 在其他平台部署&二级网址部署

项目地址:GitHub - binary-husky/gpt_academic: 为GPT/GLM等LLM大语言模型提供实用化交互接口,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm3等本地模型。接入通义千问, deepseekcoder, 讯飞星火, 文心一言, llama2, rwkv, claude2, moss等。为GPT/GLM等LLM大语言模型提供实用化交互接口,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm3等本地模型。接入通义千问, deepseekcoder, 讯飞星火, 文心一言, llama2, rwkv, claude2, moss等。 - binary-husky/gpt_academicicon-default.png?t=N7T8https://github.com/binary-husky/gpt_academic?tab=readme-ov-file

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值