• QAnything/QAnything使用说明.md
  • !!!Stirling PDF - PDF to Word
  • GitHub - Stirling-Tools/Stirling-PDF
  • GitHub - jina-ai/reader: Convert any URL to an LLM-friendly input with a simple prefix https://r.jina.ai/
  • DockerHub容器镜像库|应用容器化
  • 镜像使用说明 (dockerhub.icu)
  • OmniParse | Cognitivelab


Tip:

Stirling PDF、jina-ai/reader、镜像下载服务ghcr.io网站、OmniParse、

*:URLs (Read) https://r.jina.ai/https://github.com/jina-ai/reader, (Search) https://s.jina.ai/Who%20will%20win%202024%20US%20presidential%20election%3F

QAnything版本选择说明:

一句话总结:python版本适合快速体验新功能,docker版本适合二次开发并用于实际生产环境,新功能暂缓支持。

说明:

使用jina-ai/reader、OmniParse或Stirling PDF(镜像:frooodle/s-pdf:latest)转换文档,ghcr.io加速下载镜像,





1、启动成功后可在访问前端页面使用

在浏览器中打开http://{your_host}:8777/qanything/

默认一般是 http://0.0.0.0:8777/qanything/

即可使用UI界面,注意末尾的斜杠不可省略,否则会出现404错误

2、断网安装QAnything,可以使用以下命令启动服务:5个镜像

# 先在联网机器上下载docker镜像
docker pull quay.io/coreos/etcd:v3.5.5
docker pull minio/minio:RELEASE.2023-03-20T20-16-18Z
docker pull milvusdb/milvus:v2.3.4
docker pull mysql:latest
docker pull freeren/qanything-win:v1.2.x  # 从 [https://github.com/netease-youdao/QAnything/blob/master/docker-compose-windows.yaml#L103] 中获取最新镜像版本号。
# 打包镜像
docker save quay.io/coreos/etcd:v3.5.5 minio/minio:RELEASE.2023-03-20T20-16-18Z milvusdb/milvus:v2.3.4 mysql:latest freeren/qanything-win:v1.2.x -o qanything_offline.tar
# 下载QAnything代码
wget https://github.com/netease-youdao/QAnything/archive/refs/heads/master.zip

# 把镜像qanything_offline.tar和代码QAnything-master.zip拷贝到断网机器上
cp QAnything-master.zip qanything_offline.tar /path/to/your/offline/machine
# 在断网机器上加载镜像
docker load -i qanything_offline.tar
# 解压代码,运行
unzip QAnything-master.zip
cd QAnything-master
bash run.sh
# 注意上述命令仅适用于使用自研7B模型的情况,硬件要求30系,40系,或A系列显卡且显存>=24GB
# 如果不是,则根据此文档选择合适的模型或后端启动,此时需要增加手动下载模型的步骤:
# 下载非默认模型:(以下为使用MiniChat-2-3B示例,请按需更改)
cd QAnything-master/assets/custom_models
git lfs install
git clone https://www.modelscope.cn/netease-youdao/MiniChat-2-3B.git  # 可从有网络的地方下载后转移到无网机器的QAnything-master/assets/custom_models文件夹下即可
cd ../../
bash ./run.sh -c local -i 0 -b hf -m MiniChat-2-3B -t minichat
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.
  • 12.
  • 13.
  • 14.
  • 15.
  • 16.
  • 17.
  • 18.
  • 19.
  • 20.
  • 21.
  • 22.
  • 23.
  • 24.
  • 25.
  • 26.
  • 27.

3、--->ghcr.io 加速请看 ghcr.dockerhub.icu

sudo tee /etc/docker/daemon.json <<EOF
{
    "registry-mirrors"
}
EOF
sudo systemctl daemon-reload
sudo systemctl restart docker
docker pull  ghcr.io/frooodle/s-pdf:latest        ---->OK
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.

4、OmniParse是一个平台,可将任何非结构化数据摄取/解析为针对GenAI(LLM)应用程序优化的结构化、可操作数据。无论是处理文档、表格、图像、视频、音频文件还是网页,OmniParse都能让您的数据变得干净、结构化,并为AI应用程序(如RAG、微调等)做好准备。

docker pull savatar101/omniparse:0.1
# if you are running on a gpu 
docker run --gpus all -p 8000:8000 savatar101/omniparse:0.1
# else
docker run -p 8000:8000 savatar101/omniparse:0.1
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.