sentence-bert_pytorch语义文本相似度算法模型

目录

Sentence-BERT

论文

模型结构

算法原理

环境配置

Docker(方法一)

Dockerfile(方法二)

Anaconda(方法三)

数据集

训练

单机多卡

单机单卡

推理

result

精度

应用场景

算法类别

热点应用行业

源码仓库及问题反馈

参考资料


Sentence-BERT

论文

Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks

模型结构

一种对预训练BERT网络的改进,它使用连体和三重网络结构来获得语义上有意义的句子嵌入,可以使用余弦相似度进行比较。

算法原理

对于每个句子对,通过网络传递句子A和句子B,从而得到embeddings u 和 v。使用余弦相似度计算embedding的相似度,并将结果与 gold similarity score进行比较。这允许网络进行微调,并识别句子的相似性.

环境配置

-v 路径、docker_name和imageID根据实际情况修改

Docker(方法一)

docker pull image.sourcefind.cn:5000/dcu/admin/base/pytorch:2.1.0-centos7.6-dtk24.04-py310

docker run -it -v /path/your_code_data/:/path/your_code_data/ -v /opt/hyhal/:/opt/hyhal/:ro --shm-size=32G --privileged=true --device=/dev/kfd --device=/dev/dri/ --group-add video --name docker_name imageID bash

cd /your_code_path/sentence-bert_pytorch
pip install -r requirements.txt
pip install -U huggingface_hub hf_transfer
export HF_ENDPOINT=https://hf-mirror.com

Dockerfile(方法二)

cd ./docker
docker build --no-cache -t sbert:latest .
docker run -it -v /path/your_code_data/:/path/your_code_data/ -v /opt/hyhal/:/opt/hyhal/:ro --shm-size=32G --privileged=true --device=/dev/kfd --device=/dev/dri/ --group-add video --name docker_name imageID bash

cd /your_code_path/sentence-bert_pytorch
pip install -r requirements.txt
pip install -U huggingface_hub hf_transfer
export HF_ENDPOINT=https://hf-mirror.com

Anaconda(方法三)

  1. 关于本项目DCU显卡所需的特殊深度学习库可从光合开发者社区下载安装: https://developer.hpccube.com/tool/
DTK软件栈:dtk24.04
python:python3.10
torch:2.1.0
torchvision: 0.16.0

Tips:以上dtk软件栈、python、torch等DCU相关工具版本需要严格一一对应

  1. 其他非特殊库直接按照requirements.txt安装
cd /your_code_path/sentence-bert_pytorch
pip install -r requirements.txt
pip install -U huggingface_hub hf_transfer
export HF_ENDPOINT=https://hf-mirror.com

数据集

训练数据: sentence-transformers/stsb,训练代码自动下载。 推理数据: 需要转换成txt格式,参考gen_simple_wikipedia_v1.py文件,生成simple_wiki_pair.txt

数据集的目录结构如下:

├── dataset
│   ├──simple_wikipedia_v1
│       ├──simple_wiki_pair.txt # 生成的
│       ├──wiki.simple
│       └──wiki.unsimplified

训练

单机多卡

  • 训练
bash train.sh
  • 微调
bash finetune.sh

单机单卡

  • 训练
python training_stsbenchmark.py --train_batch_size 64 --num_epochs 5
  • 微调
python training_stsbenchmark_continue_training.py --train_batch_size 64 --num_epochs 5

推理

  1. 预训练模型下载pretrained models, 当前默认为all-MiniLM-L6-v2模型;
  2. 执行以下命令,测试数据默认为./datasets/simple_wikipedia_v1/simple_wiki_pair.txt,可修改--data_path参数为其他待测文件地址,文件内容格式请参考simple_wiki_pair.txt
python infer.py --data_path ./dataset/simple_wikipedia_v1/simple_wiki_pair.txt --model_name_or_path all-MiniLM-L6-v2

result

精度

在sts-test数据集上评估模型,Cosine-Similarity得分对比

devicebackboneepochPearsonSpearman
K100bert-base-uncased50.85000.8460
A800bert-base-uncased50.84490.8385

应用场景

算法类别

语义文本相似度

热点应用行业

教育,网安,政府

源码仓库及问题反馈

参考资料

  • 30
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

技术瘾君子1573

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值