2024/01/02 每日AI必读资讯

减少LLM幻觉的方法

这篇论文总结了减少LLM幻觉的32种方法,包括RAG、微调模型,提示词工程等。 论文:https://arxiv.org/abs/2401.01313E5-mistral-7b-instruct:使用合成数据训练的Embedding模型 亮点是仅使用LLM生成的数据即可实现不错的效果,使用合成数据+标记数据训练可以实现SOTA。 大小比其他模型大10倍,性能也仅是微弱提升。更大的意义是实践了合成数据的作用。

论文:https://arxiv.org/abs/2401.00368

模型:https://huggingface.co/intfloat/e5-mistral-7b-instruct

OpenVoice:语音克隆

能克隆音色和语调,目前对中文的支持不好,官方反馈后续会优化。

Github:GitHub - myshell-ai/OpenVoice: Instant voice cloning by MyShell.

在线体验:https://huggingface.co/spaces/myshell-ai/OpenVoice

Axolotl:简化 LLM 微调过程的工具

目前对 LLaMa 和 Mistral 的支持比较完善。

Github:GitHub - OpenAccess-AI-Collective/axolotl: Go ahead and axolotl questions

MosaicBERT:低成本训练BERT的方法

BERT是Transformer的一种实现,训练成本比较高。MosaicBERT大幅降低了训练成本,从头开始训练大概值需要花费100美元,为后续BERT模型的训练提供了一种低成本方法。模型权重和代码后续会开源。

论文:https://arxiv.org/abs/2312.17482

Github:GitHub - mosaicbert/mosaicbert.github.io: Experiment Details for MosaicBERT Research Paper

  • 10
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值