- 博客(576)
- 资源 (14)
- 收藏
- 关注
原创 txtai系列教程
txtai系列教程翻译自 : https://dev.to/neuml/export-and-run-models-with-onnx-fof1.txtai 初识2.使用 Hugging Face 数据集构建 Embeddings 索引3.从数据源构建嵌入索引4.将语义搜索添加到 Elasticsearch5.使用 txtai 进行抽取式 QA6.使用 Elasticsearch 进行抽取式 QA7.使用零样本分类应用标签8.txtai API 库9.构建抽象文本摘要10.从文档中提
2021-12-17 13:20:10 1636 1
原创 中药垂直大模型汇总
ShenNong-TCM由华东师范大学计算机科学与技术学院智能知识管理与服务团队完成,旨在推动大型语言模型在中医药领域的发展和落地,提升大型语言模型的在中医药方面的知识与回答医学咨询的能力,同时推动大模型赋能中医药传承。
2024-05-22 17:18:51 657
转载 Supervisor进程管理
https://blog.csdn.net/lly1122334/article/details/122713267
2023-12-24 20:49:36 185
原创 2023-ICLR-Adaptive Budget Allocation for Parameter-Efficient Fine-Tuning
2023-ICLR-Adaptive Budget Allocation for Parameter-Efficient Fine-Tuning
2023-11-01 11:04:58 246
转载 2023-arxiv-LLaMA-Adapter Efficient Fine-tuning of Language Models with Zero-init Attention
2023-arxiv-LLaMA-Adapter Efficient Fine-tuning of Language Models with Zero-init Attention
2023-11-01 10:19:08 126
转载 2022-arxiv-Few-Shot Parameter-Efficient Fine-Tuning is Better and Cheaper than In-Context Learning
少样本参数高效微调比上下文学习更好、更便宜
2023-10-31 18:01:11 188
原创 2021-arxiv-LoRA Low-Rank Adaptation of Large Language Models
2021-arxiv-LoRA Low-Rank Adaptation of Large Language Models
2023-10-30 11:10:59 422
原创 2022-arxiv-P-Tuning v2 Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and
2022-arxiv-P-Tuning v2 Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and
2023-10-30 09:53:20 60
原创 2021-arXiv-The Power of Scale for Parameter-Efficient Prompt Tuning
2021-arXiv-The Power of Scale for Parameter-Efficient Prompt Tuning
2023-10-25 09:57:01 617
原创 2021-arxiv-Prefix-Tuning- Optimizing Continuous Prompts for Generation
2021-arxiv-Prefix-Tuning- Optimizing Continuous Prompts for Generation
2023-10-19 13:18:00 905
BBBP BACE ClinTox Tox21 ToxCast SIDER HIV PCBA MUV
2022-05-28
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人