- 博客(6)
- 收藏
- 关注
原创 AIGC实战优化-Datawhale AI 夏令营
LoRA (Low-Rank Adaptation) 微调是一种用于在预训练模型上进行高效微调的技术。它可以通过高效且灵活的方式实现模型的个性化调整,使其能够适应特定的任务或领域,同时保持良好的泛化能力和较低的资源消耗。这对于推动大规模预训练模型的实际应用至关重要。
2024-08-17 22:42:46
1212
原创 AI生图代码精读-Datawhale AI 夏令营
(AI-Generated Content)是通过人工智能技术自动生成内容的生产方式,很早就有专家指出,AIGC将是未来人工智能的重点方向,也将改造相关行业和领域生产内容的方式。属于,通过海量的图库和文本描述的深度神经网络学习,最终的目标是(不管是文本还是图片还是任何)目前人们对于AI生图的排斥还主要源于恐怖谷效应。
2024-08-14 22:10:36
449
原创 No.1 AIGC文生图-Datawhale AI夏令营
OpenPose姿势控制输入是一张姿势图片(或者使用真人图片提取姿势)作为AI绘画的参考图,输入prompt后,之后AI就可以依据此生成一副相同姿势的图片;Canny精准绘制输入是一张线稿图作为AI绘画的参考图,输入prompt后,之后AI就可以根据此生成一幅根据线稿的精准绘制。Hed绘制Hed是一种可以获取渐变线条的线稿图控制方式,相比canny更加的灵活。深度图Midas输入是一张深度图,输入prompt后,之后AI就可以根据此生成一幅根据深度图的绘制。颜色color控制。
2024-08-11 22:39:18
889
原创 3.大语言模型优化-Datawhale AI夏令营
LoRA的核心思想是通过引入低秩矩阵来调整模型的权重,从而在不显著增加模型参数数量的情况下,实现对模型的微调。大模型微调(Fine-tuning)是一种技术,通过在预训练的大型语言模型上使用特定数据集进行进一步训练,使模型能够更好地适应特定任务或领域。例如在回答医学领域相关问题时需要为这个通用模型提供大量新的医药数据进行学习和理解。小结:prompt是我们可以进行优化的一个重要部分,其主要作用是激发大模型提取的能力,将本身具有的能力发挥出来,同样我们也可以微调大模型,直接提高大模型提取的能力。
2024-08-11 21:52:22
299
原创 2.大语言模型技术代码优化-Datawhale AI夏令营
大模型最常用方法是提示工程,提示工程(Prompt Engineering)是一门较新的学科,关注提示词开发和优化,帮助用户将大语言模型(Large Language Model, LLM)用于各场景和研究领域。掌握了提示工程相关技能将有助于用户更好地了解大型语言模型的能力和局限性。通过API,一个软件应用程序可以使用另一个应用程序、服务或平台的功能和数据,而无需了解其内部实现细节。而开发人员可以快速构建功能丰富的应用程序,通过调用外部服务的API来利用其功能,从而节省开发时间并提高应用的灵活性和扩展性。
2024-07-30 23:59:23
508
原创 大模型技术实践-Datawhale AI 夏令营
从输入的数据列表中筛选出具有完整答案的问题集,并确保每个问题只出现一次。进行过滤,旨在移除重复问题并确保每个保留的问题都附带完整答案,过滤后的数据被重新赋值给。对一组数据中的每个问题调用 API 进行推理,并提取并存储每个问题的答案。加 1,并检查模型的预测答案是否与问题中的实际答案匹配,如果匹配则。键对应的值,并将其转换为字符串后取最后三位,再转换为整数作为排序的键。每个任务中的每个问题,检查问题字典中是否存在。迭代已完成的任务,并处理每个任务的结果。如果存在,说明该问题有模型的预测答案,将。
2024-07-28 22:49:08
437
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅