- 博客(15)
- 收藏
- 关注
原创 真正的Open AI ——LLaMA颠覆开源大模型
LLaMA(Large Language Model Meta AI)是由Meta(原Facebook)推出的一个大型语言模型系列,旨在通过更小的模型规模和更少的计算资源,实现与其他主流语言模型(如GPT)相媲美的效果。LLaMA模型的开源不仅推动了AI技术的普及和应用,还促进了全球AI生态的积极发展,为AI领域的未来创新提供了强大的动力和广阔的平台。
2024-09-30 19:13:41 1136
原创 揭秘ChatGPT背后的魔法:三阶段训练打造智能对话模型应用
ChatGPT的成功背后离不开复杂的三阶段训练过程。从预训练阶段学习大量通用知识,到微调阶段的特定任务优化,再到基于人类反馈的强化学习,模型的能力得到了全面提升。这三个阶段的协同作用,使得ChatGPT能够在广泛的任务中表现出色。未来,随着大模型技术的进一步发展,我们有望看到更智能、更灵活的语言模型应用于更多的实际场景中。
2024-09-29 19:28:08 733
原创 U-Net——当卷积遇见了扩散,图像生成便有了光
U-net 模型最初由 Olaf Ronneberger 等人在 2015 年提出,主要用于生物医学图像分割。其创新的网络结构,特别是跳跃连接的设计,使其在各种图像处理任务中表现优异。随着深度学习的快速发展,U-net 逐渐被应用于更多领域,尤其是近年来的扩散模型(Diffusion Models),其中 U-net 担任了生成和去噪的重要角色。
2024-09-27 23:27:27 876
原创 Diffusion Transformer(DiT)—— 图像视频生成领域的新王,Sora的背后功臣
DiT,即Diffusion Transformer,是一种新型的扩散模型,它将传统扩散模型中的U-Net架构替换为Vision Transformer(ViT),并针对Diffusion Model特点修改模型,旨在提升图像生成性能。通过扩展模型大小和输入token的数量,DiT模型在保持计算效率的同时,达到了新的性能高度。
2024-09-27 22:38:44 700
原创 Vision Transformer:开启计算机视觉的新篇章
但ViT最大的贡献在于完全抛弃CNN,其核心思想是将图像视作一个序列,并利用Transformer模型来处理这些序列,并且将模型做到足够大,从而在各大图像分类任务中都取得了SOTA的优异表现。Vision Transformer的提出为视觉任务提供了一种全新的思路,它成功将Transformer架构引入图像处理领域,打破了卷积神经网络的传统框架。论文中的实验结果表明,ViT在数据量充足的情况下可以获得极高的分类精度,同时相比于深度CNN架构,它的计算复杂度也有所提高。
2024-09-19 17:47:27 1351 1
原创 CLIP——跨越视觉与语言的桥梁
CLIP)模型是由OpenAI在2021年提出的一种多模态预训练模型,它通过对比学习的方式,将图像和文本嵌入到同一个语义空间中,使得模型能够理解图像和文本之间的语义关系。CLIP模型的核心思想是通过最大化图像表示与其相应文本描述之间的一致性,来预训练一个能够同时理解图像和文本的模型。
2024-09-11 00:00:42 1008
原创 AI绘画——从扩散模型到创意无限
如果在两年前我说这些图片是AI生成的,你或许会说我痴人说梦话,但经过了2023年AI绘画热潮后,大量精致而逼真的AI绘画在互联网上铺天盖地。AI绘画技术的快速发展,使得生成的图像质量大幅提升,很多作品已经达到了以假乱真的地步。
2024-09-09 23:15:34 1247
原创 GPT模型迭代历程:从文本生成到多模态交互
GPT模型作为人工智能领域的里程碑,推动了自然语言处理技术的巨大飞跃。自GPT-1起,每代模型都在参数规模、学习效率和多模态能力上实现突破,从文本生成到理解,再到对话交互,不断拓展AI的应用边界,深刻影响着语言模型的发展和人机交互的未来。
2024-09-08 15:17:39 1315
原创 回到梦开始的地方——深入浅出大模型基础框架Transformer架构
Transformer模型自2017年由Vaswani等人提出以来,已经成为自然语言处理(NLP)领域的一个里程碑。ransformer对于大模型的意义在于它提供了一个强大的框架,不仅能够有效地处理复杂的语言任务,还能够随着模型规模的增大保持性能的提升,并且促进了整个AI领域的技术进步。而今我们使用的各类大模型无不是基于Transformer架构衍生出来的模型。
2024-09-07 20:59:01 1303
原创 快速上手OpenAI接口,做一个文本分类小项目
总的来说,该项目展示了如何结合机器学习模型和先进的文本嵌入技术来处理和分析文本数据,以及如何通过模型选择和调优来提高预测性能。OpenAI的Embedding模型在提供高质量的文本向量表示方面发挥了关键作用,为构下游应用提供了强大的支持。
2024-09-06 23:50:04 1316
原创 调教出属于你的私有大模型——大模型高效微调PEFT介绍
参数高效微调(Parameter-Efficient Fine-Tuning,PEFT)是一种高效的模型微调技术,它允许在不调整预训练模型所有参数的情况下,通过仅微调一小部分参数来适应特定的下游任务,从而显著降低了计算和存储成本。这种方法在保持与全参数微调相当性能的同时,减少了算力支出,加快了模型适应速度,并避免了灾难性遗忘。
2024-09-06 00:02:40 1151
原创 成为大模型开发者——初探OpenAI API
OpenAI API是一个允许开发者将领先的AI模型(如GPT-4)集成到应用中的强大工具,其功能包括:文本生成与完成,自定义与微调,多模态能力以及可扩展性。其被广泛应用于聊天机器人、情感分析、代码生成和游戏开发等场景中。
2024-09-04 01:31:15 1077
原创 智能生活:探索AIGC在日常应用中的无限可能
当我们迈入这个充满创新与变革的时代,人工智能(AI)正逐渐渗透到生活的方方面面,它不仅改变了我们的工作方式,更在日常生活中扮演着越来越重要的角色。今天,让我们一起揭开这层神秘的面纱,探索AI在日常应用中的无限可能,感受科技带来的无尽魅力。
2024-09-02 22:24:18 649
原创 开启AIGC之旅:探索大模型的奥秘,让知识在传播中发热
今天是挑战的第一天,我将从分享我的感受和目标开始,接下来,让我们一起踏上探索大模型的旅程。希望在这个过程中,我们都能有所收获,让大模型不仅成为提升工作效率的工具,也成为让生活更加精彩的钥匙。
2024-09-01 22:50:51 291
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人