AI热门开源项目

1、Stanford Alpaca
简介:提供了用于训练斯坦福大学Alpaca模型的代码和文档,以及生成相关数据。Alpaca模型是一种大型语言模型,专注于提供更高效的文本生成和处理能力。项目旨在促进语言模型的研究与开发。
地址:http://github.com/tatsu-lab/stanford_alpaca

2、llama.cpp
简介:Facebook的大型语言模型LLaMA的C/C++移植版。项目的目标是在保持模型性能的同时,提供更高的运行效率和更好的系统兼容性。对于需要在本地运行和集成LLaMA模型的开发者而言,这个项目是一个宝贵的资源。
地址:http://github.com/ggerganov/llama.cpp

3、gpt4all
简介:gpt4all是一个开源项目,提供可以在任何地方运行的大型语言模型聊天机器人。它旨在使得部署和使用大型语言模型变得简单,为开发者社区提供了便利的接口和工具。
地址:http://github.com/nomic-ai/gpt4all

4、vllm
简介:vllm是一个针对大型语言模型的高吞吐量和内存高效的推理和服务引擎,支持快速、便捷、廉价的LLM模型服务,旨在优化模型的部署和运行效率。
地址:http://github.com/vllm-project/vllm

5、MiniGPT-4
简介:项目提供了MiniGPT-4和MiniGPT-v2的开源代码,这些是缩小版的GPT-4模型,旨在提供类似功能但资源要求更低的解决方案。这使得在资源受限的环境中研究和开发大型语言模型变得可能。
地址:http://github.com/Vision-CAIR/MiniGPT-4

6、LLaVA
简介:LLaVA项目旨在构建具有GPT-4V级别能力的大型语言和视觉助手。该项目侧重于视觉指令微调,强化了模型处理视觉信息的能力。
地址:http://github.com/haotian-liu/LLaVA

7、Awesome Multimodal Large Language Models
简介:精彩的集锦列表项目,汇集了关于多模态大型语言模型的最新论文和数据集,以及它们的评估方法。这是一个资源丰富的仓库,为那些对大型多模态语言模型研究和应用感兴趣的研究人员和开发者提供了宝贵的信息。
地址:http://github.com/BradyFU/Awesome-Multimodal-Large-Language-Models

8、JARVIS
简介:由微软开发的JARVIS是一个系统,用于将大型语言模型与机器学习社区连接起来。项目伴随着一篇论文,介绍了如何利用大型语言模型来提升机器学习任务的性能和效率,旨在探索人工智能的广义智能(AGI)并将最前沿的研究成果分享给整个社区。
地址:http://github.com/microsoft/JARVIS

9、ChatPaper
简介: 利用ChatGPT来加速科研流程的工具,可以对arXiv等科研论文库的论文进行全文总结,提供专业翻译、润色、审稿以及审稿回复的功能,旨在全流程加速科研人员对文献的处理和理解。
地址: http://github.com/kaixindelele/ChatPaper

10、MLX

简介: MLX是一个为苹果硅芯片设计的数组框架,专注于利用Apple Silicon的硬件特性,提供高性能的机器学习运算能力,旨在优化和加速机器学习任务在苹果硬件上的执行效率。

地址: http://github.com/ml-explore/mlx

11、3D Gaussian Splatting
简介:一个3D Gaussian Splatting算法的原始参考实现,用于实时辐射场渲染,能处理大规模数据且保持高性能。该项目由法国国家信息与自动化研究所GraphDeco团队开发,旨在通过高斯滤波优化图形渲染,提高实时渲染的质量和速度。
地址:http://github.com/graphdeco-inria/gaussian-splatting

12、DINOv2
简介:DINOv2是一个通过自监督方式学习强大视觉特征的框架,该项目提供了预训练模型和训练代码,可以应用于包括图像分类、深度估计和语义分割等多种视觉任务。特色之一是提供了支持寄存器的DINOv2版本,寄存器增强了变换器模型的能力。
地址:http://github.com/facebookresearch/dinov2

13、OpenLLaMA
简介:OpenLLaMA是Meta AI的LLaMA 7B的一个开源复现项目,使用RedPajama数据集进行训练,拥有宽松的许可证。项目旨在提供一个与LLaMA 7B模型相似的开源版本,供研究者和开发者基于此进行学术研究或进一步的开发。
地址:http://github.com/openlm-research/open_llama

14、Mamba
简介:Mamba是一个线性时间序列建模工具,采用选择性状态空间模型,特别适合处理密集型信息数据,如语言建模等。它基于结构化状态空间模型的进展,具有高效的硬件感知设计,实现参考了FlashAttention的思想。Mamba在信息密集型数据上表现出色,这在之前的次二次模型中是难以达到的。
地址:http://github.com/state-spaces/mamba

15、AnimateDiff
简介:AnimateDiff是一个专注于动态图像合成的官方实现库,特点是利用差分方法生成有生命力的动画效果,适用于将静态图像转换为动态图像,增加视觉效果的丰富性和吸引力,尤其适合内容创作者和动画师使用。
地址:http://github.com/guoyww/AnimateDiff

16、AutoGen
简介:AutoGen是由微软开发的基于多智能体的大规模语言模型应用开发框架,提供了一套工具和框架以简化和加速基于大型语言模型的应用开发和部署。
地址:http://github.com/microsoft/autogen

17、ollama
简介:ollama项目提供了一套工具和指南,帮助用户在本地环境中快速启动和运行Llama 2及其他大型语言模型。项目旨在简化模型部署的复杂性,使研究人员和开发者能更容易地在本地环境中进行语言模型的实验和开发。
地址:http://github.com/jmorganca/ollama

18、The Practical Guides for Large Language Models
简介:LLMs Practical Guide是一个精心整理的大型语言模型(LLM)实用指南资源列表,包括LLM Tree、示例和论文。这个项目旨在为研究者和开发者提供关于大型语言模型的实践资源,比如使用方法、最佳实践和相关研究论文,助力于理解和运用大型语言模型。
地址:http://github.com/Mooler0410/LLMsPracticalGuide

19、FastSAM
简介:致力于实现快速的场景分割功能,利用了深度学习技术,能够有效地将图像中的各个部分分割开来,适用于各种场景和不同的物体。
地址:http://github.com/CASIA-IVA-Lab/FastSAM

20、Language Model Evaluation Harness

简介:一个用于自回归语言模型少样本评估的框架,该项目提供了一套工具和标准化测试,以评估语言模型在多种任务上的性能,例如文本分类、生成和问答等,旨在为研究者提供一种简单而统一的方式来测试和比较模型。

地址:http://github.com/EleutherAI/lm-evaluation-harness

21、segment-anything
简介:名为SegmentAnything Model (SAM)的模型,用于执行图像分割任务,可以处理各种场景和对象。项目中包含了运行推理的代码、训练好的模型检查点的下载链接,以及示例Notebooks,展示了如何使用该模型。
地址:http://github.com/facebookresearch/segment-anything

22、FastChat
简介:一个开放平台,用于训练、服务和评估大型语言模型,包括了用于Vicuna和Chatbot Arena的发布仓库。该项目旨在提供一个高效的环境,供开发者快速部署和测试大型语言模型。
地址:http://github.com/lm-sys/FastChat

23、alpaca-lora
简介:允许用户在消费级硬件上进行Instruct-tune LLaMA,即在不需要高端硬件的前提下,微调和优化LaMDA语言模型的项目。它使得更广泛的开发者和研究者群体能够参与到语言模型的调优过程中。
地址:http://github.com/tloen/alpaca-lora

24、Grounded-Segment-Anything
简介:结合了Grounding-DINO、Segment Anything和Stable Diffusion的项目,致力于实现自动检测、分割和生成任意目标。该项目通过整合最新的深度学习模型和技术,提供了一种强大的方式,用于理解和处理图像内容,特别适合于图像和视频编辑等应用场景。
地址:http://github.com/IDEA-Research/Grounded-Segment-Anything

25、Generative Models by Stability AI
简介:由Stability AI提供的一系列生成模型,这些模型利用最新的人工智能技术生成文本、图像、音频等内容。该项目展示了人工智能在创造性任务上的潜力,能够帮助研究人员和开发者探索和实现新的创意应用。
地址:http://github.com/Stability-AI/generative-models

26、Evals
简介:由OpenAI开发的框架,用于评估大型语言模型(LLMs)和LLM系统,同时它也是一个开源的基准测试注册表。这个项目目的在于提供一个标准化的评估方式,以比较不同LLMs的性能。
地址:http://github.com/openai/evals

27、llama2.c
简介:由Andrej Karpathy开发的一个项目,它实现了在单一C文件中的Llama 2模型的推理。这个项目的特色是极简和高效,适用于希望深入了解基于C语言的推理实现的开发者。
地址:http://github.com/karpathy/llama2.c

28、open-interpreter
简介:可以在本地终端中运行的OpenAI代码解释器,允许用户在本地运行和测试代码,使得开发者在不依赖云服务的情况下,本地测试和运行AI模型。
地址:http://github.com/KillianLucas/open-interpreter

29、threestudio
简介:为3D内容生成提供统一框架的项目,旨在简化三维图形的创作和开发过程。它可能会集成各种工具和库,以支持从模型建构到渲染的全过程,对于游戏开发、动画制作和虚拟现实等领域具有高度的实用价值。
地址:http://github.com/threestudio-project/threestudio

30、mlc-llm

简介:致力于使每个人都能在自己的设备上本地开发、优化和部署AI模型,提供了一系列工具和库,用于在移动设备和边缘计算平台上直接运行高性能的机器学习计算。

地址:http://github.com/mlc-ai/mlc-llm

31、labml.ai Deep Learning Paper Implementations
简介:提供了60多个深度学习论文的实现和教程,每篇论文都有详细的注释。涵盖内容包括原始Transformer、XL、Switch、Feedback、VIT等各种变体,优化算法如Adam、AdaBelief、Sophia等,以及GANs(包括CycleGAN、StyleGAN2等)、强化学习(PPO、DQN)、CapsNet、蒸馏等深度学习技术。项目旨在帮助学习和研究深度学习模型,尤其是对于理解和实现最新的论文有极大帮助。
地址:http://github.com/labmlai/annotated_deep_learning_paper_implementations

32、gpt-fast
简介:由PyTorch Labs提供的一个简单高效的基于PyTorch的transformer文本生成工具,其特点是在不到1000行的Python代码中实现了完整的功能,适合快速部署和研究。
地址:http://github.com/pytorch-labs/gpt-fast

33、Generative Agents
简介:Generative Agents是一个研究项目,致力于创造交互式模拟人类行为的生成式智能体。这些智能体可用于各种模拟场景,通过交互学习和模拟人类的决策和行为模式,对人工智能的行为理解和预测能力进行研究和提升。
地址:http://github.com/joonspk-research/generative_agents

34、Fooocus
简介:专注于提升文本提示和生成性能的项目。Fooocus利用先进的机器学习模型,优化了用户与AI生成内容的交互过程。通过简化的指令和增强的输出控制,Fooocus能够提高生成任务的准确性和效率,例如艺术创作、文本纠正或风格转换等。此项目还特别支持开发者模式,允许上传inpaint掩码,增加了对生成结果的细粒度控制。
地址:http://github.com/lllyasviel/Fooocus

35、AnimateAnyone
简介:专注于图像到视频合成的字符动画工具,能实现对特定人物图像的动态化。这一工具的主要特点是保持时间一致性和可控性,让用户能够创建连贯流畅、可定制的视频动画。适用于动画制作、游戏开发等多种场景,为用户提供了一种简便的方式,将静态图像转换为生动动态的视频内容。
地址:http://github.com/HumanAIGC/AnimateAnyone

36、Llama 2 Fine-tuning / Inference Recipes, Examples and Demo Apps
简介:Llama 2模型的示例和方案集合。项目包含了一系列示例和教程,指导用户如何利用Llama模型处理各种自然语言处理任务,从而更好地理解和掌握Llama模型的使用和潜力。
地址:http://github.com/facebookresearch/llama-recipes

37、Candle
简介:这是一个由Hugging Face提供的Rust编程语言实现的最小化机器学习框架。Candle旨在提供一种轻量级、高性能的方式来构建和运行机器学习模型,特别强调其在Rust生态系统中的集成和效率。项目同时提供了多种实用的子项目,例如candle-nn等,用于深度学习模型训练和推理,并且与Hugging Face的其他项目有良好的协同效果。
地址:http://github.com/huggingface/candle

38、Segment-Everything-Everywhere-All-At-Once
简介:提供了一个全面的图像分割解决方案,能在各种不同的场景和对象上实现精确的分割,旨在一次性解决所有图像分割问题。特色在于它的通用性和高效性,能够处理极其复杂和多变的图像环境。
地址:http://github.com/UX-Decoder/Segment-Everything-Everywhere-All-At-Once

39、BELLE
简介:BELLE项目是“每个人的大型语言模型引擎”,开源的中文对话大模型,致力于为中文语言处理提供强大的技术支持。该项目可能包含预训练模型、训练工具、推理工具等,特别适合中文NLP的研究和应用开发。
地址:http://github.com/LianjiaTech/BELLE

40、Triton

简介:Triton是OpenAI开发的一种新编程语言和编译器,专为编写高性能GPU计算代码而设计。它能让研究者和开发者以更简洁的方式编写与CUDA性能相媲美的代码,同时降低编写并行GPU代码的复杂性。Triton通过提供Python接口和C++内核,大大简化了高效GPU计算程序的开发过程。

地址:http://github.com/openai/triton

  • 25
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值