- 博客(235)
- 收藏
- 关注

原创 Hugging Face模型下载:国内如何高效应对?
为研究人员和开发者提供的众多预训练模型和相关工具,为NLP的研究与应用创造了无数可能性。然而由于某些原因,国内的开发者访问Hugging Face官方站点或下载模型时遭遇了困难。总而言之,AI快站为国内的AI从业者打开了一扇窗,为我们提供了一个可能的解决方案。如果你也遭遇了Hugging Face模型下载的困境,这或许是一个值得尝试的选项。在探索的过程中,我偶然发现了一个名为🔗 AI快站(aifasthub.com) 的国内站点,它声称提供Hugging Face模型的镜像加速服务。
2023-10-25 15:48:37
952
原创 昆仑万维开源SkyReels-V2,解锁无限时长电影级创作,总分83.9%登顶V-Bench榜单
从5秒到无限时长,SkyReels-V2不仅是一次技术突破,更降低了专业影视创作的门槛。无论是独立创作者还是商业团队,均可通过这一工具探索叙事表达的无限可能。
2025-04-24 22:37:31
1016
原创 全面超越OpenAI和Claude!字节开源UI-TARS-1.5-7B:7项基准刷新SOTA,一键接管你的电脑和手机
UI-TARS-1.5-7B 不仅仅是一个性能强大的模型,它代表了 AI 与用户界面交互方式的一次重要演进——从依赖特定 API 或脚本,到像人一样通过视觉理解和原生操作来控制一切。其在多项基准上的 SOTA 表现,以及在特定领域对顶尖模型的超越,都展示了其巨大的潜力。
2025-04-23 22:11:47
541
原创 字节UNO开源:一个模型搞定虚拟试衣/多图融合,DINO/CLIP双榜第一
字节跳动开源的UNO模型,凭借其创新的技术架构和“模型-数据共同进化”策略,成功实现了用单一模型高效处理虚拟试衣、多图融合等多种图像定制任务,并在权威基准测试中取得了DINO/CLIP双指标领先的骄人成绩。
2025-04-22 22:58:34
403
原创 RolmOCR重磅开源:基于Qwen2.5-VL,速度提升40%,手写/倾斜文档识别准确率超92%
RolmOCR的发布,无疑为开源OCR领域注入了新的活力。它基于强大的Qwen2.5-VL视觉语言模型,实现了速度、效率、准确性(尤其在处理手写和倾斜文档方面)的显著提升,并具备了超越传统OCR的文档理解能力。
2025-04-21 21:42:00
651
原创 上海 AI Lab放大招!InternVL3开源:1B到78B全尺寸覆盖,工具使用/GUI代理/工业分析一网打尽
InternVL3 的开源发布,无疑为多模态大模型领域注入了强大的新活力。其全尺寸的模型覆盖、领先的性能指标,特别是工具使用、GUI 代理、工业分析等实用高级能力的突破,以及完全开放的姿态,使其成为当下开发者和研究者不容错过的重量级选手。
2025-04-20 16:52:28
723
原创 深入解析NotaGen:5亿参数+三阶段训练,解锁高质量AI音乐生成
NotaGen凭借其5亿参数的庞大规模、创新的三阶段训练范式 (预训练+SFT+CLaMP-DPO) 以及精细的可控生成能力,在高质量古典音乐的符号生成领域取得了显著突破。它不仅展示了AI在理解和创作复杂艺术形式方面的巨大潜力,更通过开源将这一前沿技术带给了更广泛的社区。
2025-04-19 11:13:55
874
原创 Spark-TTS 0.5B 震撼发布:RTF低至0.04,开源TTS步入实时高清新纪元!
如果仅仅是快,那还不足以称为“新纪元”。Spark-TTS 的另一大杀手锏在于其卓越的**“高清”音质**。我们用**平均意见得分(Mean Opinion Score, MOS)**来衡量,这是一个 1 到 5 分的主观评价标准,分数越高,代表声音越自然、越清晰、越接近真人。Spark-TTS 0.5B 公布的 MOS 分数 稳定超过 4.1。MOS > 4.1 是什么水平?难以分辨: 一般认为 MOS 超过 4.0,普通听众就很难区分是机器合成还是真人录音。
2025-04-18 12:07:13
632
原创 不止Sora!阿里开源14B视频大杀器Wan2.1-FLF2V:720P高清、中英文字幕、首尾帧精准生成
Wan2.1-FLF2V-14B 不仅仅是 Sora 之外的又一个选择,它以其独特的首尾帧控制能力、高清画质、中英文字幕生成以及完全开源的特性,为视频创作带来了全新的范式和可能性。
2025-04-18 10:47:54
919
原创 16.4B参数仅激活2.8B!Kimi-VL-A3B开源:长文本、多模态、低成本的AI全能选手
Kimi-VL通过轻量化架构设计与渐进式训练策略,证明了小模型也能实现高性能多模态推理。其开源协议(MIT)与易用性为开发者提供了低成本落地方案。无论是学术研究还是工业应用,Kimi-VL都值得一试!
2025-04-17 19:10:52
411
原创 全球第二!中国17B开源图像模型HiDream-I1登顶榜单,比肩GPT-4o
HiDream-I1 以其 170 亿的庞大参数、登顶 HPSv2.1 的图像质量、媲美顶尖模型的指令遵循能力,以及完全开源可商用的开放性,为文生图领域树立了新的标杆。
2025-04-15 23:18:00
1065
原创 250万数据炼成SQL翻译官!中国团队OmniSQL九项测试碾压GPT-4o
OmniSQL并非一个单一模型,而是一个专门为Text-to-SQL任务量身打造的开源大语言模型(LLM)家族。它旨在精准地理解用户的自然语言问题,并将其转化为可在数据库上执行的SQL查询代码。OmniSQL-7B: 基于 CodeLlama-7b-hfOmniSQL-14B: 基于 WizardCoder-15B-V1.0 (Mistral-7B 基座)OmniSQL-32B: 基于 DeepSeek-Coder-33B-instruct。
2025-04-14 22:18:03
948
原创 24亿参数!全球首个多模态重排模型Jina-Reranker-M0开源:支持29种语言+4K图像处理
Jina Reranker M0 的发布,无疑是多模态 AI 领域的一个里程碑。凭借其 24 亿参数的庞大规模、基于 Qwen2-VL 的先进架构、10K 超长上下文、多语言和 4K 图像处理能力,它为解决图文混合信息的精准排序问题提供了前所未有的强大工具。
2025-04-13 21:35:55
796
原创 揭秘BizGen:2.7B参数模型助力商业文案生成,效率提升3倍
BizGen 是一款专为商业领域文本生成任务打造的开源大模型,具有 2.7B 参数规模。与通用语言模型相比,BizGen 在预训练和微调阶段均大量采集商业文案、营销推广、产品介绍等数据,确保生成文本不仅语义连贯,而且风格精准、符合商业需求。高效生成:在同类模型中,BizGen 显著提升了文案生成速度,实验数据显示生成效率提升约 3 倍。专业定制:模型针对商业场景进行深度优化,生成的文本在逻辑、表达和营销语境上更具专业性。
2025-04-13 10:45:57
624
原创 HuggingFace镜像站-AI 快站使用说明文档
欢迎使用 AI 快站!我们致力于为 AI 开发者提供稳定、高速、免费的 Hugging Face 模型和数据集下载加速服务。本文档将引导您快速掌握 AI 快站的各项功能,解决模型下载难题,提升开发效率。🚀 为什么选择 AI 快站?
2025-04-10 12:37:55
798
原创 性能炸裂!Thera 开源超分模型:让你的低清图像焕发新生
简单来说,Thera 是一种先进的深度学习模型,专门用于提升图像的分辨率,也就是我们常说的“图像放大”或“超分”。1. 打破固定倍数限制:实现“任意尺度”放大 传统的超分模型通常只能进行固定倍数(如 x2, x3, x4)的放大。如果你想放大 2.5 倍或者 π 倍呢?传统方法往往效果不佳或难以实现。Thera 借助其独特设计,可以实现任意实数倍数的平滑缩放,无论是整数倍还是非整数倍,都能高质量完成。
2025-04-09 22:01:20
668
原创 Llama 4 来了!AI 快站助你一键极速下载,抢先体验 MoE + 多模态 + 超长上下文
Llama 4 的发布无疑是开源大模型领域的一个里程碑。其 MoE 架构、原生多模态能力、以及惊人的千万级上下文窗口,将极大地推动 AI 应用的边界,尤其是在需要处理海量信息、进行多模态交互的场景(如科研、医疗、工程、内容创作等)。虽然目前 Llama 4 Reasoning 模型尚未发布,且新许可证对超大型企业有一定限制,但 Scout 和 Maverick 的开放无疑为广大开发者和研究者提供了强大的新工具。Meta 表示这只是开始,后续还有更多模型值得期待。
2025-04-06 11:44:29
580
原创 秒级生成、细节拉满!探索阿里巴巴 LHM 开源模型,人人都是 3D 建模师
LHM 以其惊人的速度、出色的细节还原能力和易用性,真正意义上革新了 3D 数字人的创建方式。它不仅是一个强大的技术工具,更是一个激发创意的平台,让“人人都是 3D 建模师”的愿景触手可及。
2025-04-03 03:00:00
1083
原创 不止中英双语!港科大 LLaSA 模型让 AI 语音带上喜怒哀乐,15秒克隆你的声音!
港科大 LLaSA 模型无疑是 TTS 领域的一个重要里程碑。它不仅在中英双语合成上达到了极高水准,更在情感表达和快速语音克隆方面取得了显著突破,极大地提升了合成语音的自然度和个性化程度。
2025-04-02 01:30:00
592
原创 字节跳动 InfiniteYou 开源:1-4 张图打造你的高清数字分身
InfiniteYou 是一款先进的个性化图像生成 (Personalized Image Generation) 模型,专注于高保真度的人物身份保持 (High-Fidelity Identity Preservation)。简单来说,它的核心任务是:给定极少量(1-4 张)包含目标人物的人脸参考图像,以及一个描述期望场景、姿态或风格的文本提示 (Text Prompt),生成一张全新的图像。1. 身份高度一致: 生成的人物必须看起来就是参考图像中的那个人,保留其独特的面部特征和细节。
2025-04-01 07:00:00
790
原创 字节跳动 MegaTTS3 开源:0.45B 参数实现高质量中英双语 TTS 与语音克隆
MegaTTS3 是字节跳动最新研发并开源的新一代文本转语音模型。它的核心目标是生成高度自然、富有情感并且与目标说话人音色高度相似的语音。与许多大型模型不同,MegaTTS3 在追求高质量的同时,也注重模型的效率和轻量化。高质量语音合成: 旨在生成清晰、自然、韵律丰富的语音。中英双语支持: 无缝支持中文和英文的文本输入,甚至能在同一段语音中实现自然的代码切换(Code-Switching)。高质量语音克隆: 能够学习并模仿目标说话人的独特音色,实现个性化语音合成。
2025-03-31 02:15:00
1617
1
原创 开源3D生成新标杆:TripoSG如何实现“秒级”高精度三维建模?
TripoSR 是一款先进的 图像到 3D (Image-to-3D) 模型,它的核心使命是:从单一 2D 图像快速、高效地生成高质量的带纹理 3D 网格模型。它由知名的 AI 公司 Stability AI 和 3D 建模平台 Tripo AI 合作开发并完全开源,旨在降低 3D 内容创作的门槛,让更多人能够轻松将 2D 创意转化为 3D 实体。极速生成: 核心卖点,能在极短时间内完成 3D 重建。单图输入: 摆脱了对多视角、深度图等复杂输入的依赖。
2025-03-30 04:00:00
698
原创 双卡 RTX 5090 深度体验:AI 推理框架选择与性能限制实测
本次双 RTX 5090 的深度体验为我们带来了不少有价值的信息。硬件本身性能强大,双卡并行潜力巨大,但务必重视散热方案和电源配置,以确保稳定运行。在推理框架选择上,Ollama 是当前最方便、开箱即用的选择,适合快速上手和实验。需要特别注意的是,像 SGLang 和 vLLM 这类广泛用于高并发、低延迟生产环境的推理框架,目前对 RTX 5090 的官方支持存在明显滞后。SGLang 因 CUDA 版本限制暂不可用,而 vLLM 需要特定环境下的手动编译,且稳定性有待验证。
2025-03-29 19:50:35
1631
原创 开源金融推理新标杆!Fin-R1以7B参数逼近DeepSeek-R1满血版,单卡4090即可部署
Fin-R1 (Finance Reasoning Large Language Model) 并非通用型大模型,而是专为金融领域设计的推理(Reasoning)大模型,属于 R1 类模型。数据碎片化与噪音: 金融数据来源多样,格式不一,噪音多,难以有效利用。推理逻辑不可控: 传统模型像个“黑箱”,难以理解其决策过程,这在需要高可靠性的金融领域是致命的。业务泛化能力弱: 模型往往在一个任务上训练好,换个场景就“水土不服”。
2025-03-27 19:59:21
916
原创 Step-Video-T2V技术深度解析:300亿参数模型实现8秒204帧视频的超清生成
从深度压缩Video-VAE到3D全注意力DiT,再到视频直接偏好优化技术,Step-Video-T2V通过多项核心技术创新,实现了300亿参数模型在8秒204帧视频生成任务中的卓越表现。借助这一模型,视频内容创作者可以大幅降低创作门槛,轻松生成电影级视频效果。我们期待更多开源力量的涌现,共同推动视频生成技术的未来发展!
2025-03-25 06:45:00
746
原创 开源视觉语言模型MiniMax-VL-01:动态分辨率+4M超长文本,性能比肩GPT-4o
在人工智能领域,构建能够像人类一样理解、思考和行动的智能体(AI Agent)一直是研究人员的终极目标之一。而实现这一目标的关键在于模型是否具备足够强大的感知能力、记忆能力和推理能力。近期,国内人工智能公司MiniMax重磅开源了其最新的视觉语言大模型 MiniMax-VL-01,以高达 400万 tokens的超长上下文窗口和顶尖的多模态能力,为AI Agent的未来发展注入了强大的动力。
2025-03-24 18:40:27
898
原创 多模态SVG生成新标杆:StarVector从图像文本生成高精度SVG的AI模型
总而言之,StarVector 作为一款开源的 AI 模型,在图像到 SVG 和文本到 SVG 的生成方面均展现出最先进的性能。它采用创新的代码生成方法,能够生成高质量、可伸缩的矢量图形。凭借其庞大且多样化的训练数据集,StarVector 展现出了强大的性能。更重要的是,作为一款开源模型,它在 Hugging Face 上的可访问性将极大地促进社区的发展和应用。
2025-03-23 00:00:00
1237
原创 仅凭视频输入,30秒生成物理正确3D布局!群核科技开源空间理解模型SpatialLM
SpatialLM作为一款开源空间智能模型,具备处理多源三维数据并生成结构化场景理解结果的能力,在具身智能等领域具有广阔前景]。其开源特性将促进社区的共同发展,加速空间智能技术的创新和应用。
2025-03-22 00:00:00
531
原创 256M参数挑战7B巨头,IBM开源文档处理神器SmolDocling
正是在这样的背景下,IBM 研究院与 Hugging Face 合作推出了 SmolDocling,这是一款超紧凑的视觉语言模型(VLM),专为将复杂的文档转换为结构化的、机器可读的格式而设计。在信息爆炸的时代,我们每天都需要处理大量的文档,无论是工作中的合同、报告,还是学习中的论文、资料。其超紧凑的体积、在各种文档转换任务中的卓越性能(包括 OCR、布局分析以及对复杂元素的识别)、创新的 DocTags 格式以及在 Hugging Face 上的开源发布,都使其成为一个极具吸引力的选择。
2025-03-21 18:59:03
623
原创 8卡L20满血运行 QwQ-32B ,每秒2600+ Tokens,压测数据全公开!
本文详细介绍了 QwQ-32B 模型的部署与测试过程,从环境准备到压力测试,每一步都提供了清晰的操作指南和实际示例。通过这些步骤,大家能够轻松地在自己的环境中部署和测试 QwQ-32B 模型,并根据压测数据对模型性能有更深入的了解。希望本文能为大家在人工智能模型的应用和优化方面提供有价值的参考。
2025-03-20 22:51:21
1240
原创 单卡4090就能跑!Mistral开源多模态小模型3.1:128K上下文+超低延迟,性能碾压GPT-4o Mini
法国AI公司Mistral AI于2025年3月18日正式开源Mistral Small 3.1,这是一款参数规模为240亿(24B)的多模态模型。凭借其128K超长上下文窗口和每秒150 tokens的处理速度,该模型在性能上超越GPT-4o Mini、Gemma 3等竞品,同时仅需单张RTX 4090显卡或32GB内存的Mac设备即可流畅运行,真正实现“小身材,大能量”。
2025-03-18 22:29:12
478
原创 轻松部署Gemma3-27B,L20服务器+最新版vLLM高效推理
本文详细介绍了如何在L20服务器上使用最新版vLLM部署Gemma3-27B模型。通过本文相信你已经成功搭建起了Gemma的推理引擎,可以尽情探索大模型的奥秘。Gemma3-27B模型凭借其强大的语言理解和生成能力,将在各种实际应用场景中发挥重要作用。
2025-03-16 20:25:18
1446
原创 告别高门槛!老旧GPU也能玩转阿里 QwQ-32B 大模型
QwQ-32B 模型部署友好: 无论是原生 ModelScope 部署还是 Ollama 量化部署,都非常简单快捷。老旧 GPU 也能流畅运行: 在 V100 这样的老旧 GPU 上,QwQ-32B 也能跑起来,甚至 Ollama 量化版本对硬件要求更低。性能表现亮眼: 评测数据和简单测试都表明,QwQ-32B 在多个任务上都展现出优秀的性能。如果你也想体验这款“平民级”大模型,不妨按照本文教程,让你的老旧 GPU 焕发新生!相信 QwQ-32B 会给你带来意想不到的惊喜!
2025-03-16 00:30:00
1337
原创 H200部署DeepSeek R1,SGLang调优性能提升2倍,每秒狂飙4000+ Tokens
对于大多数生产环境, SGLang2(启用 --enable-dp-attention)可能是在性能和稳定性之间取得最佳平衡的选择。您可以根据实际应用场景和资源情况, 选择最合适的 SGLang 参数配置。
2025-03-15 00:00:00
1531
原创 生产环境H200部署DeepSeek 671B 满血版全流程实战(四):vLLM 与 SGLang 的性能大比拼
EvalScope是魔搭社区官方推出的模型评测与性能基准测试框架,内置多个常用测试基准和评测指标,如MMLU、CMMLU、C-Eval、GSM8K、ARC、HellaSwag、TruthfulQA、MATH和HumanEval等;支持多种类型的模型评测,包括LLM、多模态LLM、embedding模型和reranker模型。EvalScope还适用于多种评测场景,如端到端RAG评测、竞技场模式和模型推理性能压测等。官网:https://evalscope.readthedocs.io。
2025-03-14 16:49:56
1454
原创 生产环境H200部署DeepSeek 671B 满血版全流程实战(三):SGLang 安装详解
随着前两篇文章的推进,我们已经成功地在H200服务器上完成了DeepSeek 671B满血版的系统初始化以及vLLM的安装配置工作,整个部署架构正逐渐变得丰富和完善。但为了进一步挖掘模型的潜力,实现更加高效、精准的推理服务,SGLang的安装变得至关重要。SGLang作为一种专门针对大型语言模型(LLM)的推理引擎,它具备独特的优化机制,能够在资源利用率和推理速度方面带来显著提升,是整个DeepSeek 671B模型部署生态中不可或缺的一环。在本篇文章中,我们将聚焦于SGLang的安装过程。
2025-03-12 08:24:59
890
原创 生产环境H200部署DeepSeek 671B 满血版全流程实战(二):vLLM 安装详解
在上一篇文章,我们完成了H200服务器的系统初始化工作,包括驱动安装和CUDA环境配置,为DeepSeek 671B模型的部署奠定了基础。然而,面对单机8卡H200的141GB显存和NVLink高速互联的硬件资源,如何高效利用这些资源实现千亿参数大模型的推理加速,成为关键挑战。vLLM 作为一款高性能推理引擎,能够极大提升 DeepSeek 671B 模型在推理阶段的表现,使模型能够更快速、更准确地生成结果,满足生产环境中对实时性和高吞吐量的严苛要求。
2025-03-11 01:45:00
1406
原创 生产环境H200部署DeepSeek 671B 满血版全流程实战(一):系统初始化
NVIDIA H200凭借其141GB超大显存和高速NVLink技术,成为部署DeepSeek 671B 满血版的理想选择。然而,“工欲善其事,必先利其器”——在正式运行模型前,一套稳定、高效的服务器环境是成功的关键。许多开发者在部署大模型时,常因忽略系统配置细节(如驱动冲突、环境变量错误、多GPU通信异常)而踩坑。为此,本系列教程将从最基础的系统初始化开始,逐步拆解单机H200服务器部署DeepSeek 671B 满血版的完整链路,从零搭建高性能推理服务。
2025-03-10 19:50:05
1147
原创 VideoLLaMA 2:多模态视频理解新突破,音频理解能力再升级,挑战 GPT-4V
近年来,人工智能技术飞速发展,尤其是大模型的出现,为视频理解和生成领域带来了前所未有的机遇。然而,现有的视频大模型(Video-LLM)在处理视频中复杂的时空信息和音频信息方面仍存在不足,例如无法有效融合不同帧的特征,以及忽视了音频信息在场景理解中的重要作用。为了克服这些挑战,阿里巴巴达摩院发布了,一个旨在提升视频时空建模和音频理解能力的开源视频大模型。
2024-06-26 00:06:56
7518
6
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人