自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(148)
  • 收藏
  • 关注

原创 【AI学习】OpenAI:《A practical guide to building agents》(中文介绍与原文)

OpenAI最新发布《A practical guide to building agents》,比较有指导意义,做一个介绍。

2025-04-18 22:46:08 1028 1

原创 【AI学习】NVIDIA Sionna平台介绍:《Sionna: An Open-Source Library for Next-Generation Physical Layer Research》

Sionna是NVIDIA推出的面向6G无线通信物理层研究的开源库,为6G的技术研究(尤其是AI方面)提供了全新工具,非常有价值。下面对Sionna平台进行介绍。

2025-04-18 22:37:57 1002

原创 【AI工具】用大模型生成脑图初试

试用了一下通过大模型生成脑图,非常简单

2025-04-16 16:49:25 163

原创 【AI学习】李宏毅老师讲AI Agent摘要

在b站听了李宏毅2025最新的AI Agent教程,简单易懂,而且紧跟发展,有大量最新的研究进展。

2025-04-15 17:09:40 224

原创 【AI绘画】热烈祝贺“木刻时光·细密风”模型获得三等奖

此模型是为了参加魔搭社区组织的“AI梦:一丹一世界”大赛,大赛最终有283个模型参赛,经过前期的入围评选和最后的专家评选,“木刻时光·细密风”模型获得三等奖。相关赛事链接:https://modelscope.cn/brand/view/dreaming。作为一个工科生,首次涉足艺术领域,就获得这样的成绩,实属来之不易,特此发博纪念!

2025-04-10 22:41:20 230

原创 【AI学习】初步了解Gradio

Gradio 是一个开源的 Python 库,专注于快速构建交互式 Web 界面,特别适用于机器学习模型、数据科学项目或任意 Python 函数的演示与部署。它通过极简的代码实现前后端一体化,无需前端开发经验即可创建功能丰富的应用。

2025-04-07 21:43:18 621

原创 【AI学习】初步了解TRL

TRL(Transformer Reinforcement Learning) 是由 Hugging Face 开发的一套基于强化学习(Reinforcement Learning, RL)的训练工具,专门用于优化和微调大规模语言模型(如 GPT、LLaMA 等)。它结合了 PPO(Proximal Policy Optimization) 等强化学习算法,使开发者能够高效地对预训练语言模型进行 RL 微调,以优化特定目标(如人类偏好对齐、任务性能提升等)。

2025-04-07 21:36:19 826

原创 【AI学习】MCP的简单快速理解

最近,AI界最火热的恐怕就是MCP了。作为一个新的知识点,学习的开始,先摘录一些信息,从发展历程、通俗介绍到具体案例,这样可以快速理解MCP。

2025-04-04 22:45:56 835

原创 【论文阅读】RadioDiff: Effective Generative Diffusion Model for Sampling-Free RadioMap Construction

RadioDiff模型对无线通信领域研究具有显著的促进作用。它为6G网络等提供了精准的无线环境信息,助力网络优化与部署。在智能交通、远程医疗等领域,能保障应用的稳定运行。其高效、精准的无线地图构建能力,为无线通信新技术的研发提供了有力支持,推动了无线通信技术的创新与发展,加速了6G网络等应用场景的实现进程。

2025-03-29 23:00:15 1473 1

原创 【AI绘画】大卫• 霍克尼与胡安·米罗的相遇

若以霍克尼的具象语言重新演绎米罗的抽象符号,两种风格的碰撞的效果?

2025-03-28 22:48:30 637

原创 【AI绘画】干刻版画的建模尝试

干刻(Drypoint)是一种独特的版画雕刻技艺,其核心在于以刀代笔,直接在金属版(多为铜版或锌版)表面进行雕刻。与需要化学腐蚀的蚀刻法不同,干刻仅依靠物理刻痕完成创作,雕刻师需手持尖锐的钢针,通过手腕力量在版面上划出深浅不一的线条。这种技法最显著的特征在于刻痕边缘会翻起金属毛边(Burr),当油墨填入凹槽后,毛边会吸附更多颜料,最终在印刷时形成朦胧的灰调与柔和的过渡,赋予画面独特的颗粒感和呼吸感

2025-03-22 18:27:22 335

原创 【AI学习】从混元T1看Mamba与Transformer的融合

SSM-Transformer混合架构。具体做法是将自注意力和MLP层添加到Mamba架构中。56层的Mamba-2-Hybrid中包含4个(7.1%)自注意力层,24 个(42.9%)Mamba-2层和28个(50%)MLP 层,其中Mamba-2层使用与Mamba-2模型相同的参数。消融实验的结果还显示,混合模型中不添加旋转位置编码(RoPE)能达到更好的下游任务性能,而且Mamba层、自注意力层、MLP层的顺序也会影响模型能力。具体来说,Mamba层必须出现在架构的开头,以确保模型自然地学习到位置信息

2025-03-22 18:21:09 1079

原创 【AI工具】夸克AI的深度思考和AI总结试用

初步尝试夸克AI的深度思考和AI总结试用

2025-03-21 09:32:09 2119

原创 【AI工具】试用秘塔AI搜索的“生成互动网页”功能

试用了秘塔AI搜索的“生成互动网页”功能,简单实用!

2025-03-20 22:31:29 946

原创 【AI学习】从RLHF到GRPO

最近学习了从RLHF到GRPO的发展变化

2025-03-13 09:02:01 179

原创 【AI非常道】二零二五年二月,AI非常道

有关AI非常之言语,即AI非常道!

2025-03-13 09:00:00 616

原创 【AI学习】关于Kimi的MoBA

MoBA论文一作、知乎答主【Andrew Lu】的回答详述了研发过程中三次踩坑的经起伏历,被知友形容为「思维链背后的思维链开源」

2025-03-12 22:16:44 209

原创 【AI绘画】“木刻时光·细密风”模型发布

这一版是针对黑白木刻风格进行Lora微调的第三版模型。对比第一版,能够刻画的更加细腻,泛化性也获得大幅提升。

2025-03-06 22:28:15 419

原创 【AI学习】DeepSeek的发展与行业应对策略

一看AI的技术边界,准确判断AI真的能做什么;二看问题看增量,看自己行业、自己周边的问题和增量机会。

2025-03-06 22:23:50 927

原创 【AI绘画】黑白木刻之希腊神话系列(一丹一世界)

在魔塔社区的AIGC专区,通过Lora技术训练了一个黑白木刻风格的模型。再通过Deepseek生成希腊神话的提示词。

2025-03-02 21:33:22 808

原创 【AI绘画】大卫• 霍克尼风格——自然的魔法(一丹一世界)

最近在魔塔社区稍微学习了通过Lora技术生成图片,尝试一下大卫• 霍克尼的风格

2025-02-21 22:02:12 367

原创 【AI学习】DeepSeek-R1-Distill的意义和影响

在DeepSeek R1的技术报告中,还有这样一个技术:蒸馏赋予小模型推理能力。这项技术的意义和影响是什么?

2025-02-12 22:12:11 1062

原创 【AI学习】DeepSeek为什么这么火爆?解密梁文锋的深谋远虑

重新回头,复盘一下DeepSeek的发展思路,以及未来的发展策略。越想越佩服梁文锋,思路之缜密,令人震惊!

2025-02-12 15:28:02 1159

原创 【AI学习】LLM的发展方向

个人觉得,可能还有两个scaling方向,就是训练成本和推理成本的持续降低,或许这依赖于新的更高效——同时也能scaling的架构

2025-02-10 22:05:35 414

原创 【AI学习】DeepSeek为什么强?

DeepSeek为什么强?四个方面:模型的智能水平、训练成本、推理成本和用户体验。

2025-02-10 22:00:02 1594

原创 【AI学习】关于 DeepSeek-R1的几个流程图

关于DeepSeek-R1的几个流程图,清晰易懂形象直观

2025-02-08 23:11:35 3006

原创 【AI非常道】二零二五年一月(二),AI非常道

经常在社区看到一些非常有启发或者有收获的话语,但是,往往看过就成为过眼云烟,有时再想去找又找不到。索性,今年开始,看到好的言语,就记录下来,一月一发布,亦供大家参考

2025-01-30 23:07:23 1230 1

原创 【AI非常道】二零二五年一月,AI非常道

经常在社区看到一些非常有启发或者有收获的话语,但是,往往看过就成为过眼云烟,有时再想去找又找不到。索性,今年开始,看到好的言语,就记录下来,一月一发布,亦供大家参考。

2025-01-25 21:43:48 767

原创 【AI工具】夸克AI试用:分析DeepSeek-V3技术报告

DeepSeek-V3是一个拥有6710亿参数的专家混合(MoE)语言模型,每次生成一个标记时激活370亿参数。为了实现高效推理和经济型训练,DeepSeek-V3采用了多头潜在注意力(MLA)和DeepSeekMoE架构,这两种架构在DeepSeek-V2中得到了充分验证。此外,DeepSeek-V3率先采用无辅助损失策略进行负载均衡,并设置了多标记预测训练目标以实现更强大的性能。

2025-01-19 08:00:00 4405

原创 【AI学习】地平线首席架构师苏箐关于自动驾驶的演讲

在地平线智驾科技畅想日上,地平线副总裁兼首席架构师苏箐(前华为智驾负责人)做了即兴演讲,以下是其演讲的主要内容:对自动驾驶行业的看法自动驾驶的难度与挑战:苏箐表示自动驾驶非常难,他做自动驾驶到现在已经快抑郁了,很多优秀的同学都改行了,去做具身智能机器人。他认为自动驾驶是第一个在物理世界跟人交互的机器人,是在一个半规则和半非规则的场景里面的东西,如果连自动驾驶都搞不定,去做完全是非结构化的机器人是不可能的。自动驾驶的价值拐点:苏箐认为自动驾驶系统的竞争对手是人类本身,其价值是一个拐点式的价值。

2025-01-15 11:30:33 1131

原创 【AI学习】Transformer深入学习(二):从MHA、MQA、GQA到MLA

从MHA、MQA、GQA到MLA的简单分析和对比

2025-01-04 23:30:14 1841

原创 【AI工具】PDFMathTranslate安装使用

用了一天时间,安装并使用了PDFMathTranslate这款PDF文档翻译工具。PDFMathTranslate是能够完整保留排版的 PDF 文档全文双语翻译项目,之前使用文档翻译的时候,对于论文这种类型的文章,由于图表和公式太多,文档翻译经常出现格式错乱。试用下来,效果不错,而且免费。

2025-01-04 19:43:04 11163 11

原创 【AI学习】Hinton老爷子的有趣观点

在人类的记忆模式中,编造事情和回忆事情之间没有明确的界限,记忆某事本质上就是编织一些看似合理的东西

2025-01-01 23:26:13 806

原创 【AI学习】2024年末一些AI总结的摘录

看到不少的总结,边摘录边思考。尤其是这句话:“人类真正的问题是:我们拥有旧石器时代的情感、中世纪的制度和神一般的技术”。

2025-01-01 21:57:11 1248 1

原创 【AI学习】DeepSeek-V3 技术报告学习:总体架构

翻了一下DeepSeek-V3 技术报告学习,太长,只是大概翻了一下,其中Multi-Token Prediction的技术就很亮眼。

2024-12-28 22:17:05 8743

原创 我的创作纪念日:一个AI小白的年度经历

对于AI的学习,陆陆续续,也持续了一年多了,从一个完全的小白,到能够理解最前沿的技术

2024-12-28 11:18:12 715

原创 【AI学习】Huggingface复刻Test-time Compute Scaling技术

OpenAI ChatGPT o1 背后的关键技术Test-time Compute Scaling,Huggingface实现并开源了!Hugging Face 团队发布了一篇关于“开源模型中的推理阶段计算扩展”(Test-time Compute Scaling) 的研究文章。Hugging Face 团队通过复现 DeepMind 等研究成果,通过测试时计算扩展(test-time compute scaling)来提升小模型的性能,使其在某些情况下超越更大规模的模型。

2024-12-21 22:17:38 1692 1

原创 【AI学习】OpenAI推出o3,向AGI迈出关键一步

2024年12月21日,OpenAI在其为期12天发布会活动的最后一天,正式发布了备受期待的o3系列模型,包括o3和o3-mini。o3 是一个非常强大的模型,在编码、数学以及 ARC-AGI 基准测试等多个基准上超过了 OpenAI 此前的 o1 模型(o1得分25%,o3得分87.5%)。o3-mini 是 o3 更经济高效且性能导向的版本,在成本和延迟方面比 o1-mini 低得多,同时提供类似的功能。

2024-12-21 21:39:36 1347

原创 【AI学习】Ilya在NeurIPS 2024的重磅发言:预训练即将终结!

最近,Ilya在NeurIPS 2024的发言引起广泛关注,很多人说这可能是今年最重要的发言。各个自媒体都有相关文章,这里记录作为备忘。

2024-12-18 06:00:00 1063

原创 【AI学习】OpenAI研究员Noam Brown:推理计算让我们重回“GPT-2”时代

作为O1项目的核心成员,他从一线研究者的视角,详细阐述了推理计算扩展的一些思考。和Ilya 讲预训练结束的主要原因是数据耗尽原因不同,Noam则强掉了经济性因素——预训练的扩展现在太贵太复杂了,所以难以为继,而推理计算则正处于当年的”GPT-2“阶段,方兴未艾。对于Noam预测,未来可能会出现一个统一模型,这个论点我还是有点怀疑,或者如同生物进化一样,更多类似的智能组织在一起,更为合理。Noam认为,学术界在资源受限的情况下,应该专注于探索具备长期潜力的新技术,而不是在尖端领域与业界竞争。

2024-12-18 06:00:00 389

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除