- 博客(8)
- 收藏
- 关注
原创 内外网物理隔离的企业内网部署小龙虾 OpenClaw(1):环境筑基篇
在企业内网物理隔离的环境下,既要保证服务的稳定性,又要兼顾开发部署的便捷性,是一个典型的“孤岛”运维场景。传统的 Windows 容器兼容性差,而 WSL2 在 Server 2019 上配置复杂且不稳定。本文记录了一种**“Windows 宿主机 + Hyper-V Linux 虚拟机 + Docker 原生环境”**的最优解架构。我们将内网 Windows Server 2019 变为一个强大的虚拟化底座,利用 Ubuntu 虚拟机为 OpenClaw 提供完美的 Linux 运行时环境。
2026-03-27 10:12:14
357
原创 李宏毅深度学习笔记7-自注意力机制及其在掩码自编码器(MAE)中的实现
自注意力优势:灵活建模长程依赖、完全并行、统一架构。挑战:计算复杂度高、小数据易过拟合、位置信息需额外处理。注意力机制,或许真是AI理解世界的关键火种。
2026-01-05 10:37:21
504
原创 李宏毅深度学习笔记6-RNN及其与transformer机构5大特点的对比分析
天然适合处理序列数据具有记忆能力,能捕捉长期依赖参数共享,模型参数量相对较小print("=== Transformer vs RNN 综合对比 ===")print()print("1. 计算效率:")print(" Transformer: 并行计算,训练速度快")print(" RNN: 顺序计算,训练速度慢")print("\n2. 长期依赖:")print(" Transformer: 通过注意力机制直接建模")print(" RNN: 需要LSTM/GRU等复杂结构")
2026-01-04 11:12:13
490
原创 李宏毅深度学习笔记5-CNN及三大简化在YOLO中的应用
卷积神经网络通过感受野参数共享和汇聚三大简化,巧妙利用了图像的局部性平移不变性和层次结构,在大幅减少参数的同时提升了泛化能力。💡核心启示好的模型架构 = 对任务特性的深刻理解 + 有针对性的约束设计。CNN 不是“魔法”,而是基于图像本质的工程智慧。
2025-12-31 09:54:35
526
原创 李宏毅深度学习笔记4-神经网络优化及几何特征分类中的鞍点挑战
综合上述技术,当前主流优化更新可表示为:$m_t^i$:动量(历史梯度加权和,含方向)$\sigma_t^i$:自适应学习率分母(梯度幅值统计,无方向)$\eta_t$:调度后的全局学习率关键洞见:动量与自适应学习率不抵消,因前者保留方向信息,后者仅反映幅度。
2025-12-29 14:00:49
784
原创 李宏毅深度学习笔记3-机器学习训练及交叉验证中如何防范数据泄露
—即模型在训练阶段无意接触了本应在预测时不可用的信息。在机器学习实践中,当模型在测试集(如Kaggle)上表现不佳时,模型在训练集上表现极好(甚至损失≈0),但在测试集上表现差,✅ 优势:减少因随机划分导致的验证偏差,提升模型选择稳定性。任何在训练时“偷看”验证信息的操作,都会导致评估失真。:训练损失是“地基”,只有地基稳固,才谈得上泛化能力。模型本身有能力拟合数据(即“针在海里”),但。🌊 比喻:想在海里捞针,但针根本不在海里。,以用户ID为group,保证群体不跨集。,可能卡在局部极小值或收敛困难。
2025-12-25 09:18:12
958
原创 李宏毅深度学习笔记2-从线性模型到时序神经网络
模型类型训练损失测试误差优势缺陷线性(1天)480580简单、可解释无法捕捉周期线性(56天)320460利用更多信息仍为线性100-ReLU(单层)280~440非线性拟合表达能力有限3层 ReLU140380深度提取特征需防过拟合4层 ReLU100440更强拟合过拟合✅最终建议:在实际部署中,应选择验证集误差最小的模型(如3层网络),并考虑引入日历特征和概率输出以提升实用性。
2025-12-20 20:27:25
890
原创 李宏毅深度学习笔记1-案例学习视频点击次数预测
我们首先提出一个带有未知参数的函数,即模型。最简单的线性模型形式为:$ y $:要预测的目标(如今天总观看次数)$ x_1 $:输入特征(如昨天的观看次数)$ w $:权重(weight)$ b $:偏置(bias)注意:$ w $ 和 $ b $ 是未知参数,需通过数据学习得到。这个过程依赖一定的领域知识(domain knowledge)——比如我们认为“今天的观看量可能与昨天相关”。该函数称为模型,其本质是一个带参数的函数。损失函数衡量当前参数的好坏。
2025-12-17 21:32:01
609
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅