- 博客(1414)
- 收藏
- 关注
原创 白话一刻:聊聊激光雷达和毫米波雷达的本质与配合
激光雷达是在问:“物体的表面在哪里?”(测绘几何形状)毫米波雷达是在问:“哪里有一个能强烈反射我信号的亮点?”(探测“高光”目标)所以,毫米波雷达的“视力”天生就是模糊的、不完整的,它擅长告诉你“前面有东西,速度很快”,但不擅长告诉你“那东西长得具体是什么样”。这就是它在做精细3D感知(比如识别行人手势、判断障碍物精确形状)时的核心难点。现在再来看看为什么分辨率低我们用“手电筒”这个比喻继续深挖,把“分辨率低”这件事彻底讲透。“分辨率低”,说白了就是“看得不够清楚、分得不够细”。
2025-12-14 15:13:40
413
原创 大模型面试题18:t-SNE算法详解及入门实操
t-SNE是高维数据可视化的“神器”,尤其适合看聚类结构,但它慢、不能预测新数据、全局结构失真;如果需要更快的速度和全局结构,可优先选UMAP;如果必须用t-SNE,就用Barnes-Hut版本提速。作为新手,咱们可以从核心定位、原理逻辑、实际效果如果你想压缩数据、给模型减负,优先选PCA;如果你想画高维数据的聚类图、直观分析类别分布,优先选t-SNE(或更快的UMAP);PCA是“为模型服务的降维工具”,t-SNE是“为人类理解服务的可视化工具”。
2025-12-09 09:59:08
1061
原创 大模型面试题17:PCA算法详解及入门实操
PCA就是个“高维数据的瘦身专家”,适合处理有线性关联的普通数据,但遇到非线性、有异常值的复杂数据就需要“升级版”算法来兜底!
2025-12-09 09:54:02
588
原创 大模型面试题16:SVM 算法详解及实践
根据不同的应用场景,可按以下原则选择DBSCAN及其改进算法:若需快速落地、无需手动调参:优先选择HDBSCAN,其层次化结构可适配密度不均数据,且自动输出最优聚类数;若需处理大数据集、要求实时性:选择KDTree-DBSCAN(索引优化)或GPU-Parallel DBSCAN(并行计算),平衡效率与效果;若需处理高维数据(多特征融合):选择Kernel-DBSCAN(核映射)或PCA+DBSCAN(降维+聚类),解决维数灾难问题;
2025-12-09 09:44:34
775
原创 大模型面试题15:DBSCAN聚类算法:步骤、缺陷及改进方向
根据不同的应用场景,可按以下原则选择DBSCAN及其改进算法:若需快速落地、无需手动调参:优先选择HDBSCAN,其层次化结构可适配密度不均数据,且自动输出最优聚类数;若需处理大数据集、要求实时性:选择KDTree-DBSCAN(索引优化)或GPU-Parallel DBSCAN(并行计算),平衡效率与效果;若需处理高维数据(多特征融合):选择Kernel-DBSCAN(核映射)或PCA+DBSCAN(降维+聚类),解决维数灾难问题;
2025-12-08 21:13:33
612
原创 大模型面试题14:K-means聚类算法全解析(通用场景+深度拓展)
K-means的核心优势是简单、高效、易工程实现,这使其成为无监督学习中最基础、最常用的算法;但其固有缺陷(K值依赖、对初始值和噪声敏感、簇形状限制等)也决定了它无法直接适用于所有场景。在实际应用中,需根据数据特点和业务需求选择合适的改进算法:含噪声数据选K-medoids,大数据实时场景选Mini-batch K-means,非球形簇选Kernel K-means,模糊归属场景选FCM,K值未知选自适应K-means。
2025-12-08 21:09:06
682
原创 大模型面试题13:pandas的基本操作
view()仅适用于连续张量,非连续需先;返回视图,修改会影响原张量;bmm无广播,批量矩阵相乘需保证batch数一致;dot对高维张量会展平,优先用matmul替代。
2025-12-08 17:08:00
284
原创 大模型面试题12:Torch的基本操作
以上内容覆盖了Pandas从基础到进阶的全场景操作,包含详细规则、示例、边界案例和避坑指南,可直接落地到实战场景中。
2025-12-08 17:07:50
754
1
原创 大模型面试题11:余弦相似度 & 牛顿迭代法
xn1xn−fxnf′xnxn1xn−f′xnfxn适用场景:计算器数值计算、机器学习小样本参数优化、工程非线性方程求解;关键条件:函数可导、初始值靠近真实根、导数非零;优势与局限:收敛快(二阶),但对初始值敏感、高维场景(如大模型)计算二阶导数成本高。
2025-12-01 11:46:25
739
原创 大模型面试题10:KL散度与JS散度:数学原理、核心特性与大模型核心应用
这道题的关键是「理解分布差异的度量逻辑+绑定大模型落地场景」——不要只讲数学公式,要突出“为什么大模型在这个场景下用这种散度”,比如蒸馏用KL的单向性、GAN用JS的对称性,同时掌握两者的区别和常见追问,就能体现出大模型工程师的核心素养。
2025-11-26 10:37:04
294
原创 大模型面试题9:最大似然估计(MLE):定义、原理与大模型核心应用
给定已经观测到的数据,找到“最可能生成这些数据的模型参数”——“似然”就是“可能性”,MLE就是“找让数据出现概率最大的参数”。这道题的关键是「绑定大模型场景」—— 不要只讲数学,要突出MLE在预训练、损失函数、拟合评估中的落地应用,同时对比MAP,体现你对模型训练逻辑的深度理解,这正是大模型工程师的核心能力。
2025-11-26 10:36:17
622
原创 大模型面试题8:是否了解贝叶斯公式?
这道题的关键是「落地性」——不要只讲数学,要紧扣大模型的token生成、调参、分类等场景,体现你“用理论解决工程问题”的能力,这正是大模型工程师的核心要求。
2025-11-26 10:26:33
792
原创 大模型面试题7:用random(3)实现random(7)
利用 生成多位三进制数,将其转换为十进制后,取其中能被7等分的部分:设事件 表示最终返回 (x∈0-6),每次尝试中:4. 性能分析拒绝率:(每轮有22.2%概率重试);期望迭代次数: 次(平均每生成1个random(7)需调用random(3)约2.57次)。三、方法二:优化拒绝采样(降低拒绝率)1. 原理:复用“拒绝值”提升效率基础方法中被拒绝的 并非完全无用——它们可视为一个新的无偏生成器:4. 优势期望迭代次数降至约1.1次,调用random(3)的次数更少,工程效率更高
2025-11-26 10:14:30
353
原创 大模型面试题6:通俗易懂讲解SVD奇异值分解
A = UΣVᵀ矩阵维度核心性质通俗理解U(左奇异向量矩阵)M×M列向量两两正交(UᵀU = I,I为M阶单位矩阵)描述矩阵A“行空间”的核心方向(比如车载图像的行像素特征方向)Σ(奇异值对角矩阵)M×N仅对角线有非零值(奇异值σ₁≥σ₂≥…≥σ_k≥0,k=min(M,N)),其余元素为0矩阵A在对应“方向”上的“缩放强度”(类似特征值的作用)V(右奇异向量矩阵)N×N列向量两两正交(VᵀV = I,I为N阶单位矩阵)
2025-11-25 11:37:44
948
原创 大模型面试题5:矩阵(M*M)特征值分解的步骤
步骤核心操作通俗理解1构造A - λI,计算行列式det(A - λI),解方程det(A - λI)=0,得到M个特征值λ₁~λ_M找到矩阵A的“缩放倍数”2对每个λ_i,解方程组(A - λ_iI)x = 0,得到对应的非零特征向量x_i找到每个“缩放倍数”对应的“作用方向”3特征向量x₁x_M作为列组成矩阵P,特征值λ₁λ_M作为对角线元素组成对角矩阵Λ把“方向”和“倍数”整理成标准形式4(可选)计算P的逆矩阵P⁻¹,验证A = PΛP⁻¹确认分解结果正确。
2025-11-25 11:10:19
1188
原创 大模型面试题4:最小二乘法的步骤
用直线预测的y值是:ŷᵢ = a xᵢ + b(ŷ读“y帽”,代表预测值);实际y值和预测值的偏差:eᵢ = yᵢ - ŷᵢ(比如实际y=5,预测ŷ=4.8,偏差e=0.2);为什么用“平方和”而不是直接加偏差?偏差有正有负(比如有的点在直线上方,e为正;有的在下方,e为负),直接相加会抵消,无法反映真实误差;平方后:正负偏差都变成正的,且大偏差会被放大(比如e=2的平方是4,比e=1的平方1更受重视),能倒逼直线更贴近偏离大的点。
2025-11-25 10:55:24
510
原创 大模型面试题3:如何计算exp(A) ,其中A为一个矩阵。
矩阵类型推荐方法核心优势乘几次就变全零(幂零矩阵)直接级数求和不用算无限项,一步到位能变成对角矩阵(大部分矩阵)相似对角化步骤清晰,手动算可行高阶矩阵(3阶以上)数值方法(软件算)高效精确,不用手动计算。
2025-11-25 10:45:17
608
原创 大模型面试题2:求这个矩阵的秩是多少?
关键原理:行初等变换不改变矩阵的秩,这是高斯消元法的理论基础。核心步骤:通过行变换将矩阵化为行阶梯形,非零行的数量即为矩阵的秩。操作技巧:优先处理主元列(首个非零元素所在列),从左到右逐步消元,必要时交换行顺序。
2025-11-25 10:25:08
587
原创 大模型面试题1:矩阵的秩
要理解秩,必须先理解线性无关。一组向量中,至少有一个向量可以被组内其他向量的线性组合(加法和数乘)表示出来。换句话说,这个向量是“冗余”的。向量。很明显。所以v1和v2是线性相关的。它们其实都指向同一个方向。一组向量中,任何一个向量都无法被组内其他向量的线性组合表示出来。每个向量都提供了独一无二的信息。在二维平面上,(东方向) 和(北方向) 是线性无关的。你无法通过朝东走和朝北走来组合出朝西北方向的动作,反之亦然。这是最教科书式的定义。矩阵中线性无关的行向量的最大个数。矩阵中线性无关的列向量。
2025-11-25 10:15:26
839
原创 YOLO 系列论文:核心思想与技术演进全解析
定位精度:从“原始回归”→“锚框辅助回归”→“无锚框回归”,逐步降低模型学习难度;特征提取:从“简单卷积”→“残差网络”→“CSP/C2f”→“NAS自动设计”,持续提升特征提取效率;多尺度检测:从“单尺度”→“3尺度FPN”→“SPP+PAN”→“自适应注意力融合”,逐步优化小目标/大目标检测能力;工程化:从“无工具链”→“简单脚本”→“模块化PyTorch工具”→“一体化全任务库”,持续降低训练/部署门槛;性能目标。
2025-11-24 16:04:02
1060
原创 2025年投资总结
我知道我的性格是什么样的,所以我也知道自己应该遵循价值投资,价值投资其中有一点就是要看懂研究清楚再出手,但是还是很难,我一般会大概调研出一个方向,然后看着位置还不错就出手买入了,整个过程不算是很久。当然有一点差异,我觉得是对于确定性的追寻,好好工作,每个月的工资是准时的,但是投资这事情,一般来说越研究好像越损失,所以我也就不多说这个方面,这些言论只是针对于我自己反思。老实说最开始买的一支让我重仓的,也是买的莫名其妙的,看懂的没有赚钱,没看懂得赚了钱,背后这是看懂的是假懂,没看懂的是真的没看懂。
2025-11-23 13:34:09
743
原创 YOLOv5(四):models/tf.py
TensorFlow层类对应PyTorch层功能说明TFBN批量归一化层,读取PyTorch的beta、gamma、均值、方差参数。TFPad手动Padding操作实现和PyTorch一致的填充逻辑(如autopad计算的填充量)。TFConvConv(YOLOv5的Conv)标准卷积层,包含卷积+BN+激活函数,处理权重格式转换(PyTorch→TensorFlow)。TFFocusFocus聚焦层,通过切片拼接将输入通道翻倍(如[w, h, c]→Bottleneck。
2025-11-10 20:13:35
625
原创 YOLOv5(四):models/common.py 核心模块速查表
common.py的核心逻辑是“组件化支撑”:模型构建时提供“积木”(特征提取、维度变换模块),推理时提供“执行单元”(前向传播)和“流程封装”(预处理、结果可视化),两大流程通过yolo.py的网络定义和的推理调度串联,最终实现从配置到检测结果的端到端闭环。
2025-11-10 19:55:16
732
原创 YOLOv5(四):models/common.py 核心模块调用关系图
的组件定位(YOLOv5 通用组件库),核心逻辑流程分为。DetectMultiBackend模块。ONNX/ONNX Runtime后端。TransformerBlock模块。GhostBottleneck模块。TFLite/Edge TPU后端。BottleneckCSP模块。(训练/推理前的网络搭建)和。Bottleneck模块。Detections模块。,方便你离线查看和分享?GhostConv模块。AutoShape模块。要不要我帮你生成一份。Contract模块。TensorRT后端。
2025-11-10 19:54:29
1031
原创 YOLOv5(四):models/yolov5s.yaml
models目录是YOLOv5模型设计的核心,通过.yaml配置文件灵活定义了不同规模、不同检测能力的网络结构。用户可根据需求选择现成配置(如实时场景选,高精度场景选),也可通过修改参数(如调整、增减网络层)自定义模型。文档已就绪,你可以直接编辑,或告诉我如何修改。
2025-11-10 19:34:46
943
原创 YOLOv5(四):models/yolo.py
是 YOLOv5 模型的核心实现文件,定义了目标检测/分割的核心网络结构(如检测头、基础模型框架)、前向传播逻辑及模型通用功能(如融合、信息打印等),是连接模型配置(.yaml)与实际网络运行的关键模块。是 YOLOv5 模型的“骨架”,通过清晰的类层次和模块化设计,实现了检测/分割任务的灵活支持,同时兼顾了训练效率与推理性能。
2025-11-10 18:39:16
605
原创 YOLOv5(四):models
多任务支持:通过不同配置文件支持目标检测(如yolov5s.yaml)、图像分类(如yolov5s-cls.pt对应的配置)、语义分割(如yolov5l-seg.yaml)。可扩展性预留实验性层,hub/支持第三方模型集成,方便扩展新功能。跨框架兼容tf.py实现TensorFlow适配,结合common.py的格式识别,支持模型在PyTorch、TensorFlow、ONNX等框架间转换和部署。规模可调:通过深度/宽度因子()调整模型大小,满足不同场景(如边缘设备用nano模型,服务器用x模型)。
2025-11-10 17:46:45
445
原创 YOLOv5(三):Jupyter
该教程完整覆盖了 YOLOv5 v6.1 的核心流程:从环境搭建到推理、验证、训练,再到结果可视化,同时提供了扩展功能(如自定义数据训练、模型导出)的示例,适合新手快速入门目标检测任务。CI 测试:验证训练、验证、推理、导出功能在多系统(MacOS/Windows/Ubuntu)的兼容性;:实时查看训练过程(损失、学习率、mAP)、样本预测结果,支持生成报告分享。:克隆仓库、安装依赖、验证环境(PyTorch 与 GPU 可用性)。:在标准数据集(如 COCO)上评估模型精度(mAP 等指标)。
2025-11-10 16:29:44
856
原创 YOLOv5(二):README.md
YOLOv5 项目的 。这份文件是项目的门户,包含了最核心的信息。📍核心目标:通过 README 快速掌握 YOLOv5 的核心功能、使用方法和性能。这是最实用的部分!教你如何立即使用 YOLOv5 进行推理。安装依赖:重点: 确保你的环境满足要求 (Python>=3.7, PyTorch>=1.7)。推理演示 (Detect):核心参数 : 指定输入源,非常灵活。结果: 检测结果默认保存在 目录下。训练演示 (Train):核心参数:: 指定数据集配置文件 ()。
2025-11-10 16:18:48
754
原创 YOLOv5(一):目录结构 && 学习顺序
这是一个典型的深度学习项目结构,遵循了良好的工程实践,将配置、数据、模型和工具代码进行了清晰的分离。记得边学边实践,遇到问题多看Issues中的讨论,这对理解代码很有帮助!- Jupyter教程。🔍 重点关注的核心文件。
2025-11-10 16:13:43
557
原创 股票投资入门:从技术分析到基本面的专业框架解析
技术分析:看图说话找规律,对个人投资者适用性有限基本面分析宏观分析:必看,决定市场整体走向行业分析:很重要,选择比努力更重要公司分析:定性看故事,定量看数据,要综合判断这是一个完整的投资分析框架,每个点都可以深入展开。再梳理一遍用图展示一份清晰的分析框架能帮你在复杂的股市中保持思路清晰。下面我为你梳理了股票投资的系统分析框架,包含思维导图和关键分析流程,希望能帮助你建立自己的投资体系。
2025-10-10 00:11:15
1248
原创 YOLO入门教程(番外):目标检测的两阶段深度学习方法
先将 RPN 输出的 “归一化提议坐标” 映射到特征图的实际像素位置,再逐个截取提议对应的特征区域,最后用自适应池化统一尺寸 —— 确保无论提议原始尺寸如何,都能输出 7×7 的标准特征,为后续检测头的分类和回归提供统一输入。
2025-10-07 10:46:30
1127
原创 YOLO入门教程(番外):机器视觉实践—Kaggle CIFAR-10图像分类竞赛
飞机(airplane)汽车(automobile)鸟类(bird)猫(cat)鹿(deer)狗(dog)青蛙(frog)马(horse)船(ship)卡车(truck)数据集分为50,000张训练图像和10,000张测试图像。在Kaggle竞赛版本中,测试集扩展至300,000张图像,其中只有10,000张用于评估。# 第一卷积块# 第二卷积块# 第三卷积块return x# 选择使用哪个模型。
2025-10-04 18:35:53
668
原创 YOLO入门教程(番外):机器视觉实践—Kaggle实战:深度学习实现狗的品种识别
本方案采用迁移学习策略,使用在ImageNet上预训练的ResNet-34模型作为特征提取器,仅训练自定义的小型输出网络,既保证了性能又提高了训练效率。本项目展示了如何使用迁移学习技术解决实际的图像分类问题。通过合理的数据预处理、模型设计和训练策略,即使在相对较小的数据集上也能取得良好的性能。
2025-10-04 18:35:41
943
原创 YOLO入门教程(番外):机器视觉一文通
图像增广是一种通过对训练图像施加一系列随机变换,生成相似但不同训练样本的技术。这项技术的核心目的是扩大训练集规模并提高模型的泛化能力。在深度学习中,大规模高质量数据集是成功训练神经网络的前提条件。图像增广通过随机改变训练样本,减少模型对某些特定属性的依赖,从而使模型能够更好地适应未见过的数据。图像增广是提高模型泛化能力的有效技术,通过对训练图像施加随机变换来扩大数据集常用方法包括翻转、裁剪和颜色调整,这些方法可以单独或组合使用训练时使用随机增广,预测时使用确定性变换,确保结果可重复。
2025-10-04 18:35:10
500
原创 YOLO入门教程(番外):卷积神经网络—卷积神经网络(LeNet)
层次化特征提取:通过卷积层逐渐提取从低级到高级的特征参数共享:大大减少了模型参数数量空间层次结构:通过池化层逐渐减少空间维度虽然现代网络如ResNet、DenseNet等更加复杂和强大,但LeNet的核心思想仍然是这些先进架构的基础。对于初学者来说,理解LeNet的工作机制是掌握深度学习计算机视觉的重要第一步。
2025-10-04 17:45:54
411
A TC Architecture of Embedded System Based on Improved TPM
2023-08-20
Technical Background of the Android Suspend Blockers Controversy
2023-02-22
DEN0021D-Trusted-Base-System-Architecture-Client
2023-01-02
DEN0056E-System-Control-and-Management-Interface-v3.2-BETA
2023-01-02
DEN0022E-Power-State-Coordination-Interface-BETA
2023-01-02
TRACE32工具的SiFive RISC-V调试和跟踪方案
2024-03-11
ChatGPT芯片算力:研究框架
2024-03-11
on-chip networks:片上网络(On-chip Networks)
2024-03-11
TEE and its Key Management:
2024-03-11
A new IoT Security certification scheme with trust signals
2023-09-02
Scalable Private Membership Test Using Trusted Hardware
2023-08-20
TCG Guidance for Secure of Software and Firmware on Embedded Sys
2023-08-20
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅