深度学习
文章平均质量分 82
Liuqz2009
不念过去不畏将来,全心活在当下!
寒窗二十载,人生再出发!
展开
-
Vulkan开发实战详解
市面上主流的各3D图形应用程序接口。目前各平台下主流的 3D 图形API有以及Vulkan,其各自的应用领域及特点如下。OpenGL的应用领域较为广泛,支持多种操作系统平台(如 Windows、UNIX、Linux、macOS等)。基于其开发的应用可以方便、低成本地在不同操作系统平台之间移植。既可以用于开发游戏,又可以用于开发工业、行业应用。OpenGL ES是专门针对移动嵌入式平台而设计的,实际是 OpenGL 的剪裁版本。原创 2024-03-28 10:43:32 · 499 阅读 · 0 评论 -
MNN 执行推理(九)
来说,主要有 VulkanBasicExecutionDirect 和 VulkanBasicExecutionInDirect,我们以。调用是个多态,其基类为。函数是个虚函数,对于。函数是个虚函数,对于。原创 2024-03-22 15:12:53 · 654 阅读 · 0 评论 -
MNN Session 之 Vulkan 算子(八)
MNN createFromBuffer(一)MNN createRuntime(二)MNN createSession 之 Schedule(三)MNN createSession 之创建流水线后端(四)MNN Session 之维度计算(五)MNN Session 之几何计算(六)MNN Session 之 CPU 算子(七)MNN Session 之 Vulkan 算子(八) 依据 ScheduleConfig 和 RuntimeInfo 创建会话。1.1 createMul原创 2024-03-21 10:28:27 · 414 阅读 · 0 评论 -
MNN Session 之 CPU 算子(七)
系列文章目录MNN createFromBuffer(一)MNN createRuntime(二)MNN createSession 之 Schedule(三)MNN createSession 之创建流水线后端(四)MNN Session 之维度计算(五)MNN Session 之几何计算(六)MNN Session 之 CPU 算子(七)文章目录系列文章目录1、createSession1.1 createMultiPathSession1.1.1 Session::resize1原创 2024-03-21 10:17:06 · 402 阅读 · 1 评论 -
MNN Session 之几何计算(六)
备注:GeometryComputer::onRecompute 调用是个多态,实际运行中根据 info.op->type() 类型,调用不同的几何计算子类。备注:GeometryComputer::onCompute 调用是个多态,实际运行中根据 info.op->type() 类型,调用不同的几何计算子类。中,函数名 ___GeometryShape___create__ 呼应了。函数中调用 GeometryComputer::init() 来实现的。综上可见,扩展后的代码正是一个函数,其通过内部的。原创 2024-03-19 17:17:48 · 441 阅读 · 0 评论 -
MNN Session 之维度计算(五)
由上可见,扩展后的代码正是一个函数,其把维度计算类(ShapeSizeComputer)注册到 mRegistry 中,函数名 ___ShapeSizeComputer__OpType_Shape__ 呼应了。registerShapeOps 用来注册维度计算,它通过调用一个个维度计算函数来实现注册。函数中调用 SizeComputerSuite::init() 来实现的。函数中调用 GeometryComputer::init() 来实现的。综上可见,扩展后的代码正是一个函数,其通过内部的。原创 2024-03-19 17:06:05 · 779 阅读 · 0 评论 -
MNN createSession 之创建流水线后端(四)
依据 ScheduleConfig 和 RuntimeInfo 创建会话。原创 2024-03-19 16:55:18 · 1198 阅读 · 0 评论 -
MNN createSession 之 Schedule(三)
系列文章目录MNN createFromBuffer(一)MNN createRuntime(二)文章目录系列文章目录1、createSession1.1 createMultiPathSession1.1.1 Schedule 类 OpCacheInfo、BackendCache、PipelineInfo、ScheduleInfo1.1.1.1 Backend 类 Backend::Info1.1.2 Schedule::schedule1.1.2.1 initConstTensors1.1.原创 2024-03-19 16:25:38 · 841 阅读 · 0 评论 -
MNN createRuntime(二)
则 creator->onCreate(info) 实际调用的是 VulkanRuntimeCreator::onCreate 函数。,则 creator->onCreate(info) 实际调用的是 CPURuntimeCreator ::onCreate 函数。获取 RuntimeCreator ,然后根据类型创建对应的 Runtime。是一个 map 类型,其是通过函数。的定义见 2.1,其。原创 2024-03-19 16:00:59 · 933 阅读 · 0 评论 -
MNN createFromBuffer(一)
MNN 是一个轻量级的深度神经网络推理引擎,在端侧加载深度神经网络模型进行推理预测。目前,MNN已经在阿里巴巴的手机淘宝、手机天猫、优酷等20多个App中使用,覆盖直播、短视频、搜索推荐、商品图像搜索、互动营销、权益发放、安全风控等场景。此外,IoT等场景下也有若干应用。把模型读入,并放置在结构体。原创 2024-03-18 17:48:17 · 428 阅读 · 0 评论 -
机器学习围炉札记
AI Studio:飞桨官网:原创 2023-08-10 14:49:47 · 284 阅读 · 0 评论 -
jieba
"结巴" 中文分词基于 Trie 树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG)采用了动态规划查找最大概率路径,找出基于词频的最大切分组合对于未登录词,采用了基于汉字成词能力的 HMM 模型,使用了 Viterbi 算法。原创 2022-09-21 17:13:15 · 481 阅读 · 0 评论 -
PyTorch提升脚印
PyTorch提升脚印原创 2022-08-15 11:25:04 · 445 阅读 · 0 评论 -
cuda 探索
cuda原创 2022-07-01 10:35:51 · 322 阅读 · 0 评论 -
pytorch中的广播机制
pytorch中的广播机制_littlehaes的博客-CSDN博客_pytorch广播机制welcome to my blogpytorch中的广播机制和numpy中的广播机制一样, 因为都是数组的广播机制两个维度不同的Tensor可以相乘, 示例a = torch.arange(0,6).reshape((6,))'''tensor([0, 1, 2, 3, 4, 5])shape: torch.Size([6])ndim: 1'''b = torch.arang...https://blog.csdn原创 2021-10-24 15:58:35 · 2240 阅读 · 0 评论 -
Jupyter notebook
Jupyter Notebook 工作空间 / 默认路径 的设置方式https://www.cnblogs.com/zeedmood/p/9660515.htmlJupyter notebook 查看Markdown .md文件https://blog.csdn.net/tuzixini/article/details/83117542Jupyter Notebook介绍、安装及使用教程https://www.jianshu.com/p/91365f343585/...原创 2021-09-26 11:01:39 · 63 阅读 · 0 评论 -
深度学习随笔
损失函数|交叉熵损失函数原创 2021-09-09 13:39:24 · 288 阅读 · 0 评论 -
深度学习推理框架
目前主流的推理框架有:阿里的mnn,腾讯的ncnn,NVIDIA的TensorRT,Intel的OpenVINO深度学习推理框架如何选择深度学习推理框架?如何评价阿里开源的移动端深度学习推理框架mnnMNN深度神经网络推理引擎MNN专栏--MirrorYuChenMNN框架学习(一):编译及使用 MNN框架学习(二):使用MNN部署模型......原创 2021-06-24 11:26:30 · 698 阅读 · 0 评论 -
机器学习合集
《动手学深度学习》Pytorch版 ShusenTang/Dive-into-DL-PyTorch原创 2020-12-05 11:16:31 · 151 阅读 · 0 评论 -
[Deep Learning] 神经网络基础
阅读目录1. 神经元模型 2. 感知机和神经网络 3. 误差逆传播算法 4. 常见的神经网络模型 5. 深度学习 6. 参考内容 目前,深度学习(Deep Learning,简称DL)在算法领域可谓是大红大紫,现在不只是互联网、人工智能,生活中的各大领域都能反映出深度学习引领的巨大变革。要学习深度学习,那么首先要熟悉神经网络(Neural Networks,简称NN)的一些基...转载 2018-08-14 16:56:27 · 315 阅读 · 0 评论 -
一文弄懂神经网络中的反向传播法——BackPropagation
最近在看深度学习的东西,一开始看的吴恩达的UFLDL教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推导过程进行补充,但是补充的又是错的,难怪觉得有问题。反向传播法其实是神经网络的基础了,但是很多人在学的时候总是会遇到一些问题,或者看到大篇的公式觉得好像很难就退缩了,其实不难,就是一个链式求导法则反复用。...转载 2018-08-14 16:40:53 · 190 阅读 · 0 评论 -
Deep Learning(深度学习)学习笔记整理系列之(一)
Deep Learning(深度学习)学习笔记整理系列zouxy09@qq.comhttp://blog.csdn.net/zouxy09作者:Zouxyversion 1.0 2013-04-08 声明:1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的。具体引用的资料请看参考文献。具体的版本声明也参考原文献。2)本文仅转载 2017-06-30 14:51:53 · 248 阅读 · 0 评论