技术转载
文章平均质量分 91
山科智能信息处理实验室
该博客旨在记录智能处理实验室一系列学术成果,以及实验室的点点滴滴。
如果有博客中提到的论文或代码需求,烦请联系邮箱[email protected]
展开
-
Pytorch搭建YoloV5目标检测平台
源码下载YoloV5改进的部分(不完全)1、主干部分:使用了Focus网络结构,具体操作是在一张图片中每隔一个像素拿到一个值,这个时候获得了四个独立的特征层,然后将四个独立的特征层进行堆叠,此时宽高信息就集中到了通道信息,输入通道扩充了四倍。该结构在YoloV5第5版之前有所应用,最新版本中未使用。2、数据增强:Mosaic数据增强、Mosaic利用了四张图片进行拼接实现数据中增强,根据论文所说其拥有一个巨大的优点是丰富检测物体的背景!且在BN计算的时候一下子会计算四张图片的数据!转载 2023-10-19 14:12:09 · 238 阅读 · 0 评论 -
GCN图卷积网络入门详解
GCN理论的入门知识讲解转载 2023-09-18 09:17:50 · 292 阅读 · 0 评论 -
图像分割综述
所谓图像分割就是根据图像中所具有的特征将其划分为互不相交的子区域,在同一区域的像素点具有一定的相关性,不同区域的像素点存在一定的差异性,也即是对图像中有着相同性质的像素赋予相同标签的过程。图像分割技术根据其自身的特点和目的经常被应用于一些图像的前期处理中,以便于获取图像的关键特征信息。以下将对各种图像分割算法进行一个介绍。转载 2023-09-15 09:50:12 · 159 阅读 · 0 评论 -
基于联邦学习的推荐系统总结
本文总结了几篇基于联邦学习范式的推荐系统,分别从不同的层面对基本的联邦学习更新方式进行了优化,比如如何实现更好的聚合参数、如何更好的挑选待更新的客户端、如何保持更严格的隐私保护、如何减少更新过程中的通信量等。该方向相对来说是一个比较新的方向,其目标是在保护用户隐私的前提下如何实现本地模型更精准的推荐服务,但现在的实验验证方式基本都是靠模拟来完成的,即手动将完整的数据集切分为符合联邦学习方式的多个本地数据集。转载 2023-09-05 15:57:30 · 440 阅读 · 0 评论 -
从知识图谱和自然语言生成的角度认识可解释推荐
本文从知识图谱和自然语言生成的角度来认识可解释推荐转载 2023-04-06 19:21:23 · 205 阅读 · 0 评论 -
图结构学习最新综述:研究进展与未来展望
图结构学习的出发点:GNN 的成功可以归因于它们能够同时利用图结构和属性中固有的丰富信息,但所提供的图不可避免的不完整和噪声较大,这给将GNN应用于现实问题带来了巨大的挑战。从表示学习的角度来看,GNN通过递归聚合来自相邻节点的信息来计算节点嵌入,这种迭代机制具有级联效应——小的噪声将传播到社区,恶化许多其他表示的质量。上述问题激发了围绕图结构学习(GSL)的中心主题的大量研究,该主题的目标是联合学习一个优化的图结构及其相应的表示。转载 2022-12-14 17:41:30 · 997 阅读 · 0 评论 -
GNN 推荐系统综述 - Graph Neural Networks in Recommender Systems: A Survey
本文是一篇推荐系统综述,介绍了Graph Neural Networks,Recommender System方面的相关内容转载 2022-12-01 16:41:21 · 830 阅读 · 0 评论 -
面向大规模神经网络的模型压缩和加速方法【方法介绍】【相关工作】
随着科学研究与生产实践相结合需求的与日俱增,模型压缩和加速成为当前的热门研究方向之一。本文旨在对一些常见的模型压缩和模型加速方法进行简单介绍(每小节末尾都整理了一些相关工作,感兴趣的小伙伴欢迎查阅)。这些方法可以减少模型中存在的冗余,将复杂模型转化成更轻量的模型。本文涉及方法的主要类别有:知识蒸馏、高效网络结构设计、条件计算、模型剪枝、参数共享、量化。转载 2022-10-31 19:31:48 · 337 阅读 · 0 评论 -
更通俗易懂的理解图卷积神经网络(GCN)
在这篇博文中会以一种通俗易懂的方式为大家详细地介绍目前使用广泛的图神经网络——图卷积网络(Graph Convolutional Networks, GCN)的相关知识。首先将带领大家直觉上感受其工作原理,然后再介绍更深层的数学原理。转载 2022-10-20 10:36:39 · 912 阅读 · 1 评论 -
目标检测之YOLO系列
1、yolo系列发展背景在 CV (计算机视觉)领域,目标检测任务是实际应用项目的第一步,主要包括:人脸识别、多目标检测、REID、客流统计等内容。yolov5是目标检测一个非常成熟、经典的模型,它自从提出以来,在工业、军事、科研方面有着广泛的应用。yolov1,v2,v3的作者是美国的Joseph Redmon,被人称为yolo之父,但是由于其反对将yolo用于军事和隐私窥探,2020年2月宣布停止更新yolo。后来,俄罗斯的Alexey大神更新了yolov4,不久之后,y...转载 2022-05-09 15:51:49 · 2835 阅读 · 0 评论 -
最新深度学习推荐系统综述:从协同过滤到信息增强的推荐系统
前言深度学习技术已经在计算机视觉以及自然语言理解等领域取得了巨大的成功,受其影响深度学习研究也开始在推荐系统领域得到关注。近些年来,已经见证了基于神经网络的推荐系统的巨大进步,其已经超越了传统推荐模型的性能。不同于基于深度模型的结构进行综述(比如以MLP、CNN、RNN等进行分类),也不同于对于某一子领域进行综述(比如跨域推荐、知识图谱推荐等),本次介绍的论文以推荐模型的准确性为目标,从推荐模型的角度对神经推荐模型进行了系统的综述,旨在总结该领域的研究成果,为研究推荐系统的研究者和实践者...转载 2022-03-29 11:14:21 · 1882 阅读 · 0 评论 -
深度神经网络压缩和加速详解+张量化网络论文汇总
目录 1.背景介绍 2.压缩方法概述 3.压缩方法详述 3.1参数剪枝 3.2参数量化 3.3低秩分解(张量分解) 3.4参数共享 3.5紧凑网络 3.6知识蒸馏 3.7混合模型 3.8不同压缩模型比较 1.背景介绍 深度学习模型的压缩和加速是指利用神经网络参数的冗余性和网络结构的冗余性精简...转载 2022-03-21 17:53:22 · 1912 阅读 · 0 评论 -
走进跨域推荐系统
作者简介:张高玮,研究方向为推荐系统。引言:近年来跨域推荐方法逐渐受到人们的关注,为解决推荐系统中数据稀疏以及冷启动这两个问题提供了新的思路。本文聚焦于跨域推荐,依据解决方法的不同将跨域推荐模型分为基于共享实体表示的模型、基于域间映射的模型、基于异构图嵌入的模型、基于多领域协同训练的模型四大类进行整理介绍,欢迎大家批评和交流。目录1. 总体介绍1.1 什么是跨域推荐1.2 为什么需要跨域推荐2. 模型分类2.1 基于共享实体表示的模型2.2 基于域间映射的模型2.3 基于异构图嵌入的模型2.4 基于多领域协转载 2022-03-17 21:51:50 · 876 阅读 · 1 评论 -
可视化推导贝叶斯定理公式
转自:极市平台 微信公众号 https://mp.weixin.qq.com/s/DbInmnMCigzmjnr_1uzEiA什么是贝叶斯定理?在统计和应用数学中,贝叶斯定理也被称为贝叶斯规则,它是一个用于确定事件的偶然性概率的数学公式。贝叶斯定理描述了由事件相关条件的先验知识支持的事件发生的概率。这个定理以英国统计学家贝叶斯的名字命名,他在1763年发现了这个公式。它被认为是被称为贝叶斯推断的特殊统计推断方法的灵感。除了统计学之外,贝叶斯定理还被用于医学和药理学等各个学科。该理论通常.转载 2021-12-02 15:59:08 · 179 阅读 · 0 评论 -
深度强化学习探索算法最新综述,近200篇文献揭示挑战和未来方向
本文转载自:机器之心作者:杨天培、汤宏垚、白辰甲、刘金毅等强化学习是在与环境交互过程中不断学习的,⽽交互中获得的数据质量很⼤程度上决定了智能体能够学习到的策略的⽔平。因此,如何引导智能体探索成为强化学习领域研究的核⼼问题之⼀。本⽂介绍天津⼤学深度强化学习实验室近期推出的深度强化学习领域第⼀篇系统性的综述⽂章,该综述⾸次全⾯梳理了DRL和MARL的探索⽅法,深⼊分析了各类探索算法的挑战,讨论了各类挑战的解决思路,并揭⽰了未来研究⽅向。当前,强化学习(包括深度强化学习DRL和多智能体强化学习MA转载 2021-11-12 17:29:36 · 1030 阅读 · 0 评论 -
强化学习 马尔科夫决策过程(MDP)
1. 强化学习引入MDP的原因强化学习的环境的状态转化模型,它可以表示为一个概率模型,即在状态下采取动作a,转到下一个状态s′的概率,表示为如果按照真实的环境转化过程看,转化到下一个状态s′的概率既与上一个状态s有关,还与上上个状态,以及上上上个状态有关。这一会导致我们的环境转化模型非常复杂,复杂到难以建模。因此我们需要对强化学习的环境转化模型进行简化。简化的方法就是假设状态转化的马尔科夫性,也就是假设转化到下一个状态s′的概率仅与上一个状态s有关,与之前的状态无关。用公式表示就是:...转载 2021-10-24 20:56:58 · 950 阅读 · 0 评论 -
GRU与LSTM总结
一、LSTM(长短期记忆网络)LSTM是一种特殊的RNN类型,一般的RNN结构如下图所示,是一种将以往学习的结果应用到当前学习的模型,但是这种一般的RNN存在着许多的弊端。举个例子,如果我们要预测“the clouds are in the sky”的最后一个单词,因为只在这一个句子的语境中进行预测,那么将很容易地预测出是这个单词是sky。在这样的场景中,相关的信息和预测的词位置之间的间隔是非常小的,RNN 可以学会使用先前的信息。标准的RNN结构中只有一个神经元,一个tanh层进行重复..转载 2021-10-18 18:15:38 · 434 阅读 · 0 评论 -
矩阵完备和张量完备
斜风细雨作小寒,淡烟疏柳媚晴滩。入淮清洛渐漫漫。雪沫乳花浮午盏,蓼茸蒿笋试春盘。人间有味是清欢。---- 苏轼低秩矩阵恢复是稀疏向量恢复的拓展,二者具有很多可以类比的性质。首先,稀疏是相对于向量而言,稀疏性体现在待恢复向量中非零元素的数量远小于向量长度;而低秩是相对于矩阵而言,低秩体现在矩阵的秩远小于矩阵的实际尺寸。其次,稀疏向量恢复问题可以转化为基于 ℓ1范数是 ℓu 的最佳凸包络;而矩阵的核范数在一定条件下也是矩阵秩的最佳凸近似,因此,也可以利用这一性质将低秩矩阵恢复问题松弛为一个凸问题来求转载 2021-10-05 11:33:52 · 1092 阅读 · 0 评论 -
卷积神经网络CNN完全指南终极版(一)
本文转自知乎:沉迷学习的糕糕,原文链接:卷积神经网络CNN完全指南终极版(一) - 知乎 (zhihu.com)【1】导论先来说一写题外话...研究生入学后就被导师逼着学习神经网络,一开始非常盲目,先是在网上搜了一大堆的资料,各种什么“一文读懂卷积神经纹网络”,“叫你三分钟搭建属于自己的神经网络框架”,“五分钟速读神经网络全解”,之类的文章层出不穷。看了太多导致的结果是,学了很久都没能真正意义上地入门。而后自己艰辛摸索才慢慢了解了卷积神经网络的真谛。(好官方啊哈哈哈哈哈哈)首先最需要转载 2021-06-28 09:47:51 · 336 阅读 · 0 评论 -
增量学习(Incremental Learning)小综述
文章转自公众号:NewBeeNLP,作者:Maple小七1. 增量学习的概念1.1 什么是增量学习人类有终身不断获取、调整和转移知识的能力,虽然在我们的一生中,我们确实倾向于逐渐忘记之前学习过的知识,但只有在极少的情况下,对新知识的学习会灾难性地影响已经学到的知识,这样的学习能力被称为增量学习的能力。具体来讲,「增量学习的能力就是能够不断地处理现实世界中连续的信息流,在吸收新知识的同时保留甚至整合、优化旧知识的能力。」增量学习(Incremental Learning)已经有20..转载 2021-06-15 15:35:12 · 716 阅读 · 0 评论 -
张量网络的图结构
在张量计算中,向量、矩阵以及张量之间的计算其实都可以用图形进行表示,这种表示方法可以直观生动地表现出运算规则,另外,它也是很多物理系统中常用的工具。今天,我们将介绍一些常见张量网络的图结构。...转载 2021-06-07 09:51:53 · 506 阅读 · 0 评论 -
Github微软开源项目介绍——Microsoft Recommenders
简介此存储库包含构建推荐系统的示例和最佳实践,以Jupyter笔记本形式提供。这些例子详细介绍了我们在五项关键任务上的学习:准备数据:为每个推荐算法模型准备和加载数据:使用各种经典和深度学习推荐算法(如交替最小二乘(ALS)或极深分解机器(XDeepFM))建立模型。评估:使用离线指标评估算法模型选择和优化:调整和优化推荐器模型的超参数操作:在Azure上的生产环境中操作模型在reco_utils中提供了几个实用程序来支持常见任务,如以不同算法预期的格式加载数据集、评估模型输出以及拆分训练/测试数据。其转载 2021-06-02 09:34:41 · 2898 阅读 · 2 评论 -
域适应综述
深度域适应综述_一般情况与复杂情况(学习笔记)文章目录深度域适应综述_一般情况与复杂情况(学习笔记)图释摘要概述文章主要内容1.迁移学习概述1.1 迁移学习, 域适应以及深度域适应的形式化定义迁移学习域适应深度域适应域适应与迁移学习的关系1.2 影响目标域任务性能的因素——泛化误差1.3 负迁移2 深度域适应2.1 基于领域分布差异的方法2.1.1 基于统计准则的方法⭐⭐⭐(1)MMD(Maximum Mean Discrepancy, 最大均值差异)(2)CORAL(转载 2021-06-01 10:02:53 · 5125 阅读 · 0 评论 -
WWW2021-深度强化学习、自动机器学习和GNN在推荐系统应用
转自微信公众号:浅梦的学习笔记原址链接:https://mp.weixin.qq.com/s?__biz=MjM5MzY4NzE3MA==&mid=2247493556&idx=1&sn=e62c31c32dee4bd2d8151c9370bb3e04&chksm=a691945991e61d4f23ac5bf42a137e8626a217b17df971267d8543cd06fce450fb0acde0cb0a&mpshare=1&scene=23&am转载 2021-04-30 11:56:01 · 564 阅读 · 0 评论 -
【迁移学习】自动选择源域的迁移学习方法
【迁移学习】自动选择源域的迁移学习方法本文转载自知乎王晋东不在家的《小王爱迁移》系列之十五:自动选择源域的迁移学习方法源地址为:《小王爱迁移》系列之十五:自动选择源域的迁移学习方法 - 知乎 (zhihu.com)本次我们介绍一篇杨强老师团队早期(2011年)发表在人工智能顶会IJCAI上的文章:《Source-selection-free Transfer Learning》。这篇论文所针对的问题是:如果我们可供选择的源域数量太多(千万级),我们如何可以根据两个领域之间的关系,自动地进行源.转载 2021-04-29 21:48:16 · 852 阅读 · 0 评论 -
使用Pytorch在卷积层上实现张量分解的方法
如何用张量分解加速深层神经网络?(附代码)本文转载自雷锋字幕组编译的技术博客源地址为:https://www.leiphone.com/news/201802/tSRogb7n8SFAQ6Yj.html原英文博客标题Accelerating deep neural networks with tensor ecompositions,作者为Jacob。原文翻译 | 林立宏 原文整理 | 凡江背景在这篇文章中,我将介绍几种低秩张量分解方法,用于在现有的深度学习模型中进行分层并使其更紧凑。转载 2021-04-07 22:21:28 · 2462 阅读 · 3 评论 -
推荐系统干货总结
推荐系统干货总结本文列举了推荐系统领域的相关会议、学者、论文、书籍、课程、数据集以及代码和工具以上资料均提供了超链接和简要说明原文作者:知乎张小磊,北京交通大学博士在读,研究方向:推荐系统及隐私计算原文地址:https://zhuanlan.zhihu.com/p/34004488...转载 2021-04-01 10:42:31 · 669 阅读 · 0 评论 -
深度学习领域最常用的10个激活函数,一文详解数学原理及优缺点
深度学习领域最常用的10个激活函数,一文详解数学原理及优缺点转自:数据派THU激活函数是神经网络模型重要的组成部分,本文作者Sukanya Bag从激活函数的数学原理出发,详解了十种激活函数的优缺点。激活函数(Activation Function)是一种添加到人工神经网络中的函数,旨在帮助网络学习数据中的复杂模式。类似于人类大脑中基于神经元的模型,激活函数最终决定了要发射给下一个神经元的内容。在人工神经网络中,一个节点的激活函数定义了该节点在给定的输入或输入集合下的输出。标准的计算机芯片电路可以转载 2021-03-21 15:51:45 · 764 阅读 · 0 评论