自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 微信和QQ的定位问题

腾讯庞大的帝国是从QQ做起的,这个影响全中国的产品,几乎是电脑上装机必备的。一直有这样的习惯,打开电脑,登录QQ,看看自己关心的人是不是在线,然后才开始做事情,我想很多人都有这样的经历,不管是不是要聊天,都要挂着QQ。QQ使人们不管身在何方,都可以Keep in Touch,用文字去交流,用表情表达心情。可以说QQ改变了人们的生活方式,将人们带到互联网时代。随着智能手机的出现,移动QQ使得人们可以在更大的范围使用QQ,保持了原来的功能,增加了更方便的接入。是QQ在移动领域的延伸。我早已习惯了QQ,从高中

2020-10-21 10:22:06 1957 1

原创 微信读书产品体验报告

微信读书【5.0.5】产品体验报告本文预览微信读书凭借着简洁的风格、丰富的电子版权以及良好的推书、读书的阅读氛围获得了一大批粉丝,在现今短视频类应用占据用户大量时间的今天,为何微信读书像一股清流抓住了用户注意力,它又是怎么去实现”社交+读书“这个理念并迅速崛起为后起之秀,并取得2亿用户量?本文将从产品概述、行业市场分析、用户与场景、产品迭代分析、产品结构功能分析、总结等几个方面重点入手分析。产品概述微信读书的定位是“阅读+社交”,当然这个社交并不是让大家通过微信读书聊天,而是促进想法的碰撞。莎士比

2020-10-08 16:52:21 1968

原创 皮皮虾vs最右短视频分析

皮皮虾VS最右竞品分析一、分析目的2020年受新冠疫情影响, 线下娱乐需求转移线上,拉动了短视频娱乐行业的用户规模增长。人们越来越享受短视频带来的快乐,也成为了生产快乐的一员。本文通过研究行业背景和各自的产品定位、功能结构、盈利方式等方面、来分析产品的发展趋势,给出版本迭代的优化建议。二、行业市场分析1. 行业发展背景. (数据来源:艾瑞数据)2. 行业PEST分析政治因素:行业监管部门力度大,入局短视频的门槛高,行业日趋规范。国务院印发《关于加快高速宽带网络建设,推进网络提速降

2020-10-08 16:39:29 10650 1

原创 L1正则和L2正则

L1和L2正则化:我们所说的正则化,就是在原来的loss function的基础上,加上了一些正则化项或者称为模型复杂度惩罚项。结构风险最小化: 在经验风险最小化的基础上(也就是训练误差最小化),尽可能采用简单的模型,以此提高泛化预测精度。那现在我们就看看加了L1正则化和L2正则化之后,目标函数求解的时候,最终解有什么变化。图像解释(假设X为一个二维样本,那么要求解参数 [公式] 也是二维):1. L1正则化和L2正则化的区别?L1会趋向于产生少量的特征,而其他的特征都是零,因为最优的参数

2020-08-07 09:38:54 786

原创 FM简介

对LR进行扩展,因子分解机(Factorization Machine,FM)是对LR算法的扩展。FM模型是一种基于矩阵分解的机器学习模型,对于稀疏数据具有很好的学习能力; 对于因子分解机FM来说,最大的特点是对于稀疏的数据具有很好的学习能力。FM解决了LR泛化能力弱的问题,其目标函数如下所示:...

2020-08-07 09:06:57 879

原创 目前常用的一些减少网络计算量的方法

目前常用的一些减少网络计算量的方法:基于轻量化网络设计:比如mobilenet系列,shufflenet系列,Xception等,使用Group卷积、1x1卷积等技术减少网络计算量的同时,尽可能的保证网络的精度。模型剪枝: 大网络往往存在一定的冗余,通过剪去冗余部分,减少网络计算量。量化:利用TensorRT量化,一般在GPU上可以提速几倍。知识蒸馏:利用大模型(teacher model)来帮助小模型(student model)学习,提高student model的精度。(学习记录,自用)

2020-07-15 16:56:27 1265

原创 Depthwise Convolution && Pointwise Convolution && Separable Convolution

卷积神经网络在图像处理中的地位已然毋庸置疑。卷积运算具备强大的特征提取能力、相比全连接又消耗更少的参数,应用在图像这样的二维结构数据中有着先天优势。然而受限于目前移动端设备硬件条件,显著降低神经网络的运算量依旧是网络结构优化的目标之一。本文所述的Separable Convolution就是降低卷积运算参数量的一种典型方法。常规卷积运算假设输入层为一个大小为64×64像素、三通道彩色图片。经过一个包含4个Filter的卷积层,最终输出4个Feature Map,且尺寸与输入层相同。整个过程可以用下图来概

2020-07-15 16:32:55 235

原创 剑指offer(链表集合)-小白刷题笔记

链表集合剑指offer3:从尾到头打印链表思路:使用一个栈来解决,从头到尾遍历链表放入栈中, 根据栈先入后出的性质, 可以实现将链表从尾到头返回.python可以直接使用列表的插入方法,每次插入数据,只插入在首位。剑指offer: 链表中倒数第k个节点思路:使用两个指针。第一个指针从链表的头指针开始遍历向前走k-1,第二个指针保持不动;从第k部开始, 第二个指针也开始从链表的头指针开始遍历。 由于两个指针的距离保持在k-1, 当第一个指针到达链表结尾时候, 第二个指针正好是倒数第k个节点.剑

2020-07-10 10:53:26 132

原创 剑指offer(递归类)小白刷题笔记

剑指offer:斐波那契数列斐波那契的数列公式为:代参考码:剑指offer:青蛙跳台阶当 n = 1 是只有一种调法:当n = 2时候有11,2两种解题思路是当n = 3时候:一次只跳1节台阶那么剩下f(n-1)种跳法一次跳两个调节那么剩下f(n-2)种跳法则f(n) = f(n-1) + f(n-2) 所以这个是斐波那契数列的变形剑指offer 变态青蛙跳台阶n = 1时候有一种跳法n = 2 时候有 11, 2 两种n = 3时候有111, 12, 21 , 3 四种

2020-07-01 19:13:17 132

原创 机器学习面试-树模型

集成学习Boosting:串行方式训练基分类器, 各分类器之间有强依赖关系。基本思想是基分类器层层叠加, 每一层基分类器在训练的时候, 对前一层基分类器分错的样本给与更高的权重。 最后的结果由根据各层分类器的结果加权得到。Bagging:各分类器之间无依赖, 可以使用并行的方式。基本思想是, 各个个体分而治之, 独立作出判断, 在通过投票的方式,做出最后的决策。偏差:偏差是指由有所采样得到的大小为m的训练数据集,训练出的所有模型的输出的平均值和真实模型输出之间的偏差方差:所有采样得到的大小为

2020-07-01 19:02:48 477

原创 机器学习面试-EM(白板推导)

EM期望最大算法(仅自学记录使用, 如果侵权删除)参考文献:https://www.bilibili.com/video/av31950221/(机器学习白板推导)

2020-07-01 17:28:22 278

原创 机器学习面试-降维算法LDA和PCA(白板推导)

降维算法分为:1.直接降维, 特征选择2. 线性降维, PCA, MDS等3. 分流线, 流线包括lsomap , LLE等降维的目的:1. 减少预测变量的个数2. 确保这些变量是相互独立的3. 数据在低纬度时候更容易处理, 更容易使用4. 去除噪数据噪声5. 降低算法的运算开销1. 线性判别分析LDALDA的 核心思想就是投影后类内方差小, 类间方差最大LDA算法的优缺点:优点:可以使用类别的先验知识以标签, 类别衡量差异性的 有监督降维算法, 相对于PCA的模糊性,

2020-07-01 16:19:49 2727

原创 机器学习面试SVM常见问题汇总

1. 简单介绍SVM(详细原理)(回答的思路:从分类平面,到求两类间的最大间隔,到转化为求间隔分之一,等优化问题,然后就是优化问题的解决办法,首先是用拉格拉日乘子把约束优化转化为无约束优化,对各个变量求导令其为零,得到的式子带入拉格朗日式子从而转化为对偶问题, 最后再利用SMO(序列最小优化)来解决这个对偶问题。svm里面的c有啥用)个人理解:SVM又叫最大间隔分类器,最早用来解决二分类问题。SVM有三宝,间隔, 对偶 ,核技巧。****1.1间隔:1.1.1 hard-margin svm (数据

2020-07-01 11:32:38 3137

原创 Kmeans面试常见问题汇总

**Kmeans面试常见问题汇总1.K-means的伪代码:2.K-means中常用的到中心距离的度量有哪些?3.K-means聚类中每个类别中心的初始点如何选择?1)随机法最简单的确定初始类簇中心点的方法是随机选择K个点作为初始的类簇中心点。2)选择各批次距离尽可能远的k个点,首先随机选择一个点作为第一个初始类簇中心点,然后选择距离该点最远的那个点作为第二个初始类簇中心点,然后再选择距离前两个点的最近距离最大的点作为第三个初始类簇的中心点,以此类推,直到选出k个初始类簇中心。3)层次聚类

2020-07-01 08:35:39 1785

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除