自由技艺
资深AI算法和C++软件工程师,专注于下一代分布式AI系统,曾就职于华为、百度,北邮土著博士
请关注知乎同名账号
展开
-
动手学深度学习框架(4)- 手把手教你写一个功能完整的简易 Demo
0、前言一定不要错过!一定不要错过!一定不要错过!重要的事情说 3 遍。本篇文章中,我将手把手教你写一个功能完整的深度学习框架 demo,本文将满足你对 Pytorch、Tensorflow、Paddle 中神秘的 C++ 后端的所有好奇心。https://zhuanlan.zhihu.com/p/461059953...原创 2022-04-01 01:21:25 · 1811 阅读 · 0 评论 -
为何说 AI 公司难以平台化
平台经济是每个公司的梦想,一旦拥有自己的平台,大量 B 端、C 端客户零门槛、低成本接入,那么就可以在家躺着收钱了,比如支付平台、购物平台、打车平台、社交平台等等。AI 公司也不例外,然而梦想很性感,现实很骨感。0、从商汤说起商汤从2021年12月份上市以来,到现在市值还坚挺在2000亿港币,我就觉得不可思议。商汤估值如此之高,有个重要的因素是商汤给市场一个憧憬,就是产品初期投资庞大建立平台,平台建立后再加入客户的成本就开始降低,客户越多摊分成本就越低,后期边际利润就实现最大化。然而,商汤所做的生意多原创 2022-04-01 01:14:26 · 246 阅读 · 0 评论 -
推荐系统概述
协同过滤UserCF 和 ItemCFyoutube推荐算法原创 2021-04-07 15:29:52 · 88 阅读 · 0 评论 -
facefake 实战
https://blog.csdn.net/jiangjunshow/article/details/100554702?ops_request_misc=&request_id=&biz_id=102&utm_term=ai%E6%8D%A2%E8%84%B8%E7%9A%84%E6%8A%80%E6%9C%AF%E5%8E%9F%E7%90%86&utm_medium=distribute.pc_search_result.none-task-blog-2allsobai原创 2021-06-15 17:46:39 · 552 阅读 · 0 评论 -
如何搭建一个 caffe 模型
原创 2021-06-07 19:22:55 · 242 阅读 · 0 评论 -
AI 模型可视化
netscope 打开 prototxtnetron 打开 caffemodel原创 2021-05-11 17:21:50 · 243 阅读 · 0 评论 -
今日头条推荐算法
资讯推荐系统本质上要解决用户、环境和资讯间的匹配。拟合一个用户对内容满意度的函数,函数的输入变量分为三个维度。第一个维度是内容。头条现在已经是一个综合内容平台,图文、视频、小视频、问答、微头条等,每种内容都有自己的特征。第二个维度是用户特征。包括各种兴趣标签、职业、年龄、性别等,还有很多模型用于刻画隐式的用户兴趣。第三个维度是环境特征。用户随时随地移动,在工作场合、通勤、旅游等不同的场景,信息偏好有所偏移。结合上面三个维度,模型会给出一个预估,即预测推荐的内容在该场景下对某一用户是否合适。一原创 2020-06-18 15:56:28 · 915 阅读 · 0 评论 -
为什么 LR 模型要使用 sigmoid 函数
http://thomaslau.xyz/2017/08/04/2017-08-04-derivative-of-logistic-sigmoid-function/原创 2021-05-07 15:58:33 · 728 阅读 · 2 评论 -
keras2cpp
https://github.com/pplonski/keras2cpp1、.nnet中kernel权重值格式fin >> m_kernels_cnt >> m_depth >> m_rows >> m_cols >> m_border_mode卷积核需要转置!2、卷积计算公式有误keras::conv_single_depth_valid"same"还未修正...原创 2021-05-06 10:24:50 · 166 阅读 · 0 评论 -
Actor-Critic 网络
对战下一步怎么走?走这一步的价值如何?当前的地图 -> Critic网络 -> y1当前的地图 + 选中的动作 -> Critic网络 -> y2value1 = y1value2 = r*y2 + rewardloss1 = (value1 - value2)^2当前地图 -> Actor网络 -> 4 个动作概率(yi)loss2 = -sum(y_truth * log(yi))样本:(当前地图,随机走一步)loss3 = sum(loss1原创 2021-04-28 17:25:38 · 333 阅读 · 0 评论 -
基本推荐模型
NCF1 means item i is relevant to u, and 0 otherwise目标函数:用户和app的匹配程度Wide & Deep Model – ranking model (Google Play,基于用户query,推荐合适的item)memorization(记忆):wide(LR),线性模型 + 交叉特征(AND)generalization(泛化):deep(DNN),几乎不需要人工特征工程ex.query = “fried chicken”,原创 2021-04-28 15:42:29 · 111 阅读 · 0 评论 -
tsne
t-SNE全称为t-distributed Stochastic Neighbor Embedding,翻译为t-随机邻近嵌入,它是一种嵌入模型,能够将高维空间中的数据映射到低维空间中,并保留数据集的局部特性,该算法在论文中非常常见,主要用于高维数据的降维和可视化。...原创 2021-04-21 09:53:58 · 622 阅读 · 0 评论 -
神经网络中episode、epoch、iteration、batch_size的理解
epoch、bath_size、iteration、episode在DNN中的解释:1、epoch:one forward pass and one backward pass of all the training examples, in the neural network terminology,重点就是所有的训练数据都要跑一遍。假设有6400个样本,在训练过程中,这6400个样本都跑完了才算一个epoch。一般实验需要训练很多个epoch,直到LOSS稳定后才停止。2、batch_size:原创 2021-07-13 23:25:15 · 1791 阅读 · 0 评论 -
Actor-Critic 网络
实战深度强化学习DQN-理论和实践:https://www.jianshu.com/p/10930c371cacDQN三大改进(一)-Double DQN:https://www.jianshu.com/p/fae51b5fe000DQN三大改进(二)-Prioritised replay:https://www.jianshu.com/p/db14fdc67d2cDQN三大改进(三)-Dueling Network:https://www.jianshu.com/p/b421c85796a2基于值原创 2021-04-07 16:22:53 · 2764 阅读 · 0 评论 -
探究 SVM
0g(x)=f(y)=ay=<a, y>二维空间线性不可分问题映射到四维空间后,变成了线性可分的!、x->yK(w,x):接受低纬空间的输入值,算出高维空间的内积值<w’, x’>两个问题:1、核函数很多,具体问题该怎么选择?首选径向基核函数2、使用核函数向高维空间映射后,问题仍然线性不可分,怎么办?松弛变量。11、并非所有的样本点都有一个松弛变量与其对应,实际上只有“离群点”才有,或者也可以说,所有没离群的点松弛变量都等于0;2、松弛变量的值实际上..原创 2021-04-07 16:04:34 · 67 阅读 · 0 评论 -
CNN 卷积层最清晰的解释
https://www.malaoshi.top/show_1EF4C2unOFre.html原创 2021-04-07 15:56:40 · 157 阅读 · 0 评论 -
keras C++ 实现
https://github.com/pplonski/keras2cpp原创 2021-04-07 10:58:16 · 525 阅读 · 0 评论 -
机器学习:查准率和查全率
如果你说的是recall和precision假设一共有10篇文章,里面4篇是你要找的。根据你某个算法,你认为其中有5篇是你要找的,但是实际上在这5篇里面,只有3篇是真正你要找的。那么你的这个算法的precision是3/5=60%,也就是,你找的这5篇,有3篇是真正对的这个算法的recall是3/4=75%,也就是,一共有用的这4篇里面,你找到了其中三篇。请自行归纳总结。...原创 2021-04-07 10:44:49 · 192 阅读 · 0 评论 -
特征工程
数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限而已特征工程重要性: 特征越好,灵活性越强; 特征越好,模型越简单; 特征越好,性能越出色;...原创 2020-03-04 15:36:26 · 85 阅读 · 0 评论 -
深度学习瓶颈
1. 需要大量样本虽然有一些方法可以减少对数据的依赖,比如迁移学习、少样本学习、无监督学习和弱监督学习。但是到目前为止,它们的性能还没法与监督学习相比。2. 过度拟合基准数据3. 对图像变化过度敏感对于任何一个目标对象,数据集中只有有限数量的场景。在实际的应用中,神经网络会明显偏向这些场景。“组合爆炸”就说视觉领域,真实世界的图像,从组合学观点来看太大量了。任何一个数据集,不管多大,都...原创 2020-02-13 16:15:16 · 307 阅读 · 0 评论 -
强化学习和自动编码机
“拯救公主”强化学习目标: 找到这样一中策略,使得所有步数产生的累计奖励和最大。Q-LearningBellman方程:Q(s,a)=Q(s,a)+α∗(R(s,a)+γ∗maxa,(Q(s,,a,))−Q(s,a))Q(s, a) = Q(s, a) + \alpha * (R(s, a) + \gamma * max_{a^,}(Q(s^,, a^,)) - Q(s, a)) Q...原创 2020-02-05 12:02:42 · 378 阅读 · 0 评论