![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
ai
Enzo邵靳天
命乃弱者借口,运乃强者谦词
展开
-
Machine Learning —LinearModel
Machine Learning —LinearModelSupervised Learning:Basic topics are Classification and Regression.Classification:About linear model, it includes LinearSVC , LogisticRegression(a classifier not a reg...原创 2018-10-18 22:23:23 · 195 阅读 · 0 评论 -
随笔:DeeCamp2019冬令营面试
1:对机器人怎么看:机器人实用主义:创造价值工作,优化,替代大量重复劳动力。缺点:没有感情,无法创新现有技术缺失,很难发展人形全能AI。没必要做全能AI全能全知的AI没有必要,要充分利用人的优势:可计划,创新,社交。2:自我驱动能力强,接受新知识能力快,并对AI,ML有浓厚的兴趣,执行力强。...原创 2018-12-12 13:00:57 · 1350 阅读 · 0 评论 -
图像处理及计算机视觉入门
、 计算机视觉入门系列(一) 综述因诸多学术理论及概念的原始论文都发表在英文期刊上,因此在尽可能将专业术语翻译成中文的情况下,都会在括号内保留其原始的英文短语以供参考。目录简介方向热点简介计算机视觉(Computer Vision)又称为机器视觉(...转载 2018-12-05 19:40:55 · 398 阅读 · 0 评论 -
pytorch 入门之基础和线性模型入门
一:pytorch基础1:张量:Tensor定义为:多维度的矩阵。例如:0维度:点; 一维:向量; 二维:普通矩阵有torch.FloatTensor ; torch.DoubleTensor; torch.IntTrnsor;2:变量:Variable3:模组 torch.nn.Moduleimport torch as tfrom torch import...原创 2018-11-22 09:49:54 · 203 阅读 · 0 评论 -
deep learning:深度前馈网络
深度学习是监督学习的一个分支。简单来说就是当线性模型无法解决问题时,引入的一种方法。它综合多种线行模型来从x空间——>学习到h空间,h空间为可用线行模型解决的空间深度前馈网络(deep feedforward network)又叫多层感知机,是深度学习最典型的模型。引入一个例子:XOR异或问题当 x1不变时,x2递增,输出结果的趋势相反,即出现了递增,也出现了递减。这不是线性变...原创 2018-11-08 02:37:31 · 186 阅读 · 0 评论 -
基于OpenCV的人脸识别/人脸检测
1:简介人脸检测指从现实环境中识别出人脸的位置;人脸识别基于人脸检测,下一步才能辨析人脸的属性,从而判别这个人是谁。2:原创 2018-11-06 14:03:26 · 1281 阅读 · 0 评论 -
cold-start problem(推荐系统)
冷启动是在群体推荐系统中一个常见的问题。简单来说它是推荐过程中没有足够的信息来对用户进行可靠的推荐。推荐系统是基于用户和产品的信息和交互,对信息进行过滤并达到向用户精准推荐其感兴趣的某些信息的一种技术。推荐系统基于用户的个人资料,人—物交互过程及其条目的特征等进行推荐。如果是基于内容推荐(content—based ),则需要对items建模,分析其特征,将用户以往感兴趣的items与...原创 2018-10-23 14:57:50 · 6265 阅读 · 0 评论 -
第五周report
1:搭建好了pytorch,并入门2:阅览并翻译部分attentive group recommendation3:了解并实现了一些监督学习的回归和分类算法:岭回归,线性回归,knn,svc4:了解sklearn库...原创 2018-10-20 12:31:28 · 170 阅读 · 0 评论 -
machine learning_instruction
机器学习简单来说是计算机通过对数据集的学习,对预测集的input找到正确的output。笼统归为三步:1:一系列实现任务的functions 形成 function set2:可以评价这些functions的goodness2:选择一个最佳的function解决task...原创 2018-10-20 00:21:31 · 167 阅读 · 0 评论 -
Attention注意力机制简介
一、注意力机制回顾简单来说,注意力本质上就是一个经过softmax层输出的向量。在早期机器翻译应用中,神经网络结构一般如下图,是一个RNN的Encoder-Decoder模型。左边是Encoder,代表输入的sentence。右边代表Decoder,是根据输入sentence对应的翻译。Encoder会通过RNN将最后一个step的隐藏状态向量c作为输出,Deocder利用向量c进行翻译。这样...原创 2019-04-11 11:39:34 · 847 阅读 · 0 评论