AI
文章平均质量分 80
人工智能
贪钱算法还我头发
中国科学院大学研三,准算法工程师
一直进步 做喜欢的
展开
-
机器学习笔记目录
吴恩达机器学习笔记目录 Week 知识点 1 引言、单变量线性回归、线性代数回顾 2 多变量线性回归、Octave教程 3 逻辑回归、正则化 4 神经网络 5 神经网络的学习 6 应用机器学习的建议、机器学习系统的设计 7 支持向量机 8 聚类、降维 ...原创 2021-02-13 10:31:41 · 108 阅读 · 0 评论 -
深度学习笔记目录
深度学习笔记 课程 编号 理论笔记 编程作业 神经网络和深度学习 1.1 深度学习介绍 \ 1.2 神经网络编程基础 识别猫的程序 1.3 浅层神经网络 单隐藏层的平面数据分类 1.4 深层神经网络 搭建多层神经网络及其应用 改善深层神经网络 2.1 深度学习实践方面...原创 2020-12-11 16:02:01 · 393 阅读 · 0 评论 -
【小贪】万字长文介绍因果推断和增益模型
本文首先从一个实例出发阐述了因果性不等于相关性,进而引出因果推断和增益模型。然后简单介绍了因果推断的基础内容,并介绍了主要的三类增益模型:元学习、增益直接建模、表示学习,每一类模型都简要介绍了其经典模型。之后介绍了增益模型的评价指标,包括uplift bins、uplift curve和qini曲线。增益模型实际上是一大类模型框架,本质上可以用传统响应模型或其他机器学习模型嵌入增益模型的框架,但是预测结果并不是一个概率,模型评价方式也有变化。训练样本收集增益模型建模强依赖于ab实验,数据要求很高。原创 2024-03-31 21:21:28 · 921 阅读 · 0 评论 -
【小贪】Python实现传统2D/3D配准——SIFT/SURF/ BRISK/ORB/AKAZE/ICP
【代码】【小贪】Python实现传统2D/3D配准——SIFT/SURF/ BRISK/ORB/AKAZE/ICP。原创 2024-03-24 15:40:45 · 359 阅读 · 0 评论 -
【小贪】Kinect V2相机标定、图像获取、图像处理(Python)
对Kinect V2相机标定。原创 2024-03-24 15:37:34 · 846 阅读 · 0 评论 -
【小贪】迁移学习、预训练和微调
BERT和GPT等基于Transformer的模型通过在上游大数据上预训练和下游任务上微调的形式已经成为大数据时代的重要的技术范式之一。原创 2024-03-14 15:33:08 · 363 阅读 · 0 评论 -
模型实验代码技巧
大部分论文中使用的都是warmup + cosine_decay。实际上大家都是守着模型手动调。原创 2023-05-19 20:45:30 · 560 阅读 · 1 评论 -
2023计算机CCF A类会议期刊截稿日期
计算机视觉原创 2022-10-13 14:30:00 · 6357 阅读 · 0 评论 -
Open3d从RGBD生成点云、mesh
Open3d从RGBD生成点云附相机模型原创 2022-10-10 12:30:26 · 2384 阅读 · 2 评论 -
三维重建经典算法:ICP、ARAP、Marching Cubes、TSDF
三维重建经典算法简介:ICP、ARAP、Marching Cubes、TSDF原创 2022-10-02 16:41:33 · 1886 阅读 · 0 评论 -
刷论文的感觉太棒了!(对比学习 / CLIP改进 / 视频理解)
对比学习论文综述;CLIP改进论文综述;视频理解论文综述原创 2022-09-18 22:04:29 · 1069 阅读 · 2 评论 -
推荐系统学习笔记目录
根据b站视频推荐系统算法基础+综合项目实战(大牛老师主讲)整理的学习笔记推荐系统学习笔记目录推荐系统介绍推荐算法HadoopHive & HBaseSpark coreSpark SQL & Spark streaming推荐系统案例...原创 2022-01-20 12:50:59 · 1364 阅读 · 0 评论 -
【PyTorch学习笔记】9.自定义数据集
文章目录.自定义数据集根据龙良曲Pytorch学习视频整理,视频链接:【计算机-AI】PyTorch学这个就够了!(好课推荐)深度学习与PyTorch入门实战——主讲人龙良曲.自定义数据集Load dataInherit from torch.utils.data.Dataset__len____getitem__Build modelTrain and TestTranfer Learning...原创 2021-08-19 15:08:49 · 494 阅读 · 0 评论 -
【PyTorch学习笔记】7.自编码器
文章目录47.Auto-Encoder介绍48.Auto-Encoder变种49.Variational Auto-Encoder引入50.变分自编码器VAE51.实战51.1AE51.2VAE根据龙良曲Pytorch学习视频整理,视频链接:【计算机-AI】PyTorch学这个就够了!(好课推荐)深度学习与PyTorch入门实战——主讲人龙良曲47.Auto-Encoder介绍Supervised LearningUnsupervised LearningReinforcement Lear原创 2021-08-18 21:20:01 · 891 阅读 · 0 评论 -
【PyTorch学习笔记】8.对抗生成网络
文章目录47.根据龙良曲Pytorch学习视频整理,视频链接:【计算机-AI】PyTorch学这个就够了!(好课推荐)深度学习与PyTorch入门实战——主讲人龙良曲47.原创 2021-08-13 20:53:12 · 464 阅读 · 1 评论 -
OpenCV人脸识别实例
文章目录1.图片基本处理2.图片和视频人脸检测3.训练数据和人脸识别2020年5月29日学习了b站人脸识别的简单教程,笔记记录于此1.图片基本处理import cv2 as cv# 读取图片,路径中不能有中文img = cv.imread('img.jpg')# 显示图片cv.imshow('BGR_img', img)# 修改图片尺寸resize_img = cv.resize(img, dsize=(210, 210))print('原来图片的尺寸', img.shape, '\原创 2021-08-17 16:22:55 · 922 阅读 · 0 评论 -
【吴恩达机器学习笔记】3逻辑回归、正则化
6逻辑回归(Logistic Regression)6.1分类问题(Classification)在分类问题中,要预测的变量 yyy 是离散的值,尝试预测的是结果是否属于某一个类。逻辑回归算法是分类算法,使用逻辑回归 (Logistic Regression) 算法解决分类问题,这是目前最流行使用最广泛的一种学习算法。二元分类问题:将因变量(dependent variable)可能属于的两个类分别称为负向类(negative class)和正向类(positive class),则因变量y∈0,1y原创 2021-01-04 17:10:36 · 124 阅读 · 0 评论 -
【吴恩达机器学习笔记】6应用机器学习的建议、机器学习系统的设计
10应用机器学习的建议(Advice for Applying Machine Learning)10.1 决定下一步做什么(Deciding What to Try Next )本章重点关注的问题是假如开发一个机器学习系统,或者想试着改进一个机器学习系统的性能,应如何决定接下来应该选择哪条道路?改进算法性能的方法:获得更多的训练样本——通常是有效的,但代价较大,下面的方法也可能有效,可考虑先采用下面的几种方法。尝试减少特征的数量尝试获得更多的特征尝试增加多项式特征尝试减原创 2021-01-21 13:57:23 · 113 阅读 · 0 评论 -
【吴恩达机器学习笔记】7支持向量机
12支持向量机(Support Vector Machines)12.1 优化目标(Optimization Objective)与逻辑回归和神经网络相比,支持向量机SVM在学习复杂的非线性方程时提供了一种更为清晰,更加强大的方式。现在开始建立支持向量机,从代价函数开始,也就是−log(1−11+e−z)-\log(1-\frac{1}{1+e^{-z}})−log(1−1+e−z1)一点一点修改,让我取这里的z=1z=1z=1 点,我先画出将要用的代价函数。新的代价函数将会水平的从这里到右边原创 2021-02-08 22:53:09 · 160 阅读 · 0 评论 -
【吴恩达机器学习笔记】10大规模机器学习、应用实例:图片文字识别
17大规模机器学习(Large Scale Machine Learning)17.1 大型数据集的学习( Learning With Large Datasets)如果我们有一个低方差的模型,增加数据集的规模可以帮助你获得更好的结果。我们应该怎样应对一个有100万条记录的训练集?以线性回归模型为例,每一次梯度下降迭代,我们都需要计算训练集的误差的平方和,如果我们的学习算法需要有20次迭代,这便已经是非常大的计算代价。首先应该做的事是去检查一个这么大规模的训练集是否真的必要,也许我们只用1000个训原创 2021-02-13 10:09:23 · 232 阅读 · 1 评论 -
【吴恩达机器学习笔记】4神经网络
8 神经网络:表述(Neural Networks: Representation)8.1 非线性假设(Non-linear hypothe)线性回归和逻辑回归算法当特征太多时,计算的负荷会非常大。这时需要神经网络。8.2 神经元和大脑(Neurons and brain)神经网络是一种很古老的算法,它最初产生的目的是制造能模拟大脑的机器。神经网络逐渐兴起于二十世纪八九十年代,应用得非常广泛。但由于各种原因,在90年代的后期应用减少了。但是最近,神经网络又东山再起了。其中一个原因是:神经网络是计算量原创 2021-01-04 17:51:05 · 125 阅读 · 0 评论 -
【吴恩达机器学习笔记】2多变量线性回归、Octave教程
4多变量线性回归(Linear Regression with multiple variables)4.1多维特征(Multiple features)多变量模型注释:nnn:特征数量x(i){x^{\left( i \right)}}x(i):第 iii 个训练实例,是特征矩阵中的第iii行,是一个向量(vector)。xj(i){x}_{j}^{\left( i \right)}xj(i):特征矩阵中第 iii 行的第 jjj 个特征,也就是第 iii 个训练实例的第 jjj 个特征。原创 2021-01-03 11:13:47 · 177 阅读 · 0 评论 -
【吴恩达机器学习笔记】1引言、单变量线性回归、线性代数回顾
1引言(Introduction)1.1欢迎(Welcome)1.2机器学习是什么(What is machine learning?)Arthur Samuel(1959):机器学习是在没有进行特定编程的情况下,给予计算机学习能力的领域。Tom Mitchell(1998):一个好的学习问题定义如下,一个程序被认为能从经验E中学习,解决任务T,达到性能度量值P,当且仅当有了经验E后,经过P评判,程序在处理T时的性能有所提升。机器学习算法包括监督学习(Supervised learning)、原创 2020-12-29 18:45:47 · 175 阅读 · 0 评论 -
【吴恩达机器学习笔记】9异常检测、推荐系统
15异常检测(Anomaly Detection)15.1 问题的动机(Problem Motivation)异常检测(Anomaly detection)问题是机器学习算法的一个常见应用。它虽然主要用于非监督学习问题,但从某些角度看,它又类似于一些监督学习问题。什么是异常检测呢?给定数据集 x(1),x(2),..,x(m)x^{(1)},x^{(2)},..,x^{(m)}x(1),x(2),..,x(m),假使数据集是正常的,希望知道新的数据 xtestx_{test}xtest 是不是异常的原创 2021-02-11 22:36:23 · 250 阅读 · 0 评论 -
【吴恩达机器学习笔记】8聚类、降维
13聚类(Clustering)13.1 无监督学习简介(Unsupervised Learning Introduction)在一个典型的监督学习中,有一个有标签的训练集,目标是找到能够区分正样本和负样本的决策边界,在这里的监督学习中,有一系列标签,需要据此拟合一个假设函数。与此不同的是,在非监督学习中,数据没有附带任何标签。训练集可以写成只有x(1)x^{(1)}x(1),x(2)x^{(2)}x(2)……一直到x(m)x^{(m)}x(m)。没有任何标签yyy。数据一般看起来可以分成几个分开的点集原创 2021-02-10 21:40:48 · 341 阅读 · 0 评论 -
【吴恩达机器学习笔记】5神经网络的学习
神经网络的学习(Neural Networks: Learning)9.1 代价函数(Cost Function)首先引入一些便于稍后讨论的新标记方法:假设神经网络的训练样本有mmm个,每个包含一组输入xxx和一组输出信号yyy,LLL表示神经网络层数,SIS_ISI表示每层的neuron个数(SlS_lSl表示输出层神经元个数),SLS_LSL代表最后一层中处理单元的个数。将神经网络的分类定义为两种情况:二类分类和多类分类,二类分类:SL=0,y=0 or 1S_L=0, y=0\, or原创 2021-01-05 10:57:25 · 116 阅读 · 0 评论 -
【吴恩达深度学习编程作业】2.1改善深层神经网络——初始化、正则化、梯度校验
参考文章:改善深层神经网络-初始化、正则化、梯度校验至今为止,数据集的加载、决策边界的曲线绘制代码不熟悉,向量与字典的相互转化的代码没细看。代码实现功能如下:初始化参数:1.1:使用0来初始化参数1.2:使用随机数来初始化参数1.3:使用抑梯度异常初始化参数(参见视频中的梯度消失和梯度爆炸)正则化模型:2.1:使用二范数对二分类模型正则化,尝试避免过拟合。2.2:使用随机删除节点的方法精简模型,同样是为了尝试避免过拟合。梯度校验 :对模型使用梯度校验,检测它是否在梯度下降的过程中出原创 2020-10-21 16:52:39 · 484 阅读 · 0 评论 -
【吴恩达深度学习编程作业】1.4深层神经网络——搭建多层神经网络及其应用
参考文档:一步步搭建多层神经网络及其应用 码了两天终于码完了,搞不懂的地方CSDN大致是理解了,希望自己可以多回来看看吧。目录结构main.pyimport numpy as npimport matplotlib.pyplot as pltimport Deep_Learning.test4.testCasesfrom Deep_Learning.test4.dnn_utils import sigmoid, sigmoid_backward, relu, relu_backwardimp原创 2020-10-15 22:15:59 · 515 阅读 · 0 评论 -
【吴恩达深度学习笔记】5.3序列模型和注意力机制Sequence models&Attention mechanism
第五门课 序列模型(Sequence Models)3.1基础模型(Basic Models)建立一个编码网络(encoder network),它是一个RNN的结构, RNN的单元可以是GRU 也可以是LSTM。每次只向该网络中输入一个法语单词,将输入序列接收完毕后,这个RNN网络会输出一个向量来代表这个输入序列。之后你可以建立一个解码网络3.2选择最可能的句子(Picking the most likely sentence)3.3集束搜索(Beam Search)3.4改进集束搜索(Refi原创 2020-12-09 12:42:57 · 718 阅读 · 0 评论 -
【吴恩达深度学习笔记】2.2 优化算法Optimization algorithms
第二门课 改善深层神经网络:超参数调试、正则化以及优化(Improving Deep Neural Networks:Hyperparameter tuning,Regularization and Optimization)2.1Mini-batch梯度下降(Mini-batch gradient descent)优化算法将加快神经网络的运行,加快训练模型。深度学习没有在大数据领域发挥最大的效果,我们可以利用一个巨大的数据集训练神经网络,但这样训练速度很慢,使用快速的优化算法可以大大提高效率。把训练原创 2020-10-25 11:21:42 · 217 阅读 · 0 评论 -
【吴恩达深度学习编程作业】5.1序列模型——搭建循环神经网络及其应用
参考文章:序列模型——搭建循环神经网络及其应用这周的编程作业好难啊,明明原理都懂的一实践就完蛋,模棱两可的码了好久。问题:在执行LSTM网络即兴演奏爵士乐代码时出现了AssertError,我将preprocess.py文件第110行的assert len(chords) == len(measures)注释掉了,加了一行del measures[len(measures) - 1],并将preprocess.py、data_utils.py、music_utils.py文件中所有的78换成了80,成功原创 2020-12-04 21:50:12 · 684 阅读 · 4 评论 -
【Pytorch学习笔记】4.深度学习策略
文章目录25.过拟合&欠拟合根据龙良曲Pytorch学习视频整理,视频链接:【计算机-AI】PyTorch学这个就够了!25.过拟合&欠拟合原创 2021-08-11 11:01:13 · 385 阅读 · 0 评论 -
【吴恩达深度学习编程作业】2.2改善深层神经网络——优化算法实战
参考文档:优化算法实战代码实现:分割数据集优化梯度下降算法:2.1不使用任何优化算法2.2 mini-batch梯度下降法2.3 使用具有动量的梯度下降算法2.4 使用Adam算法main.py""" 代码实现: 1. 分割数据集 2. 优化梯度下降算法: 2.1 不使用任何优化算法 2.2 mini-batch梯度下降法 2.3 使用具有动量的梯度下降算法原创 2020-10-27 21:25:05 · 351 阅读 · 0 评论 -
【吴恩达深度学习笔记】1.4 深层神经网络Deep Neural Networks
4.1深层神经网络(Deep L-layer neural network)严格来说,逻辑回归也是一个一层的神经网络。有一个隐藏层的神经网络就是一个两层神经网络。计算神经网络时不计入输入层,只计隐藏层和输出层。有些函数只有深层的神经网络可以学会,对于任何给定的问题很难提前预测到底需要多深的神经网络,一般先尝试逻辑回归,尝试一层然后两层隐藏层,然后把隐藏层的数量看作是另一个可以自由选择大小的超参数,然后再保留交叉验证数据上评估。正向传播时,会得到用激活函数ggg计算的第lll层激活后的结果g(z[l])原创 2020-10-11 16:37:14 · 269 阅读 · 0 评论 -
【吴恩达深度学习编程作业】4.4特殊应用——人脸识别和神经风格转换(问题未解决)
参考文章:1.人脸识别与神经风格转换 2.神经风格转换编程作业神经网络风格中遇到的问题已经解决了并将解决方案写在了备注里面,但是人脸识别那里运行到database就出错了,目前仍没有找到解决方案,报错信息:Traceback (most recent call last): File "G:/Project/PYTHON/Demo01/Deep_Learning/test4_4/人脸识别.py", line 108, in <module> database["daniel原创 2020-11-25 16:50:09 · 911 阅读 · 6 评论 -
【吴恩达深度学习笔记】1.3 浅层神经网络Shallow neural networks
3.1神经网络概述(Neural Network Overview)3.2 神经网络的表示(Neural Network Representation)3.3 计算一个神经网络的输出(Computing a Neural Network’s output)3.4 多样本向量化(Vectorizing across multiple examples)3.5 向量化实现的解释(Justification for vectorized implementation)3.6 激活函数(Activatio原创 2020-10-06 14:30:05 · 267 阅读 · 0 评论 -
【Pytorch学习笔记】1.Pytoch概述
cmd查看CUDA版本信息: nvcc -Vpython查看torch和cuda信息:import torchprint(torch.__version__)print('gpu:', torch.cuda.is_available())Linear RegressionLogistic Regressionnumpy.genfromtxt(file_name)Pytorch基本数据类型数据位置对数据类型的影响:标量的表示:标量的shape:张量的表示:维度:原创 2021-08-02 21:35:26 · 317 阅读 · 0 评论 -
【Pytorch学习笔记】3.深度学习基础
13.梯度导数 derivative偏微分 partial derivate梯度 gradient(向量)How to search for minima?θt+1=θt−αt▽f(θt)\theta_{t+1}=\theta_t-\alpha_t\triangledown f(\theta_t)θt+1=θt−αt▽f(θt)Optimizer performanceinitialization status 何恺明初始化方法learning rate (learnin原创 2021-08-10 17:20:59 · 1022 阅读 · 0 评论 -
【吴恩达深度学习笔记】4.2深度卷积网络:实例探究Deep convolutional models:case studies
第四门课 卷积神经网络(Convolutional Neural Networks)2.1为什么要进行实例探究(Why look at case studies?)Classic networks:LeNet-5AlexNetVGGResNetInception2.2经典网络(Classic networks)LeNet-5 :[LeCun et al . 1998. Gradient-based learning applied to document recognition]A原创 2020-11-14 11:33:55 · 371 阅读 · 0 评论 -
【吴恩达深度学习笔记】3.2机器学习策略Machine Learning strategy
第三门课 结构化机器学习项目(Structuring Machine Learning Projects)2.1进行误差分析(Carrying out error analysis)进行错误分析应该找一组错误样本,可能在开发集里或者测试集里,观察错误标记的样本,看看假阳性(false positives)和假阴性(false negatives),统计属于不同错误类型的错误数量。在这个过程中归纳出新的错误类型。通过统计不同错误标记类型占总数的百分比,可以发现哪些问题需要优先解决,或者给你构思新优化方向的原创 2020-11-07 16:23:24 · 272 阅读 · 0 评论