笔记
文章平均质量分 92
面包猎人
我嘛?
展开
-
学习笔记——pytorch1.9.0官方文档快速入门(三)
目录参考笔记链接transforms介绍ToTensor()Lambda Transforms参考官方文档——Transforms转换运行环境:google colab笔记链接学习笔记——pytorch1.9.0官方文档快速入门(一)学习笔记——pytorch1.9.0官方文档快速入门(二)学习笔记——pytorch1.9.0官方文档快速入门(三)学习笔记——pytorch1.9.0官方文档快速入门(四)学习笔记——pytorch1.9.0官方文档快速入门(五)学习笔记——pytorc原创 2021-07-26 15:06:25 · 436 阅读 · 0 评论 -
学习笔记——pytorch1.9.0官方文档快速入门(二)
目录参考笔记链接Datasets & Dataloaders介绍加载数据集可视化数据集自定义数据集__init____len____getitem__使用Dataloaders准备训练数据遍历DAtaloader参考官方文档——Datasets & Dataloaders运行环境:google colab笔记链接学习笔记——pytorch1.9.0官方文档快速入门(一)学习笔记——pytorch1.9.0官方文档快速入门(二)学习笔记——pytorch1.9.0官方文档快速入原创 2021-07-26 14:49:22 · 552 阅读 · 0 评论 -
学习笔记——pytorch1.9.0官方文档快速入门(一)
目录参考笔记链接Tensor介绍初始化张量的方法数据直接转换numpy数组转换其他张量转换使用随机值或常量值张量属性张量操作索引和切片拼接算术运算单元素张量In-place操作tensor与numpytensor转换为numpy arraynumpy array转换为tensor参考官方文档——张量Tensor运行环境:google colab笔记链接学习笔记——pytorch1.9.0官方文档快速入门(一)学习笔记——pytorch1.9.0官方文档快速入门(二)学习笔记——pytorch原创 2021-07-26 13:57:22 · 1760 阅读 · 1 评论 -
集成学习——bagging原理及分析
bagging原理 与投票法不同的是,Bagging不仅仅集成模型最后的预测结果,同时采用一定策略来影响基模型训练,保证基模型可以服从一定的假设。在上一章中我们提到,希望各个模型之间具有较大的差异性,而在实际操作中的模型却往往是同质的,因此一个简单的思路是通过不同的采样增加模型的差异性。 Bagging的核心在于自助采样(bootstrap)这一概念,即有放回的从数据集中进行采样,也就是说,同样的一个样本可能被多次进行采样。一个自助采样的小例子是我们希望估计全国所有人口年龄的平均值,那么我们可以在全原创 2021-04-17 23:38:58 · 1400 阅读 · 1 评论 -
集成学习结合策略——投票法
初识投票法的一点联想 其实第一次遇见集成学习中的投票法时候,会不由自主联系到leetcode 169. 多数元素和leetcode 229. 求众数 II中利用摩尔投票法求解问题。摩尔投票的基本思路如下:找出一组数字序列中出现次数大于总数1/2的数字(并且假设这个数字一定存在)。显然这个数字只可能有一个。摩尔投票算法是基于这个事实:每次从序列里选择两个不相同的数字删除掉(或称为“抵消”),最后剩下一个数字或几个相同的数字,就是出现次数大于总数一半的那个。作者:喝七喜链接:https://www原创 2021-04-14 22:16:33 · 3161 阅读 · 0 评论 -
分类调优——基于SVM的人脸识别(更新)
正在施工ing原创 2021-03-29 20:06:34 · 309 阅读 · 0 评论 -
公式推导概率生成模型(更新~)
基于概率的分类模型朴素贝叶斯线性判别分析logistic regression决策树支持向量机参考Datawhale集成学习项目地址李宏毅ML20课程主页原创 2021-03-27 21:54:49 · 1015 阅读 · 1 评论 -
超参数调优
参数与超参数 以最基本的线性回归模型为例,说明参数与超参数的区别。我们使用线性回归模型预测数据,通过MSE均方误差评估模型优劣,利用随机梯度下降寻找最优模型。其中,通过MSE调整的WWW正是我们所熟知的参数,而随机梯度下降中的步长η\etaη是我们心心念的超参数。因此,类似于参数WWW一样,使用最小二乘法或者梯度下降法等最优化算法优化出来的数我们称为参数,类似于η\etaη一样,我们无法使用最小二乘法或者梯度下降法等最优化算法优化出来的数我们称为超参数。模型参数是模型内部的配置变量,其值可以根据数据进原创 2021-03-24 22:16:56 · 229 阅读 · 0 评论 -
偏差方差理论解析
正在写训练均方误差与测试均方误差:在回归中,我们最常用的评价指标为均方误差,即: ,其中是样本 应用建立的模型 预测的结果。如果我们所用的数据是训练集上的数据,那么这个误差为训练均方误差,如果我们使用测试集的数据计算的均方误差,我们称为测试均方误差。一般而言,我们并不关心模型在训练集上的训练均方误差,我们关心的是模型面对未知的样本集,即测试集上的测试误差,我们的目标是使得我们建立的模型在测试集上的测试误差最小。那我们如何选择一个测试误差最小的模型呢?这是个棘手的问题,因为在模型建立阶段,我们是原创 2021-03-22 22:23:15 · 374 阅读 · 0 评论 -
公式推导线性回归模型
正在写,先占坑原创 2021-03-18 21:13:04 · 745 阅读 · 0 评论 -
李宏毅机器学习特训营——regression课程笔记
回归应用 概括来说,回归的过程就是向某一函数f(X)输入若干数据X,输出某一标量。回归可用于股票预测、自动驾驶、推荐系统等,如下图所示: 接下来,我们将用大名鼎鼎的宝可梦预测实例梳理回归模型构建的全流程,或者说如何玩转机器学习? 注:我对Pokémon不是很了解,因此,我可能直接用字母代替里面的很多细节,比如特征值的含义。回归举例:宝可梦预测实例说明 要求预测宝可梦进化后的CP值。这里我们可以向模型输入不同的特征,包括但不限于xsx_sxs、xhpx_{hp}xhp、xwx_wxw原创 2021-03-16 21:09:26 · 667 阅读 · 1 评论 -
举例梳理机器学习三大基本任务
前言 参考Datawhale集成学习给出的思路。机器学习的“左膀右臂”——模型和数据,我们无非是应用模型来分析数据规律,以期望预测数据。在机器学习语境下,数据集通常表示为一组向量,每条数据(样本)就是该组向量中的一个向量。我们用xix_ixi来表示一个样本,其中i=1,2,3,...,Ni=1,2,3,...,Ni=1,2,3,...,N 导入包# 引入相关科学计算包import numpy as npimport pandas as pdimport matplotlib.pyplot原创 2021-03-15 22:01:46 · 521 阅读 · 1 评论 -
记一次小白调参baseline——NLP中文预训练模型泛化能力比赛
目的 前情提要 根据Datawhale大佬们提供的baseline训练模型以及优化方向,对baseline进行改进以期提高分数。对于小白本白来说,very very hard,特此记录过程以鞭策自己,目前仍在艰难探索ing~再次感谢大佬们的指点!背景个人配置本机显卡:RTX3070;目前租用两块3090试一试水;以及第一次调baseline的小白~赛题要求赛事信息:天池->全球人工智能技术创新大赛【热身赛二】Datawhale提供的baseline(特别感谢~):地原创 2021-02-26 02:27:40 · 1672 阅读 · 2 评论 -
踩坑记录——记一次训练提交baseline全过程
目录目的背景个人配置赛题要求本机跑通Baselinepytorch配置准备环节添加transformers和sklearn数据文件及bert配置模型训练过程数据准备训练更改batch_size适配主机生成结果打包预测结果Docker提交Docker安装本机Docker推送走通的路比赛提交致谢参考目的 根据Datawhale大佬们提供的baseline训练模型,并通过docker的方式提交到天池比赛,获得自己的分数。对于新手来说,并没有看起来那么轻松,特此记录踩坑历程。感谢老师们的指点!背景个人配置原创 2021-02-19 03:53:36 · 2036 阅读 · 2 评论 -
学习整理自用——计算机基础路径
实验工具 任意一门语言即可,最好是c++/java(用于日后课程的实践环节)数据结构/算法 书:可以看看《算法第四版》(java写的),讲的很清晰(没有动态规划的内容,可以去算法导论看一看专门章节) 课:书的作者授课,也就是大名鼎鼎的普林斯顿算法课(coursera打开太慢可以找b站)Princeton University 丨 Algorithms Part 1Princeton University 丨 Algorithms Part 2注:不习惯英文授课直接看书即可,这部分主原创 2021-02-14 17:04:06 · 386 阅读 · 0 评论 -
PaddlePaddle入门实践——十二生肖分类
十二生肖分类任务要求图像分类实现思路图像分类原理数据准备解压数据集数据标注数据集定义模型开发模型训练优化模型评估参考任务要求 找到一个最优算法,让机器能够分清每个属相动物的照片,这是一个基于图像的分类任务。图像分类实现思路图像分类原理数据准备解压数据集 我们将网上获取的数据集以压缩包的方式上传到aistudio数据集中,并加载到我们的项目内。在使用之前我们进行数据集压缩包的一个解压(十二生肖数据集)!unzip -q -o <压缩包路径>数据标注 数据集结构:原创 2021-02-07 19:48:38 · 1198 阅读 · 1 评论 -
PaddlePaddle入门实践——初识卷积神经网络
CNN基础介绍卷积操作单通道卷积多通道卷积多通道输出Batch池化paddingLeNet-5实践——手写数字识别 在我上一篇写的总结(PaddlePaddle入门实践——手写数字识别)中,我们采用了单隐层、线性变换的全连接神经网络模型来实现功能,本次总结我们将继续着眼于手写数字识别,所不同的是,我们会使用CNN的经典结构LeNet-5来达成目的。数据格式(image,label) Lenet是Yann LeCun等人在1998年提出的卷积神经网络结构,它的提出定义了CNN的基本结原创 2021-02-07 16:28:46 · 2212 阅读 · 4 评论 -
PaddlePaddle入门实践——手写数字识别
任务要求 能够识别手写数字0~9的图像,具体来说,将手写数字的灰度图像(28像素 x 28像素)划分到10个类别中(0 ~ 9)。要求使用PaddlePaddle框架实现模型。数据集及环境数据集来源: ML领域经典数据集MNIST,包含60,000 张训练图像和 10,000 张测试图像数据说明:数据分为图片和标签,图片是28*28的像素矩阵,标签为0 ~ 9共10个数字运行环境:PaddlePaddle2.0 + cuda11.1 + pycharm Tips:PaddlePadd原创 2021-02-04 23:03:32 · 4045 阅读 · 2 评论 -
Win10+CUDA11.1+Pycharm+RTX3070安装PaddlePaddle2.0
写在前面背景:学一下飞桨的课程,需要配paddle环境收获:在经历了配置pytorch的折磨后,这次配置除了在下载cuDNN遇到了少许波折,其他部分一次通过!系统配置:WIN10专业版 64位+RTX3070安装环境:Anaconda+Pycharm+Paddle(GPU版)+Cuda+cuDNN Tips:这次的配置方法基本源于之前配置pytorch的经验,详情可以移步到我写的pytorch配置总结,那里有一些类似的报错解决方案,希望能给大家一些启发。安装cuDNN部分,可以直接参考飞原创 2021-02-02 23:34:20 · 2489 阅读 · 4 评论 -
Windows系统下Anaconda+Pytorch+Pycharm配置踩坑历程
qqqq原创 2021-01-25 18:14:06 · 1826 阅读 · 9 评论 -
机器学习高等数学基础——多元微分总结
文章目录多元微分求偏导多元函数相关概念n维空间二元函数求偏导数方向导数求梯度一阶偏导求Jacobian矩阵二阶偏导求Hessian矩阵多元函数求极值函数的极值与最值的概念最优性条件无条件极值条件极值(拉格朗日乘子法)基于梯度的优化方法Taylor公式梯度下降法牛顿迭代法牛顿迭代法与梯度下降法比较参考多元微分求偏导多元函数相关概念n维空间 设nnn为取定的一个正整数,我们用RnR^nRn表示nnn元有序实数组(x1,x2,...,xn)(x_1,x_2,...,x_n)(x1,x2,...,xn原创 2021-01-16 16:11:46 · 790 阅读 · 0 评论 -
人工智能学习笔记:基本遗传算法及其改进算法
文章目录1 引言2 基本思想及发展历史3 基本遗传算法详细步骤3.1 编码3.2 初始群体设定3.3 设计适应度函数3.4 遗传操作3.4.1 选择3.4.2 交叉3.4.3 变异4 基本遗传算法总结5 遗传算法改进5.1 双倍体遗传算法5.2 双种群遗传算法5.3 自适应遗传算法6 参考文献1 引言 本次学习报告主要介绍基本遗传算法的详细过程以及三种遗传算法的改进算法,旨在回顾和整理这一学期习得的部分知识。在撰写报告的过程中,会在其中增加一些个人的思考,这些思考主要基于过去所学的知识,目的在于寻找知原创 2020-12-26 23:00:29 · 17662 阅读 · 2 评论