自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(31)
  • 收藏
  • 关注

原创 深度学习使用云服务器记录

这里使用的是矩池云的服务器,我这里是用来跑yolo相关的程序,个人记录用使用参考:https://doc.itprojects.cn/0007.zhishi.raspberrypi/02.doc/index.html#/c04.cloudgpu。

2023-04-24 17:31:30 180

原创 yolov5 相关操作个人记录

2023-03-20 17:36:48 307

原创 打开labelme记录

2023-03-09 10:25:12 144

原创 共享单车之租赁需求预估

共享单车之租赁需求预估第三关

2022-06-10 12:32:05 2487

原创 机器学习——模型评估,选择与验证

文章目录机器学习——模型评估,选择与验证训练集与测试集为什么要有训练集与测试集如何划分训练集与测试集欠拟合与过拟合欠拟合过拟合偏差与方差模型误差来源偏差与方差验证集与交叉验证为什么需要验证集k折交叉验证集成学习自助法衡量回归的性能指标MSERMSEMAER-Squared准确度的缺陷混淆矩阵精准率与召回率精准率召回率精准率与召回率之间的关系应该选精准率还是召回率作为性能指标?F1 Score什么是F1 ScoreROC曲线与AUCROC曲线AUCsklearn中的分类性能指标accu\fracy_score

2022-04-07 21:46:25 3526

原创 动手学深度学习——环境安装记录

文章目录使用环境具体安装记录nvidia查看使用率什么的打开anaconda测试跟李沐大神搞的,后面环境问题都会记录在这里。学习网址:http://zh-v2.d2l.ai/使用环境python 3.7anaconda 3具体安装记录使用命令:pip install jupyter d2l torch torchvision但发现如下错误:直接进行更新,试一下:pip install --upgrade h2pip install --upgrade h2重新执行安装命令

2022-04-03 09:46:20 1229

原创 C语言进阶学习——结构体的使用和C++的引用

文章目录Typedef结构体的使用C++的引用头文件里面放的只是函数声明Typedeftypedef的作用就是起别名,直接写一整串的struct… 太过于繁琐。我们也可以对数据类型起别名,像int之类的,为什么要对int起别名,就是为了代码及注释。结构体的使用结构体具体就是存放数据的一个东西,下面是各种数据类型的实际使用。#define _CRT_SECURE_NO_WARNINGS#include<stdlib.h>#include<stdio.h>struc

2022-03-29 16:39:30 1026

原创 C语言进阶学习——指针和数组的使用

数组在定义初始化字符数组时,一定要让字符数组的大小比看到的字符串的长度多1scanf读入s%可以不取地址,同时遇到空格时便会停止写入gets和puts当一次读取一行时便使用gets下面是常用的几个函数的使用方法。#define _CRT_SECURE_NO_WARNINGS#include <stdio.h>#include<string.h>int main() { char d[20], c[20] = "wangdao"; printf("%d\

2022-03-25 00:19:32 1378

原创 C语言进阶学习——scanf的相关使用

scanf循环读取发生错误时返回EOF(-1)。什么情况下回出错?行首输入三次Ctrl+z。真正实用的数据基本都是从日志,文件里面读取的数据,scanf在工作中并不经常使用。scanf读取数据时,读取字符类型的数据要格外注意。#define _CRT_SECURE_NO_WARNINGS#include <stdio.h>//原理对机试很重要int main() { int i ; while (rewind(stdin),scanf("%d", &am

2022-03-21 23:22:41 947

原创 【LeetCode】二分查找-寻找两个正序数组的中位数(pyhton实现)

文章目录题目示例思路:方法一:方法二:复杂度分析题目给定两个大小分别为 m 和 n 的正序(从小到大)数组 nums1 和 nums2。请你找出并返回这两个正序数组的 中位数 。算法的时间复杂度应该为 O(log (m+n)) 。示例示例 1:输入:nums1 = [1,3], nums2 = [2]输出:2.00000解释:合并数组 = [1,2,3] ,中位数 2示例 2:输入:nums1 = [1,2], nums2 = [3,4]输出:2.50000解释:合并数组 = [1,

2022-03-20 14:07:14 934

原创 sklearn中的数据预处理方法学习汇总

sklearn中的数据预处理方法

2022-03-18 00:03:31 3411

原创 Pandas 进阶知识学习

Pandas 进阶学习导语本部分主要记录分组聚合以及创建透视表和交叉表的方法,通过此部分的学习主要明白Pandas内部的数据结构以及统计函数是什么样子的程度即可。因为需求的多样,下面例子只是给出某种需求下的内容,实际处理数据会遇到更为复杂的情况,因此单看例子很难消化,深入了解需要结合具体例子进行相关操作。Pandas分组聚合分组聚合的流程主要有三步:分割步骤将DataFrame按照指定的键分割成若干组;应用步骤对每个组应用函数,通常是累计、转换或过滤函数;组合步骤将每一组的结果合并成一个输出

2022-03-17 17:52:41 2840

原创 Pandas入门知识学习

目录Pandas基础知识学习一、数据处理对象Pandas中的数据结构SeriesDataFrame二、读取CSV格式数据读取CSV查看前n行查看后n行修改列名三、排序操作对索引进行排序按行排序按值排序四、删除操作五、基本的算术运算算术运算(+,-,*,/)六、去重操作duplicated()drop_duplicates()七、层次化索引层次化索引索引方式内层选取数据重塑Pandas基础知识学习Pandas比较适合处理结构化的数据,如序列数据,表格数据等,例如csv文件,利用pandas可以快速的对数据

2022-03-16 14:00:32 1648 1

原创 numpy数组的相关操作

目录numpy数组的高级操作一、堆叠操作stackhstackvstack测试题目二、比较、掩码和布尔逻辑比较布尔数组作掩码布尔逻辑三、花式索引与布尔索引花式索引布尔索引四、广播机制广播是什么广播的原则五、线性代数常用函数测试题目numpy数组的高级操作本文为机器学习课程中的笔记。一、堆叠操作stackstack的意思是堆叠的意思,所谓的堆叠就是将两个ndarray对象堆叠在一起组合成一个新的ndarray对象。根据堆叠的方向不同分为hstack以及vstack两种。hstackhstack为

2022-03-10 00:33:36 2434

原创 【LeetCode】哈希算法—两数之和(python实现)

哈希算法简要学习:一、常见算法简介顺序查找:是最简单的查找方法。需要对数据集中的逐个匹配。所以效率相对较低,不太适合大量数据的查找问题。二分法查找:效率很高,但是要求数据必须有序。面对数据排序通常需要更多的时间。深度优先和广度优先算法:对于大量的数据查找问题,效率并不高。这个我们后面专门讲解。阿希查找算法:查找速度快,查询插入,删除操作简单等原因获得广泛的应用。二、哈希的原理以a = [1, 17, 5, 8, 2, 9, 20, 3, 2, 5]这个数组为例,如果要查找1到10是否在这个数组

2022-03-04 00:24:08 763 1

原创 numpy模块中索引与切片的使用

numpy模块中索引与切片的使用索引ndarray的索引其实和python的list的索引极为相似。元素的索引从0开始。import numpy as npa = np.array([2, 15, 3, 7])print(a[1])# 15b = np.array([[1, 2, 3], [4, 5, 6]])print(b[0])# [1 2 3]print(b[0][1])# 2遍历ndarray的遍历方式与python的list的遍历方式相似。import numpy

2022-03-02 12:52:07 260

原创 np.argmax中axis的意义

函数定义np.argmax是用于取得数组中每一行或者每一列的的最大值。函数如下:np.argmax( a, axis=None, out=None)a:输入矩阵;axis:对于二维向量而言,0代表对行进行最大值选取,此时对每一列进行操作;1代表对列进行最大值选取,此时对每一行进行操作。三维向量的情况更为复杂,需要结合例子说明。实际上axis的大小代表着进入到第axis+1个[ ]内,对其剩余的部分进行对比;out:可以指定输出矩阵的变量举例如下:一维数组:import

2022-03-02 08:50:07 614 1

原创 本地环境使用python连接ONENET物联网平台

直接上代码,具体链接以及各地址参照上一篇博客import jsonimport requestsAPIKEY = '' # 改成你的APIKEYapiurl = '' #改成你自己的apiheaders = {'api-key': APIKEY, 'Content-Length': '10'}def http_put(): temperature = 1 payload = {'datastreams': [{"id": "ce

2021-04-18 10:39:21 917 2

原创 OneNET多协议接入之HTTP协议的使用

本篇博客记录自己在使用onenet平台中的http协议接入自己的设备并进行上传数据等操作。对于使用物联网平台,阅读平台的开发者文档很重要,可以先阅读找到自己需要的部分,链接: 开发文档。建立账户等操作不做赘述,链接: 创建用户。由于作图比较麻烦,直接采用文字+图片叙述步骤,多图警告。先进入开发者界面中。创建产品,设备按着图的步骤一步步操作即可,首先点击多协议接入,进入控制台界面。进入后添加你需要的产品类型添加完产品后就可以添加设备了设备名称编号什么的根据自己实际情况来,作用只是区分你

2021-04-11 21:58:06 4980 1

原创 树莓派4使用SSH进行无屏幕有线远程连接并开启远程桌面连接服务

开发环境:Raspbian系统开启SSH在文件烧录好的U盘之后连接好硬件,开启树莓派后,我们还需要得知树莓派的IP地址,参考我的一篇博客进行获取IP地址,点击进入。使用SSH登录树莓派SSH客户端根据自己需要进行选择,这里使用putty,打开putty后...

2020-07-05 22:35:44 937

原创 树莓派4烧录Raspbian系统

本篇博客应对自己在玩崩系统时如何搭建自己曾经使用的系统,迅速还原原系统。也可作为初学者入门树莓派烧录系统参考学习。本此使用的软件均被我分享在百度网盘,找不到的软件可以自行下载准备sd卡(16-32GB)先用一个小软件进行格式化,虽然很琐碎,但很必要,这里推荐SD Card Formatter ,如图操作。选择所需烧录系统进入此网站https://www.raspberrypi.org/downloads/raspberry-pi-os/,选择第一个或是第二个都应该差不多,由于自己也是初学者并未深究

2020-07-03 11:20:37 464

原创 python网络爬虫之Scrapy框架介绍

Scrapy的框架如图所示,这是从MOOC上获取图表示例,下面介绍具体都是干什么的。架构介绍& Engine。是框架的核心,控制所有模块之间的数据流动,然后根据各个模块出现的时间进行触发。不需进行修改。& Downloader。 下载器。获取请求并提交请求,下载网页内容,并将网页内容返回给Spider。不需进行修改。& Scheduler。 将Engine发过来的请求进行调度,判断在爬取网站时的请求处理顺序,同时也可以在Engine在此请求时将请求提供给Engine。功能固

2020-06-22 23:11:32 193

原创 python网络爬虫之非关系型数据库存储——MongoDB 的储存

MongoDB是一个基于分布式文件存储的开源数据库系统,内容储存类似于JSON对象,它的字段值可以包含其他文档、数组及文档数组。下面介绍一点基本操作。1.安装首先需要安装MongoDB并启动了服务,再安装PyMongo库。对此,网上有很多教程,在这里推荐一个,里面也有快速下载的地址,点击这里.2.连接MongoDB我们使用MongoClient连接MongoDB,常规使用传入MongoDB的IP及端口即可,其中第一个参数为地址host,第二个参数为端口port(不传递参数时默认为27017),例如:

2020-06-22 17:47:49 307

原创 树莓派4B获取IP地址的几种简易方法

首先声明一下,使用的是Paspbian系统,其实其他系统和本文说的获取IP地址关系也不大。1.当你有路由器,有PC客户端的情况,你把你的树莓派用网线将其连接起来。你可以借助这个软件,advanced IP scanner,进行扫描如图,此时192.168.1.102是我所使用树莓派的Ip地址,而其他的几个IP地址后面也会大概给出来源,如vivo手机,他会扫描你所使用的路由器具体有谁在使用。同时你也可以在命令提示符中输入arp -a,即可得到,注意,此时动态的才是对应的IP地址,其中有几个相对应ip地址

2020-05-29 22:37:59 6842

原创 python中几个双下划线用法的含义

_ _ init() _ _(self[,…])我们有时在类定义写__init()__方法,但是有时又没有。__init()__方法相当于其他面向对象的编程语言中的构造方法,也就是类在实例化成对象时首先会调用的一个方法。当我们写代码时需要进行初始化的时候,我们才去写 _ _ init() _ _方法,没有需要时我们自然不会去写入这个方法。下面我们给出一个实例,我们先定义一个类,拥有计算面积与周长两个方法,然后需要对象在初始化拥有长和宽两个参数class Test: def __init__(se

2020-05-23 19:13:24 287

原创 Python中的时间与日期

本文简要介绍datetime,time模块的简要用法。datetime模块datetime模块主要有四个主要的对象。date 处理年、月、日time处理时、分、秒、微秒datetime处理日期和时间同时出现的情况timedelta处理日期或时间间隔下面给出实例,我们指定年月日,创建一个date对象,之后这些值会变成对象的属性。from datetime import datedata = date(2020, 5, 18)print(data)print(data.day)prin

2020-05-18 18:37:32 441 1

原创 Python六行代码爬取B站视频

本次实践使用的you_get库,需要自行使用pip进行安装。我们将我们所需下载的B站视频复制粘贴到源码处,运行即可自行下载视频。import you_getimport sysurl = '在此处写下你所要爬取的视频网站'path = './video' #根据个人需求去设置自己的目录sys.argv = ['you-get', '-o', path, url]you_get.main()...

2020-05-18 16:41:44 906

原创 解决爬虫中中文编码问题

我们在爬虫时时常会遇到一些网页上的中文无法爬取到文件的问题,因为会出现乱码,本文就简要说明一些可能出现的中文编码问题。获取网页的中文显示乱码先放一个实例,我们爬取23school官网上的一小段文字。import requestsfrom bs4 import BeautifulSoupurl = 'http://w3school.com.cn/'r = requests.get(url)soup = BeautifulSoup(r.text, "lxml")xx = soup.find(

2020-05-11 16:24:21 1054

原创 网络爬虫文件存取(TXT,JSON,CSV)特点与用法

文件存取TXT文本存储1.基本实例2.打开方式3.简化写法JSON文件存储1.对象和数组2.读取输出CSV文件储存1. 写入2.读取总结TXT文本存储1.基本实例首先,我们采用selenium的方法爬取新闻联播文字稿的首页,这是因为这个网页比较简单,本文重点在文件存取上。from selenium import webdriverimport timeurl = "http://xw...

2020-05-04 17:11:06 909 2

原创 网络爬虫Chrome Headless模式(无界面模式)

进行比较大规模的爬虫会耗费许多的时间,此时一直会有浏览器页面弹出,可能会影响做其他事情,自从Chrome 59版本之后,就开始支持Headless模式,这是可以不会弹出浏览器,使用方法如下:chrome_options = webdriver.ChromeOptions()chrome_options.add_argument('--headless')browser = webdriver...

2020-04-26 21:22:39 1052

原创 Python网络爬虫Selenium的简单使用

Python网络爬虫-Selenium首先先说一下对Selenium的看法,个人认为它是在爬虫中比较好用的一个工具,使用习惯后可能不遇到特殊情况的爬取,也是不会换其他的工具的。然后,想要学习爬虫,如果比较详细的了解web开发的前端知识会更加容易上手,时间不够充裕,仅仅了解html的相关知识也是够用的。准备工作:使用它肯定先要安装它,对于Selenium的安装推荐使用pip,十分方便。因为我使...

2020-04-25 15:24:21 236 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除