![](https://img-blog.csdnimg.cn/20200421234352755.jpg?x-oss-process=image/resize,m_fixed,h_224,w_224)
Python
文章平均质量分 71
学习python时的记录、收获与感想
学习不易
直到有一天,可以和你并肩站立
展开
-
近期数据处理,pandas使用积累
替换数据for index, row in df.iterrows(): df.loc[index, 'datetime'] = split_datetime(row['datetime'])使用下一行的非Nan数据替换这一行Nandf = df.fillna(method='bfill')删除列del df['id']del df['air_temp4']del df['air_humi4']del df['air_temp5']del df['air_humi5']del原创 2020-09-28 12:49:31 · 107 阅读 · 0 评论 -
yolov4目标检测读取文件夹中所有图片,检测后保存为文件夹
代码实现from yolo import YOLOfrom PIL import Imageimport osyolo = YOLO()def predict_img(): while True: img = input('Input image filename:') try: image = Image.open(img) except: print('Open Error! Try原创 2020-08-24 02:04:05 · 2609 阅读 · 4 评论 -
Python循环读取文件夹下txt文件内容
代码实现import osfilePath=r"" # 文件夹路径fileList=os.listdir(filePath)for file in fileList: f=open(os.path.join(filePath,file)) print(file) # 文件名 while True: line = f.readline() if not line: break line = line.s原创 2020-05-29 17:52:14 · 10898 阅读 · 0 评论 -
Python cv2保存视频流
代码实现vid = cv2.VideoCapture(video_path)fourcc = cv2.VideoWriter_fourcc(*'XVID')fps = vid.get(cv2.CAP_PROP_FPS)size = (int(vid.get(cv2.CAP_PROP_FRAME_WIDTH)), int(vid.get(cv2.CAP_PROP_FRAME_HEIGHT)))out = cv2.VideoWriter('camera_test.avi', fourcc, fps,原创 2020-05-24 01:45:07 · 3860 阅读 · 2 评论 -
Python爬取问卷星问题与选项
代码实现import requestsfrom bs4 import BeautifulSoupres = requests.get(url="https://.aspx") # 网站输入自己需要爬取的网站soup = BeautifulSoup(res.text,"html.parser")subject = soup.findAll(attrs={"class":"field ui-field-contain"})for sub in subject: question=sub原创 2020-05-18 15:55:09 · 2652 阅读 · 3 评论 -
win10把Python3.6文件打包成exe程序
下载pyinstallerpip install pyinstaller打开链接:http://www.pyinstaller.org/downloads.html下载完成后,解压把文件夹放到python文件中,我使用了虚拟环境进入路径 D:\Program Files (x86)\Anaconda\envs\simple\pyinstaller-3.6中,输入命令:python...原创 2020-05-02 14:41:01 · 407 阅读 · 0 评论 -
Python循环行读取txt生成列表,复制图片到指定文件夹并利用列表命名
设计思路首先读取txt文件,循环行读取保存为一个列表拷贝图片并循环这个列表命名代码实现# imagePath = "...\\xxx.png"# txtPath = "...\\classMember.txt"# pastePath = ""print("请输入txt文件路径")txtPath=input()print("请输入原始图片路径")imagePath=inpu...原创 2020-05-02 14:31:43 · 449 阅读 · 0 评论 -
使用python把文件夹下的文件顺序命名
从外面找的照片放到文件夹中打算当作数据集,但是刚下载下来的时候文件名都是特别混乱的,所以找了一种方法可以使文件夹下的照片按照顺序重新命名,只需要修改其中的三个路径即可完成。# --** coding="UTF-8" **--import osimport reimport sysfileList = os.listdir(r"D:\Project\Cow_Face\image\tra...原创 2020-02-25 22:35:46 · 1753 阅读 · 6 评论 -
Numpy数组索引与切片、高级索引
有一些numpy中索引结果时候不太理解的地方,以后可以多多熟悉,熟悉后加以运用。索引第二列元素索引第二行元素索引第二列之后的剩下所有元素import numpy as np a = np.array([[1,2,3],[3,4,5],[4,5,6]]) print (a[...,1]) # 第2列元素print (a[1,...]) # 第2行元素print (a[...原创 2019-11-30 16:01:22 · 307 阅读 · 0 评论 -
Python使用selenium自动化测试爬取苏宁冰箱价格及型号并保存在csv中
import seleniumfrom selenium import webdriverimport timeimport csvimport codecscsvFile=open('C:\\Users\\JYuXuAN\\Desktop\\sn.csv','a',encoding='utf-8-sig', newline="")writer=csv.writer(csvFile...原创 2019-11-05 17:15:19 · 720 阅读 · 0 评论 -
Python使用Pymysql操作mysql数据库,为图书管理系统的图书类增加两个新数据成员,并且全部赋值
今天又为图书的Javabean增加了两个数据,一个是username借书人,一个是time借书时间,总体的mysql设计表如下:然而上次的爬虫已经爬取了1000条数据了,username、time两个都是NULL值,为了JavaWeb程序尽量少报一点错误,所以为username="",time=0,然而如果是对mysql数据库一条条的增加很显然是不现实的,所以使用了mysql的update语...原创 2019-10-20 13:36:19 · 1279 阅读 · 0 评论 -
Python使用requests、BeautifulSoup库爬取图书信息,使用Pymysql导入数据库
之前准备做图书馆管理系统,就需要一些书作为图书信息,所以就是用了Python爬取了2019年畅销图书排行榜,网址是:http://www.bookschina.com/24hour/1_0_1/ 一共是34页,总共1000条数据。为了保证是图书馆管理系统的需要,所以数据库进行了特殊的设计,下图是数据库的结构图,数据库使用的是mysql。bookid是图书的索书号,使用了字符和数字组合而成,...原创 2019-10-18 17:51:15 · 1034 阅读 · 0 评论 -
Python基于Scrapy爬虫框架爬取国庆期间携程航班(航班号、起降城市、起降时间)保存为csv表格
在国庆的时候重新练习了一遍scrapy爬虫,发现好多都忘记了,然后复习了一遍,也重温了xpath,最后爬取了携程网的国庆期间所有地区到北京的航班信息,可以为以后学习python的数据分析做做准备,然后就上一些基本的代码。网址:https://flights.ctrip.com/actualtime/arrive-pek/import scrapyclass MyspiderItem(scr...原创 2019-10-13 23:13:00 · 1940 阅读 · 11 评论 -
Beautifulsoup 超简单例子
首先下载requests、beautifulsoup4这两个库import requestsfrom bs4 import BeautifulSoup#从网上找了一个豆瓣的网址,可以爬取名字和基本信息res = requests.get(url="http://www.douban.com/tag/%E5%B0%8F%E8%AF%B4/?focus=book")soup = Beaut...原创 2019-09-26 15:54:01 · 688 阅读 · 0 评论 -
Python爬虫基础(Requests+Beautifulsoup)
使用requests和beautifulsoup这两个库爬取中国大学排名。requests和beautifulsoup这两个库是爬虫最基本的库,对于一些基本的网页都可以使用这两个库进行爬取,使用起来也很方便。Requests这个库最多的使用就是get方法,其他的几个方法基本上不不怎么用,如果有一定的网页基础的话,直接背过get方法即可,不需要过多的了解。def getHTMLText(ur...原创 2019-09-14 18:32:14 · 642 阅读 · 0 评论 -
Python基于Scrapy框架下的爬虫使用方法
前面的一些Scrapy的基础就不介绍了,感兴趣的话可以查一下运行的结构。做爬虫的简单4步1、新建项目 (scrapy startproject xxx):新建一个新的爬虫项目2、明确目标 (编写items .py):明确你想要抓取的目标3、制作爬虫 (spiders/xxspider.py):制作爬虫开始爬取网页4、存储内容 (pipelines .py):设计管道存储爬取内容安装方法...原创 2019-07-27 11:07:07 · 328 阅读 · 0 评论