![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
python项目练习记录
学而时习之,多练多思考。
Adrian-11
学习量化,学习python,实现自由。
展开
-
Python爬虫、数据清洗与可视化-2 -request-练习-2-——豆瓣读书
面向过程是分析出解决问题所需要的步骤,然后用函数把这些步骤一步一步实现,使用的时候一个一个依次调用就可以了。 面向对象是把构成问题事务分解成各个对象,建立对象的目的不是为了完成一个步骤,而是为了描叙某个事物在整个解决问题的步骤中的行为。 例如五子棋, 面向过程的设计思路:分析问题的步骤,解决问题: 1、开始游戏,2、黑子先走,3、绘制画面,4、判断输赢,5、轮到白子,6、绘制画面,7、判断输赢,8、返回步骤2,9、输出最后结果。把上面每个步骤用分别的函数来实现,问题就解决了。 面向对象的设计思路:问题分解分原创 2021-04-04 13:57:09 · 292 阅读 · 2 评论 -
Python爬虫、数据清洗与可视化-1 -python基础——openpyxl-——excel文件操作
python-openpyxl常用方法 1.新建保存 import openpyxl#导入模块 wb = openpyxl.Workbook()# 新建一个Excel文档 wb.save('case2.xlsx')# 保存文件至当前目录 2…打开读取文件 import openpyxl#导入模块 wb = openpyxl.load_workbook('case2.xlsx')#打开文件读取(r'e:\python\case1.xlsx')绝对路径 sheet = wb.active# 选择默认的工作原创 2021-04-04 12:31:22 · 591 阅读 · 2 评论 -
Python爬虫、数据清洗与可视化-1 -python基础——csv文件读写
csv模块中的函数 1.reader(csvfile, dialect=‘excel’, **fmtparams) csvfile,必须是支持迭代(Iterator)的对象,可以是文件(file)对象或者列表(list)对象,如果是文件对象,打开时需要加"b"标志参数。 dialect,编码风格 fmtparam,格式化参数, 2.writer(csvfile, dialect=‘excel’, **fmtparams) 注意:如果文件’t.csv’事先存在,调用writer函数会先清空原文件中的文本,再执原创 2021-04-02 09:53:09 · 680 阅读 · 1 评论 -
Python爬虫、数据清洗与可视化-2 -request-练习-1-——爬baidu首页热点
练习:爬百度实时热点top10的排序,标题内容,链接 # -*- coding: UTF-8 -*- import requests from lxml import etree headers={ 'User-Agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36' } urls='http://top.baidu.com/b原创 2021-03-31 18:33:32 · 349 阅读 · 0 评论 -
Python爬虫、数据清洗与可视化-4 - scrapy-练习-1-——爬baidu首页热点
新手学习日记1-练习 爬baidu首页热点 一、创建工程 用scrapy创建个新项目爬baidu首页热点。命令行下输入命令,命令会在当前目录下创建baiduscrapy项目。 scrapy startproject baiduscrapy cd baiduscrapy scrapy genspider baidu "www.baidu.com" 二、修改parse 命令已经帮我们自动创建了爬虫代码,打开spiders文件夹下baidu.py修改如下。 import scrapy from baiduscr原创 2021-03-20 15:53:04 · 442 阅读 · 0 评论