python项目练习记录
学而时习之,多练多思考。
Adrian-11
学习量化,学习python,实现自由。
展开
-
Python爬虫、数据清洗与可视化-2 -request-练习-2-——豆瓣读书
面向过程是分析出解决问题所需要的步骤,然后用函数把这些步骤一步一步实现,使用的时候一个一个依次调用就可以了。面向对象是把构成问题事务分解成各个对象,建立对象的目的不是为了完成一个步骤,而是为了描叙某个事物在整个解决问题的步骤中的行为。例如五子棋,面向过程的设计思路:分析问题的步骤,解决问题:1、开始游戏,2、黑子先走,3、绘制画面,4、判断输赢,5、轮到白子,6、绘制画面,7、判断输赢,8、返回步骤2,9、输出最后结果。把上面每个步骤用分别的函数来实现,问题就解决了。面向对象的设计思路:问题分解分原创 2021-04-04 13:57:09 · 282 阅读 · 2 评论 -
Python爬虫、数据清洗与可视化-1 -python基础——openpyxl-——excel文件操作
python-openpyxl常用方法1.新建保存import openpyxl#导入模块wb = openpyxl.Workbook()# 新建一个Excel文档wb.save('case2.xlsx')# 保存文件至当前目录2…打开读取文件import openpyxl#导入模块wb = openpyxl.load_workbook('case2.xlsx')#打开文件读取(r'e:\python\case1.xlsx')绝对路径sheet = wb.active# 选择默认的工作原创 2021-04-04 12:31:22 · 576 阅读 · 2 评论 -
Python爬虫、数据清洗与可视化-1 -python基础——csv文件读写
csv模块中的函数1.reader(csvfile, dialect=‘excel’, **fmtparams)csvfile,必须是支持迭代(Iterator)的对象,可以是文件(file)对象或者列表(list)对象,如果是文件对象,打开时需要加"b"标志参数。dialect,编码风格fmtparam,格式化参数,2.writer(csvfile, dialect=‘excel’, **fmtparams)注意:如果文件’t.csv’事先存在,调用writer函数会先清空原文件中的文本,再执原创 2021-04-02 09:53:09 · 671 阅读 · 1 评论 -
Python爬虫、数据清洗与可视化-2 -request-练习-1-——爬baidu首页热点
练习:爬百度实时热点top10的排序,标题内容,链接# -*- coding: UTF-8 -*-import requestsfrom lxml import etreeheaders={ 'User-Agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'}urls='http://top.baidu.com/b原创 2021-03-31 18:33:32 · 340 阅读 · 0 评论 -
Python爬虫、数据清洗与可视化-4 - scrapy-练习-1-——爬baidu首页热点
新手学习日记1-练习爬baidu首页热点一、创建工程用scrapy创建个新项目爬baidu首页热点。命令行下输入命令,命令会在当前目录下创建baiduscrapy项目。scrapy startproject baiduscrapycd baiduscrapyscrapy genspider baidu "www.baidu.com"二、修改parse命令已经帮我们自动创建了爬虫代码,打开spiders文件夹下baidu.py修改如下。import scrapyfrom baiduscr原创 2021-03-20 15:53:04 · 432 阅读 · 0 评论