- 博客(7)
- 收藏
- 关注
原创 HTML:表单的使用
<form action="http://www.baidu.com"> <lable>用户名:</lable> <input type="text" placeholder="请输入用户名"> <br> <br> <lable>密 码:</lable> <input type="password" p...
2022-01-20 15:18:02 218
原创 Python爬虫学习实例(三):定向数据的爬取以及简单的数据分析
题目:股票数据的定向爬虫。目标:获取美股所有股票的代码和美股个股的链接。材料:需要网站东方财富网。东方财富网:股票代码查询一览表 _ 股票行情 _ 东方财富网步骤1:访问东方财富网查看股票信息。步骤2:使用开发者模式打开东方财富网(F12),分析东方财富网股票列表信息。步骤3:根据分析的网页内容编写爬虫步骤4:将爬取结果存储到文件代码:import requestsfrom bs4 import BeautifulSoupimport r..
2021-11-15 20:37:42 1069
原创 Python爬虫学习(二):Request库的学习
Requests库主要有七个主要的方法:而我们爬虫一般用的主要是get()方法。其原理主要是:Response对象包含服务器返回的所有信息,也包含请求的Request信息。其中Response对象主要包含以下属性信息,requests.request(method, url, **kwargs)**kwargs: 控制访问的参数,共13个,均为可选项。以下为其列举:params : 字典或字节序列,作为参数增加到url中kv = {'key1': 'valu...
2021-11-09 15:27:42 775
原创 Python爬虫学习(一):爬取一个网页并打印
爬虫一般依赖于requests库,首先通过pip或conda命令安装requests库。切换到自己环境所在的终端。输入以下命令:pipinstallrequests / pip install requests然后在自己的环境中导入requests库看会不会报错。importrequests库安装没有问题后开始使用requests库进行第一个Python爬虫。目的爬取百度页面,并且将其打印出来,并消除其打印出来时可能会发生的乱码。以下给出代码:import requ...
2021-11-04 16:50:33 3861
原创 Python区间处理:求N个区间的并集
使用python进行数据处理的时候,时常会遇到多个区间求并集、求交集的问题。接下来我们将通过一个递归算法实现多个区间的合并。题目:给定一系列的区间,例如:[[12, 15], [13, 17], [13, 20], [1, 3], [5, 6], [7, 9]],经过求并集操作后可得[1, 3],[5, 9], [12, 20]。注意:此处将[5, 6], [7, 9]合并了,如不需要合并自行修改。思路:首先将s1以其内区间的左端数字先进行升序排序,s1 =[[1, 3],...
2021-10-22 22:18:32 3109
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人