一. 爬取数据流程(Reptile)
- 1.在网页中找到类似于url=’http://www.7799520.com/api/user/pc/list/search?marry=1&page=9'
这种的网站会给我们返回一个类似于元组的数据来进行
- 2.requests.get(“地址”) 这个后的get是通过你当前网页的提交方式来进行决定
- 3.通过“键”找到对应的值来获取到自己想要的数据
- 4.你拿到的值是“字典“格式,所以当你在放入文档时必须要转换为集合的格式
|
- 4-1:使用更快捷更ok 的方法
//这里的*也可以称之为解包,也就是去除 [ ] 这个外壳来获取到值
Item = [*dat.value]
save_test = (Str(item))//转换为Str格式,之后进入传入文档
二.将爬取的数据放置在文档内
- 1.通过函数的方式进行获取到值,
defsave_test(dat):
然后with也就是操作系统文档,然后不使用时,自动close
with
open(‘DemoByJson.test’,’a’,encoding=’utf-8’) as f:
f.write(dat+”\n”)
- 2 .最重要的“点”
|
- 你不是使用这个判定系统不会进入你的函数内
|
这里的意思是:
当你当前这个py文件进行编译时,也就是当前的name已经改编为main,也就是你当前这个文件编译中!!!!
![img](https://i-blog.csdnimg.cn/blog_migrate/53a916062665360a4f7cb16885cef8f6.png)