爬虫
爬虫相关
追梦女孩ii
这个作者很懒,什么都没留下…
展开
-
day08.06.爬虫作业1-hy
request.urlretrieve(rs1, f'E:\python\python2402\代码\day240208\douyu/{nn}.jpg')原创 2024-07-03 21:10:54 · 239 阅读 · 0 评论 -
day08.08爬虫练习-bk网
Win64;原创 2024-07-07 11:44:21 · 188 阅读 · 0 评论 -
爬虫-解析
print(soup.select('#jd')[0].attrs) # attrs 属性(指class、id等这样的标签) 是指标签里的全部属性。print(soup.select_one('#jd')) # 列表的第一个元素 相当于 print(soup.select('#jd')[0])# print(soup.find_all('a', id = 'jd')) # 找到id = ‘jd’的a标签。print(soup.select('#jd')) # 列表。原创 2024-07-02 20:06:26 · 159 阅读 · 0 评论 -
爬虫-requests的使用
print(response.json()) # json 解析 : 字符串 ==> 字典 将采集到的字符串解析为字典形式。# print(response.content) # 二进制/字节类型 b'hello'# requests 不是python自带的包 那么我们需要安装。# 方式1:鼠标移动到包名上,根据提示安装 要写对包名。# print(response.text) # 字符串。# 先请求request,后响应response。原创 2024-07-01 09:36:59 · 121 阅读 · 0 评论 -
爬虫-bs4的使用
新浪网京东购物乌克兰首都上空现巨大光球原创 2024-07-02 21:01:13 · 203 阅读 · 0 评论 -
爬虫学习1
下载图片:下载到douyu文件夹中(需提前创建doouyu文件夹)from urllib import request # 下载图片。# 2. 数据要么在接口里面(检查=>网络=>找接口url)rs1 = zhubo['rs1'] # 图片url。rn = zhubo['rn']) # 房间名。nn = zhubo['nn'] # 昵称。import requests # 爬虫 爬数据。# json解析: 字符串 ==> 字典。# 获取所有主播的房间名 rn。# 复习列表+字典嵌套样式。原创 2024-07-01 19:31:00 · 861 阅读 · 0 评论 -
爬虫-dd网
当当网:http://category.dangdang.com/pg1-cp01.01.02.00.00.00.html。更便捷的方式二:字典取值。更便捷的方式三:or。一些扩展 图片懒加载。原创 2024-07-07 13:53:25 · 381 阅读 · 0 评论