网络爬虫
文章平均质量分 79
学习Web Crawler
乐说数据
极致自律,极致自由。
展开
-
web crawler案例篇(四)
获取所需内容的URL原创 2020-11-19 13:59:33 · 311 阅读 · 0 评论 -
web crawler案例篇(三)
一般爬虫流程:发起请求,获取响应内容解析内容,提取数据保存文件"""SN商品评论爬取(Xpath)"""import csvimport timeimport randomimport requestsfrom lxml import etreeheaders = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.28原创 2020-11-19 13:15:34 · 303 阅读 · 0 评论 -
web crawler案例篇(二)
#某电商——评论等内容"""导入相关库"""import jsonimport timeimport randomimport requestsimport pandas as pd#请求头部信息headers = {"referer":"https://item.jd.com/100011177166.html", "user-agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, .原创 2020-11-07 16:56:58 · 418 阅读 · 2 评论 -
web crawler案例篇(一)
#科学科普——知识——UP主('历史累计弹幕数','评论','收藏人数','投硬币枚数','分享数','点赞数')import requestsfrom bs4 import BeautifulSoupimport jsonimport urllib.parseimport pandas as pdimport reheaders = { 'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML.原创 2020-11-07 16:41:36 · 584 阅读 · 1 评论