- 博客(6)
- 收藏
- 关注
原创 汽车之家分析
函数就是最终字体映射生成的位置,在此函数中为了后续方便字符映射,做了一部分转换操作.发现js进行过混淆处理,在这里可通过解混淆工具进行js代码还原,由于混淆力度不大,在这里直接进行分析。这里我选择通过补环境方式进行处理。2.对这三段js块进行环境的生成。3.这里封上最关键字体生成代码。如有疑惑可进行私信询问。
2023-01-09 15:22:01 262 2
原创 猫眼数据爬取
猫眼经典影片的爬取在进行数据爬取的时候一定要设置好cookiecookie_url='https://maoyan.com/'response=requests.get(cookie_url)cookie=response.cookies_csrf=cookie['_csrf']uuid=cookie['uuid']uuid_n_v=cookie['uuid_n_v']猫眼设置了反爬机制需要构造headerheader={ 'Upgrade-Insecure-Reques
2020-12-11 23:16:31 2178
原创 2020-11-25
最新拉钩网站数据爬取import requestsimport pandas as pddef get_page(num,name): print('正在爬取第{}页'.format(num)) urls = 'https://www.lagou.com/jobs/positionAjax.json?needAddtionalResult=false' url = 'https://www.lagou.com/jobs/list_python?labelWords=&f
2020-11-25 13:53:25 78
原创 2020-11-07
利用scrapy框架吧数据存入到文本,json,csv,mysql等存入到文本中class TextPipeline(object): def open_spider(self,spider): self.fp=open('./sun.txt','w',encoding='utf-8') def process_item(self,item,spider): dic=dict(item) self.fp.write(dic+"\n")
2020-11-07 10:18:51 123
原创 2020-11-04
起点小说免费版爬取import requestsfrom lxml import etreeurl="https://book.qidian.com/ajax/book/category?_csrfToken=NQQ4Nj6JAE1plYVqeNqlZrucSvDAs1UBmByiWZfb&bookId=1887208"headers={ 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:82.0) Gecko/20
2020-11-04 14:47:59 134
原创 2020-11-03
#关于有道翻译的爬取import hashlibimport randomimport timeimport requestsclass youdao: def __init__(self,msg): self.url='http://fanyi.youdao.com/translate_o?smartresult=dict,rule' self.msg=msg self.ts=self.get_ts() self.salt=
2020-11-03 22:11:37 177
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人