网络爬虫新手学习记录

作为一个网络爬虫的初学者,写博客作为学习记录。
爬虫语言由python书写
现在写一个最简单的爬虫

import urllib
url="www.baidu.com"
html=urllib.urlopen(url).read()
print(html)

这样就可以打印出百度搜索的首页的源代码了

接下来可以深化一下,并用一个强大的库requests,同时加上headers
re是使用正则表达式所需要的库

import requests
import re

url="www.baidu.com"
headers={'User-Agent': 'Fiddler/5.0.20182.28034 (.NET 4.7.1; WinNT 10.0.17134.0; zh-CN; 12xAMD64; Auto Update; Full Instance;\
 Extensions: APITesting, AutoSaveExt, EventLog, FiddlerOrchestraAddon, HostsFile, RulesTab2, SAZClipboardFactory, SimpleFilter, Timeline)'}

html=requests.get(url,headers=headers)
html=re.compile(html)
file=re.findall("<p> title=".*?"(.*?)</p>,html)

try:
	with open('baidu.txt','r+') as f:
		f.write(file)
		f.close()
except:
	pass

这样就可以扮成浏览器进行网页爬取。

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值