#本内容对上一篇文章进行一些优化
import requests
from fake_useragent import UserAgent
import re
try:
url = "https://sports.qq.com/nba/"
headers = {
'User-Agent':UserAgent().chrome
}
r = requests.get(url,headers = headers)
#r.encoding = r.apparent_encoding
#print(r.text)
regx = '<li><a target="_blank" href="(.+?)" class=".*?">(.+?)</a></li>'
datas = re.findall(regx,r.text)
urllist = dict() #创建一个字典
for m,n in datas:
urllist[m] = n #将网站的url和搜索内容添加到列表中
#print(urllist)
with open("G:/a.txt","w") as f: #打开a.txt文件进行写操作(文件操作还需学习)
for i in urllist.items(): #遍历字典中的每个键值对(字典基本操作还需学习)
f.writelines("{}\n".format(i)) #将每个键值对添加到文件中,并且每行添加换行操作,这部分好像可以使用enumerate进行代替(正在学习这部分)
f.close()
except:
print("错误")
#有一事不懂,如何在a.txt中的每行添加序号,本人还没弄清楚,希望各位大神进行指点。
爬虫学习的第一天(requests简单的框架--初阶6)
最新推荐文章于 2024-10-16 00:04:09 发布