import requests #调用requests库
def getHTML(url):
try: #将爬取网页中出现的错误直接try,是爬取正常运行
r = requests.get(url)
r.raise_for_status #判断是否能链接上
r.encoding = r.apparent_encoding #获取编码方式,网页页面内容可能与标题不一样
return r.text
except:
return "爬取失败"
def main():
if __name__ == '__main__': #是指在调用requests库时,requests中的代码块不被执行
url = input("请输入爬取的网站地址:")
print(getHTML(url))
main()
爬虫学习的第一天(requests简单的框架--初阶)
最新推荐文章于 2024-02-18 17:32:58 发布