帮我看看为什么报错
# -*- codeing = utf-8 -*- # @Time : 2024/7/8 16:11 # @Author : 河金第一秃秃 # @File : spider.py # @Software : PyCharm from bs4 import BeautifulSoup #网页解析 import re #正则表达式,进行文字匹配 import urllib.request,urllib.error #制定URL,获取网页数据 import xlwt #进行excel操作 import sqlite3 #进行sqlite数据库操作 def main(): baseurl = 'https://movie.douban.com/top250?start=' #爬取网页 datalist=getData(baseurl) savepath='.\\豆瓣电影Top250.xls' #保存数据 #saveData(savepath) # askURL('https://movie.douban.com/top250?start=') #爬取网页 def getData(baseurl): datalist=[] for i in range(0,10): #调用获取页面信息的函数 url=baseurl+str(i*25) html=askURL(url) #保存获取到的网页源码 # 逐一解析数据 soup=BeautifulSoup(html,'html.parser') for item in soup.find_all('div',class_='item'): print(item) return datalist #得到指定一个url的网页内容 def askURL(url): #模拟浏览器头部信息,向豆瓣服务器发送消息 head={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64;x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/126.0.0.0 Safari/537.36 Edg/126.0.0.0'} #伪装自己不被发现,用户代理,表示告诉服务器我们是什么类型的浏览器 request=urllib.request.Request(url,headers=head) html='' try: response=urllib.request.urlopen(request) html=response.read().decode('utf-8') print(html) except urllib.error.URLError as e: if hasattr(e,'code'): print(e.code) if hasattr(e,'reason'): print(e.reason) return html #保存数据 def saveData(savepath): print('save......') #调用函数 if __name__ == '__main__': main()
当把这几行代码注释掉就没问题:
注释掉这三行代码之后就能正常运行是为什么