爬虫爬一些网站是总是得到一个空的列表

#抓取PTT八卦版的网页原始码(HTML)
import urllib.request as req
url="https://www.ptt.cc/bbs/Gossiping/index.html"
#建立一个Request物件,附加Request Headers 的资讯  
request=req.Request(url,headers={
    "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.141 Safari/537.36"
})
with req.urlopen(request) as response:
    data=response.read().decode("utf-8")
#资料解析
import bs4
root=bs4.BeautifulSoup(data,"html.parser")
titles=root.find_all("div",class_="title")
print(titles)
for title in titles:
    if title.a !=None: #如果标题包含 a 标签(没有被删除)。印出来
        print(title.a.string)

抓取ptt八卦版的时候,我们会得到一个空的列表,原因是一般网页在我们访问时会向我们的浏览器中存放一个cookie,在连线的时候cookie会被放到“Request Headers”中被带出去,但是有的网页需要通过点击才会得到这个cookie。所以我们要爬取这些网页的时候就要手动添加一个点击得到的cookie发送过去。在这里插入图片描述
我们会看到点击前的cookie是这个样子的。在这里插入图片描述
点击后cookie中会多出一个"over18=1"的内容,所以我们要把他也加到我们的程式中去。

#抓取PTT电影版的网页原始码(HTML)
import urllib.request as req

url="https://www.ptt.cc/bbs/Gossiping/index.html"
#建立一个Request物件,附加Request Headers 的资讯  
request=req.Request(url,headers={
    "cookie":"over18=1",
    "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.141 Safari/537.36"
})
with req.urlopen(request) as response:
    data=response.read().decode("utf-8")
#资料解析
import bs4
root=bs4.BeautifulSoup(data,"html.parser")
titles=root.find_all("div",class_="title")
print(titles)
for title in titles:
    if title.a !=None: #如果标题包含 a 标签(没有被删除)。印出来
        print(title.a.string)


这样我们就可以直接爬取ptt八卦版的的标题啦。

  • 12
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值