python从零开始写爬虫(2)

好了直接进入主题

编写一个简单的爬虫例子:主要是爬新浪新闻最新消息的数据http://news.sina.com.cn/china/

1.打开新闻网,定位到最新消息这里:


2.试着先用python请求该链接,具体操作如下:

import requests
newurl = 'http://news.sina.com.cn/china/'
res = requests.get(newurl)
res.encoding = 'utf-8'
print(res.text)
结果返回的是该地址网页的源码:

3.浏览器点开开发中模式F12,我用的是chrome浏览器,分析网页:

1)发现每一条新闻数据都有一个class为news-item:

2)编写代码,引入BeautifulSoup4库,对网页进行解析:

import requests
from bs4 import BeautifulSoup
newurl = 'http://news.sina.com.cn/china/'
res = requests.get(newurl)
res.encoding = 'utf-8'
soup = BeautifulSoup(res.text,'html.parser')
for news in soup.select('.news-item'):
    print(news)
输出结果:

4.我们主要是获取该页面的新闻标题及链接,继续分析我们要的数据的规律:

1)每条数据的标题及链接都在对应div下面<h2>标签里面,链接在a标签里:

2)代码实现如下:

import requests
from bs4 import BeautifulSoup
newurl = 'http://news.sina.com.cn/china/'
res = requests.get(newurl)
res.encoding = 'utf-8'
soup = BeautifulSoup(res.text,'html.parser')
for news in soup.select('.news-item'):
    if len(news.select('h2'))>0:#有些h2下面为空的去除掉
        print(news.select('h2')[0].text)
        print(news.select('h2 a')[0]['href'])
结果如下:

ok!这样就实现了一个简单的爬虫例子

未完待续....


评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值