爬取新浪存入MySQL

本文介绍了如何使用Python爬虫抓取新浪新闻网站的内容,包括标题、时间、来源等信息,并详细讲解了BeautifulSoup的用法。接着,文章展示了如何处理抓取的数据,特别是日期格式的转换,以及如何构造URL来批量抓取新闻。最后,作者提到了将爬取的数据存储到MySQL数据库的过程,并给出了相关数据库创建的参考链接。
摘要由CSDN通过智能技术生成

将自己之前学习爬取新浪记录的内容分享一下吧!

透过pip安装套件
pip install openpyxl
pip install pandas -i http://pypi.douban.com/simple --trusted-host pypi.douban.com
pip install requests
pip install BeautifulSoup4
pip install jupyter
jupyter notebook

查看能否爬取网页内容

import requests
res = requests.get('https://www.sina.com.cn/')
res.encoding='utf-8'
print(res.text)

在这里插入图片描述
简单叙述关于BeautifulSoup使用

from bs4 import BeautifulSoup
html_sample = '\
<html> \
 <body> \
 <h1 id="title">Hello World</h1> \
 <a href="#" class="link">This is link1</a> \
 <a href="# link2" class="link">This is link2</a> \
 </body> \
 </html>'

soup = BeautifulSoup(html_sample, 'html.parser')
print(type(soup))
print(soup.text)

在这里插入图片描述

1、使用select找出含有h1标签的元素

soup = BeautifulSoup(html_sample) 
header = soup.select(‘h1’)
print(header)
print(header[0]) #去掉两边[]
print(header[0].text)#取出文本

在这里插入图片描述

2、使用select找出含有a标签的元素

soup = BeautifulSoup(html_sample)
alink = soup.select(‘a’) 
print(alink)

for link in alink:
	print(link)	#分开取出
	print(link.text)	#分开取出文字

在这里插入图片描述

3、使用select找出所有id为title的元素(id前面需加#)

alink = soup.select(#title’) 
print(alink)

在这里插入图片描述
4、使用select找出所有class为link的元素(class前面需加 . )

soup = BeautifulSoup(html_sample)
for link in soup.select(.link’): 
	print(link)

在这里插入图片描述
5、使用select找出所有a tag的href连接

alinks = soup.select(‘a’)
for link in alinks:
 print(link[‘href’]) 

在这里插入图片描述
下面就开始进入正题爬取新浪网页内容

import requests
from bs4 import BeautifulSoup
res = requests.get('https://news.sina.com.cn/world/')
res.encoding = 'utf-8'
soup = BeautifulSoup(res.text, 'html.parser')

for news in soup.select('.news-item'):
    if len(news.select('h2')) > 0:
        
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值