Python爬虫入门

pycharm查看和安装python包:

settings->Project->Project Interpreter

Package列出所有已安装的python包,点击右侧加号可以搜索安装新的包

一、抓取豆瓣Top250电影信息

需要安装包:beautifulsoup4、requests

"""
爬取豆瓣电影Top250
"""
import requests
import bs4

# 1,打开要抓取的网页
# 2,查看接口(页面地址URL)的调用顺序
# 3,查看数据的结构
result = []
header = {
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) '
                  'Chrome/93.0.4577.82 Safari/537.36 '
}
start = 0
for i in range(0, 10):
    response = requests.get('https://movie.douban.com/top250?start=' + str(start) + '&filter=', headers=header)
    response.encoding = 'utf-8'
    html = response.text
    start += 25
    soup = bs4.BeautifulSoup(html, 'html.parser')

    # 获取所有class为info的div元素并遍历
    for item in soup.find_all('div', 'info'):
        title = item.div.a.span.string

        # 定位到上映年份的p元素,取第二行
        year_line = item.find('div', 'bd').p.contents[2].string

        year_line = year_line.replace('\n', '')
        year_line = year_line.replace(' ', '')
        year = year_line[0:4]

        # rating=item.find('div','bd').div.find('span','rating_num').string
        rating = item.find('span', {'class': 'rating_num'}).get_text()

        one_result = [title, rating, year]
        result.append(one_result)
    print('第%d页爬取完毕...' % (i + 1))

print(result)

二、下载腾讯新闻海外疫情数据

需要安装包:selenium、beautifulsoup4、pandas

另外支持selenium需要下载谷歌驱动,解压后建议放python的根目录下,这样不需要改环境变量

(根据浏览器实际版本下载对应驱动,https://chromedriver.storage.googleapis.com/index.html

 

 

不装的话会报这样的错:

selenium.common.exceptions.WebDriverException: Message: 'chromedriver' executable needs to be in PATH.

"""
下载海外疫情数据
"""
from selenium import webdriver
import bs4
import pandas as pd


def get_html(url):
    browser = webdriver.Chrome()
    browser.get(url)
    html = browser.page_source
    browser.close()
    browser.quit()
    return html


def get_data(html):
    # html数据解析,BeautifulSoup,re, xpath
    # pandas 页面中的数据是表格的形式,而且页面标签是<table>.....</table>形式 可直接转化为DataFrame类型
    soup = bs4.BeautifulSoup(html, 'lxml')
    table = soup.find('div', class_='listWraper filterGray').find('table')
    data_df = pd.read_html(table.prettify())
    print(type(data_df[0]))
    data_df[0].to_csv('海外疫情.csv', encoding='GB2312')


# 主函数
def main():
    url = 'https://news.qq.com/zt2020/page/feiyan.htm#/global'
    html = get_html(url)
    get_data(html)


# 程序入口
if __name__ == '__main__':
    main()

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值