【python】爬虫:MOFA新闻发言人记者会文稿中英文版

爬取魔法部每日的新闻记者会发言稿

1.中文版:

import requests
import bs4
import os
import datetime
import time
from lxml import etree

headers = {
        'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',
    }
lists = []
lists_data_url = 'https://www.fmprc.gov.cn/fyrbt_673021/jzhsl_673025/index.shtml'
resp_lists = requests.get(lists_data_url, headers= headers)
e_list = etree.HTML(resp_lists.text)
lists_data_id = e_list.xpath('//div[@class="newsBd"]/ul[@class="list1"]/li/a/@href')#每条新闻的id
lists = []
lists = lists + lists_data_id
print(lists)

for i in range(1,8):
    lists_data_url = 'https://www.fmprc.gov.cn/fyrbt_673021/jzhsl_673025/index_'+str(i)+'.shtml'
    resp_lists = requests.get(lists_data_url, headers= headers)
    e_list = etree.HTML(resp_lists.text)
    lists_data_id = e_list.xpath('//div[@class="newsBd"]/ul[@class="list1"]/li/a/@href')#每条新闻的id
    lists = lists + lists_data_id
print(lists)

def fetchUrl(url):
    '''
    功能:访问 url 的网页,获取网页内容并返回
    参数:目标网页的 url
    返回:目标网页的 html 内容
    '''
    r = requests.get(url, headers=headers)
    r.raise_for_status()
    r.encoding = r.apparent_encoding
    return r.text

def getContent(html):
    '''
    功能:解析 HTML 网页,获取新闻的文章内容
    参数:html 网页内容
    '''
    bsobj = bs4.BeautifulSoup(html,'html.parser')

    # 获取文章 标题
    title = bsobj.h1.text + '\n'
    print(title)

    # 获取文章 内容
    pList = bsobj.find('div', attrs = {'class': 'news-main'}).find_all('p')
    content = ''
    for p in pList:
        content += p.text + '\n'
    print(content)

    # 返回结果 标题+内容
    resp = title + content
    return resp

def gettitle(html):
    '''
    功能:解析 HTML 网页,获取新闻的文章内容
    参数:html 网页内容
    '''
    bsobj = bs4.BeautifulSoup(html,'html.parser')

    # 获取文章 标题
    title = bsobj.h1.text
    print(title)

    return title

def saveFile(content, path, filename):
    '''
       功能:将文章内容 content 保存到本地文件中
       参数:要保存的内容,路径,文件名
       '''
    # 如果没有该文件夹,则自动生成
    if not os.path.exists(path):
        os.makedirs(path)

    # 保存文件
    with open(path + filename, 'a', encoding='utf-8') as f:
        f.write(content)

for num in lists:
    eachday_url = f'https://www.fmprc.gov.cn/fyrbt_673021/jzhsl_673025{num[1:]}'  # 每条新闻的url
    print(eachday_url)
    resp = requests.get(eachday_url, headers=headers)
    e = etree.HTML(resp.text)
    html = fetchUrl(eachday_url)
    content = getContent(html)
    filename = '外交部发言中文'
    path = "D:/wjbremarks/"
    saveFile(content, path, filename)






保存结果:

pdf版是打开后另存为的,内容敏感就不放图片了

2.英文版

import requests
import bs4
import os
import datetime
import time
from lxml import etree

headers = {
        'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',
    }
lists = []
lists_data_url = 'https://www.fmprc.gov.cn/eng/xwfw_665399/s2510_665401/2511_665403/'
resp_lists = requests.get(lists_data_url, headers= headers)
e_list = etree.HTML(resp_lists.text)
lists_data_id = e_list.xpath('//div[@class="newsLst_mod"]/ul/li/a/@href')#每条新闻的id
lists = []
lists = lists + lists_data_id
print(lists)

for i in range(1,7):
    lists_data_url = 'https://www.fmprc.gov.cn/eng/xwfw_665399/s2510_665401/2511_665403/index_'+str(i)+'.html'
    print(lists_data_url)
    resp_lists = requests.get(lists_data_url, headers= headers)
    e_list = etree.HTML(resp_lists.text)
    lists_data_id = e_list.xpath('//div[@class="newsLst_mod"]/ul/li/a/@href')#每条新闻的id
    print(lists_data_id)
    lists = lists + lists_data_id
print(lists)

def fetchUrl(url):
    '''
    功能:访问 url 的网页,获取网页内容并返回
    参数:目标网页的 url
    返回:目标网页的 html 内容
    '''
    r = requests.get(url, headers=headers)
    r.raise_for_status()
    r.encoding = r.apparent_encoding
    return r.text

def getContent(html):
    '''
    功能:解析 HTML 网页,获取新闻的文章内容
    参数:html 网页内容
    '''
    bsobj = bs4.BeautifulSoup(html,'html.parser')

    # 获取文章 标题
    title = bsobj.h2.text + '\n'
    print(title)

    # 获取文章 内容
    try:
        pList = bsobj.find('div', attrs = {'class': 'trs_editor_view TRS_UEDITOR trs_paper_default trs_web'}).find_all('p')
    except:
        try:
            pList = bsobj.find('div', attrs={'class': 'trs_editor_view TRS_UEDITOR trs_paper_default trs_word trs_web'}).find_all(
            'p')
        except:
             pList = bsobj.find('div', attrs={'class': 'trs_editor_view TRS_UEDITOR trs_paper_default trs_web trs_word'}).find_all(
            'p')
    content = ''

    for p in pList:
        content += p.text + '\n'
    print(content)

    # 返回结果 标题+内容
    resp = title + content
    return resp

def gettitle(html):
    '''
    功能:解析 HTML 网页,获取新闻的文章内容
    参数:html 网页内容
    '''
    bsobj = bs4.BeautifulSoup(html,'html.parser')

    # 获取文章 标题
    title = bsobj.h2.text
    print(title)

    return title

def saveFile(content, path, filename):
    '''
       功能:将文章内容 content 保存到本地文件中
       参数:要保存的内容,路径,文件名
       '''
    # 如果没有该文件夹,则自动生成
    if not os.path.exists(path):
        os.makedirs(path)

    # 保存文件
    with open(path + filename, 'a', encoding='utf-8') as f:
        f.write(content)

for num in lists:
    eachday_url = f'https://www.fmprc.gov.cn/eng/xwfw_665399/s2510_665401/2511_665403/{num[1:]}'  # 每条新闻的url
    print(eachday_url)
    resp = requests.get(eachday_url, headers=headers)
    e = etree.HTML(resp.text)
    html = fetchUrl(eachday_url)
    content = getContent(html)
    filename = '外交部发言英文'
    path = "D:/wjbremarksEN/"
    saveFile(content, path, filename)






  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值