维基百科 mysql_把维基百科首页词条的数据导入mysql【Python】

title: 把维基百科首页词条的数据导入mysql【Python】

date: 2016-09-13 0:59:28

tags:

1、此文是跟着上一篇来写的,之前,已经完成了对维基百科词条的数据采集工作。

2、本文和作者示范不同的地方是,建立数据库和表格的工具我维持使用了sqlyog软件,作者用的是哪个不确定,因为视频看不清上面的名字。

3、代码如下,已经有一定说明,原作者可没提供代码哦,请把password对应的密码部分,从xxxx修改成你的真实数据库密码:

__author__ = 'Administrator'

# coding:utf-8

# 运行在python 3.5.2

import re

from urllib.request import urlopen

from bs4 import BeautifulSoup as bs

import pymysql.cursors

# 使用urllib的urlopen方法,去打开维基百科的首页,读取,并用utf-8解码

resp = urlopen('https://en.wikipedia.org/wiki/Main_Page').read().decode('utf-8')

# 使用BeautifulSoup去解析,其中html.parser是默认的解析器

soup = bs(resp, 'html.parser')

# 获取所有的/wiki/开头的a标签的href属性。

listUrls = soup.find_all('a', href=re.compile(r'^/wiki/'))

print(listUrls)

# 输出所有的词条对应的名称和URL

for url in listUrls:

# 排除.jpg JPG结尾的

if not re.search('\.(jpg|JPG)$', url['href']):

# 显示名称和网址的格式

# string只能显示一个,而get_text()可显示标签下所有的文字。

print(url.get_text(), '', 'https://en.wikipedia.org'+url['href'])

# 得到数据库的连接

connection = pymysql.connect(host='localhost',

user='root',

password='xxxx',

db='wikiurl',

charset='utf8'

)

try:

# 创建会话指针

with connection.cursor() as cursor:

# 创建sql语句

sql = 'insert into `urls` (`urlname`, `urlhref`) values(%s, %s)'

# 执行sql语句

cursor.execute(sql, (url.get_text(), 'https://en.wikipedia.org' + url['href']))

# 提交

connection.commit()

finally:

connection.close()

4、其中关键的步骤有:

A):sqlyog中表格的制作和设置,千万注意,id的int类型,需要添加自增,否则运行程序会报错: "Field 'id' doesn't have a default value

b854782a5729?nomobile=yes

B)数据库的插入和执行命令,因为不太熟悉,对着视频敲代码都错误了几次,并且要注意以下代码urls (urlname, urlhref)使用的是Tab键上面的那个上点号

C)当程序没有报错,在sqlyog查看表格要先刷新

D)在之前的帖子,是在python2.7下,通过sqlyog的import MySQLdb 来操作mysql的,并且,代码中的密码对应的是passwd,而这个和直接用python 运行pymysql的对应命令password是不同的,要分清楚。

5、结果图,有一丝喜悦感:

b854782a5729?nomobile=yes

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python可以使用ElementTree或lxml库来解析维基百科的XML文件。这里以lxml库为例,演示如何解析维基百科的XML文件: 1. 首先,下载维基百科的XML文件,比如英文维基百科的最新版本可以从这里下载:https://dumps.wikimedia.org/enwiki/latest/enwiki-latest-pages-articles.xml.bz2 2. 解压缩下载的XML文件,得到一个XML文件,比如enwiki-latest-pages-articles.xml。 3. 使用lxml库读取XML文件,并解析XML文件中的页面(page)元素: ```python from lxml import etree # 打开XML文件 with open('enwiki-latest-pages-articles.xml', 'rb') as f: # 创建解析器 parser = etree.XMLPullParser(['start', 'end']) # 循环遍历XML文件 for line in f: parser.feed(line) for event, elem in parser.read_events(): if event == 'end' and elem.tag == '{http://www.mediawiki.org/xml/export-0.10/}page': # 输出页面的标题和内容 title = elem.findtext('{http://www.mediawiki.org/xml/export-0.10/}title') text = elem.findtext('{http://www.mediawiki.org/xml/export-0.10/}revision/{http://www.mediawiki.org/xml/export-0.10/}text') print(title, text[:100]) # 清空元素 elem.clear() # 跳过子元素 while elem.getprevious() is not None: del elem.getparent()[0] del elem ``` 这段代码读取XML文件的每一行,将其传递给解析器。当解析器遇到页面元素时,提取页面的标题和内容,并输出。 注意,这里使用了XML命名空间来解析维基百科的XML文件。维基百科的XML文件使用了命名空间,所以要使用命名空间来访问元素。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值