- 博客(13)
- 收藏
- 关注
原创 Ubuntu更新APT报错:E: Sub-process returned an error code
更新软件源执行sudo apt-get update时出现以下错误:E: Problem executing scripts APT::Update::Post-Invoke-Success'if /usr/bin/test -w /var/cache/app-info -a -e /usr/bin/appstreamcli; then appstreamcli refresh > /dev/null; fi'E: Sub-process returned an error code
2021-05-06 20:01:38 2076 1
原创 Python爬虫学习之爬取豆瓣电影Top250写入txt文件
from urllib.request import urlopen, Requestfrom bs4 import BeautifulSoupimport re# 将操作码保存为txt文件def text_save(filename, data): # filename为写入txt文件的路径,data为要写入数据列表. file = open(filename, 'w') for i in range(len(data)): s = str(data[i]).
2021-01-10 11:20:46 1864 3
原创 Python爬虫学习之爬取2020年《财富》世界500强排行榜写入txt文件
import requestsfrom urllib.request import urlopen, Requestfrom bs4 import BeautifulSoupimport re# 将操作码保存为txt文件def text_save(filename, data): # filename为写入txt文件的路径,data为要写入数据列表. file = open(filename, 'w', encoding = 'utf-8') for i in range(len
2021-01-10 11:12:47 1444
原创 Python爬虫学习之爬取学校排名写入txt文件
import requestsfrom urllib.request import urlopen, Requestfrom bs4 import BeautifulSoupimport re# 将操作码保存为txt文件def text_save(filename, data): # filename为写入txt文件的路径,data为要写入数据列表. file = open(filename, 'w') for i in range(len(data)): s =
2021-01-10 00:36:10 403
原创 Python爬虫学习之爬取财富快讯
import requestsfrom urllib.request import urlopen, Requestfrom bs4 import BeautifulSoupimport reheaders = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.102 Safari/537.36'}#爬虫[Request
2021-01-09 23:52:26 326
原创 Python爬虫学习之爬取招聘信息并存入Excel
from urllib.request import urlopen, Requestfrom bs4 import BeautifulSoupimport xlwtimport jsonworkbook = xlwt.Workbook(encoding='utf-8')worksheet = workbook.add_sheet('My Worksheet')worksheet.write(0, 0, "序号")worksheet.write(0, 1, "工作名称")worksheet
2021-01-09 23:45:29 1104 1
原创 Python爬虫学习之爬取下载pdf文献
from urllib.request import urlopen, Requestfrom bs4 import BeautifulSoupimport osfrom urllib.request import urlretrieveurl = "http://cjc.ict.ac.cn/qwjs/No2020-01.htm"headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit
2021-01-09 23:39:33 1678 1
原创 Python爬虫学习之爬取百度图片并保存到本地
import json, re ,osfrom urllib.request import Request, urlopen, urlretrievedef json_all(pn): links = [] for i in range(0, pn+1): url = 'https://image.baidu.com/search/acjson?tn=resultjson_com&logid=10112593352318188956&ipn=rj&
2021-01-09 23:35:11 605
原创 Python爬虫学习之爬取豆瓣音乐Top250存入Excel表格中
前言目标网站:https://music.douban.com/top250任务:爬取豆瓣音乐Top250的歌曲名爬取豆瓣音乐Top250的歌曲对应的表演者、发行时间和音乐流派(分别对应下图斜杠一行的第1个、第2个和最后1个)爬取豆瓣音乐Top250的歌曲对应的评分和歌曲详情链接将爬取到的数据依次写入Excel表格中打开网页 → 点击下一页 → 发现网站URL有所改变 → 再点击下一页 → 返回第一页 → 发现网址的规律https://music.douban.com/top250?s
2020-12-30 19:22:42 2041 2
原创 初级探索——splite学习
connection——数据库连接对象连接对象:建立python客户端与数据库的网络连接创建方法:sqlite3.connect(参数)connection对象支持的方法:方法说明cursor()使用该连接创建并返回游标commit()提交当前事务rollback()回滚当前事务close()关闭连接cursor —— 游标对象游标对象:用于执行查询和获取结果cursor对象支持的方法:方法说明execute(op[,ar
2020-11-09 22:28:55 592
原创 Python小游戏——围圈报数淘汰
围圈报数淘汰小游戏游戏规则:n个人玩游戏,从第一个人开始按照1、2、3报数,报到3的人被淘汰,最终剩下的2人为天选之子♔,取得胜利!小游戏代码:#1、先确定玩游戏的总人数num = []n = int(input('请输入总人数:'))#2、建立总人数的列表for i in range(n): num.append(i+1)print('输出列表元素:',num) #检查验证列表元素#3、定义一个move函数 作用:将每次循环列表前最开始得俩个数放到列表得最后def mov
2020-09-26 14:38:17 2318
原创 Markdown新手学习
MARKDOWN一、标题1、使用#号表示标题,#号必须在行首,例如:一级标题二级标题三级标题四级标题五级标题六级标题2、使用===和---表示一级和二级标题,例如:这是一级标题这是二级标题二、分割线在一行中用三个以上的星号、减号来建立一个分隔线且这一行只有符号,不能有其他东西(要注意不要被识别为二级标题)也可以在星号或是减号中间插入空格下面每种写法都可以建立分隔线:三、斜体和粗体1、使用*和**分别表示斜体和粗体例如:斜体粗体粗斜体2、删除线使用两个~
2020-09-26 14:17:14 158
原创 解决BeautifulSoup库运行时报错问题
**标题: 解决BeautifulSoup库运行时报错问题**正确代码:from urllib.request import urlopenfrom bs4 import BeautifulSouphtml = urlopen("http://www.pythonscraping.com/pages/page1.html")bsObi = BeautifulSoup(html.read(), 'html.parser')print(bsObi.h1)正确结果:C:\Users\user
2020-09-23 09:34:47 719
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人