自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 Ubuntu更新APT报错:E: Sub-process returned an error code

更新软件源执行sudo apt-get update时出现以下错误:E: Problem executing scripts APT::Update::Post-Invoke-Success'if /usr/bin/test -w /var/cache/app-info -a -e /usr/bin/appstreamcli; then appstreamcli refresh > /dev/null; fi'E: Sub-process returned an error code

2021-05-06 20:01:38 2076 1

原创 Python爬虫学习之爬取豆瓣电影Top250写入txt文件

from urllib.request import urlopen, Requestfrom bs4 import BeautifulSoupimport re# 将操作码保存为txt文件def text_save(filename, data): # filename为写入txt文件的路径,data为要写入数据列表. file = open(filename, 'w') for i in range(len(data)): s = str(data[i]).

2021-01-10 11:20:46 1864 3

原创 Python爬虫学习之爬取2020年《财富》世界500强排行榜写入txt文件

import requestsfrom urllib.request import urlopen, Requestfrom bs4 import BeautifulSoupimport re# 将操作码保存为txt文件def text_save(filename, data): # filename为写入txt文件的路径,data为要写入数据列表. file = open(filename, 'w', encoding = 'utf-8') for i in range(len

2021-01-10 11:12:47 1444

原创 Python爬虫学习之爬取学校排名写入txt文件

import requestsfrom urllib.request import urlopen, Requestfrom bs4 import BeautifulSoupimport re# 将操作码保存为txt文件def text_save(filename, data): # filename为写入txt文件的路径,data为要写入数据列表. file = open(filename, 'w') for i in range(len(data)): s =

2021-01-10 00:36:10 403

原创 Python爬虫学习之爬取财富快讯

import requestsfrom urllib.request import urlopen, Requestfrom bs4 import BeautifulSoupimport reheaders = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.102 Safari/537.36'}#爬虫[Request

2021-01-09 23:52:26 326

原创 Python爬虫学习之爬取招聘信息并存入Excel

from urllib.request import urlopen, Requestfrom bs4 import BeautifulSoupimport xlwtimport jsonworkbook = xlwt.Workbook(encoding='utf-8')worksheet = workbook.add_sheet('My Worksheet')worksheet.write(0, 0, "序号")worksheet.write(0, 1, "工作名称")worksheet

2021-01-09 23:45:29 1104 1

原创 Python爬虫学习之爬取下载pdf文献

from urllib.request import urlopen, Requestfrom bs4 import BeautifulSoupimport osfrom urllib.request import urlretrieveurl = "http://cjc.ict.ac.cn/qwjs/No2020-01.htm"headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit

2021-01-09 23:39:33 1678 1

原创 Python爬虫学习之爬取百度图片并保存到本地

import json, re ,osfrom urllib.request import Request, urlopen, urlretrievedef json_all(pn): links = [] for i in range(0, pn+1): url = 'https://image.baidu.com/search/acjson?tn=resultjson_com&logid=10112593352318188956&ipn=rj&amp

2021-01-09 23:35:11 605

原创 Python爬虫学习之爬取豆瓣音乐Top250存入Excel表格中

前言目标网站:https://music.douban.com/top250任务:爬取豆瓣音乐Top250的歌曲名爬取豆瓣音乐Top250的歌曲对应的表演者、发行时间和音乐流派(分别对应下图斜杠一行的第1个、第2个和最后1个)爬取豆瓣音乐Top250的歌曲对应的评分和歌曲详情链接将爬取到的数据依次写入Excel表格中打开网页 → 点击下一页 → 发现网站URL有所改变 → 再点击下一页 → 返回第一页 → 发现网址的规律https://music.douban.com/top250?s

2020-12-30 19:22:42 2041 2

原创 初级探索——splite学习

connection——数据库连接对象连接对象:建立python客户端与数据库的网络连接创建方法:sqlite3.connect(参数)connection对象支持的方法:方法说明cursor()使用该连接创建并返回游标commit()提交当前事务rollback()回滚当前事务close()关闭连接cursor —— 游标对象游标对象:用于执行查询和获取结果cursor对象支持的方法:方法说明execute(op[,ar

2020-11-09 22:28:55 592

原创 Python小游戏——围圈报数淘汰

围圈报数淘汰小游戏游戏规则:n个人玩游戏,从第一个人开始按照1、2、3报数,报到3的人被淘汰,最终剩下的2人为天选之子♔,取得胜利!小游戏代码:#1、先确定玩游戏的总人数num = []n = int(input('请输入总人数:'))#2、建立总人数的列表for i in range(n): num.append(i+1)print('输出列表元素:',num) #检查验证列表元素#3、定义一个move函数 作用:将每次循环列表前最开始得俩个数放到列表得最后def mov

2020-09-26 14:38:17 2318

原创 Markdown新手学习

MARKDOWN一、标题1、使用#号表示标题,#号必须在行首,例如:一级标题二级标题三级标题四级标题五级标题六级标题2、使用===和---表示一级和二级标题,例如:这是一级标题这是二级标题二、分割线在一行中用三个以上的星号、减号来建立一个分隔线且这一行只有符号,不能有其他东西(要注意不要被识别为二级标题)也可以在星号或是减号中间插入空格下面每种写法都可以建立分隔线:三、斜体和粗体1、使用*和**分别表示斜体和粗体例如:斜体粗体粗斜体2、删除线使用两个~

2020-09-26 14:17:14 158

原创 解决BeautifulSoup库运行时报错问题

**标题: 解决BeautifulSoup库运行时报错问题**正确代码:from urllib.request import urlopenfrom bs4 import BeautifulSouphtml = urlopen("http://www.pythonscraping.com/pages/page1.html")bsObi = BeautifulSoup(html.read(), 'html.parser')print(bsObi.h1)正确结果:C:\Users\user

2020-09-23 09:34:47 719

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除