自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(18)
  • 资源 (1)
  • 收藏
  • 关注

原创 vue-element-ui实现表格分页展示

本次数据采用的是本地数据导入的方式. 也可以通过请求API数据的方式.但是操作之前需要处理跨域.此次案例使用的数据是https://www.layui.com/demo/table/user/?page=1&limit=1000.<template> <div class="box"> <el-table :data="tableData" style="width: 100%" >

2020-12-28 17:19:58 168

原创 前端手风琴

js实现<!DOCTYPE html><html lang="en"><head> <meta charset="UTF-8"> <title>手风琴</title> <style> *{ padding: 0; margin: 0; list-style: none; vertica

2020-11-18 17:01:45 38

原创 九宫格布局的几种实现方法

js实现<!DOCTYPE html><html lang="en"><head> <meta charset="UTF-8"> <title>Title</title> <style> *{ padding: 0; margin: 0; list-style: none; }

2020-11-17 18:33:48 517

原创 sql语句练习题,答案

练习网址:http://xuesql.cn/lesson/select_queries_with_expressions第一节1【初体验】这是第一题,请你先将左侧的输入框里的内容清空,然后请输入下面的SQL,您将看到所有电影标题:答案:SELECT * FROM movies;2【初体验】请输入如下SQL你将看到4条电影(切记先清空数据框且出错要耐心比对):答案:SELECT title,director FROM movies WHERE Id < 53【初体验】输入如下SQL你将看到电

2020-11-06 22:49:35 2214 2

原创 python批量修改对应目录下文件的名称

最简单的批量修改文件方法.import os # 导入os模块file_list = os.listdir(‘file’) # 读取file文件夹下的文件名称os.chdir(‘file’) # 切换到该目录下for i in file_list:os.rename(i, ‘{}.xlsx’.format(i+“a”)) # 通过循环,修改给每一个文件名称后面添加一个‘a’ (这里后缀写死了,直接用xlsx,如果您的文件不是可以修改为其他的.)...

2020-11-06 16:32:14 49

原创 matplotlib初学笔记

https://matplotlib.org/gallery.html

2020-09-10 17:19:50 38

原创 GUI初学-计算器界面

import tkinter as tkroot = tk.Tk()arr = [('MC','M+','M-','MR'),('C','±','/','*'),(7,8,9,'-'),(4,5,6,'+'),(1,2,3,'='),(0,'.')]tk.Entry(root).grid(row=0,columnspan=4,ipadx=3,sticky=tk.NSEW)for rindex,r in enumerate(arr): for cindex,c in enumerate(r)

2020-08-31 17:42:40 78

原创 菜鸟爬虫-scrapy爬取笔趣阁全站小说

一 创建爬虫:cd到我们存放项目的文件夹然后 scrapy startproject BQGcd:BQG然后 scrapy genspider biquge biduo.cc二 使用pycharm打开我们的项目目录1setting设置这里我是将我的整个文件贴到这里.# -*- coding: utf-8 -*-from fake_useragent import UserAgent# Scrapy settings for BQG project## For simplicity,

2020-08-21 21:00:33 392

原创 初学爬虫-有道翻译

有道翻译import requestsimport randomimport jsonurl = 'http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule'headers = { 'Host': 'fanyi.youdao.com', 'Origin': 'http://fanyi.youdao.com', 'Referer': 'http://fanyi.youdao.com/',

2020-08-16 17:37:17 117

原创 初学爬虫-翻译软件爬虫

金山import requestsimport jsonurl = 'http://fy.iciba.com/ajax.php?a=fy'word = input('请输入要翻译的信息')data = { 'f': 'auto', 't': 'auto', 'w': word}headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, lik

2020-08-16 17:36:14 61

原创 python学习线路附带对应资源链接

B站python爬虫学些线路1 Python 基础 BV1Lt4y1U7uN2 Python 进阶 BV1jz411b7DH3 Python 数据库 BV1Pg4y1a7a74 Python GUI与坦克大战 BV1jE411F72o5 Python Numpy BV1jE411F79F6 Python Matplotlib BV1EE411F7od7 Python 并发编程 BV1EE411F7vV8 Python 网络编程 BV1EE411F7Ew9 Python 算法与数据结构 BV1hE411F

2020-08-16 17:06:52 52

原创 初学爬虫-糗事百科爬虫

import requestsfrom lxml import etreeheaders = {‘User-Agent’: ‘Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.88 Safari/537.36’}url = ‘https://www.qidian.com/all’responese = requests.get(url,headers= head

2020-08-16 10:29:50 35

原创 初学爬虫-快代理(2)

此次上传只是在之前的代码基础上,修改为面向对象的形式.请各位多指教.import requestsimport timefrom lxml import etreefrom fake_useragent import UserAgentimport json# 判断代理是否可用class get_ip(): def __init__(self): self.headers ={ 'user-agent':UserAgent().random } s

2020-08-16 10:17:04 42

原创 初学爬虫-快代理ip爬取

导包import requestsimport timefrom lxml import etreefrom fake_useragent import UserAgentimport json获取每一页的IP内容方法def get_content(url): # url = 'https://www.kuaidaili.com/free/inha/1/' headers ={ 'user-agent':UserAgent().random }

2020-08-15 10:31:37 181

原创 初学爬虫-veer图片下载

导包import requestsimport pandas as pdfrom lxml import etree目标网站target='https://www.veer.com/photo/'请求头headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.97 Safari

2020-08-13 22:30:09 810

原创 初学爬虫-笔趣阁单本小说爬取(使用selenium)

# 导包from selenium import webdriverimport redr = webdriver.Chrome()# 获取每页小说内容的函数def get_page(): novel={} novel['page_title'] = dr.find_element_by_xpath('//*[@id="BookCon"]/h1').text novel['page_content'] = dr.find_element_by_xpath('//*[@id=

2020-08-12 18:08:37 167

原创 初学爬虫-qq空间模拟登录

#导入from selenium import webdriver# 模拟打开浏览器dr = webdriver.Chrome()# 隐式延时 等待加载,最长等待30sdr.implicitly_wait(30)# 打开目标网站 qq空间网址dr.get('https://qzone.qq.com/') # 跳转登录的框架fr = dr.find_element_by_id('login_frame')dr.switch_to.frame(fr)# 跳转框架之后,点击账号密码登录。d

2020-08-12 11:34:29 607 2

原创 初学爬虫-腾讯招聘爬虫

import timeimport datetimeimport randomimport requests获取一个时间戳def get_timeStamp(): times = datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S') timeArray = time.strptime(times, "%Y-%m-%d %H:%M:%S") timeStamp = str(int(time.mktime(timeArray

2020-08-11 22:23:18 118

BiQuGe.7z 文件

scrapy爬虫小说

2021-06-15

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人 TA的粉丝

提示
确定要删除当前文章?
取消 删除