- 博客(20)
- 收藏
- 关注
原创 vue-element-ui实现表格分页展示
本次数据采用的是本地数据导入的方式. 也可以通过请求API数据的方式.但是操作之前需要处理跨域.此次案例使用的数据是https://www.layui.com/demo/table/user/?page=1&limit=1000.<template> <div class="box"> <el-table :data="tableData" style="width: 100%" >
2020-12-28 17:19:58 563
原创 前端手风琴
js实现<!DOCTYPE html><html lang="en"><head> <meta charset="UTF-8"> <title>手风琴</title> <style> *{ padding: 0; margin: 0; list-style: none; vertica
2020-11-18 17:01:45 285
原创 九宫格布局的几种实现方法
js实现<!DOCTYPE html><html lang="en"><head> <meta charset="UTF-8"> <title>Title</title> <style> *{ padding: 0; margin: 0; list-style: none; }
2020-11-17 18:33:48 1838
原创 sql语句练习题,答案
练习网址:http://xuesql.cn/lesson/select_queries_with_expressions第一节1【初体验】这是第一题,请你先将左侧的输入框里的内容清空,然后请输入下面的SQL,您将看到所有电影标题:答案:SELECT * FROM movies;2【初体验】请输入如下SQL你将看到4条电影(切记先清空数据框且出错要耐心比对):答案:SELECT title,director FROM movies WHERE Id < 53【初体验】输入如下SQL你将看到电
2020-11-06 22:49:35 9800 6
原创 python批量修改对应目录下文件的名称
最简单的批量修改文件方法.import os # 导入os模块file_list = os.listdir(‘file’) # 读取file文件夹下的文件名称os.chdir(‘file’) # 切换到该目录下for i in file_list:os.rename(i, ‘{}.xlsx’.format(i+“a”)) # 通过循环,修改给每一个文件名称后面添加一个‘a’ (这里后缀写死了,直接用xlsx,如果您的文件不是可以修改为其他的.)...
2020-11-06 16:32:14 191
原创 GUI初学-计算器界面
import tkinter as tkroot = tk.Tk()arr = [('MC','M+','M-','MR'),('C','±','/','*'),(7,8,9,'-'),(4,5,6,'+'),(1,2,3,'='),(0,'.')]tk.Entry(root).grid(row=0,columnspan=4,ipadx=3,sticky=tk.NSEW)for rindex,r in enumerate(arr): for cindex,c in enumerate(r)
2020-08-31 17:42:40 203
原创 菜鸟爬虫-scrapy爬取笔趣阁全站小说
一 创建爬虫:cd到我们存放项目的文件夹然后 scrapy startproject BQGcd:BQG然后 scrapy genspider biquge biduo.cc二 使用pycharm打开我们的项目目录1setting设置这里我是将我的整个文件贴到这里.# -*- coding: utf-8 -*-from fake_useragent import UserAgent# Scrapy settings for BQG project## For simplicity,
2020-08-21 21:00:33 1337
原创 初学爬虫-有道翻译
有道翻译import requestsimport randomimport jsonurl = 'http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule'headers = { 'Host': 'fanyi.youdao.com', 'Origin': 'http://fanyi.youdao.com', 'Referer': 'http://fanyi.youdao.com/',
2020-08-16 17:37:17 241
原创 初学爬虫-翻译软件爬虫
金山import requestsimport jsonurl = 'http://fy.iciba.com/ajax.php?a=fy'word = input('请输入要翻译的信息')data = { 'f': 'auto', 't': 'auto', 'w': word}headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, lik
2020-08-16 17:36:14 168
原创 python学习线路附带对应资源链接
B站python爬虫学些线路1 Python 基础 BV1Lt4y1U7uN2 Python 进阶 BV1jz411b7DH3 Python 数据库 BV1Pg4y1a7a74 Python GUI与坦克大战 BV1jE411F72o5 Python Numpy BV1jE411F79F6 Python Matplotlib BV1EE411F7od7 Python 并发编程 BV1EE411F7vV8 Python 网络编程 BV1EE411F7Ew9 Python 算法与数据结构 BV1hE411F
2020-08-16 17:06:52 1084
原创 初学爬虫-糗事百科爬虫
import requestsfrom lxml import etreeheaders = {‘User-Agent’: ‘Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.88 Safari/537.36’}url = ‘https://www.qidian.com/all’responese = requests.get(url,headers= head
2020-08-16 10:29:50 129
原创 初学爬虫-快代理(2)
此次上传只是在之前的代码基础上,修改为面向对象的形式.请各位多指教.import requestsimport timefrom lxml import etreefrom fake_useragent import UserAgentimport json# 判断代理是否可用class get_ip(): def __init__(self): self.headers ={ 'user-agent':UserAgent().random } s
2020-08-16 10:17:04 135
原创 初学爬虫-快代理ip爬取
导包import requestsimport timefrom lxml import etreefrom fake_useragent import UserAgentimport json获取每一页的IP内容方法def get_content(url): # url = 'https://www.kuaidaili.com/free/inha/1/' headers ={ 'user-agent':UserAgent().random }
2020-08-15 10:31:37 459
原创 初学爬虫-veer图片下载
导包import requestsimport pandas as pdfrom lxml import etree目标网站target='https://www.veer.com/photo/'请求头headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.97 Safari
2020-08-13 22:30:09 4088
原创 初学爬虫-笔趣阁单本小说爬取(使用selenium)
# 导包from selenium import webdriverimport redr = webdriver.Chrome()# 获取每页小说内容的函数def get_page(): novel={} novel['page_title'] = dr.find_element_by_xpath('//*[@id="BookCon"]/h1').text novel['page_content'] = dr.find_element_by_xpath('//*[@id=
2020-08-12 18:08:37 571
原创 初学爬虫-qq空间模拟登录
#导入from selenium import webdriver# 模拟打开浏览器dr = webdriver.Chrome()# 隐式延时 等待加载,最长等待30sdr.implicitly_wait(30)# 打开目标网站 qq空间网址dr.get('https://qzone.qq.com/') # 跳转登录的框架fr = dr.find_element_by_id('login_frame')dr.switch_to.frame(fr)# 跳转框架之后,点击账号密码登录。d
2020-08-12 11:34:29 3059 2
原创 初学爬虫-腾讯招聘爬虫
import timeimport datetimeimport randomimport requests获取一个时间戳def get_timeStamp(): times = datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S') timeArray = time.strptime(times, "%Y-%m-%d %H:%M:%S") timeStamp = str(int(time.mktime(timeArray
2020-08-11 22:23:18 255
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人