自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

转载 selenium用法

selenium 用于Web应用程序测试的工具。Selenium测试直接运行在浏览器中,就像真正的用户在操作一样。支持的浏览器包括IE(7, 8, 9, 10, 11),Mozilla Firefox,Safari,Google Chrome,Opera等。这个工具的主要功能包括:测试与浏览器的兼容性——测试你的应用程序看是否能够很好得工作在不同浏览器和操作系统之上。测试系统功能——创建...

2019-09-25 13:37:00 86

转载 python爬虫之PyQuery的基本使用

PyQuery库也是一个非常强大又灵活的网页解析库,语法与 jQuery 几乎完全相同 官网地址:http://pyquery.readthedocs.io/en/latest/jQuery参考文档:http://jquery.cuishifeng.cn/ 1、字符串的初始化 from pyquery import PyQuery as pq html = '''&l...

2019-09-25 13:20:00 155

转载 背景图轮播 响应式 插件 vegas的使用和下载

1. 引入 <link rel="stylesheet" href="/static/css/vegas.css"> <script src="/static/js/jquery.min.js"></script> <script src="/static/js/vegas.js"></script&...

2019-08-20 16:37:00 231

转载 (补充)scrapy框架爬取智联招聘信息--上海python工作

1. job.py: 据观察,pageSize参数可以控制页码,一页90个工作,这里做了一个用户交互,输入数字,即下载相应的前几页的工作信息。  # -*- coding: utf-8 -*- import scrapy import json from zhilianJob.items import ZhilianjobItem class JobSp...

2019-08-16 11:20:00 293

转载 Scrapy框架爬取智联招聘网站上海地区python工作第一页(90条)

1. 创建项目:   CMD下      scrapy startproject zhilianJob    然后 cd zhilianJob , 创建爬虫文件 job.py: scrapy genspider job xxx.com 2. settings.py 中: USER_AGENT = 'Mozilla/5.0 (Windows NT 6.1; WOW64...

2019-08-14 14:46:00 248

转载 scrapy框架爬取全书网一类书籍名、作者名和简介

1. 创建一个工程项目:scrapy startproject quanshuwang 2. cd quanshuwang (命令行下cd到项目目录下)   scrapy genspider quanshuwww.quanshuwang.com 在spiders下会生成一个quanshu.py文件      (scrapy genspider 爬虫文件的名称 ...

2019-08-12 18:54:00 371

转载 selenium自动化操作浏览器(火狐)

from selenium import webdriver import time # import selenium # print(help(selenium)) # selenium 三方库,可以实现让浏览器完成自动化的操作 # http://chromedriver.storage.googleapis.com/index.html # http:...

2019-08-08 18:16:00 457

转载 urllib:简单的贴吧页面爬取代码

from urllib import request import time import urllib import urllib.parse #根据url发送请求,获取服务器响应文件 def loadPage(url,filename): print('正在下载' + filename) headers = { 'User - ...

2019-08-05 19:51:00 527

转载 输入关键字从百度贴吧下载相应的图片

import requests from lxml import etree class TieBa(object): def __init__(self,query_string): self.query_string = query_string self.base_url = 'https://tieba.baidu.com...

2019-08-05 12:25:00 98

转载 CSS3小方块跳动

方块跳动 <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <title>跳动</title> <style> .box:before { ...

2019-08-02 16:34:00 294

转载 基于ajax的会员登录

blog应用urls中: urlpatterns = [ re_path('member/',views.member,name='member') ] views中: def member(request): res={'status':None, 'msg':None} if request.method == 'POST': ...

2019-06-13 20:13:00 114

转载 文件上传.py

#服务端 from socket import * from multiprocessing import Process import os def main(): # 服务端文件根目录 ROOT = os.path.dirname(os.path.abspath(__file__)) s = socket(AF_INET,SOCK_STREA...

2019-05-23 12:08:00 165

转载 文件下载.py

从一台计算机上下载文件到自己的计算机上 #服务端 from socket import * from multiprocessing import Process import os def main(): # 服务端文件根目录 ROOT = os.path.dirname(os.path.abspath(__file__)) s = sock...

2019-05-23 12:05:00 129

转载 socket聊天室

1 #服务端 2 from socket import * 3 import json 4 def recvMsg(s): 5 while True: 6 #接收用户的信息 7 data,address = s.recvfrom(1024) 8 data = json.loads(d...

2019-05-23 11:55:00 100

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除