自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

原创 python微博内容提取

import requests import re import json from bs4 import BeautifulSoup #微博要用cookies登入 #一个知识点 有script里的内容用正则取出再处理 headers = { 'accept...

2019-04-13 22:17:44

阅读数 538

评论数 2

原创 acg456漫画网站爬虫

import requests import json from urllib import request import os import time for pn in range(1,182): #共1-100章 pn = &...

2019-04-04 01:32:29

阅读数 3232

评论数 0

原创 python即时更新新闻标题

import requests from bs4 import BeautifulSoup import re file = open('titles.txt','r',encoding='utf8') #titles.txt是一...

2019-04-04 01:28:03

阅读数 107

评论数 0

原创 高德和百度爬虫

#下面这行一定要加不会会报错 #coding=utf-8 import requests,json,time def baidu_map(keyword): #city_code是 全国城市代码 37-373 for city_code in range(265,266):...

2019-04-04 01:22:44

阅读数 184

评论数 0

原创 图吧爬虫

import requests import time,json file = open('mapbar.txt','w',encoding='utf-8') def mapbar(keyword): time_now = i...

2019-04-04 01:20:10

阅读数 30

评论数 0

原创 城市分际际爬虫

import requests,time from bs4 import BeautifulSoup file = open(‘go007.txt’,‘w’,encoding=‘utf-8’) header = { ‘Accept’:‘text/html,application/xhtml+xml...

2019-04-04 01:02:49

阅读数 94

评论数 0

原创 python查询ip的城市

import geoip2.database reader = geoip2.database.Reader(r’C:\Users\name\PycharmProjects\test\GeoLite2-City.mmdb’) response = reader.city(‘103.235.46.3...

2019-04-04 00:59:05

阅读数 242

评论数 0

原创 8591游戏网查询成交纪錄

#注意爬取太频繁IP会被封锁好几天 #因为有的页面因为游戏停止买卖 所以range会跳空很多号码 import requests,time from bs4 import BeautifulSoup file = open(“8591.txt”,‘a+’) header ={ ‘Accept’:‘...

2019-04-04 00:43:07

阅读数 90

评论数 0

原创 努努书坊小说爬虫

import requests from bs4 import BeautifulSoup import re url = ‘https://www.kanunu8.com/book3/7562/150394.html’ res = requests.get(url) html = (res.co...

2019-04-04 00:40:14

阅读数 156

评论数 0

原创 百度域名多线程采集

import requests from bs4 import BeautifulSoup from urllib.parse import urlparse import time import threading def spider(num,keyword): for sum in rang...

2019-04-02 08:50:21

阅读数 101

评论数 0

原创 小鸭网站單一影片下载

import requests import m3u8 import os headers = {‘User-Agent’: ‘Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrom...

2019-04-02 08:48:10

阅读数 27

评论数 0

原创 selenium登入脸书指定社团

from selenium import webdriver import time chrome_path = “C:\selenium_driver_chrome\chromedriver.exe” #chromedriver.exe执行档所存在的路径 username = ‘你的脸书帐号’ ...

2019-04-02 08:44:03

阅读数 23

评论数 0

提示
确定要删除当前文章?
取消 删除