自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 关于Python那点事-Python 基础,Python Spider,Python Tensorflow

本人学习过Java,熟悉数据库基本管理,后期因为公司需求又自学了Python。 从一开始听免费的公开课学习PythonSpider(Python爬虫),主要用于获取网页 数据,从分析网页构建,到HTML页面解析,包括一些网页的点触验证码,滑动验证码, 及普通验证码的识别及处理,FontCretor加密字体库,分析加密过程及如何解密。 自我认为学的还是不错的,目前本人正在学习机器学习。 在此本人将自...

2019-05-27 10:10:57 202

原创 Python自学

从一个小白到Python开发工程师的自我修养。 https://fgk.pw/i/HdxZRAU2955 点击此链接下载具体代码数据。

2019-05-21 10:30:37 667

原创 某汽车网站爬虫

主要使用到了ip池、模拟浏览器自动化检测、时间推送、数据库链接等技术 具体代码: `# --coding:utf-8 -- Filename:汽车之家论坛 Author:Guan Datetime:2018/12/27 from selenium import webdriver import re from _md5 import md5 import happybase import date...

2018-12-28 11:28:43 432

原创 网络编程

花了点时间学习了以下关于套接字的脚本 主要就是服务端和客户端的交互内容 首先服务端脚本 import sys import socket #创建一个面向连接的服务端对象 serversocket = socket.socket( socket.AF_INET,socket.SOCK_STREAM ) #设置主机名、端口号 host = socket.gethostname() port =...

2018-12-09 13:41:40 160

原创 爬虫防被封,直连数据库

今天花了一上午的时间,研究一下如何让爬虫避免IP封死。 主要设计到PROXY和PROXYTYPE 以下是代码: #-*- coding:utf-8 -*- #Filename:最终版搜狗数据 #Author:Guan #Datetime:2018/12/8 from selenium.webdriver.common.proxy import Proxy from selenium.webdri...

2018-12-08 15:04:37 350

原创 关于搜狗那点事

研究Webdriver\json\re\BeatifulSoupAPI的具体脚本使用 #-*- coding:utf-8 -*- #Filename:完整版搜狗脚本 #Author:Guan #Datetime:2018/12/6 #The code is import package import requests from bs4 import BeautifulSoup import j...

2018-12-06 23:38:05 241

原创 360搜索引擎数据抓取

BeatifulSoup网页解析 #-*- coding:utf-8 -*- #Filename:360搜索引擎 #Author:Guan #Datetime:2018/11/30 import requests from bs4 import BeautifulSoup import json import time def get_html(url): headers = { ...

2018-12-04 17:11:57 2006

原创 中CE——Database

#-*- coding:utf-8 -*- #Filename:中策大数据test #Author:Guan #Datetime:2018/11/24 #导报 import requests from bs4 import BeautifulSoup import json import os #获取网页数据 def get_html(url): headers = { ...

2018-12-04 17:10:12 225

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除