源码
silencehhh
这个作者很懒,什么都没留下…
展开
-
Python 网络爬虫之 百度贴吧原创小说
许多人喜欢看小说吧,我特别喜欢看(以前特别喜欢天蚕土豆的,如今他已经让我们伤透了心,一部大主宰追了三四年。。。。) 好了,言归正传。我经常上贴吧去追新,(不舍得花钱啊) `哈哈,好了,我们这次要爬取的是百度的小说吧,其他吧也是一样的。#-*- coding:utf-8 import urllib2 import re记住爬虫的原理是从网页源码上获取数据。 所以说首先得获取网页源码: 关键词:原创 2017-05-08 17:16:11 · 146 阅读 · 0 评论 -
"新方法"爬虫==拉勾网招聘信息
一种自己以前完全没接触过的方法只要有你,每次都看我的锁薇女神老师的教学视频还有两年快毕业了,所以对毕业工作的事情很是上心啊 这种方法还没弄清楚呢,所以呢趁着还有印象先把记录下来 以免自己的脑子给忘记了!!! 先贴上源代码 #coding:utf-8 import requests,xlwt,json items = []#设置为空,方便存储 pn=1 def get_content(pn):原创 2017-06-12 22:36:28 · 302 阅读 · 0 评论 -
python爬虫之壁纸的下载
python爬虫之壁纸的下载好久没有写博客了,暑假这段时间在学校里面忙着写小论文,没机会写我最喜欢的爬虫了(虽然很简单,但架不住哥喜欢。。。)好了,废话不多说了,开始把 本次爬虫爬取的是 手机壁纸(爱换壁纸的男人伤不起啊) 目标网址就定在 伟大的贴吧里了(壁纸吧) 这里插一句,以前用的IDE都是pycharm,虽说比较好用,但是最近发现一款IDE,就是anaconda内自带的spyder,原创 2017-08-26 18:29:59 · 1137 阅读 · 0 评论 -
动态爬虫之 百度图片
动态爬虫之 百度图片 针对百度图片网站所构建的反扒机制,我们如果按照正常的requests和BeautifulSoup来对网页进行解析获取,那是不会得到任何信息的。 打开网页,输入搜索信息(周杰伦) F12+F5查看源码,发现查找规律: 那么,接下来,使用requests和BeautifulSoup混合来获取我们所需要的信息,即图片链接 import requests fro原创 2018-01-30 13:10:04 · 1274 阅读 · 0 评论 -
Kaggle实战之sklearn学习
今天刚刚接触python机器学习之kaggle实战这本书,初步学习了python机器学习库之sklearn的基本运用,照葫芦画瓢的对书中代码进行了一定的编写运行,小小记录我学机器学习之路 主要是这对支持向量机 、朴素贝叶斯、k近邻、决策树 ,使用sklearn快速对其进行建模训练操作 一 支持向量机 这里不涉及具体的算法原理知识,主要是使用sklearn库函数进行构建训练网络 #使用...原创 2018-04-17 21:49:38 · 1280 阅读 · 1 评论 -
Python 手机端自动推送功能(利用极光推送API)
Python+Jpush手机端信息推送 极光推送API是一种开发者服务,这里不再赘述 我们在官网申请账号,创建应用,这里官方有详细的文档描述,这里也不再赘述,下图是我创建好的应用。 我们打开自己 的应用,重点是找到自己应用的app_key和自己的Master Secre 再次点击侧面栏的推送设置,选择自己的推送设备,比如我的是安卓的,会看到下图式样 初次使用是需要设置包名,这...原创 2018-04-26 09:44:26 · 5348 阅读 · 2 评论