自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

shizhengxin123的博客

机器学习、深度学习

  • 博客(51)
  • 收藏
  • 关注

原创 python实现剑指offer系列2:字符串空格替换

牛客网题目链接:https://www.nowcoder.com/practice/4060ac7e3e404ad1a894ef3e17650423?tpId=13&tqId=11155&tPage=1&rp=1&ru=%2Fta%2Fcoding-interviews&qru=%2Fta%2Fcoding-interviews%2Fquestion-ranking 题目:请实现一个函数,将一个字

2017-07-09 14:49:34 324

原创 python实现剑指offer系列:二维数组的查找

题目:在一个二维数组中,每一行都按照从左到右递增的顺序排序,每一列都按照从上到下递增的顺序排序。请完成一个函数,输入这样的一个二维数组和一个整数,判断数组中是否含有该整数。python实现代码# -*- coding:utf-8 -*-class Solution: # array 二维列表 def Find(self, target, array): m = le

2017-07-09 14:30:19 330

原创 Python快速排序

代码如下,快排采用分治的思想def quick(arr,f,l): if f >= l: return else: i = f - 1 for j in range(f,l): if arr[j] <= arr[l]: i += 1 arr[i],

2017-07-05 14:44:36 342

原创 python 爬取各大招聘网站信息

python 爬取各大招聘网站信息,源码,留给自己看的1、拉勾from bs4 import BeautifulSoupimport requestsimport urllibfrom selenium import webdriverfrom selenium.webdriver.common.keys import Keysimport selenium.webdriver.suppo

2017-06-22 10:27:37 8815

原创 如何用Python快速爬下拉勾招聘信息

1、简介在爬取之前,我先用requests包get了一下拉勾的官网,发现源码并没有包含我想要的招聘信息,这时候就麻烦,当然解决的方法有很多种,可以抓包得到招聘信息的json数据,通过解析json来获取招聘信息,另外还可以通过PhantomJS来伪装浏览器获取,PhantomJS的安装我就不多说了,大家可以自行度娘。接下来我就告诉大家如何爬取拉勾。2、爬取招聘信息的网站首先大家进入拉勾官网,我随便输入

2017-06-03 10:58:23 830

原创 利用scrapy爬取新浪体育上的图片

1、说明我用的是python3下的scrapy,这篇博客主要是告诉大家如何用scrapy爬取图片并下载到本地。步骤我会一一说明2、步骤2、1 items部分直接看代码 items.py# -*- coding: utf-8 -*-# Define here the models for your scraped items## See documentation in:# http://d

2017-05-29 13:26:26 957

原创 利用scrapy爬取新浪体育新闻的小例子

1、新建项目scrapy startproject tutorial整体结构如下 2、修改items# -*- coding: utf-8 -*-# Define here the models for your scraped items## See documentation in:# http://doc.scrapy.org/en/latest/topics/items.htmli

2017-05-27 17:39:23 4965

原创 Python并行地爬取京东页面的id以及各个id的评论

1、简介前面一篇告诉了大家如何爬取京东的评论,这次我来教大家如何大规模 并行的爬取自动获取商品id以及爬取评论2、所需模块除了上篇博客所需模块之外,这次需要加入selenium这个模块来爬取动态页面的数据3、代码代码下有注释,有疑问直接在下面评论import requestsfrom bs4 import BeautifulSoupimport refrom selenium import

2017-05-26 10:21:36 1222

原创 如何做情感分析,以京东评论为例(jieba+sklearn)

1、引言作为 我的自然语言处理的第一篇博客,就简单的给大家看看用jieba分词,提取特征,利用机器学习的算法做情感分析的过程,照样,我不多做说明,请看代码,代码有注释2、介绍我的文本 来自上一篇博客爬取的京东的评论,都放在了我的mysql库里面,所以这里我只要在mysql中提取我想要的数据就行3、代码import jiebaimport pymysqlimport collections,

2017-05-26 10:11:37 6584

原创 Python爬取京东评论(多线程+队列+bs4+pymysql)

1、 概述本博客纯属原创,如有转载,请注明作者 运行环境:python3.5所需模块:bs4 ,queue.thread,pymysql,requests,大家如果想运行此代码,只需要将我标粗并斜体的部分修改即可。2、具体内容2、1导入具体模块###导入具体模块import requestsfrom bs4 import BeautifulSoupimport refrom collec

2017-05-26 09:57:30 1987

原创 利用keras(tensorflow) 做cnn mnist识别

keras图像数据处理以及图像识别小例子1、数据预处理 数据集请自行下载,数据不大,20来兆 数据具体如下所示: 格式为 要识别的数字.序号.jpg数据预处理代码,我用的是tensorflow做后端的keras,所以输入维度为(样本量,高,宽,通道)import osfrom PIL import Imageimport numpy as np#读取文件夹mni...

2017-05-17 14:42:33 8398 4

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除