学渣的博客

python成长之路。github地址:https://github.com/wangbohy123/python

排序:
默认
按更新时间
按访问量

andorid之AlertDialog的实现

package com.example.administrator.myapplication; import android.content.DialogInterface; import android.support.v7.app.AlertDialog; import android.s...

2018-05-25 17:41:02

阅读数:20

评论数:0

android之进度条的实现

package com.example.administrator.progress; import android.app.Activity; import android.os.Bundle; import android.os.Handler; import android.os.Mess...

2018-05-25 17:16:02

阅读数:67

评论数:0

Android基础——gridView的实现

今实现gridView MainActivity.java: package com.example.administrator.helloworld; import android.app.Activity; import android.os.Bundle; import android...

2018-05-25 16:36:15

阅读数:59

评论数:0

Android第一课——activity的创建与相互传递信息

本学期开始安卓的学习,更几篇博客来记录一下 首先新建工程,创建两个empty activity,此处名称都采用默认的名称。 目的是:实现从MainActivity传参数给Main2Activity(value1和value2),然后计算两个参数的和为sum,之后再返回给MainActivity...

2018-04-27 16:45:02

阅读数:43

评论数:1

梯度下降求解逻辑回归2(代码编写以及三种梯度下降对比)

*上一篇是理论知识、背景介绍以及大体的实现方向,这一篇是具体代码实现 代码编写 我们的功能模块: 写出sigmoid函数,返回被录取的概率,即映射到概率 g(z)=11+e−zg(z)=11+e−z g(z) = \frac{1}{1+e^{-z}} 写出model...

2018-02-18 21:53:33

阅读数:308

评论数:0

机器学习实战——梯度下降求解逻辑回归(1理论基础)

问题的提出 现要实现一个简单的线性回归: 我们将建立一个逻辑回归模型来预测一个学生是否被大学录取。假设你是一个大学系的管理员,你想根据两次考试的结果来决定每个申请人的录取机会。你有以前的申请人的历史数据,你可以用它作为逻辑回归的训练集。对于每一个培训例子,你有两个考试的申请人的分数和录取...

2018-02-17 17:33:23

阅读数:155

评论数:0

使用seaborn绘制漂亮的热度图

还是使用jupyter notebook作为开发环境,首先引入所必须的包以及对环境进行相应设置。 import numpy as np import pandas as pd import matplotlib as mpl import matplotlib.pyplot as plt i...

2018-02-14 15:30:56

阅读数:945

评论数:0

seaborn直方图、散点图与回归分析图的绘制

学习了seaborn的基本风格操作设置之后我们便操作seaborn学习直方图、散点图的绘制方法,以及对数据进行回归分析的方法(本文使用jupyter notebook为开发环境)。 直方图的绘制 首先我们导入必须的包以及matplotlib的魔法方法,使得我们绘制的图象能直接显示;并为随机数...

2018-02-14 15:11:54

阅读数:1401

评论数:0

seaborn基本操作——风格设置(以绘制正弦函数为例)

  在学习了matplotlib之后便紧跟着开始seaborn的学习,seaborn是对matplotlib的进一步封装,令我们的绘图操作进一步简化,使用seaborn我们便可以简单的绘制出风格迥异的图例,是我们数据展示的利器。    我们从seaborn的风格转换开始入门学习,以绘制正弦函数为...

2018-02-11 18:33:25

阅读数:263

评论数:0

scrapy基于CrawlSpider实现爬取西刺代理并验证是否能用

基于scrapy框架的CrawlSpider类实现跟进爬取并利用xpath匹配出每一页的代理ip与端口号保存在txt文档中。 因为西刺代理页面过多,并且靠后的基本没用,所以我们只爬取前9页。 spider文件如下: # -*- coding: utf-8 -*- from scrapy.li...

2018-02-01 16:43:05

阅读数:200

评论数:0

numpy基本函数与操作——一篇就够了!

对numpy基本函数操作进行了整理,掌握这些便可以算是入了个门,基本全部敲一遍就掌握差不多了!开发环境为jupyter notebook 基本是一个输入一个输出 需要源码的可以去我的github下载 import numpy as np # 读文件的操作 分隔符为逗号 类型是str wo...

2018-01-30 21:58:31

阅读数:130

评论数:0

jupyter notebook 有哪些快捷键?(转载防忘)

命令模式 (按键 Esc 开启) Enter : 转入编辑模式 Shift-Enter : 运行本单元,选中下个单元 Ctrl-Enter : 运行本单元 Alt-Enter : 运行本单元,在其下插入新单元 Y : 单元转入代码状态 M :单元转入markdown状态 R : 单...

2018-01-30 21:52:12

阅读数:32

评论数:0

scrapy实战——利用CrawlSpider爬取腾讯社招全部岗位信息(进行有一定深度的爬取)

经过scrapy的简单学习,我们实现这样一个爬虫:爬取腾讯社招的全部岗位信息,将粗略的大致信息保存在tencent.json文件中,将岗位的进一步具体信息(职责、要求)保存在positiondescribe.json文件中。 即,我们需要两个item进行页面信息的保存,同时要继承CrawlSpi...

2018-01-30 16:29:53

阅读数:503

评论数:0

解决python3.6下scrapy中xpath.extract()匹配出来的内容转成json与.csv文件没有编码(unicode)的问题

初学scrapy,利用xpath对网页结构进行匹配,写的parse函数如下: def parse(self, response): teacherList = response.xpath('//div[@class="li_txt"]') ...

2018-01-27 13:09:13

阅读数:248

评论数:0

python3多线程爬虫爬取某美女图片网站的指定页图片资源,你懂的

Queue(队列对象) queue是python3中的标准库,可以直接import queue引用;队列是线程间最常用的交换数据的形式。 python下多线程的思考 对于资源,加锁是个重要的环节。因为python原生的list,dict等,都是not thread safe的。而queue,...

2018-01-26 16:22:29

阅读数:229

评论数:0

python3利用xpath爬取糗事百科数据并保存为json

利用xpath爬取糗事百科的数据,关键在于对xpath的使用,可以用浏览器插件对xpath做相应的对照。 我的处理方法是提取出来相对比较有“概括性”的父节点,然后通过父节点对爬取的页面进行解析得到子节点集,之后再利用for循环遍历节点集,从而再利用子节点提取出用户名、用户发表的段子、点赞数、评论...

2018-01-25 20:10:23

阅读数:247

评论数:0

python3利用正则表达式爬取内涵段子

似乎正则在爬虫中用的不是很广泛,但是也是基本功需要我们去掌握。 先将内涵段子网页爬取下来,之后利用正则进行匹配,匹配完成后将匹配的段子写入文本文档内。代码如下: # -*- coding:utf-8 -*- from urllib import request as urllib2 imp...

2018-01-24 13:21:29

阅读数:384

评论数:0

python3通过CookieJar与urllib模拟登陆人人网

人人网有一个登陆用的接口http://www.renren.com/PLogin.do,该接口仅需要提交一个包含用户名和密码post表单再利用cookie的相关处理方法便可以模拟登陆。(不知道为什么还有这种接口存在) 具体代码、实现流程如下: # -*- coding:utf-8 -*- fr...

2018-01-23 16:50:22

阅读数:97

评论数:0

python3爬取豆瓣电影Ajax(获取动态内容)

利用python3中的urllib模块对豆瓣电影的“喜剧片”进行爬取。因为是动态页面,我们关注点应在数据来源上,我们知道所有Ajax数据来源都是json,通过Fiddler抓包工具,我们可以获取相应json数据,提取出相应url,以及post请求的QueryString,之后便可以进行代码的编写。...

2018-01-22 21:11:42

阅读数:397

评论数:0

python3爬取指定百度贴吧页面并保存成本地文档(批量爬取贴吧页面数据)

首先我们创建一个python文件, tieba.py,我们要完成的是,输入指定百度贴吧名字与指定页面范围之后爬取页面html代码,我们首先观察贴吧url的规律,比如: 百度贴吧LOL吧第一页:http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn...

2018-01-21 22:31:55

阅读数:214

评论数:0

提示
确定要删除当前文章?
取消 删除
关闭
关闭