生活
九茶
这个作者很懒,什么都没留下…
展开
-
刷欢乐豆的方法
前言:每次能刷五万多,刷之前账号必须至少有1000欢乐豆。原理:淘宝上有低价卖欢乐豆,大家可知道? 先介绍一下他们的方法:店家用两个小号在“闷抓斗地主”场开一个桌子(加了密码的),你付款以后他们给你一个密码让你进入桌子。开始游戏后两个小号会一直“不出”,你可以一直赢,赢够五万欢乐豆了他们两个小号会自动退出,交易成功。(至于店家的两个小号哪里来的欢乐豆我们不管,我们只要进入了桌子,那两个小号就会输五原创 2015-04-19 11:48:51 · 22178 阅读 · 1 评论 -
生活灵感汇总
前言:这是从中学就开始养成的一个习惯:不论是迷迷糊糊刚入睡,还是在吃饭、上课、看书,只要出现了新的灵感(或者说是新的观点),就必须立刻记录下关键字眼,日后空闲的时候再利用网络去做更全面的搜索和认识。我一直觉得,大部分人都是聪明的,特别是在日常生活中的某几个瞬间,就像一株大树偶尔会开出一两朵小花,那都是精华!可是这些往往都是瞬间凋逝的,我们甚至都还来不及感受到它们的出现,特别是对我这种思维跳原创 2015-08-02 02:02:40 · 5672 阅读 · 8 评论 -
资源分享
不管是学习还是娱乐,生活中我们经常要找一些资源(例如各种教学视频、源代码、破解版的安装包,考试资料、报告文档,又或者最新电影等等)很多人都无从下手。其实网络是一个非常丰富、好用的资源库,只是你知不知道途径而已。下面推荐一下鄙人觉得很赞的平台、网站,希望对某天看到这篇博客的人有所帮助吧。(虽然说我这博客无人问津。。。至少是作为自己的一个总结吧)网盘、云盘:主要是百度云盘,原创 2015-03-25 14:54:20 · 10627 阅读 · 3 评论 -
新浪微博分布式爬虫分享
代码请移步GitHub:SinaSpider(上面有跳转链接,别再问我代码在哪里了) 爬虫功能:此项目实现将单机的新浪微博爬虫(见《新浪微博爬虫分享(一天可抓取 1300 万条数据)》)重构成分布式爬虫。Master机只管任务调度,不管爬数据;Slaver机只管将Request抛给Master机,需要Request的时候再从Master机拿。 环境、架构:开发语言:Python2.7开原创 2016-03-16 15:38:48 · 25207 阅读 · 5 评论 -
QQ空间爬虫分享(一天可抓取 400 万条数据)
代码请移步GitHub:QQSpider爬虫功能:QQSpider 使用广度优先策略爬取QQ空间中的个人信息、日志、说说、好友四个方面的信息,详细可见数据库说明。 判重使用“内存位”判重,理论上亿数量级的QQ可瞬间判重,内存只占用400M+。 爬虫速度可达到单机每天400万条数据以上(具体要考虑网速、网络带宽、稳定性等原因。我在学校是400万+,但在公司那边却只有六成的速度,普通家庭网络可能会更原创 2016-03-01 13:30:15 · 58093 阅读 · 38 评论