Python
文章平均质量分 58
AC_Dreameng
行有余力,则来刷题!
展开
-
Python爬虫爬取一篇韩寒新浪博客
网上看到大神对Python爬虫爬到很多有用的信息,觉得很厉害,突然对想学Python爬虫,虽然自己没学过Python,但在网上找了一些资料看了一下,看到爬取韩寒新浪博客的视频,共三集,第一节讲爬取一篇博客,第二节讲爬取一页博客,第三集讲爬取全部博客。看了视频,也留下了代码。爬虫第一步:查看网页源代码:第一篇博客的代码为蓝底的部分《论电影的七个元素》——关于我对电…对比其他博原创 2016-03-05 17:42:14 · 3766 阅读 · 0 评论 -
Python爬虫自动获取CSDN博客收藏文章
CSDN的Python创意编程活动开始第一天就看到了,但是认为自己是菜鸟,就向当“吃瓜群众”,后来看到有好多人的代码是关于爬虫的,当初我就是由于对爬虫 感兴趣才自学的Python。现在也打算参加一下这个活动。由于经常使用CSDN,所以收藏了好多优秀的文章,但是对于收藏夹没有整理好,要回去找之前收藏的文章不是很方便,经过研究,就用自学的简单Python爬虫帮我吧。去到首页一看,收藏的文章原创 2017-05-12 11:09:10 · 9003 阅读 · 7 评论 -
我的vimc
我的vimc,实时更新:set nocompatiblesource $VIMRUNTIME/vimrc_example.vimsource $VIMRUNTIME/mswin.vimbehave mswinset diffexpr=MyDiff()function MyDiff() let opt = '-a --binary ' if &diffopt =~ 'icas原创 2016-11-17 12:46:18 · 459 阅读 · 0 评论 -
git常用命令
$git clone *$git add --all$git status ;''$git commit -m "描述"$git push原创 2017-01-05 14:09:32 · 476 阅读 · 2 评论 -
Python小工具:
小福利:不说明,不解释#http://ncchc.dll.sourceforge.net/project/pyinstaller/2.0/pyinstaller-2.0.zip# -*- coding: utf-8 -*-import sysreload(sys)sys.setdefaultencoding('utf-8')import platformimport os原创 2016-11-17 12:42:46 · 903 阅读 · 2 评论 -
Python 爬虫文章
http://blog.csdn.net/fly_yr/article/category/5847099http://blog.csdn.net/github_35160620/article/category/6315321http://blog.csdn.net/Eastmount/article/category/5758691原创 2016-10-23 17:43:03 · 887 阅读 · 0 评论 -
Python简单知乎爬虫--爬取页面的图片并下载到本地
写了一个小爬虫,其实也算不上爬虫,只是抓取了页面的图片。这里主要是BeautifulSoup解析HTML源码,非常的方便啊,简直是神器,之前一直是使用正则表达式去解析非常痛苦啊!!!!这里是BeautifulSoup的中文文档:https://www.crummy.com/software/BeautifulSoup/bs4/doc.zh/代码详细见注释,解释的非常清晰转载 2016-10-07 14:33:40 · 12133 阅读 · 0 评论 -
Python删除酷狗多余音乐文件
本人听歌基本都用酷狗音乐,有个版本可以一键升级音质,就点了升级,原以为会把原来的.mp3文件覆盖,谁知道是重新下载,所以升级成功的音乐就有.mp3和.ape(升级后的文件)两个文件,极大的占用了我的电脑空间,就一首一首删除.mp3文件,删了几首很麻烦!程序员怎么能干这么无聊的事情呢?!就果断上网查Python遍历文件的方法(为什么要用Python呢?!人生苦短呀!!),然后改代码,几分钟就OK了。原创 2016-10-04 18:59:51 · 628 阅读 · 0 评论 -
简单CSDN爬虫,实现博客访问量记录
简单CSDN爬虫,实现访问量记录原创 2016-11-04 13:53:17 · 2714 阅读 · 0 评论 -
一些常用的python爬虫技巧总结
一些常用的python爬虫技巧总结【文末彩蛋福利】2016-10-21 10:39 67人阅读 评论(0)收藏举报本文章已收录于:分类: CSDN免费公开课(15) 作者同类文章XPython用得最多的还是各类爬虫脚本:写过抓代理本机验证的脚本,写过在discuz论坛中自动登录自动发贴的转载 2016-10-22 14:18:00 · 1041 阅读 · 0 评论 -
Python
废话不多说,上代码:FL1#coding=utf-8import webbrowserimport timeimport urllib2import reimport osimport threadtabcount=1def BlogFun(n,url,MaxVisitor): visitcount = r'(\d+)人阅读' global t原创 2016-08-20 14:26:09 · 1063 阅读 · 0 评论 -
Python爬取贴吧多页图片
Python爬取贴吧图片都只能爬取第一页的,加了循环也不行,现在可以了。#coding:utf-8import urllibimport urllib2import reimport os# 将正则表达式编译成Pattern对象rex=r'src="(http://imgsrc.baidu.com/forum/w%3D580.*?\.jpg)"';root = "D:\\tu原创 2016-08-20 14:08:47 · 2521 阅读 · 0 评论 -
Python爬取韩寒全部新浪博客
接上一篇,我们根据第一页的链接爬取了第一页的博客,我们不难发现,每一页的链接就只有一处不同(页码序号),我们只要在上一篇的代码外面加一个循环,这样就可以爬取所有博客分页的博文,也就是所有博文了。# -*- coding : -utf-8 -*-import urllibimport timeurl = [' ']*350page = 1link = 1while page原创 2016-03-07 22:45:10 · 2158 阅读 · 2 评论 -
Python爬虫爬取一页韩寒新浪博客
上篇文章已讲了抓取一篇博客的内容,这篇文章将讲述如何爬取一页博客(一页上有很多篇(新浪博客一页最多有50篇))我们只需在第一篇代码的外面加一个循环,给出第一页的网页链接,然后在上面爬取所有的博客链接,再下载就Ok了# -*- coding : -utf-8 -*-import urllibimport timeurl = ['']*50con = urllib.urlope原创 2016-03-07 22:21:12 · 1577 阅读 · 0 评论 -
Python 发送QQ邮件
参考连接:https://zhuanlan.zhihu.com/p/25718394#coding:utf-8from email.mime.text import MIMETextfrom email.header import Headerfrom smtplib import SMTP_SSL#sender_qq为发件人的qq号码sender_qq = '1720513491原创 2017-09-03 23:13:03 · 1294 阅读 · 0 评论