python代码手机壁纸_python批量下载壁纸的实现代码

python批量下载壁纸的实现代码

代码如下:

#! /usr/bin/env python

##python2.7-批量下载壁纸

##壁纸来自桌酷网站,所有权归属其网站

##本代码仅做为交流学习使用,请勿用于商业用途,否则后果自负

##Code by Dreamlikes

import re,urllib,urllib2

#保存图片的路径

savepath = 'd:\\picture\\'

#壁纸集合的URL,如下

url = 'http://www.zhuoku.com/zhuomianbizhi/game-gamewall/20120503162540.htm'

urlSource = urllib.urlopen(url).read()

pattern = re.compile(r'

match = pattern.findall(urlSource)

if match:

for subUrl in match:

subUrlSource = urllib.urlopen(url[0:url.rfind('/')+1]+subUrl).read()

sPattern = re.compile(r'var thunder_url = "(.*)";')

picUrl = sPattern.findall(subUrlSource)[0]

getPic = urllib2.Request(picUrl)

getPic.add_header('Referer','http://www.zhuoku.com')

f = open(savepath+picUrl[picUrl.rfind('/')+1:],'wb')

f.write(urllib2.urlopen(getPic).read())

f.close()

print "All done."

时间: 2012-08-05

本次爬取的贴吧是百度的美女吧,给广大男同胞们一些激励 在爬取之前需要在浏览器先登录百度贴吧的帐号,各位也可以在代码中使用post提交或者加入cookie 爬行地址:http://tieba.baidu.com/f?kw=%E7%BE%8E%E5%A5%B3&ie=utf-8&pn=0 #-*- coding:utf-8 -*- import urllib2 import re import requests from lxml import etree 这些是要导入的库,代码并没有使用正则

测试url:http://tieba.baidu.com/p/27141123322?pn=begin  1end   4 复制代码 代码如下: import string ,urllib2 def baidu_tieba(url,begin_page,end_page):    for i in range(begin_page, end_page+1):        sName = string.zfill(i,5)+ '.html'        print '正在下载第' + str(

本文实例讲述了Python3访问并下载网页内容的方法.分享给大家供大家参考.具体如下: #!/usr/local/bin/python3.2 import urllib.request,io,os,sys req = urllib.request.Request("http://www.google.com") f = urllib.request.urlopen(req) s = f.read() s = s.decode('gbk','ignore') mdir = sys.pat

前言 最近空闲的时候看到了之前就关注的一个小站http://teahour.fm/,一直想把这里的音频都听一遍,可转眼间怎么着也有两年了,却什么也没做.有些伤感,于是就写了个脚本,抓了下音频的下载链接,等下载下来后一定要认真听听. 时间仓促,加调试也就那么十几分钟,脚本写的可能有些烂,大家可以留言指出. teahour.py #!/usr/bin/env python #coding: utf-8 import sys import requests from BeautifulSoup imp

本文实例讲述了python实现支持目录FTP上传下载文件的方法.分享给大家供大家参考.具体如下: 该程序支持ftp上传下载文件和目录.适用于windows和linux平台. #!/usr/bin/env python # -*- coding: utf-8 -*- import ftplib import os import sys class FTPSync(object): conn = ftplib.FTP() def __init__(self,host,port=21): self.c

blank.gif

#!/usr/bin/env python #coding=utf-8 # modifyDate: 20120808 ~ 20120810 # 原作者为:bones7456, http://li2z.cn/ # 修改者为:decli@qq.com # v1.2,changeLog: # +: 文件日期/时间/颜色显示.多线程支持.主页跳转 # -: 解决不同浏览器下上传文件名乱码问题:仅IE,其它浏览器暂时没处理. # -: 一些路径显示的bug,主要是 cgi.escape() 转义问题 #

Python实现批量下载文件 #!/usr/bin/env python # -*- coding:utf-8 -*- from gevent import monkey monkey.patch_all() from gevent.pool import Pool import requests import sys import os def download(url): chrome = 'Mozilla/5.0 (X11; Linux i86_64) AppleWebKit/537.36

有三种方法,一是用微软提供的扩展库win32com来操作IE,二是用selenium的webdriver,三是用python自带的HTMLParser解析.win32com可以获得类似js里面的document对象,但貌似是只读的(文档都没找到).selenium则提供了Chrome,IE,FireFox等的支持,每种浏览器都有execute_script和find_element_by_xx方法,可以方便的执行js脚本(包括修改元素)和读取html里面的元素.不足是selenium只提供对py

blank.gif

我第一次接触爬虫这东西是在今年的5月份,当时写了一个博客搜索引擎,所用到的爬虫也挺智能的,起码比电影来了这个站用到的爬虫水平高多了! 回到用Python写爬虫的话题. Python一直是我主要使用的脚本语言,没有之一.Python的语言简洁灵活,标准库功能强大,平常可以用作计算器,文本编码转换,图片处理,批量下载,批量处理文本等.总之我很喜欢,也越用越上手,这么好用的一个工具,一般人我不告诉他... 因为其强大的字符串处理能力,以及urllib2,cookielib,re,threading这些

复制代码 代码如下: #!/usr/bin/python3.2import os,socketimport urllibimport urllib.request,threading,timeimport re,sysglobal manhuaweb,weburl,floder,chapterbegin,currentthreadnum,threadcount,mutex,mutex2 weburl=''floder=''chapterbegin=0currentthreadnum=0threa

有些页面并不能直接用requests获取到内容,会动态执行一些js代码生成内容.这个文章主要是对付那些特殊页面的,比如必须要进行js调用才能下载的情况. 安装chrome wget [https://dl.google.com/linux/direct/google-chrome-stable\_current\_x86\_64.rpm](https://dl.google.com/linux/direct/google-chrome-stable_current_x86_64.rpm) yum

测试平台 Ubuntu 13.04 X86_64 Python 2.7.4 花了将近两个小时, 问题主要刚开始没有想到传一个文件对象到线程里面去, 导致下载下来的文件和源文件MD5不一样,浪费不少时间. 有兴趣的同学可以拿去加上参数,改进下, 也可以加上断点续传. 复制代码 代码如下: # -*- coding: utf-8 -*-# Author: ToughGuy# Email: wj0630@gmail.com# 写这玩意儿是为了初步了解下python的多线程机制# 平时没写注释的习惯,

L3Byb3h5L2h0dHAvZmlsZXMuamI1MS5uZXQvZmlsZV9pbWFnZXMvYXJ0aWNsZS8yMDE4MDUvMjAxODU3MTEwNzMyOTgwLmpwZyYjMDYzOzIwMTg0NzExMTU0NA==.jpg

本文实例讲述了Python视频爬虫实现下载头条视频功能.分享给大家供大家参考,具体如下: 一.需求分析 抓取头条短视频 思路: 分析网页源码,查找解析出视频资源url(查看源代码,搜mp4) 对该url发起请求,返回二进制数据 将二进制数据保存为视频格式 视频链接: http://video.eastday.com/a/170612170956054127565.html 二.代码实现 # encoding: utf-8 import sys reload(sys) sys.setdefault

爬虫目的 实现对各大视频网站vip电影的下载,因为第三方解析网站并没有提供下载的渠道,因此想要实现电影的下载. 实现思路 1.选择一个合适的vip解析网站,这里选择了无名小站的接口,因为尝试了很多网站,有些网站想要爬取很困难,无名小站相对简单,接口为www.wmxz.wang/video.php?url=[vip电影的链接] 2.利用Fiddler进行抓包,模拟浏览器发送post请求,获取电影实际下载地址. 3.使用PyQt5进行包装,实现多样化的功能.(可选) 页面分析 我使用Fiddler抓

L3Byb3h5L2h0dHAvZmlsZXMuamI1MS5uZXQvZmlsZV9pbWFnZXMvYXJ0aWNsZS8yMDE4MDIvMjAxODIzMTU1NjQ4NjY0LmpwZyYjMDYzOzIwMTgxMzE1NTY1OA==.jpg

一.同步与异步 #同步编程(同一时间只能做一件事,做完了才能做下一件事情) <-a_url-><-b_url-><-c_url-> #异步编程 (可以近似的理解成同一时间有多个事情在做,但有先后) <-a_url-> <-b_url-> <-c_url-> <-d_url-> <-e_url-> <-f_url-> <-g_url-> <-h_url-> <--i_ur

本文实例讲述了Python实现爬虫抓取与读写.追加到excel文件操作.分享给大家供大家参考,具体如下: 爬取糗事百科热门 安装 读写excel 依赖 pip install xlwt 安装 追加excel文件内容 依赖 pip install xlutils 安装 lxml Python示例: import csv import requests from lxml import etree import time import xlwt import os from xlutils.copy

0x01 分析 一个简单的多线程下载资源的Python脚本,主要实现部分包含两个类: Download类:包含download()和get_complete_rate()两种方法. download()方法种首先用 urlopen() 方法打开远程资源并通过 Content-Length获取资源的大小,然后计算每个线程应该下载网络资源的大小及对应部分吗,最后依次创建并启动多个线程来下载网络资源的指定部分. get_complete_rate()则是用来返回已下载的部分占全部资源大小的比例,用来回

1. 实例描述 通过爬虫获取网页的信息时,有时需要登录网页后才可以获取网页中的可用数据,例如获取 GitHub 网页中的注册号码时,就需要先登录账号才能在登录后的页面中看到该信息,如下图所示.那么该如何实现模拟登录的功能呢?本文实现将通过爬虫实现 GitHub 网页的模拟登录. 2. 代码实现 在实现 GitHub 网页的模拟登录时,首先需要查看提交登录请求时都要哪些请求参数,然后获取登录请求的所有参数,再发送登录请求.如果登录成功的情况下获取页面中的注册号码信息即可.具体步骤如下: (1) 点

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
MangaMeeya 是一款在日本很有名气的电子漫画阅览工具,具有速度流畅、操作灵活、书籍管理便捷等优点,并支持多种流行的图像插件,使其功能得到了非常自由的扩展。 图片读取和显示的速度极快是本软件最大的优点,而且作者一直在朝着这个方向努力。本软件复杂的运用了预读技术,您只要以正常速度阅读,图片再大也不会感到丝毫延迟。对于非常大的图片压缩包,无论再快的 CPU 也得数秒钟时间载入,这时您只要选择边载入边阅读,就可以做到一秒钟也不用浪费了。而且在读取完成之后,短时间内再次读取本压缩包将不再花任何时间。在预读功能之外,本软件的读取速度也异常优秀。如果图片大小正常,像实体书那样只用几秒钟时间从头翻到尾的事也能轻松做到。 ·如何以最快的速度浏览:关闭“工具”下拉菜单内的“启用翻页效果”、“启用Avisynth滤镜”,打开“预读文件”、“预读所有文件”。 ·如何实现边载入边阅读:在读取很大的压缩包时,“正在列出文件”对话框会自动出现,点击该对话框内的“在后台列出(按储存顺序)”即可。 本软件可以使用纯鼠标、纯键盘、纯手柄操作,当然也可以混合操作。所有功能的按键都可以自定义,所以绝对不会碰到操作不顺手的情况。和键盘一样,鼠标和手柄也有多键组合功能,不用担心按钮不够用。鼠标中还有一个非常有用的功能——鼠标手势(见本段尾的介绍)。鼠标手势的好处是在程序的操作上完全解放了眼睛,以前必须用眼睛确定菜单项的位置、窗口内按钮的位置、键盘按键的位置,现在则再也不用了,只要像写字一样划上几笔,就可以完成大量复杂的操作,这期间眼睛完全不用离开阅读的内容。 ·如何自定义操作设置:所有的操作设置都在“工具”下拉菜单内的“操作设置”子菜单内。 ·手柄如何进行组合按钮设置:每个按钮对应的功能在手柄对话框内设置,默认按钮5为“自定义控制键”,即组合键。“自定义控制键”与其他按钮组合后的功能也在同一窗口内设置。 ·如何使用鼠标手势:默认设置是以右键拖拽激发鼠标手势功能,只要在主窗口内按住右键拖拽出大致的走向,就会激发该走向对应的功能。比如默认向上拖拽是切换全屏幕,按住右键向上拖拽然后放开,程序就由窗口切换为全屏了,再次向上拖拽的话,就恢复到窗口状态。在“鼠标设置-手势设置”窗口内可以自定义拖拽走向对应的命令,在左边的方框中可以进行可视模拟操作。 不管对于电子书还是实体书来说书签(也就是书籍的管理)都非常重要,本软件设立了一个专门的主菜单项用作书籍的管理,可见其重视程度。在单个书籍(文件夹或压缩包)内部的管理上,程序设有中断点一个(关闭书籍时程序自动设置),记号一个(手动设置用),书目无数个(手动设置用)。程序可以在开启某个书籍时自动转到中断点或记号处,以便继续上次阅读。书目上可以写上简短文字,为书籍分出章节,当然作为普通的书签用也行。在书籍与书籍之间的管理上,程序设有四个列表:播放列表(当前阅读的书籍)、历史(之前阅读过的书籍)、收藏夹(文字式的仓库)、书架(带图片的仓库)。您还可以把任意列表保存为其他文件,等需要时再载入,这样就不用担心列表不够用了。 ·怎样设定打开书籍时转到上次关闭处:“工具-环境设置-一般设置1”内,选中“从中断处开启”。 ·怎样编辑书目:打开书目列表的快捷键默认为“鼠标手势-左”。编辑书目的操作和在 Windows 下修改文件名一样。 ·书架的使用:在列表内的该书籍项目上点击右键,选择“加入封底”。调好“加入位置”(纵坐标)和“加入宽度”后确定,该图块就连同文件信息一起被加入书架中。要显示图片式的书架请选择“查看-显示书架”。“加入封面”后不会显示在书架内,但可以在封面缩略图中看到。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值