题目——爬虫

爬取并下载

http://www.topit.me/?p=2

上面网页的所有图片并存到本地的一个文件夹。(语言不限)(如果不能下载,请把图片链接爬出并写入文件)

最后提交成品:源代码一份。发送至邮箱:904727147@qq.com。完成之后加我个人微信:18362983803

以下是一个示例(python提取知乎当前最热的问答内容并写入本地)

#-*- coding: utf-8 -*-
import urllib.request
import re
from _io import open
def yunpan_search():
    url = "https://www.zhihu.com/explore"
    req = urllib.request.Request(url, headers = {
        'Connection': 'Keep-Alive',
        'Accept': 'text/html, application/xhtml+xml, */*',
       'Accept-Language': 'en-US,en;q=0.8,zh-Hans-CN;q=0.5,zh-Hans;q=0.3',
        'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64; Trident/7.0; rv:11.0) like Gecko'
})
    opener = urllib.request.urlopen(req)
    html = opener.read()
    html = html.decode('utf-8')
    rex = '(?<=<textarea class="content hidden">\n).*?(?=<span class="answer-date-link-wrap">)'
    m = re.findall(rex,html,re.S)
    f = open('/root/Desktop/zhihu.txt','w')
    for i in m:
        f.write(i)
        f.write('\n\n')
    f.close()
    print("抓取成功!")
    file = open('/root/Desktop/zhihu.txt','r+')
    fullfile = file.readlines()
    text = []
    p = re.compile(r'\w*', re.L)
    pp = re.compile(r"(&;)*")
    for line in fullfile:
        lines = p.sub('',line)
        liness = pp.sub('',lines)
        text.append(liness)
    file.seek(0)
    file.truncate(0)
    file.writelines(text)
    file.close()
    print("处理成功!")
 
if __name__=='__main__':
    yunpan_search()


转载于:https://my.oschina.net/passer007/blog/666112

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值