requests爬取扇贝单词

import requests,re

proxy={
    "HTTP": "113.3.152.88:8118",
    "HTTPS": "219.234.5.128:3128",
}

headers={
    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.110 Safari/537.36',
}

base_url="https://www.shanbay.com/wordlist/110521/232414/?page="
#url="https://www.shanbay.com/wordlist/110521/232414/?page=1"

def get_word():
    page=input("请输入获取第几页:")
    url = base_url+page
    response=requests.get(url,headers=headers,proxies=proxy)
    html=response.content.decode("utf-8")
    res = re.compile(r'<strong>(.*?)</strong>[\w\W]*?"span10">(.*?)</td>')
    ret = res.findall(html)
    return ret,page

def write_word(ret,page):
    file_name="扇贝单词第%s页.txt"%page
    with open(file_name, "w", encoding="utf-8") as fp:
        for i in ret:
            print(i[0] + "\t" + i[-1])
            fp.write(i[0] + "\t" + i[-1] + "\n")
    print(str(len(ret))+"个单词写完")


if __name__=="__main__":
    ret,page=get_word()
    write_word(ret,page)

不懂的可以看一下我上一篇写的博文

紧接上一个博客写了两个简单的requests爬取: https://blog.csdn.net/weixin_44185953/article/details/85722993.

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用requests库可以方便地爬取图片。通过requests.get(url)方法可以获取到图片的二进制数据,然后可以使用with open()语句将图片保存到本地。以下是一个使用requests爬取图片的示例代码: ```python import requests def download_image(url, save_path): response = requests.get(url) with open(save_path, 'wb') as f: f.write(response.content) download_image('https://example.com/image.jpg', 'image.jpg') ``` 在这个示例中,我们定义了一个`download_image`函数,该函数接收图片的URL和保存路径作为参数。使用requests.get方法获取图片的二进制数据,然后使用with open语句打开文件并将二进制数据写入文件中,从而实现图片的保存。 请注意,以上示例仅展示了如何使用requests爬取图片。在实际应用中,你可能需要结合其他技术,如解析网页获取图片URL等来完善你的爬虫。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [16-python爬虫之Requests爬取海量图片](https://blog.csdn.net/bigzql/article/details/109007633)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [python爬虫之使用requests进行图片爬取](https://blog.csdn.net/qq_44159028/article/details/120560451)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值