Python爬虫 爬取一本小说

需要用到requests和re etree这三个库

requests需要安装好环境

import requests
import re
from lxml import etree
 
def GetsourcePage():  #定义需要爬取入口
    url = "自行填写" #这里填你需要下载的小说地址
    headers = {
        'user-Agent':'自行填写'
        }
    #header需要从网址信息中找到user-Agent那一行信息 复制过来即可
    res = requests.get(url=url,headers=headers)
    res.encoding='utf-8'
    text=res.text
    res.close()
    return text
 
def Get_title_link(text): #获取文章的链接和标题
    find_title_links=re.compile("<dd><a href='(.*?)' >(.*?)</a></dd>",re.S) #这里用到了正则表达,前面是文章的内容链接地址,后面是标题
    title_links = re.finditer(find_title_links,text)
    for i in title_links:
        Get_content(i.groups())#传递参数
        #print(i.groups())
        print(i.groups()[1]+"爬取成功,已下载到giantfox文本当中")
 
def Get_content(LinkAndTitle):
    url = f"https://www.ibiquge.la//{LinkAndTitle[0]}"
    headers = {
        'user-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.89 Safari/537.36 SLBrowser/7.0.0.12151 SLBChan/103'
    }
    res = requests.get(url=url,headers=headers)
    res.encoding='utf-8'
    tree = etree.HTML(res.text)
    #print(tree)
    content = tree.xpath('//*[@id="content"]/text()') #用etree解析
    Content_save(content,LinkAndTitle[1])#把文章的内容和标题传到下一个函数
def Content_save(content,title): #下载文章
    with open("./giantfox.txt",mode='a+',encoding='utf-8') as fp:
        fp.write(title)
        fp.write('\n')
        for i in content:
            fp.write(i.strip())
            fp.write('\n')
        fp.write('\n')
if __name__ == '__main__':
    text = GetsourcePage()
    Get_title_link(text)
    Get_content()


附:如果需要下载其他的小说 修改网址和user-Agent接口即可
 

  • 2
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python中,爬取京东等电商平台的销售数据通常需要使用到网络爬虫技术,结合一些第三方库如`requests`、`BeautifulSoup`或`Scrapy`框架。这里我将简述一个基本的步骤,但请注意实际操作可能需要遵守京东的使用条款和robots.txt协议,以及可能存在的反爬机制。 1. **安装必要的库**: 首先,你需要安装`requests`库来发送HTTP请求,`BeautifulSoup`或`lxml`用于解析HTML。 ```bash pip install requests beautifulsoup4 ``` 2. **获取网页源代码**: 使用`requests.get()`获取页面的HTML内容。假设我们想要抓取笔记本电脑列表页: ```python import requests from bs4 import BeautifulSoup url = "https://www.jd.com品类搜索.html?keyword=%E7%9B%AE%E8%AE%B0%E8%AE%BA" response = requests.get(url) html_content = response.text ``` 3. **解析HTML**: 使用`BeautifulSoup`解析HTML内容,找到包含销售信息的部分。由于京东的数据结构可能会变化,通常会寻找产品列表、销量等元素的class或id。 ```python soup = BeautifulSoup(html_content, 'lxml') sales_data = soup.find_all('div', class_='product-item-sales') # 假设销量在这一类别的元素中 ``` 4. **提取销售数据**: 对每个找到的销售数据元素,提取出销量信息。这可能需要进一步查找子元素并解析其文本。 ```python sales_numbers = [element.find('span', class_='J_salesNum')['data-value'] for element in sales_data] ``` 5. **处理和输出数据**: 最后,你可以将销量数据存储在一个列表或文件中,或者直接打印出来。 ```python for i, number in enumerate(sales_numbers): print(f"第{i+1}名:{number}") ``` 注意:这只是一个基础示例,实际爬取时可能需要处理分页、登录验证、动态加载内容等问题。同时,频繁抓取可能会被网站封禁,因此建议在合法范围内,并确保你的行为符合平台政策。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值