面对面教你如何用Python提取快递信息

现在疫情又开始了,小伙伴们要保护好自己,听说有的快递站都感染了病毒。于是,有小伙伴想说,那么能不能提取快递信息呢?这个教程就教大家如何用Python提取快递信息。

在这里插入图片描述

一、思路

针对这个问题,首先需要读取列表的信息,之后对列表进行切割,获取列表中的省或者直辖市信息,之后再判断省位信息中是否包含在地址信息中,使用列表追加的方法,进行处理,这里经常会用到字典和列表来存储信息,屡试不爽。

在这里插入图片描述

二、解决方案

针对该问题,粉丝【-】给出了解决方法,直接上代码如下:

# coding: utf-8
def sp(s):
    citys = []
    dizhi = []
    dice = {
   }
    dic = {
   }
    for i in s:
        # print(i)
        a = i[1]
        city = a[0:2]
        zlib = a[0:2]
        citys.append(city)
        dizhi.append(zlib)
    cityss = set(citys)  # 去重
    citysss = list(cityss)  # 转为列表
    d = dice.fromkeys(citysss)
    for key in d:
        h = []
        for j in s:
            b = j[1]
            lgezi = b[0:2]
            if lgezi == key:
                h.append(j)
            dic[key] = h
    # print(dic)
    for key in dic:
        # 遍历字典
        print(key, dic[key])
if __name__ == '__main__':
    sp([
        ['王*龙', '北京市海淀区苏州街大恒科技大厦南座4层'],
        ['郭*峰', '河南省商丘市高新技术开发区恒宇食品厂'],
        ['赵*生', '河北省唐山市朝阳道与学院路路口融通大厦2408室'],
        ['张*', '陕西省咸阳市文汇东路6号西藏民族大学'],
        ['刘*民', '北京市大兴区南海家园四里7号楼1单元902'],
        ['郭*兰', '湖北省武汉市湖北省'],
        ['张*强', '河北省张家口市经开区钻石南路11号']
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 可以使用 Python 的第三方库 Beautiful Soup 来提取网页字段信息。 首先,安装 Beautiful Soup: ``` pip install beautifulsoup4 ``` 然后,解析网页并提取信息: ```python from bs4 import BeautifulSoup import requests # 获取网页内容 url = 'http://example.com' response = requests.get(url) html = response.text # 解析网页 soup = BeautifulSoup(html, 'html.parser') # 提取信息 # 例如,获取所有的段落元素 paragraphs = soup.find_all('p') # 遍历段落元素列表,并输出文本内容 for p in paragraphs: print(p.text) ``` 你也可以使用 `soup.find()` 方法来查找单个元素,或者使用 `soup.select()` 方法来使用 CSS 选择器来查找元素。 参考文献: - [Beautiful Soup 4.4.0 文档](https://beautifulsoup.readthedocs.io/zh_CN/v4.4.0/) ### 回答2: 使用Python提取网页字段信息需要用到第三方库BeautifulSoup和Requests。 首先,使用Requests库向目标网页发送请求,获取网页的HTML代码。代码如下: ```python import requests url = "目标网页URL" headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3"} response = requests.get(url, headers=headers) html = response.text ``` 接下来,使用BeautifulSoup进行网页解析,提取需要的字段信息。可以根据HTML标签、class、id等特征来定位目标字段信息。代码如下: ```python from bs4 import BeautifulSoup soup = BeautifulSoup(html, "html.parser") # 根据标签提取字段信息 result = soup.find("标签名") # 根据class提取字段信息 result = soup.find(class_="class名") # 根据id提取字段信息 result = soup.find(id="id名") ``` 最后,可以根据需要对提取出的字段信息进行处理和操作。例如,可以使用result.string将字段信息转换为字符串,或者使用result.get("属性名")获取字段的属性值。 综上所述,使用Python提取网页字段信息主要是通过发送请求获取网页HTML代码,然后使用BeautifulSoup解析HTML代码,定位和提取需要的字段信息,并进行相应的处理和操作。 ### 回答3: 用Python提取网页字段信息主要依赖于两个模块:requests和BeautifulSoup。下面是一个示例代码,以提取某个电商网站商品标题和价格为例: ``` import requests from bs4 import BeautifulSoup # 发送HTTP请求获取网页内容 url = "https://example.com" # 替换为目标网页的URL response = requests.get(url) html = response.text # 解析网页内容 soup = BeautifulSoup(html, 'html.parser') # 提取商品标题 title_tag = soup.find('h1', class_='product-title') # 替换为目标网页商品标题所在的HTML标签和class,可以通过浏览器开发者工具查看 title = title_tag.get_text() # 提取商品价格 price_tag = soup.find('span', class_='product-price') # 替换为目标网页商品价格所在的HTML标签和class price = price_tag.get_text() # 打印提取的结果 print("商品标题:", title) print("商品价格:", price) ``` 以上代码首先使用`requests`模块发送HTTP请求,获取目标网页的内容,然后使用`BeautifulSoup`模块解析网页内容。`find`方法用于找到网页指定的HTML标签和class,`get_text`方法用于提取标签内的文本内容。最后通过`print`函数将提取的结果输出。 需要根据目标网页的结构和字段位置稍作调整,具体的标签名、class等内容可以通过浏览器开发者工具进行查看和分析。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值