Python爬取商家联系电话以及各种数据

上次学会了爬取图片,这次就想着试试爬取商家的联系电话,当然,这里纯属个人技术学习,爬取过后及时删除,不得用于其它违法用途,一切后果自负。

首先我学习时用的是114黄页数据。 
下面四个是用到的模块,前面2个需要安装一下,后面2个是python自带的。

import requests
from bs4 import BeautifulSoup
import csv
import time

然后,写个函数获取到页面种想要的数据,记得最后的return返回一下,因为下面的函数要到把数据写到csv里面。

def get_content(url,data=None):
    header = {
        'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8', 'Accept-Encoding': 'gzip, deflate', 'Accept-Language': 'zh-CN,zh;q=0.8', 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 Safari/537.36', } r = requests.get(url, headers=header) soup = BeautifulSoup(r.content, 'html.parser') data = soup.body.find('div',{'id':'news_con'}) ul = data.find('ul') lis = ul.find_all('li') pthons=[] for item in lis: rows=[] name= item.find('h4').string rows.append(name) tel = item.find_all("div")[2].string rows.append(tel) pthons.append(rows) time.sleep(1) return pthons

接着:把数据写到表格里面。我这里用到的是csv,方便阅览。

def write_data(data,name):
    file_name=name
    with open(file_name, "w", newline='') as csvfile: writer = csv.writer(www.dejiaylsmile.cn  csvfile) writer.writerow(["商铺名称", "联系电话"]) writer.writerows(data) print('抓取完成'

最后就是执行这些函数:

if __name__ == '__main__':
    url = 'http://ty.114chn.com/CustomerInfo/Customers? www.yingka178.com cid=008004008&page=2'
    mydata = get_content(www.078881.cn url)
    write_data(mydata,'phone.csv'www.dfzx157.com)
  • 1
  • 2
  • 3
  • 4

在这里我想到应该把url写成动态的,因为这里面有页数。让page写成循环自动+1,当然,可以在网页看到一共多少页。写个循环执行。就更完美了。

这里写图片描述

版权声明:本文为博主原创文章,未经博主允许不得转载。
首先,你需要确定你想要爬取哪个外卖平台的数据,因为每个平台的网页结构不同,需要针对不同的平台编写不同的爬虫代码。 一般来说,爬取外卖数据需要以下步骤: 1. 发送 GET 请求获取网页内容; 2. 使用 BeautifulSoup 或者其它的 HTML 解析库解析网页内容; 3. 找到需要的数据所在的 HTML 标签,提取数据; 4. 对于需要翻页的情况,可以模拟点击翻页按钮或者直接修改 url 来获取下一页的数据; 5. 将提取的数据保存到本地或者数据库中。 下面是一个简单的示例代码,以爬取饿了么平台的商家信息为例: ```python import requests from bs4 import BeautifulSoup url = 'https://www.ele.me/restapi/shopping/restaurants?extras%5B%5D=activities&geohash=ws0e7wk0qfqb&latitude=31.23037&limit=24&longitude=121.4737&offset=0&terminal=web' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 Edge/16.16299', } res = requests.get(url, headers=headers) soup = BeautifulSoup(res.text, 'html.parser') items = soup.find_all('div', class_='rstblock') for item in items: name = item.find('h2').text rating = item.find('span', class_='rstblock-rating').text sales = item.find('span', class_='rstblock-sale').text print(name, rating, sales) ``` 该代码会输出饿了么平台上前 24 家商家的名称、评分和月销售量。你需要修改 url 中的参数来获取更多商家数据
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值