调用企查查上的接口,实现通过公司名称查询公司列表

引入架包

 <dependency>
        <groupId>org.apache.httpcomponents</groupId>
        <artifactId>httpclient</artifactId>
        <version>4.5.1</version>
   </dependency>
   <dependency>
        <groupId>com.alibaba</groupId>
        <artifactId>fastjson</artifactId>
        <version>1.2.29</version>
    </dependency>
      <dependency>
        <groupId>com.vaadin.external.google</groupId>
        <artifactId>android-json</artifactId>
        <version>0.0.20131108.vaadin1</version>
        <scope>compile</scope>
    </dependency>

官方文件一:mainApp

package com.bc.user.manager;

import static java.lang.System.out;

import java.io.IOException;
import java.util.regex.Pattern;


import org.apache.commons.codec.digest.DigestUtils;
import org.apache.http.client.methods.HttpHead;
import org.json.JSONException;
import org.json.JSONObject;

import com.fasterxml.jackson.core.JsonProcessingException;
import com.fasterxml.jackson.databind.ObjectMapper;

/**
 * @program: wd-saas
 * @description: 第三方企查查调用接口类
 * @author: dd
 * @create: 2019年9月26日12:11:18
 **/

public class mainApp{


    // 请登录http://yjapi.com/DataCenter/MyData
    // 查看我的秘钥 我的Key
    private static final String appkey = "*企查查上的key";
    private static final String seckey = "*企查查上的seckey";

    public static String searchEnterpriseName(String enterpriseName) throws Exception {
        String reqInterNme = "http://api.qichacha.com/ECIV4/Search";
        String paramStr = "keyword=" + enterpriseName;
        String status = "";

        // auth header setting
        HttpHead reqHeader = new HttpHead();
        String[] autherHeader = RandomAuthentHeader();
        reqHeader.setHeader("Token", autherHeader[0]);
        reqHeader.setHeader("Timespan", autherHeader[1]);
        final String reqUri = reqInterN
  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
Python爬取企查查信息是一种常见的数据抓取技术。企查查是一家提供企业信息查询服务的网站,通过爬取它的网页数据,我们可以获取到企业的基本信息、股东信息、法定代表人等重要数据。 实现这个功能的方法包括使用第三方的网络请求库Requests,以及解析HTML的库Beautiful Soup。首先,我们需要使用Requests库向企查查发送HTTP请求,获取到网站的HTML页面内容。 通过调用Requests库提供的get()方法,并传入要爬取的企业的网址,即可获取到企业网站的HTML页面内容。然后,我们将返回的页面内容传给Beautiful Soup库进行解析。使用Beautiful Soup库提供的一系列方法,我们可以快速、方便地定位和提取HTML页面中所需的企业信息。 在解析HTML页面时,我们可以查找特定的HTML标签、类名、元素属性等来定位所需的信息。通过Beautiful Soup库提供的方法,我们可以获取到目标信息,并将其保存到合适的数据结构中,例如列表、字典等。最后,我们可以将获取到的企业信息保存到本地文件或进行进一步的数据处理和分析。 在实际应用中,为了提高爬取的效率和稳定性,我们还可以使用多线程或异步IO的方式进行爬取,以便同时处理多个网页的请求和解析。此外,为了避免被企查查网站的反爬虫机制屏蔽,我们还可以设置合适的请求头信息、使用代理服务器等手段。 总之,Python爬取企查查信息是一项非常有用的技术,它可以帮助我们获取企业的相关数据,为实际工作和研究提供便利。通过合理使用网络爬虫技术,我们可以更高效地获取到大量的企业信息,为商业决策和市场研究提供支持。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值