python爬虫另辟蹊径绕过企查查的登录验证,我太冇财了

本文介绍如何使用Selenium和Python实现企查查网站的自动化登录过程,通过微博账号授权登录绕过滑块验证,成功获取并打印腾讯公司详细信息,包括名称、注册资本、成立日期、邮箱及电话等。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

从企查查爬取企业信息,如果没有登录直接检索,邮箱、电话都被隐藏了

 

点击详情,部分信息同样会被隐藏

 

 

毕竟只是打工的,没钱不能任性!

想要查看更完整的企业信息,只有登录了。

 

但登录需要滑块验证,有时可能还会有图片验证码

 

 

但我干不过他们,老大不提供资金支持,那就只能另辟蹊径了。

突然看到右下角有三小只,不禁有点想法了

是不是可以通过授权的形式进行登录呢,那就开始吧

 

 

那就拿三小只试试:

 

首先通过微博登录,将该绑定的绑定,该授权的授权,避免登录后让验证

(微博授权 + 手机号绑定 + 竟然还让关注了公众号)

 

账号准备完毕,上代码


from selenium import webdriver
import time
import xlwt
import sys
import imp
imp.reload(sys)

# 伪装成浏览器,防止被识破
option = webdriver.ChromeOptions()
option.add_argument(
    '--user-agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.146 Safari/537.36"')
driver = webdriver.Chrome(chrome_options=option)

# 打开登录页面
driver.get('https://www.qichacha.com/user_login')

# 单击用户名密码登录的标签
tag = driver.find_element_by_xpath('//*[@id="normalLogin"]')
tag.click()

tag = driver.find_element_by_xpath('//*[@class="btn-weibo m-l-xs"]')
tag.click()

# 将用户名、密码注入
driver.find_element_by_id('userId').send_keys('微博账号')
driver.find_element_by_id('passwd').send_keys('微博密码')
time.sleep(3)  # 休眠,人工完成验证步骤,等待程序单击“登录”

# 单击登录按钮
btn = driver.find_element_by_xpath('//*[@id="outer"]/div/div[2]/form/div/div[2]/div/p/a[1]')
btn.click()
time.sleep(10)

# inc_list = ['阿里巴巴', '腾讯', '今日头条', '滴滴', '美团']
# inc_len = len(inc_list)

driver.find_element_by_id('searchkey').send_keys("腾讯")
# 单击搜索按钮
srh_btn = driver.find_element_by_xpath('//*[@id="indexSearchForm"]/div/span/input')
srh_btn.click()


# 获取首个企业文本
inc_full = driver.find_element_by_xpath('//*[@id="search-result"]/tr[1]/td[3]/a').text
print(inc_full)
money = driver.find_element_by_xpath('//*[@id="search-result"]/tr[1]/td[3]/p[1]/span[1]').text
print(money)
date = driver.find_element_by_xpath('//*[@id="search-result"]/tr[1]/td[3]/p[1]/span[2]').text
print(date)
mail_phone = driver.find_element_by_xpath('//*[@id="search-result"]/tr[1]/td[3]/p[2]').text
print(mail_phone)
addr = driver.find_element_by_xpath('//*[@id="search-result"]/tr[1]/td[3]/p[3]').text
print(addr)
try:
    stock_or_others = driver.find_element_by_xpath('//*[@id="search-result"]/tr[1]/td[3]/p[4]').text
    print(stock_or_others)
except:
    pass

# 获取网页地址,进入
inner = driver.find_element_by_xpath('//*[@id="search-result"]/tr[1]/td[3]/a').get_attribute("href")
driver.get(inner)

# 单击进入后 官网 通过href属性获得:
inc_web = driver.find_element_by_xpath(
    '//*[@id="company-top"]/div[2]/div[2]/div[3]/div[1]/span[3]/a').get_attribute("href")
print("官网:" + inc_web)
print(' ')

driver.close()
信息获取完整,ok

 

### 如何用爬虫抓取爱查数据 #### 数据源的选择 爱查是一个提供业信息查询服务的平台,类似于天眼查。通过该网站可以获取业的基本信息、股东结构以及务状况等内容[^1]。 #### 技术准备 为了实现对爱查的数据采集,需要掌握以下几个方面的技术: - **HTTP请求库**:`requests` 或 `httpx` 是常用的 Python 库用于发送网络请求。 - **解析HTML文档**:`BeautifulSoup` 和 `lxml` 可以帮助提取网页中的特定内容。 - **处理JavaScript渲染页面**:如果目标页面由 JavaScript 动态加载,则可能需要用到 Selenium 或 Playwright 来模拟浏览器行为。 以下是基于静态 HTML 页面的一个简单例子: ```python import requests from bs4 import BeautifulSoup def fetch_aqicha_data(keyword): url = f"https://www.aqichacha.com/search?key={keyword}" headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)', 'Accept-Language': 'en-US,en;q=0.9' } response = requests.get(url, headers=headers) soup = BeautifulSoup(response.text, "html.parser") results = [] for item in soup.select('.m_srchList .cvlu'): company_name = item.find('a').text.strip() link = item.find('a')['href'] address = item.find_all('p')[1].get_text(strip=True) data = { "company_name": company_name, "link": link, "address": address } results.append(data) return results data = fetch_aqicha_data("教育") print(data[:3]) ``` 上述脚本仅适用于公开可访问的内容。对于需登录才能查看的部分,还需要额外考虑身份验证机制[^2]。 #### 登录与授权 当遇到受保护资源时,通常有两种方式解决: 1. 使用账号密码直接POST表单提交; 2. 如果支持OAuth或其他第三方认证协议,则按照其流程操作。 具体到爱查上,由于它也提供了类似的短信验证码快速注册功能,因此可以通过自动化手段完成这一过程。不过需要注意的是频繁尝试可能会触发反爬策略,比如IP封禁或者增加CAPTCHA校验等措施[^3]。 #### 遵守法律及道德规范 最后提醒一点,在实际应用过程中一定要注意遵守相关法律法规以及目标站点的服务条款。未经授权的大规模复制传播他人资料属于违法行为!
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

阿三先生

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值