python爬虫 同花顺_网络爬虫页面解析的疑问?同花顺-问财

尝试使用Python爬虫抓取同花顺网站关于汽车的搜索结果,但发现网址在复制后发生变化,导致无法成功抓取数据。已尝试的代码可以正常工作于京东网站,但在同花顺网站上遇到问题,只返回了部分信息。分析可能与动态加载或反爬策略有关。
摘要由CSDN通过智能技术生成

http://stock.10jqka.com.cn/company.shtml

搜了下汽车

25条信息

直接用爬虫爬这个网址,http://www.iwencai.com/stockpick/search?ts=1&f=1&qs=ops_ths_data&tid=stockpick&w=%E6%B1%BD%E8%BD%A6

一复制网址就变了。

http://www.iwencai.com/stockpick/search?ts=1&f=1&qs=ops_ths_data&tid=stockpick&w=%E6%B1%BD%E8%BD%A6

网址也是对的,为抓取不到。大家可以试下。

我用来抓京东的代码。

#!/usr/bin/python

# -*- coding: UTF-8 -*-

import requests

from bs4 import BeautifulSoup

from lxml import etree

rul = 'http://www.iwencai.com/stockpick/search?ts=1&f=1&qs=ops_ths_data&tid=stockpick&w=%E6%B1%BD%E8%BD%A6'

headers = {

'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.80 Safari/537.36'

}

html.encoding = 'utf-8'

html = requests.get(rul)

soup = BeautifulSoup(html.text,'html.parser')

print(soup)

#name=soup.select('.cate_menu_item')

#for i in name:

#a=i.select('a')[0].text

#print(a)

#print(html.text)

#soup = etree.HTML(html.text)

#con_list = soup.xpath('.//*[@id="tableWrap"]/div[2]/div/div[2]/div/table/tbody/tr/td[4]/div')

#for i in con_list:

#name=i.xpath('/a/text()')

#name

一抓只抓出来个这个

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值