selenium使用cookie登录淘宝

import time
from selenium import webdriver
from selenium.webdriver.chrome.service import Service
from selenium.webdriver.common.by import By
from tqdm import tqdm

Options = webdriver.ChromeOptions()
Options.add_experimental_option('detach', True)

borser = webdriver.Chrome(service=Service(executable_path='./chromedriver.exe'), options=Options)
URL = 'http://www.taobao.com'
borser.get(url=URL)
time.sleep(3)

with open(r'./cookies.txt', 'r', encoding='utf-8') as file:
    cookie_file = file.read()
cookies = eval(cookie_file)
# print(cookies)

"""
cookie具有时效性,失效了就重新爬取
"""
for i in cookies:
    borser.add_cookie(i)
borser.refresh()

goods = input("请输入商品名:")
borser.find_element(By.CSS_SELECTOR, '#q').send_keys(goods)

# 这个click可以成功,是因为没有遮挡物
borser.find_element(
    By.CSS_SELECTOR, '#J_TSearchForm > div.search-button > button').click()

# 瀑布式加载:网速不好时,页面显示商品不全,爬虫获取到的信息就会有缺失
# 未显示在窗口的先不加载,实现页面的滚动,
y = 0
while True:
    y += 500
    borser.execute_script(f'window.scrollTo(0, {y})')
    time.sleep(1) # 防止被检测到是爬虫
    if y > 6000:
        break


"""
若构造不出翻页链接,可以使用selenium点击下一页
"""

for page in range(1, 11):
    URL = f'https://s.taobao.com/search?commend=all&ie=utf8&initiative_id=tbindexz_20170306&localImgKey=&page={page}&q=%E6%89%8B%E6%9C%BA&search_type=item&sourceId=tb.index&spm=a21bo.jianhua%2Fa.201856.d13&ssid=s5-e&tab=all'
    borser.get(url=URL)
    time.sleep(5)
    name_list = borser.find_elements(By.CSS_SELECTOR, '#pageContent > div.LeftLay--leftWrap--xBQipVc > div.LeftLay--leftContent--AMmPNfB > div.Content--content--sgSCZ12 > div > div')
    for i in name_list:
        name = i.find_element(By.CSS_SELECTOR, 'div > a > div > div.ShopInfo--shopInfo--ORFs6rK > div.ShopInfo--TextAndPic--yH0AZfx > a').text
        print(name)
    print(f"这是第{page}次")

# borser.quit()

  • 5
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
首先需要了解得物网站的数据结构和爬取方式,得物网站比较复杂,需要使用Selenium+BeautifulSoup进行爬取。 以下是一个简单的得物爬虫Python代码实现(注:仅供学习参考,请勿用于商业用途): ```python import time from selenium import webdriver from selenium.webdriver.chrome.options import Options from bs4 import BeautifulSoup options = Options() options.add_argument('--no-sandbox') # 解决DevToolsActivePort文件不存在报错的问题 options.add_argument('window-size=1920x3000') # 指定浏览器分辨率 options.add_argument('--disable-gpu') # 谷歌文档提到需要加上这个属性来规避bug options.add_argument('--hide-scrollbars') # 隐藏滚动条, 应对一些特殊页面 options.add_argument('blink-settings=imagesEnabled=false') # 不加载图片, 提升速度 options.add_argument('--headless') # 无界面 driver = webdriver.Chrome(options=options) url = 'https://www.dewu.com/' driver.get(url) # 等待页面加载完成 time.sleep(3) # 模拟鼠标点击,展开商品列表 driver.find_element_by_xpath('//div[text()="全部商品"]').click() # 等待页面加载完成 time.sleep(3) # 获取页面源代码 html = driver.page_source # 解析页面 soup = BeautifulSoup(html, 'html.parser') # 获取商品列表 items = soup.find_all('div', {'class': 'item-card'}) for item in items: # 获取商品标题 title = item.find('div', {'class': 'title'}).text.strip() # 获取商品价格 price = item.find('div', {'class': 'price'}).text.strip() # 获取商品链接 link = item.find('a', {'class': 'item-link'})['href'] print(title, price, link) # 关闭浏览器 driver.quit() ``` 这里的代码仅仅是一个简单的爬虫示例,如果想要更加深入地了解得物网站的数据结构和爬取方式,需要结合具体的需求进行更加详细的分析和实现。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值