python简易爬虫制作

编译环境:pycharm 4.5.3

python版本:3.5.1

首先从pycharm库中下载并安装BeautifulSoup4,lxml,requests,time插件


以KnewOne为例:

from bs4 import BeautifulSoup
import requests
import time

url='https://knewone.com/things'  
web_data=requests.get(url)  #利用requests访问网页
soup=BeautifulSoup(web_data.text,'lxml') #解析网页
titles=soup.select(' section.content > h4 > a ') #网页元素定位
imgs=soup.select('a.cover-inner > img')
for title,img in zip(titles,imgs):    #少部分数据可以先用字典封装,大数据再考虑用数据库
    data={
        'title':title.get_text(),
        'img':img.get('src'),
    }
    print(data)
 
此外,发现KnewOne的“产品”页面为一个异步加载网页,那么,如何爬取一页所有的信息呢?
def get_info(url,data=None):
    web_data=requests.get(url)
    soup=BeautifulSoup(web_data.text,'lxml')
    titles=soup.select(' section.content > h4 > a ')
    imgs=soup.select('a.cover-inner > img')

    if(data==None):
        for title,img in zip(titles,imgs):
            data={
                'title':title.get_text(),
                'img':img.get('src'),
            }
            print(data)

def get_mor_pages(start,end):
    for one in range(start,end):
        get_info(url+str(one))


  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值