链家BeautifulSoup4爬取房源信息

from bs4 import BeautifulSoup
import pymysql
import requests

# 数据库存储
class Mysql_save(object):
    def __init__(self):
        self.db = pymysql.connect(host='127.0.0.1',user='root',password='123456',database='py10',port=3306,charset='utf8')
        self.cursor = self.db.cursor()
    def exectute_modify_sql(self,sql,data):
        self.cursor.execute(sql,data)
        self.db.commit()
    def __del__(self):
        self.db.cursor()
        self.db.close()
conn = Mysql_save()
sql = 'insert into lianjia_info(title,address,flood,followinfo) values (%s,%s,%s,%s)'

url = 'https://bj.lianjia.com/ershoufang'
response = requests.get(url)
# with open('lianjia.html','wb') as f:
#     f.write(response.content)
soup = BeautifulSoup(response.text,'lxml')
# ul_tag = soup.find('ul', class_="sellListContent")
li_tags = soup.find_all('li' ,class_="clear LOGCLICKDATA")

for li_tag in li_tags:
    title = li_tag.select('div.title > a')[0].text
    # print(title)
    address = li_tag.select('div.address')[0].text
    # print(address)
    flood = li_tag.select('div.positionInfo')[0].text
    # print(flood)
    followinfo = li_tag.select('div.followInfo')[0].text
    # print(followinfo)
    data = (title,address,flood,followinfo)
    conn.exectute_modify_sql(sql,data)
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值