本地浏览器存储分类

一、localStorage

localStorage为HTML5新增特性,主要用于浏览器本地存储数据使用,存储上限5M左右

1、 存储大小:上限5M左右
2、 类型:只能存储字符串格式的数据
3、 时间范围:永久性存储,只能手动删除
4、 适用范围:①存储Token
5、 使用方法:getItem\setItem

①字符串/数字

//这里方法为官方推荐用法
//存储  为键值对形式 
localStorage.setItem("a","123"); 
//读取  
var result= storage.getItem("a")
console.log(result);
//打印结果
123

②数组

//这里方法为官方推荐用法
//存储  为键值对形式 
var k=[1,2,3,4,5]
localStorage.setItem("b",k); 
//读取  
var result= storage.getItem("b")
console.log(result);
//打印结果
1,2,3,4,5

无法存储格式:对象:{ },数组对象:[{ },{ }]

二、Cookies

1、 存储大小:上限几十kb左右
2、 类型:只能存储字符串格式的数据
3、 时间范围:可以设置时效期,也能手动删除,还能设置适用路径网页
4、 适用范围:①用户账号密码
5、 使用方法:Cookies.set与Cookies.get和Cookies.remove

安装插件使用更方便
①安装插件

$ npm i js-cookie

②引入使用(不需要注册) 那里使用引用到哪里

import Cookies from 'js-cookie'

③使用方法

创建一个在整个网站上有效的 cookie:

Cookies.set('name', 'value')

创建一个从现在起 7 天后过期的 cookie,在整个站点中有效:

Cookies.set('name', 'value', { expires: 7 })

创建一个过期cookie,对当前页面的路径有效:

Cookies.set('name', 'value', { expires: 7, path: '' })

读取 cookie:

Cookies.get('name') // => 'value'
Cookies.get('nothing') // => undefined

阅读所有可见的 cookie:

Cookies.get() // => { name: 'value' }

注意:无法通过传递其中一个 cookie 属性(在写入相关 cookie 时可能会或可能不会使用)来读取特定 cookie:

Cookies.get('foo', { domain: 'sub.example.com' }) // `domain` won't have any effect...!
foo仅.get()当从调用代码的位置可见时,具有该名称的 cookie才可用;阅读时域和/或路径属性将不起作用。

删除 cookie:

Cookies.remove('name')

删除一个对当前页面路径有效的cookie:

Cookies.set('name', 'value', { path: '' })
Cookies.remove('name') // fail!
Cookies.remove('name', { path: '' }) // removed!

重要的!删除 cookie 并且您不依赖默认属性时,您必须传递用于设置 cookie 的完全相同的路径和域属性:

Cookies.remove('name', { path: '', domain: '.yourdomain.com' })

注意:删除不存在的 cookie 既不会引发任何异常,也不会返回任何值。

更多移步官网:https://github.com/js-cookie/js-cookie

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,这是一个比较复杂的问题,需要分几个步骤来实现,我会尽可能详细地讲解。首先,我们需要用 Python 编写爬虫程序,以下是一个简单的爬取贝壳网宁波房屋出售信息的示例代码: ```python import requests from bs4 import BeautifulSoup import sqlite3 # 创建 SQLite 数据库连接 conn = sqlite3.connect('beike.db') cursor = conn.cursor() # 创建数据表 cursor.execute('''CREATE TABLE IF NOT EXISTS house (id INTEGER PRIMARY KEY AUTOINCREMENT, title TEXT, link TEXT, price TEXT, area TEXT, address TEXT)''') # 爬取宁波市的房屋出售信息 url = 'https://nb.ke.com/ershoufang/' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 Edge/16.16299' } response = requests.get(url, headers=headers) soup = BeautifulSoup(response.text, 'html.parser') # 解析房屋信息 house_list = soup.find_all('div', class_='info') for house in house_list: title = house.find('a', class_='title').text.strip() link = 'https://nb.ke.com' + house.find('a', class_='title')['href'] price = house.find('div', class_='price').text.strip() area = house.find('div', class_='houseInfo').text.split('|')[1].strip() address = house.find('div', class_='houseInfo').text.split('|')[0].strip() # 插入数据到数据库中 cursor.execute("INSERT INTO house (title, link, price, area, address) VALUES (?, ?, ?, ?, ?)", (title, link, price, area, address)) # 提交事务并关闭数据库连接 conn.commit() cursor.close() conn.close() ``` 这段代码使用 requests 库发起 HTTP 请求,使用 BeautifulSoup 库解析 HTML 页面,提取出房屋的标题、链接、价格、面积和地址信息,并插入到 SQLite 数据库中。 需要注意的是,网站的 HTML 结构可能会随时变化,所以代码需要根据实际情况进行调整。此外,为了避免被网站屏蔽,我们需要加上 User-Agent 头信息,模拟浏览器的访问。 另外,为了避免重复爬取数据,我们可以在数据库中添加一个唯一键,比如链接,然后在插入数据之前先查询数据库中是否已经存在该链接的数据,如果已经存在,则不再插入。 希望这个示例代码能够帮助你完成爬取贝壳网宁波房屋出售信息的任务。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值