div 中id和class使用讲解

在div 标签中,我们比较常见的属性是id 和class,那么这两个属性有什么区别吗?今天就来看看这两者的区别。其实id 和class是大部分标签都有的属性。其作用是让CSS或者JavaScript找到DOM元素并操作。

首先看看这两个属性在html中是如何使用的。
1.<div id="loading"> </div>
2.<div class="icon"> </div>

解释上面的代码,

id=“loading”,意思是定义了一个id,它的值是“loading”;

class=“icon” 意思是定义了一个类,它的类名是“icon”;
PS: “loading”和“icon”的是自定义的值,命名规范都要遵守相应的命名规则,这个请自行查阅。
那么这两个属性是使用的时候有什么区别吗?什么时候用id?什么时候用class呢?请看下文。
1.定义区别。
(1).id具有唯一性,在一个网页中只能定义一次;
(2).class命名的类,可以出现多次。
2.使用区别。
(1).id在CSS中是以“#”开头的命名的;
(2).class在css中是以“.”开头命名的;
PS:
1.一般来说,id是元素的唯一代号,给某个元素赋予一个id后,通常不会再有其他元素有一样的id。CSS和JavaScript可以使用id来单独操作某一个元素;而class是一组(多于一个)元素的共同代号,通常网页中会有一组元素具有一样的class。CSS和JavaScript中对某个class的操作会反映到每一个对应的元素上。
2.ID是一个标签,用于区分不同的结构和内容,就象名字,如果一个屋子有2个人同名,就会出现混淆;class是一个样式,可以套在任何结构和内容上,就象一件衣服;
从概念上说就是不一样的:id是先找到结构/内容,再给它定义样式;class是先定义好一种样式,再套给多个结构/内容。

————————————————
版权声明:本文为CSDN博主「程序员七哥」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/zxw136511485/article/details/71191053

  • 14
    点赞
  • 75
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Scrapy 是一个用于爬取网站数据并提取结构化数据的 Python 框架。下面我将向你介绍如何使用 Scrapy 爬取京东商品信息。 1. 创建 Scrapy 项目 首先,我们需要在终端使用以下命令创建一个新的 Scrapy 项目: ``` scrapy startproject jd_spider ``` 该命令会创建一个名为 jd_spider 的目录,其包含 Scrapy 项目的基本结构。 2. 定义数据模型 接下来,我们需要定义一个数据模型来存储爬取到的数据。在 jd_spider 目录下,我们创建一个名为 items.py 的文件,并在其定义一个 Item 类,用于存储商品信息。例如: ``` import scrapy class ProductItem(scrapy.Item): name = scrapy.Field() price = scrapy.Field() image_urls = scrapy.Field() images = scrapy.Field() ``` 该类定义了商品的名称、价格、图片 URL 和图片数据的字段。这些字段将在后面的爬虫使用。 3. 编写爬虫 在 Scrapy ,爬虫是一个 Spider 类的子类,用于定义如何爬取和解析网页。在 jd_spider 目录下,我们创建一个名为 jd_spider.py 的文件,并在其定义一个名为 JDSpider 的 Spider 类。例如: ``` import scrapy from jd_spider.items import ProductItem class JDSpider(scrapy.Spider): name = "jd" allowed_domains = ["jd.com"] start_urls = [ "https://search.jd.com/Search?keyword=python&enc=utf-8&suggest=2.def.0.V16&wq=python&pvid=d9c6d0cae4f94d9dbd62a3a30f8b5b27" ] def parse(self, response): products = response.xpath('//div[@id="J_goodsList"]/ul/li') for product in products: item = ProductItem() item['name'] = product.xpath('div/div[@class="p-name"]/a/em/text()').extract_first().strip() item['price'] = product.xpath('div/div[@class="p-price"]/strong/i/text()').extract_first() item['image_urls'] = [product.xpath('div/div[@class="p-img"]/a/img/@data-lazy-img').extract_first()] yield item ``` 该类定义了爬虫的名称、允许的域名和起始 URL。在 parse 方法,我们使用 XPath 表达式提取商品信息,并生成 ProductItem 对象并 yield 出去。 4. 启动爬虫 在终端切换到 jd_spider 目录,并使用以下命令启动爬虫: ``` scrapy crawl jd -o products.csv ``` 该命令会启动 jd 爬虫,并将爬取到的数据保存到名为 products.csv 的 CSV 文件。 以上就是使用 Scrapy 爬取京东商品信息的基本步骤。当然,还有很多高级功能可以帮助我们更好地爬取和处理数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值