高性能网站建设指南总结

高性能网站建设指南总结

本文根据《高性能网站建设指南》一书进行总结,加上自己的理解和新的知识点进行补充添加。

规则1——减少HTTP请求

只有10%到20%的最终用户响应时间花在接收请求的HTML文档上面。剩下80%到90%的 时间花在为HTML文档所引用的所有组件(图片,脚本,flash,样式表等)进行的HTTP请求上。因此改善响应的最简单途径就是减少组件数量,由此减少HTTP请求的数量。

图片地图

使用map标签进行坐标定位,减少图片数量。导航栏中使用了多个图片时候可以使用。
缺点很多:手工方式很难完成坐标定位,且容易出错。除了矩形之外也难以定义其他形状,通过DHTML定义的图片IE中还无法工作。不建议使用。

CSS Sprites (雪碧图/精灵图)

通过把多个图片合并到一个图片,然后利用background-position进行定位,比使用分离图片快50%。图片地图中的图片必须是连续的,而CSS Sprites则没有这个限制。也有人认为合并后的图片比分离的图片总和还要大,合并后的图片包含附加的空白区域。实际是变小的,雪碧图降低了图片自身的开销。(颜色表,格式信息,等等)
如果页面中背景,按钮,导航栏,链接需要使用很多图片,可以使用。优点——干净的标签,很少的图片和很短的响应时间。

缺点:后期修改麻烦,难以维护,牵一发动全身,没有之前改一个图片就好了容易

雪碧图制作方法:
1. 百度搜索CSS Sprites 可找到相应制作软件软件下载地址
2. gulp等自动化工具,自动合成
3. ps自己制作

内联图片

使用 data:URL的模式在WEB页面中包含图片,但无需任何额外的HTTP请求。我们都熟悉http:模式的URL。其他类似模式包括ftp:,file:和maito:

data:url模式

在1995年提出来:允许将小数据块内联为立即数,数据就在url自身中。

什么是内联图片

内联图片是一种新型的图像格式(在我看来是这样不知道理解对否),官方称为:data URI scheme。通常我们存储的图片在网页中需要写:

  <img src="http://blog.xmaoseo.com/images/xmaoseo.jpg"/>

而内联图片写法会是

<img src="data:image/png;base64,iVAGRw0KGDCFGNSUhEUgACBBQAVGADCAIATYJ7ljmRGGAAGElEVQQIW2P4DwcMDAxAfBvMAhEQMYgcACEHG8ELxtbPACCCTElFTEVBQmGA"/>
内联图片语法
  <img src="data:image/png;base64,iVBOR....>
  1. data - 取得数据的协定名称

  2. image/png - 数据类型名称

  3. base64 - 数据的编码方法

  4. iUANR…. - 编码后的数据

  5. : , ; - data URI scheme 指定的分隔符号

这种图片格式无需额外的HTTP请求是不错,但是还有一个重要的一点,浏览器不会缓存这种图像。data url节省了HTTP请求,但是如果这个图像在网页多个地方显示会加大网页的内容,延长下载时间。还有一点IE8以下都不支持这种图像,所以还是IE6的用户就比较悲催了。并且超过100kb图像使用base64编码也会增大图片大小。导致网页整体下载量增加。 (BASE64编码图片导致网站浏览缓慢崩溃http://blog.xmaoseo.com/125.html) 但是很多聪明人做法是把背景平铺类图片作为内联图片使用,这样效果很不错。也减少了HTTP请求加快了网站速度。那么你可能会问到如何获取图片的base64编码呢。网络上有很多免费的base编码和解码工具,但是有个最简单方法就是我们写一个PHP文件。使用base64_encode()进行编码:比如:

echo base64_encode(file_get_contents('211-11.JPG'));

如何解决网页下载延迟问题。最简单一个方法就是用写成CSS里的背景去调用CLASS 类名就可以了。比如咱们用上面的例子:

.blogxmao{background:url(data:image/png;base64,iVAGRw0KGDCFGNSUhEUgACBBQAVGADCAIATYJ7ljmRGGAAGElEVQQIW2P4DwcMDAxAfBvMAhEQMYgcACEHG8ELxtbPACCCTElFTEVBQmGA")}
<div>..内容...</div><div>..内容...</div>

合并脚本和样式表

根据模块化原则, 我们应该将代码放到多个小文件中,但是这样会降低性能,因为每个文件都会导致一个额外的http请求。理想情况,一个页面不应该使用多余一个的脚本和样式表。世界前十网站脚本和样式表一般不超过2个。
使用模块化工具,比如seajs,requirejs进行优化。不然随着文件的增多,手动合并将会很麻烦。

规则2——使用内容分发网络 CDN

内容分发网络(conten delivery network)是一组分布在多个不同地理位置的Web服务器。可以使用CDN服务提供商。

CDN优点:

缩短相应时间,备份扩展存储能力和进行缓存,缓和WEB流量峰值压力(获取天气,娱乐体育新闻等等)

CDN缺点:

你的响应时间会受到其他网站——甚至是竞争对手的流量的影响。无法控制组件服务器所带来的特殊麻烦。比如,修改HHTP表头必须由服务提供商来完成。

如果CDN服务性能下降了,你的工作也会受到影响。当然你可以使用两个CDN服务提供商。

CDN用于发布静态图片(将所有静态组件转移到CDN),图片,脚本样式表,Flash,静态文件更易存储,有较少的依赖性。

规则3——添加Expires头

Web页面包含大量组件,首次访问时间并不是唯一需要考虑的,页面的初访者会进行很多HTTP请求,但是可以使用一个长久的Expires头,使得这些组件被缓存

Expires头

长久的expires经常用于图片,然而可以用于所有组件,很多顶级网站并没有做到这一点,因为添加长久的ecpires头会带来额外的开发成本。

Expires:Mon,15 Apr 2025 00:00:00 GMT

它会告诉浏览器该响应的有效性会持续到2025年。

Max-Age 和mod_expires

因为expires使用一个特定的时间,要求客户端和服务器端时钟严格同步,过期日期需要检查,还要配置新的日期,所以使用麻烦。HTTP1.1引入了Cache-Control头来克服它的限制。Cache-Control使用max-age指令来指定组件被缓存多久。以秒为单位定义了一个更 新窗。
对于不支持HTTP1.1的浏览器,你可以同时指定两个响应头——Expiresmax-age.如果两者同时出现,后者将会重写前者。如果你很尽责,你仍然会担心Expires过期问题以及时钟同步问题。

幸运的是,mod_expires使你通过ExpirsDefault指令以相对方式设置日期。

 ExpirsDefault 'access plus 10 years'

时间可以设置为年月日时分秒。它同时向响应中发送Expires头和max-age头。实际过期日期根据何时得到请求而变,但是max-age有优先权。时钟同步问题和固定日期更新不用担心了。

跨浏览器改善缓存最佳方案就是使用 ExpirsDefault设置的Expires.

空缓存vs完整缓存

用户第一次访问你的网站它不会对HTTP的请求的数量产生任何影响。此时浏览器的缓存是空的。性能改进取决于是否有完整缓存。

在那些每日一次一更新的网站,带有完整缓存的页面浏览百分比很少。
旅游网站,email网站中每个用户会话可能产生多次页面浏览,百分比就高。

只要用户每个月至少访问一次,或者每次会话产生多次页面浏览,完整缓存就很有用,使用长久Expires就很有必要。

不仅仅是图片

脚本,样式表,flash都可以缓存,但是HTML文档不应该使用,因为包含动态内容,每次都要更新。
大型网站,图片,样式表,脚本大部分都要缓存30天以上。但是经常需要变化的新闻图片等等,不应该使用。我们可以查看Last-Modifed中的值来看改变时间以及频率。

修订文件名

使用长久的Expires缺点是 :浏览器不会检查任何更新,直到过了过期日期。即使在服务器上更新了组件,浏览器因为缓存也不能获得最新组件。

为了确保用户能获得更新过的组件,需要在所有HTML页面中修改组件的文件名。

最有效的解决方案是修改其所有链接,这样。全新的请求将从原始服务器下载最新的内容。

使用php等动态语言生成HTML页将很简单,为所有组件的文件名使用变量,使用这种方法,在页面中更新文件名只需要简单地在某个地方修改变量。Yahoo经常将这一步作为生成过程的一部分——版本号嵌入在组件的文件名中(例如yahoo_2.0.6.js),而且在全局映射中修订过的文件名会自动更新。嵌入版本号不仅可以改变文件名,还能在调试中更容易找到准确的源代码文件。

规则4——压缩组件

规则1–3都是限制不必要的HTTP请求来减少响应时间,现在我们通过减少响应大小来减少响应时间。

压缩是如何工作的

用于减小文件体积的文件压缩已经在email应用和ftp站点中使用了十年,同样的技术也可以用于向浏览器发布压缩的web页面。

从HTTP1.1开始,web客户端可以通过请求中的Accept-Encoding头来表示对文件压缩的支持。


————>
Accept-Encoding:gzip

如果web服务器看到请求中有这个头,就会使用客户端列出来的方法中的一种来压缩响应。并通过响应中的Content-Ecoding来通知客户端。

<————
Content-Ecoding:gzip

gzip是目前最有效,最流行的压缩方法,免费模式,并被标准化为RFC 1952.(90%使用)

压缩什么

很多网站会压缩HTML文档,压缩脚本和样式表也是非常值得的,还包括XML和JSON在内的任何文本响应。图片PDF不应该解压缩,因为已经被压缩了。再压缩只会浪费CPU资源,还有可能会增加文件大小。

压缩的成本:服务器会花费额外的CPU周期来完成压缩,客户端要对压缩文件进行解压缩。要检测受益是否大于开销,需要考虑响应的大小,连接的带宽和和客户端服务器之间的Internet距离。

根据经验,通常对大于1KB或2KB的文件进行压缩。mod_gzip_minimum_file_size指令控制着希望压缩文件的最小值,默认值是500B。

美国十大流行网站中9个压缩了html,七个压缩了大多数脚本和样式表,只要五个压缩了所有脚本和样式表。这可以将页面减少70%。

节省

压缩之后能将响应整体减少60%左右

配置

配置gzip时使用的模块取决于Apache(intert上最流行的web服务器,份额70%以上)的版本。Apache1.3使用mod_gzip,2.3使用mod_deflate.

具体配置详情如何压缩,压缩哪些文件,压缩程度,类型(可使用正则匹配)可搜索mod_gzip的网站参考。

规则5——将样式表放在顶部

使用link标签将样式表放在文档head中

白屏

将css放在底部的时候(有观点觉得DHTML特性东西在最后展现,所以会把css放在底部觉得更优化。)实则不然,这样容易发生白屏和无样式内容的闪烁。

DHTML不是 W3C 标准
DHTML 指动态 HTML(Dynamic HTML)。
DHTML 是一个营销术语 - 被网景公司(Netscape)和微软公司用来描述 4.x 代浏览器应当支持的新技术。
DHTML 是一种用来创建动态站点的技术组合物。
对大多数人来说,DHTML 意味着 HTML 4.0、样式表以及 JavaScript 的结合物。
W3C 曾讲过:“动态HTML是一个被某些厂商用来描述可使文档动态性更强的HTML、样式表以及脚本的结合物的术语。”

比如一些打字机效果文字,闪烁文字,遮罩滤镜等等。

白屏容易产生的地方,特别是在IE中:
1. 新窗口中打开时
2. 重新加载时
3. 作为主页(打开新的浏览器窗口)

无样式内容的闪烁FOUC

FOUC flash of unstyles content 产生原因是没有吧样式表放在head顶部,或者使用了@import导入(即便放在前面了,样式表还是会最后下载)

所以避免无样式内容闪烁最好方法就是使用link标签将其放在head顶部

规则6——将脚本放在底部

脚本放在顶部会阻塞后面内容的呈现和组件的下载。进而产生白屏现象。
放在底部将会产生最小影响和最佳效应。

规则7——避免css表达式

css表达式 expression方法被其他浏览器忽略,IE支持,这种方法虽然强大但是非常危险。

表达式求之的频率远高于人们的期望,不仅在页面呈现和大小改变时求值,鼠标拖拽,页面滚动时候都会求值。所以要避开css表达式,用事件处理器来为特定的事件提供所期望的动态行为。

规则8—— 使用外部的js和css

**内联VS外置**
单纯比较而言,内联在第一次加载时要快一点,因为内联只有一个http请求。
但是多方面考虑还是要用外置。
内联无法缓存,外置可以缓存,而且当你页面使用了相同的js和css时候,可以组件重用,缓存优势更明显。

最重要的是,外置可以降低耦合度,调试更加方便~~~

规则9——减少DNS查找

Internet通过IP地址查找服务器,浏览器查找一个给定主机名的IP地址要花费20—120毫秒,也是有开销的,充当这个角色的就是DNS(domain name system)

如何减少DNS查找

使用较少的域名,谷歌只有一个,因为只有两个组件,可以一次并行下载完,两个主机是最好的,平衡并行下载和DNS查询。
在HTTP请求中使用 Connection:keep-alive 来保持持久连接。早期HTTP请求中。每个请求都要打开一个socket连接,因为页面中很多请求收拾指向同一个服务器,所以这样效率很低。持久连接的引入使得浏览器可以在一个单独的连接上进行多个请求。

HTTP1.1中定义的管道可以在一个单独的socket上发送多个请求而无需等待响应,而且性能优于持久连接。

规则10——精简javascript

精简

精简是从代码中移除不必要的字符以减小其大小。进而改善加载时间的实践。

代码精简之后所有的注释以及不必要的空白字符(空格,换行,制表符),可以减小20%。

混淆

混淆是可以应用在源代码上的另外一种优化方式,和精简一样,也会移除注释和空白,作为改写的一部分,函数和变量的名字将被转换为更短的字符串。

这样的代码更加精炼,但是更难阅读。通常这样做是为了增加对代码进行反向工程的难度,但对提高性能也有帮助。

混淆js的三个缺点
1. 缺陷:混淆更加复杂,混淆过程本身很有可能引入错误。
2. 维护: 由于混淆会改变js符号,因此需要对任何不能改变的符号(例如API函数)进行标记,防止混淆修改他们。
3. 调试:很难阅读,调试更加困难。

精简从来不会带来问题,但是混淆会带来很多问题和缺陷。维护庞大的js建议使用精简而不是混淆。

实际经过gzip压缩之后,精简和混淆差别很小。

精简css

精简css带来的节省通常小于js,因为注释和空白比较少。最大的潜在节省来自于优化css——合并相同的类,移除不使用的类等。css依赖顺序的本质(成为层叠样式表的原因)决定了这是一个复杂的问题。这个领域还需要进一步的研究和工具开发。

通常解决方案有使用颜色缩写,用0代替0px。

规则11——避免重定向

重定向用于将用户从一个URL重新路由到另一个URL。重定向有很多种重。301和302是最常用的两种。

重定向的类型和内容

通常针对HTML文档进行重定向,但也可能用在请求页面中的组件(图片脚本)。

实现重定向有很多原因:
1. 网站重新设计
2. 跟踪流量
3. 记录广告点击
4. 建立易于记忆的URL

301和302是使用的最多的。

<————
HTTP1.1 301 Moved  permanetely
Location: http://www.baidu.com
Content-type:text/html

浏览器会自动将用户带到Location字段给出的URL。重定向所必需的信息都出现了。301和302不会被缓存,除非有附加头,如Expires和Cache-Control

将用户重定向到其他URL的方法
* HTML文档中的meta refresh 标签可以在其content属性所指定的秒数之后重定向用户

    <meta http-equiv="refresh" content="0;  url=http://www.baidu.com" >
  • js也可以执行重定向,documet.location设置为期望的url

如果你必须重定向,最好的技术是使用标准的3XX HTPP状态码,主要是为了确保后退按钮可以正常工作

HTML重定向小科普

页面定期刷新,如果加url的,则会重新定向到指定的网页,content后面跟的是时间(单位秒),把这句话加到指定网页的里。一般也用在实时性很强的应用中,需要定期刷新的,如新闻页面,论坛等,不过一般不会用这个,都用新的技术比如ajax等。

(题外话:由于我的markdown编辑器是小书匠——web写成的,下面代码没有引用的时候到账右面预览页面一直闪烁。吓了我一跳,这算bug么~有同样情况的记得加引用符号)
<meta http-equiv="refresh" content="0; url=">'

经过一段时间转到另外某个页面,这里0表示没有延时,直接跳转到后面的URL;把0改成1,则延时1秒后跳转。网页自动计时跳转。这个页面跳转的好处在于不需要JS调用,直接在html文件头里加入

<meta http-equiv="refresh[刷新-这里指定动作]" content="5[这里是时间];url=/article[这里是跳转的URL]">

重定向是如何损伤性能的

重定向时的第一个HTTP请求会阻塞后面html文档的加载,四个重定向请求就会将用户带到期望HTML文档的时间多花费一半。

重定向之外的其他选择

  1. 缺少结尾的斜线/:这是最为浪费和频繁的,也是web开发人员没注意的。没有/时会导致301响应,这是很多web服务器的默认行为,所以很简单,url后面加一个/
  2. 连接网站:将旧网站连接到新网站只是重定向这种常见应用的一种表现形式。重定向降低了开发的复杂性,但是也损害了用户体验。
  3. 跟踪内部流量:分析离开网页首页之后的流量去向。使用referer。难处在于只能分析内部,自己公司的,如果目标网站属于其他公司则不可能分析referer日志了。
  4. 跟踪出站流量:也不用重定向而是用信标(beacon)——一个hppt请求
  5. 美化URl: 使用重定向的另一种动机是使URL美观并且易于记忆。(这一节不太懂,有点乱,多)

规则12——删除重复脚本

这一节有点扯和凑数。简单网站手动查看排序依赖关系即可。现在大型网站需要使用grunt.webpack .seajs等前端自动化工具,处理依赖关系并进行打包,也就是模块化等高级,方便的知识。

规则13——配置ETag

实体标签(Entity Tag,ETag)是服务器和浏览器用于确认缓存组件有效性的一种机制。

服务器检测缓存组件和原始服务器组件匹配的方式

如果缓存组件过期了或者用户明确地重新加载了页面,浏览器在重用之前必须首先检查它是否有效。这称作一个条件GET请求。虽然浏览器必须产生这个http请求,但是仍比简单地下载所有已过期的组件效率高。如果浏览器组件是有效的(相互匹配)原始服务器则不会返回整个组件,而是返回304 not modifed状态码。

** 检测匹配有两种方式。

比较最新修改日期

  1. 第一次请求响应
————>
GET /i/xx.jpg HTTP 1.1
HOST www.xxx.com
<————
HTTP 1.1 20 OK
Last-Modified:true .12 dec 2015 03:03:09 GMT
Content-Length:1024
  1. 第二次请求响应
————>
GET /i/xx.jpg HTTP 1.1
HOST www.xxx.com
If-Modified-Since:True,12 dec 2015 03:03:09 GMT
<————
HTTP 1.1 304 not modifed

比较实体标签

实体是我们之前提到的组件的另一种称呼。ETag是唯一标识了一个组件的一个特定版本的字符串,必须带上引号。这种为验证实体提供了更为灵活的机制——可以根据user-agent,accept-language头而改变。
1. 第一次请求响应

————>
GET /i/xx.jpg HTTP 1.1
HOST www.xxx.com
<————
HTTP 1.1 20 OK
Last-Modified:true .12 dec 2015 03:03:09 GMT
ETag:"10c34ba-8ba-abds3b3"
Content-Length:1024
  1. 第二次请求响应
————>
GET /i/xx.jpg HTTP 1.1
HOST www.xxx.com
If-Modified-Since:True,12 dec 2015 03:03:09 GMT
If-None-Match:"10c34ba-8ba-abds3b3"
<————
HTTP 1.1 304 not modifed

ETag带来的问题

对于使用服务器集群来处理请求的网站,匹配次数会大大降低。此时etag就降低了缓存效率,导致了不必要的请求、If-None-Match的优先级比If-Modified-Since的优先级更高,加剧了问题严重性。

ETag用还是不用

稍微麻烦一点,你要用php等脚本语言配置ETag头。(如果你使用的是具有默认配置的Apache和iis)
你还可以将ETag头安全移除在apache配置文件中,减少它的坏处。
从ETag中移除ChangeNumber或者完全移除ETag可以避免当数据已经位于浏览器缓存中时进行不必要的和低效的下载。

谷歌,亚马逊的组件中并没有带ETag,这一节有点鸡肋感觉。

规则14——使Ajax可缓存

终于到了web2.0的规则了

本书写的时候google docs和mail刚出来,刚应用ajax,知识点不是很多。google的ajax请求中并不完全是使用XMLHttpRequest,也有的使用了IFrame。

有的响应中因为数据隐私原因而不能缓存,当数据被认为是私有的时候,大多会在响应中使用

`Cache-Control:no-store`。

处理数据隐私的更好方法是使用安全通信协议如安全套接字层(Secure Socket Layer,SSL)。SSL响应式可以缓存的。好吧这又可以讲到https的知识了。不懂得可以看下http相关知识。

在goole docs中缓存电子表格不像添加一个长久的expires头那样简单,如果用户修改了电子表格,我们必须确保产生变化后不会再使用缓存的请求。

简单的解决方案还是使用查询字符串。后端应该具有一个时间戳,来表示未次修改发生的时间,并将其嵌入到ajax请求的查询字符串中。

/ar?id=[snip...]&srow=0&erow=100%t=15398503189

确保Ajax请求遵守性能指导,尤其应具有长久的Expires头。

15章——分析前10大网站,加自己总结经验

  1. 使用yslow可以清晰的看出14条军规里面A-F的等级速度。
  2. 页面大小和响应时间成正比关系。比例系数0.94。
  3. 使用http1.1,默认开启了持久化连接,效果好的多。
  4. 图片转换为文字可以减少请求数量。联想到BootStrap中使用的icon字体图标
  5. html中的img加上with,height,提前限制好,不用等到css再渲染确定。
  6. 使用IFrame提供广告的方式值得探讨。IFrame实现了广告与实际页面的彻底分离,使得两者的团队和系统能够互不依赖。缺点是每个IFrame都带来一个额外http请求。使用IFrame又是合理的。因为广告内容来自第三方通常包含自己的js代码。将其放到iframe中也就将js放在了沙箱,可以带来极高安全性。(第三方代码无法访问web页面的命名空间) 将IFrame的src属性设置为about:blank 这不会生成任何HTTP流量。
  7. 预加载,可以提前判断用户的访问,后台再下载所需组件。预加载是提高网站后续页面加载速度的一种很好的方式。瀑布流中,图片不到视窗中,不加载,延迟加载(这方面目前观点不清)
  8. 使用png格式比gif格式图片好。有png优化器,当然jpg格式也更好,适用场景不同。

基本完结了,以后有新的总结发现,也会上传更新分享

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
1 目标检测的定义 目标检测(Object Detection)的任务是找出图像中所有感兴趣的目标(物体),确定它们的类别和位置,是计算机视觉领域的核心问题之一。由于各类物体有不同的外观、形状和姿态,加上成像时光照、遮挡等因素的干扰,目标检测一直是计算机视觉领域最具有挑战性的问题。 目标检测任务可分为两个关键的子任务,目标定位和目标分类。首先检测图像中目标的位置(目标定位),然后给出每个目标的具体类别(目标分类)。输出结果是一个边界框(称为Bounding-box,一般形式为(x1,y1,x2,y2),表示框的左上角坐标和右下角坐标),一个置信度分数(Confidence Score),表示边界框中是否包含检测对象的概率和各个类别的概率(首先得到类别概率,经过Softmax可得到类别标签)。 1.1 Two stage方法 目前主流的基于深度学习的目标检测算法主要分为两类:Two stage和One stage。Two stage方法将目标检测过程分为两个阶段。第一个阶段是 Region Proposal 生成阶段,主要用于生成潜在的目标候选框(Bounding-box proposals)。这个阶段通常使用卷积神经网络(CNN)从输入图像中提取特征,然后通过一些技巧(如选择性搜索)来生成候选框。第二个阶段是分类和位置精修阶段,将第一个阶段生成的候选框输入到另一个 CNN 中进行分类,并根据分类结果对候选框的位置进行微调。Two stage 方法的优点是准确度较高,缺点是速度相对较慢。 常见Tow stage目标检测算法有:R-CNN系列、SPPNet等。 1.2 One stage方法 One stage方法直接利用模型提取特征值,并利用这些特征值进行目标的分类和定位,不需要生成Region Proposal。这种方法的优点是速度快,因为省略了Region Proposal生成的过程。One stage方法的缺点是准确度相对较低,因为它没有对潜在的目标进行预先筛选。 常见的One stage目标检测算法有:YOLO系列、SSD系列和RetinaNet等。 2 常见名词解释 2.1 NMS(Non-Maximum Suppression) 目标检测模型一般会给出目标的多个预测边界框,对成百上千的预测边界框都进行调整肯定是不可行的,需要对这些结果先进行一个大体的挑选。NMS称为非极大值抑制,作用是从众多预测边界框中挑选出最具代表性的结果,这样可以加快算法效率,其主要流程如下: 设定一个置信度分数阈值,将置信度分数小于阈值的直接过滤掉 将剩下框的置信度分数从大到小排序,选中值最大的框 遍历其余的框,如果和当前框的重叠面积(IOU)大于设定的阈值(一般为0.7),就将框删除(超过设定阈值,认为两个框的里面的物体属于同一个类别) 从未处理的框中继续选一个置信度分数最大的,重复上述过程,直至所有框处理完毕 2.2 IoU(Intersection over Union) 定义了两个边界框的重叠度,当预测边界框和真实边界框差异很小时,或重叠度很大时,表示模型产生的预测边界框很准确。边界框A、B的IOU计算公式为: 2.3 mAP(mean Average Precision) mAP即均值平均精度,是评估目标检测模型效果的最重要指标,这个值介于0到1之间,且越大越好。mAP是AP(Average Precision)的平均值,那么首先需要了解AP的概念。想要了解AP的概念,还要首先了解目标检测中Precision和Recall的概念。 首先我们设置置信度阈值(Confidence Threshold)和IoU阈值(一般设置为0.5,也会衡量0.75以及0.9的mAP值): 当一个预测边界框被认为是True Positive(TP)时,需要同时满足下面三个条件: Confidence Score > Confidence Threshold 预测类别匹配真实值(Ground truth)的类别 预测边界框的IoU大于设定的IoU阈值 不满足条件2或条件3,则认为是False Positive(FP)。当对应同一个真值有多个预测结果时,只有最高置信度分数的预测结果被认为是True Positive,其余被认为是False Positive。 Precision和Recall的概念如下图所示: Precision表示TP与预测边界框数量的比值 Recall表示TP与真实边界框数量的比值 改变不同的置信度阈值,可以获得多组Precision和Recall,Recall放X轴,Precision放Y轴,可以画出一个Precision-Recall曲线,简称P-R
图像识别技术在病虫害检测中的应用是一个快速发展的领域,它结合了计算机视觉和机器学习算法来自动识别和分类植物上的病虫害。以下是这一技术的一些关键步骤和组成部分: 1. **数据收集**:首先需要收集大量的植物图像数据,这些数据包括健康植物的图像以及受不同病虫害影响的植物图像。 2. **图像预处理**:对收集到的图像进行处理,以提高后续分析的准确性。这可能包括调整亮度、对比度、去噪、裁剪、缩放等。 3. **特征提取**:从图像中提取有助于识别病虫害的特征。这些特征可能包括颜色、纹理、形状、边缘等。 4. **模型训练**:使用机器学习算法(如支持向量机、随机森林、卷积神经网络等)来训练模型。训练过程中,算法会学习如何根据提取的特征来识别不同的病虫害。 5. **模型验证和测试**:在独立的测试集上验证模型的性能,以确保其准确性和泛化能力。 6. **部署和应用**:将训练好的模型部署到实际的病虫害检测系统中,可以是移动应用、网页服务或集成到智能农业设备中。 7. **实时监测**:在实际应用中,系统可以实时接收植物图像,并快速给出病虫害的检测结果。 8. **持续学习**:随着时间的推移,系统可以不断学习新的病虫害样本,以提高其识别能力。 9. **用户界面**:为了方便用户使用,通常会有一个用户友好的界面,显示检测结果,并提供进一步的指导或建议。 这项技术的优势在于它可以快速、准确地识别出病虫害,甚至在早期阶段就能发现问题,从而及时采取措施。此外,它还可以减少对化学农药的依赖,支持可持续农业发展。随着技术的不断进步,图像识别在病虫害检测中的应用将越来越广泛。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值