nodejs
文章平均质量分 95
BenjaminShih
talk is cheap, show me the code
展开
-
从0到1学nodejs爬虫小程序
什么是爬虫?wiki是这么解释的: 是一种“自动化浏览网络”的程序,或者说是一种网络机器人。它们被广泛用于互联网搜索引擎或其他类似网站,以获取或更新这些网站的内容和检索方式。它们可以自动采集所有其能够访问到的页面内容,以供搜索引擎做进一步处理(分检整理下载的页面),而使得用户能更快的检索到他们需要的信息。 robots协议robots.txt是一种存放于网站根目录下的ASCII编码的文本文件,它原创 2017-01-13 16:07:58 · 2632 阅读 · 0 评论 -
跨域之Server Proxy
什么是Server Proxy继《跨域之jsonp》和《跨域之CORS》之后,还有一种比较常用的方法:Server Proxy,顾名思义,服务器代理的意思;如果说前两种方法是前端直接和跨域目标服务器发送直接请求(无论是src还是ajax),那么服务器代理则是由本域服务器请求跨域服务器(服务端不存在同源策略,也就不存在跨不跨域这一说),然后将得到的信息发送给前端,这一过程中页面只是请求了本域服务器,并原创 2017-07-05 18:22:22 · 3897 阅读 · 0 评论