.简述page指令的各个属性的值

1,import属性:page指令中唯一容许在同一文档出现多次的属性。属性的值可以以逗号隔开。
  指定jsp页面转换成servlet应该输入的包。对于没有明确指定包的类,将根据jsp页面所在的包(生成的servlet的目录)决定类的包的位置。
  这意味着,将在jsp页面所在的包来寻找该类。

  一定要将实用工具类和bean包放在指定的包中。不要依赖于自动导入。

2,language属性:
  用于指定在脚本元素中使用的脚本语言,默认java。在jsp2.0规范中,只能是java。

3,contentType和pageEncodeing属性:
  contentType属性设置发送到客户端文档的响应报头的MIME类型和字符编码。多个使用;号分开。
  pageEncodeing属性只用于更改字符编码。
 
  servlet默认MIME是text/plain,jsp默认MIME是text/html。
 
4,session属性:控制页面是否参与会话

  默认true。如果存在已有会话,则预定义session变量,绑定到已有会话中。否则创建新会话将其绑定到session。
  对于高流量网站,设置false可以节省大量服务器内存。
  设置false表示不自动创建新会话,在jsp页面转换为servlet时,这时对变量session的访问导致错误。
  设置为false并不是禁用会话跟踪,它只是阻止jsp页面为不拥有会话的用户创建新会话。

  * 对于不需要会话跟踪的页面那就设置为false;当设置为false时session对象是不可访问的。

5,isELlgnored属性:
  定义在jsp页面中是否执行或忽略EL表达式。true表示忽略,false表示执行。
  默认值依赖于web.xml的版本。servlet2.3之前默认true,servlet2.4默认false。
  用于JSP版本不一致造成使用EL表达式出现的问题。使用:isELlgnored="true";

6,buffer和autoFlush属性:
  buffer属性指定out对象(JspWriter)使用的缓冲区大小,以kb为单位,默认8kb。
  none表示不使用缓冲区。这样要求设置报头或状态代码的jsp元素要出现在文件的顶部,任何HTML内容之前。

  autoFlush属性控制当缓冲区满了后,是自动清空输出缓冲区(默认true),还是在缓冲区溢出后抛出异常(false)。
  在buffer=none的时候,autoFlush=false是错误的。
 
7,info属性:
  定义一个可以在servlet中通过getServletInfo方法获取的字符串。

  jsp容器做的是在servlet中生成getServletInfo方法返回info属性指定的String。

8,errorPage和isErrorPage属性:指定页面专用的错误页面。
  errorPage属性用来指定一个jsp页面,由该页面来处理当前页面中抛出但没有捕获的任何异常。指定的页面可以通过exception变量访问异常信息。
  isErrorPage属性表示当前页是否可以作为其他jsp页面的错误页面。true或false。
  错误页面应该放在WEB-INF目录下面,只让服务器访问,也不会生成转发的调用,客户端只能看到最初的请求页面URL,看不到错误页面的URL。
 
  如果为整个web应用程序指定错误页面,或为应用中不同类型的错误指定错误处理页面,使用web.xml中的error-page元素。

  如果一个页面通过该属性定义了专有的错误页面,那么在web.XML文件中定义的任何错误页面不会被使用。
 
  只能够在错误处理页面中使用错误对象exception。

9,isThreadSafe属性:采用显式的同步来代替该方法。
  控制由jsp页面生成的servlet是否允许并发访问(默认true允许)。
  这种阻止并发访问的实现是基于SingleThreadModel接口。所以,避免使用isThreadSafe属性。
 
10,extends属性:避免使用。这是服务器提供商该做的事情。父类必须是对HttJspPage接口的实现类。而HttJspPage是应用于HTTP协议的请求和响应的JspPage扩展接口。
  指定JSP页面生成的servlet的超类。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
好的,我会依次回答你的问题,不会透露你的要求。 1. MapReduce工作原理: MapReduce是一种分布式计算框架,可以处理大规模数据集,主要用于数据的批量处理。它的工作原理可以分为两个阶段:Map阶段和Reduce阶段。 在Map阶段,MapReduce将输入数据集分割成若干个小数据块,每个数据块由一个Map任务处理,Map任务对每个数据块进行处理并输出一系列键对。这些键对作为中间结果,会被存储在分布式文件系统中,供Reduce阶段使用。 在Reduce阶段,MapReduce将Map阶段输出的键对根据键进行分组,每个组由一个Reduce任务进行处理。Reduce任务对每个组进行处理,并输出最终的结果。 2. Spark工作原理: Spark是一种快速、通用的大数据处理引擎,它支持多种数据处理模式,包括批处理、交互式查询、流处理等。Spark的工作原理可以分为三个阶段:数据的输入、数据的转换和数据的输出。 在数据的输入阶段,Spark从外部数据源(例如Hadoop HDFS、Apache Cassandra等)读取数据,并将数据分割成多个数据块,存储在内存中。 在数据的转换阶段,Spark通过各种转换算子(例如map、filter、reduce等)对数据进行转换处理,生成新的数据集。这些新的数据集可以被进一步转换或输出。 在数据的输出阶段,Spark将转换后的数据集写入外部数据源,或将结果返回给应用程序。 1. HBase工作原理: HBase是一种列式存储数据库,它基于Hadoop分布式文件系统(HDFS)进行存储。HBase的工作原理可以分为三个层次:RegionServer层、HMaster层和ZooKeeper层。 在RegionServer层,HBase将数据划分成多个区域(Region),每个区域由一个RegionServer进行管理。当数据需要写入或读取,客户端会与对应的RegionServer进行交互。 在HMaster层,HBase将RegionServer进行管理,并负责对Region进行负载均衡和分裂处理。 在ZooKeeper层,HBase使用ZooKeeper进行协调和管理,例如协调HMaster和RegionServer之间的通信。 2. Hive工作原理: Hive是一种基于Hadoop的数据仓库工具,它可以将结构化数据映射到Hadoop HDFS上,并提供类SQL查询的接口。Hive的工作原理可以分为三个步骤:数据的导入、数据的存储和数据的查询。 在数据的导入阶段,Hive将外部数据导入到Hadoop HDFS上,并将数据进行格式化和存储,生成Hive表。 在数据的存储阶段,Hive将数据存储在Hadoop HDFS上,同生成元数据信息,包括表结构、列信息、分区信息等。 在数据的查询阶段,Hive通过类SQL查询语言对数据进行查询和分析,生成查询结果,并将结果返回给用户。查询语言会被转化为MapReduce任务,在Hadoop集群上执行。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值