jsp学习笔记

jsp学习笔记:


jsp为什么会出现?
开发web网站的时候,发现serlet做界面比较麻烦
jsp是什么?
1.jsp运行在服务器
2.jsp(java server page)
3.jsp的基础是servlet(相当于对servlet进行了一个包装
4.jsp 综合技术
jsp=html+javascript+java片段+jsp标签(servlet)
5.jsp无需配置,直接使用,如果你修改了jsp文件,不
6.jsp是一种动态网页技术


快速入门案例:
<meta prog吗“content="no-cache">
是否缓存
<%@ page language="java" pageEnconding="utf-8"%>
<!--language表示 jsp的片断语言 pageEnconding:编码方式




<%
//在<% %>中间可以写java代码,就和在java文件中写java代码是一样的




%>
jsp的位置


servlet






第二讲:
work/
jsp页面会生成一个servlet
showtime_jsp.java
out对象是jsp的内置对象 (九大内置对象之一)
web服务器在调用jsp的时候会提供9大内置对象
jsp中的多个java片段在翻译成servlet后
会放在一个函数中,
1.就是多个<% %>其实相当于一个大的《%>%>
2.在<% %>中定义的变量会成为service的
局部变量
3.九大内置对象out,
4.web服务器在调用jsp是,会给
html只能显示静态页面,servlet很难对数据进行排版
jsp基础语法:
jsp标签:
jsp的语法
(1)指令元素:用于从jsp发送一个信息到容器,
1.page指令
<%@ page language="java" session="true" import="java.util.*" contentType="text/html;charset="utf-8" %>
import用于引包
language用于定义嵌入的语言
session默认属性为true,不想用可以设置为false
buffer=[none|8k|指定大小,给out对象使用
的缓冲区是多大,默认是8k
autoFlash=[true|false]当buffer满后
是否自动刷新浏览器
isThreadSafe=[true | false]默认为
true由程序员控制
errorPage="/error.jsp"当出错时自动跳转到此页面
使用相对路径
contentType="text/html"
pageEnconding
常用属性:
contentType="text/html"指定网页以什么方式显示页面
pageEnconding指定servlet 引
2.include指令
<%@ include file="b.jsp" %>
用于引入一个文件,jsp引擎会吧两个jsp文件翻译成一个servlet文件,
因此也称为静态引入.以/开头
被引入的页面只需保留page指令即可,<html><body>均可省略.
只保留内容本身
3.taglib指令
<mytag:xx 属性/>
自定义标签


(2)脚本元素
1.script 
java片段:
 <% java代码 %>
 表达式:
<%=i %>表达式,也可以运算,但是不能带分号,
3.delaration声明
<% int i = 88; %>//i为局部变量


<%! int i = 99; %>//成员变量
定义变量,定义函数
<%
out.println(i);//输出为88
//不能在这里定义函数
%>


面试题:


(3)动作元素 :使用xml语法写
1.<jsp:forward>//转发
<jsp:forward page="/manage.jsp"></jsp:forward>
在开发jsp过程中,我们通常把jsp放入WEB-INF目录中,目的是为了防止用户直接访问
这些jsp文件
在WebRoot下我们有一个入口页面,它主要用来转发


jsp文件放在webRoot中是不安全的
WEB-INF中的文件是被tomcat 保护的
真正开发中外部有一个文件跳转到那个文件
<jsp:forward page="/WEB-INF/Manage.jsp"></jsp:forward>
2.<jsp:userBean>//创建一个javabean实例
3.<jsp:setProperty>//


4.
5.<jsp:include page=""><jsp:include>//动态引入
分开编译
动态引入:
<%@ include file="">静态引入
<jsp:includefile=""></jsp:include>动态引入
相同点:把一个文件引入到另一个文件
区别:静态引入把两个jsp翻译成一个servlet,所以被引入的文件不要包含<body><html>
动态引入把两个jsp分别翻译,所以被引入的jsp文件包含有<body><html>也不会报错
(4)jsp文件的注释
<!-- 这是注释 -->  hmtl注释方式,jsp中也可以用
源文件中可以看到,servlet中也可以看到


<%-- 这是注释 --%>jsp专用注释,建议使用这种注释方法
jsp九大内置对象,
1.out  //向客户端输出数据,字节流
2.request//接受客户端的的http请求<- ->中的HttpServletRequest
3.response//
4.session
5.application
6.pageContext
7.exception
8.page
9.config
request HttpServletRequest 
response HttpServletResponse
application    <- ->ServletContext
out  jspWriter





1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值