Web Security Leaning--Tomcat‘s security

目前正在学web开发,学到了Security这一章,写博客记一下心得。
今天学的是基于web容器的安全机制,
1、设置用户和角色,在Tomcat安装目录的/config/tomact-user.xml中:
<tomcat-user>
<role rolename="admin"></role>
<role rolename="Member" />
<role rolename="Guest" />

<user username="Annie" password="123" roles="Admin,Member,Guest" />
<user username="Diane" password="123" roles="Member,Guest" />
<user username="Ted" password="123" roles="Guest" />
</tomcat-user>

注,书上说这个一般是学习时用的,实际环境中不用这个。这个每次配置得重启tomcat以生效。
2、到DD,就是web.xml中配置哪些角色能使用哪些方式访问哪些资源。没配置的哪些资源,能被任何人访问。

<security-constraint>
<web-resource-collection>
<web-resource-name></web-resource-name>
<url-pattern>/beer/AddRecipe/*</url-pattern>
<http-method>post</http-method>
<http-method>get</http-method>
</web-resource-collection>
<auth-constraint>
<role-name>Admin</role-name>
<role-name>Member</role-name>
</auth-constraint>

</security-constraint>
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
RBF Q-learning是一种基于径向基函数的增强学习算法,它结合了Q-learning的基本原理和径向基函数的非线性映射特性。在传统的Q-learning算法中,学习过程是基于状态和动作的简单线性组合,这种方法在处理复杂的状态空间和动作空间时存在一定的局限性。而RBF Q-learning通过引入径向基函数,能够对状态空间和动作空间进行非线性映射,从而更好地适应复杂的环境。 具体来讲,RBF Q-learning的基本原理是利用径向基函数对状态空间进行映射,将复杂的状态表示为一组简单的基函数的线性组合。这样可以大大降低状态空间的维度,减少了学习参数的数量,降低了计算的复杂度。在每个基函数的基础上,RBF Q-learning利用Q-learning的奖励更新规则,不断优化动作价值函数,从而实现针对复杂状态空间的强化学习。 RBF Q-learning的应用领域非常广泛,特别适合处理具有高维状态空间和大规模动作空间的问题。例如,在机器人控制、自动驾驶、游戏策略等领域,RBF Q-learning都能够发挥出色的性能。同时,RBF Q-learning也为研究者提供了一个新的思路,可以结合深度学习的方法,进一步提高强化学习算法在复杂环境下的表现。 总之,RBF Q-learning是一种结合了Q-learning和径向基函数的增强学习算法,通过非线性映射和奖励更新规则的探索,能够更好地适应复杂的状态空间和动作空间,具有广泛的应用前景和研究价值。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值