OpenRASP(Runtime Application Self-Protection)

213 篇文章 3 订阅

与WAF不同,WAF是在应用的流量入口之前(即应用外面),RASP是跟应用在一个JVM里(即应用内部)。

下载地址:
https://github.com/baidu/openrasp/releases/download/v1.3.5/rasp-java.zip

安装参考:

Spring boot应用安装方式:
在IEDA启动的VM参数中:

-javaagent:"C:\Users\Administrator\Downloads\rasp-java\rasp-2020-09-04\rasp\rasp.jar"

在这里插入图片描述
然后再启动Spring boot应用时,控制台就有OpenRASP的log了:
在这里插入图片描述
然后通过提交请求,发现响应中有X-Protected-By: OpenRASP响应头:
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
完整版:https://download.csdn.net/download/qq_27595745/89522468 【课程大纲】 1-1 什么是java 1-2 认识java语言 1-3 java平台的体系结构 1-4 java SE环境安装和配置 2-1 java程序简介 2-2 计算机中的程序 2-3 java程序 2-4 java类库组织结构和文档 2-5 java虚拟机简介 2-6 java的垃圾回收器 2-7 java上机练习 3-1 java语言基础入门 3-2 数据的分类 3-3 标识符、关键字和常量 3-4 运算符 3-5 表达式 3-6 顺序结构和选择结构 3-7 循环语句 3-8 跳转语句 3-9 MyEclipse工具介绍 3-10 java基础知识章节练习 4-1 一维数组 4-2 数组应用 4-3 多维数组 4-4 排序算法 4-5 增强for循环 4-6 数组和排序算法章节练习 5-0 抽象和封装 5-1 面向过程的设计思想 5-2 面向对象的设计思想 5-3 抽象 5-4 封装 5-5 属性 5-6 方法的定义 5-7 this关键字 5-8 javaBean 5-9 包 package 5-10 抽象和封装章节练习 6-0 继承和多态 6-1 继承 6-2 object类 6-3 多态 6-4 访问修饰符 6-5 static修饰符 6-6 final修饰符 6-7 abstract修饰符 6-8 接口 6-9 继承和多态 章节练习 7-1 面向对象的分析与设计简介 7-2 对象模型建立 7-3 类之间的关系 7-4 软件的可维护与复用设计原则 7-5 面向对象的设计与分析 章节练习 8-1 内部类与包装器 8-2 对象包装器 8-3 装箱和拆箱 8-4 练习题 9-1 常用类介绍 9-2 StringBuffer和String Builder类 9-3 Rintime类的使用 9-4 日期类简介 9-5 java程序国际化的实现 9-6 Random类和Math类 9-7 枚举 9-8 练习题 10-1 java异常处理 10-2 认识异常 10-3 使用try和catch捕获异常 10-4 使用throw和throws引发异常 10-5 finally关键字 10-6 getMessage和printStackTrace方法 10-7 异常分类 10-8 自定义异常类 10-9 练习题 11-1 Java集合框架和泛型机制 11-2 Collection接口 11-3 Set接口实现类 11-4 List接口实现类 11-5 Map接口 11-6 Collections类 11-7 泛型概述 11-8 练习题 12-1 多线程 12-2 线程的生命周期 12-3 线程的调度和优先级 12-4 线程的同步 12-5 集合类的同步问题 12-6 用Timer类调度任务 12-7 练习题 13-1 Java IO 13-2 Java IO原理 13-3 流类的结构 13-4 文件流 13-5 缓冲流 13-6 转换流 13-7 数据流 13-8 打印流 13-9 对象流 13-10 随机存取文件流 13-11 zip文件流 13-12 练习题 14-1 图形用户界面设计 14-2 事件处理机制 14-3 AWT常用组件 14-4 swing简介 14-5 可视化开发swing组件 14-6 声音的播放和处理 14-7 2D图形的绘制 14-8 练习题 15-1 反射 15-2 使用Java反射机制 15-3 反射与动态代理 15-4 练习题 16-1 Java标注 16-2 JDK内置的基本标注类型 16-3 自定义标注类型 16-4 对标注进行标注 16-5 利用反射获取标注信息 16-6 练习题 17-1 顶目实战1-单机版五子棋游戏 17-2 总体设计 17-3 代码实现 17-4 程序的运行与发布 17-5 手动生成可执行JAR文件 17-6 练习题 18-1 Java数据库编程 18-2 JDBC类和接口 18-3 JDBC操作SQL 18-4 JDBC基本示例 18-5 JDBC应用示例 18-6 练习题 19-1 。。。
onnxruntime-gpu-c++是一个用于在GPU上运行模型的C++库,它支持使用ONNX格式的模型进行推理。下面是一个简单的部署步骤: 1. 安装CUDA和cuDNN onnxruntime-gpu-c++需要CUDA和cuDNN来加速模型推理。您需要安装与onnxruntime-gpu-c++版本兼容的CUDA和cuDNN。您可以从NVIDIA官方网站下载并安装这些软件。 2. 安装onnxruntime-gpu-c++ 您可以从onnxruntime-gpu-c++的GitHub仓库中下载源代码,并使用CMake生成库文件。在生成过程中,您需要指定CUDA和cuDNN的路径。 3. 加载模型 使用onnxruntime-gpu-c++加载ONNX格式的模型。您可以使用onnxruntime-cxx库中的API来加载模型并进行推理。以下是一个简单的示例代码: ```cpp #include <iostream> #include <vector> #include <chrono> #include <onnxruntime_cxx_api.h> int main() { Ort::SessionOptions session_options; Ort::Env env(ORT_LOGGING_LEVEL_WARNING, "test"); Ort::Session session(env, "model.onnx", session_options); Ort::AllocatorWithDefaultOptions allocator; Ort::Value input_tensor = Ort::Value::CreateTensor<float>(allocator, {1, 3, 224, 224}); float* input_tensor_data = input_tensor.GetTensorMutableData<float>(); // fill input tensor with data ... std::vector<const char*> input_names = {"input"}; std::vector<const char*> output_names = {"output"}; std::vector<int64_t> input_shape = {1, 3, 224, 224}; std::vector<float> output_data(1000); Ort::RunOptions run_options; Ort::TensorSlicer<float> input_tensor_slicer(input_tensor, input_shape); auto start_time = std::chrono::high_resolution_clock::now(); for (auto& slice : input_tensor_slicer) { Ort::Value input_tensor_slice = Ort::Value::CreateTensor<float>(allocator, slice.shape().data(), slice.shape().size(), slice.data(), slice.size()); Ort::Value output_tensor = session.Run(run_options, input_names.data(), &input_tensor_slice, 1, output_names.data(), 1); std::memcpy(output_data.data() + slice.offset(), output_tensor.GetTensorData<float>(), slice.size() * sizeof(float)); } auto end_time = std::chrono::high_resolution_clock::now(); std::cout << "Inference time: " << std::chrono::duration_cast<std::chrono::milliseconds>(end_time - start_time).count() << "ms" << std::endl; // process output data ... } ``` 在这个示例中,我们使用onnxruntime-gpu-c++加载了名为“model.onnx”的模型,并将输入数据填充到名为“input”的张量中。然后,我们运行了推理,并将输出数据存储在名为“output_data”的向量中。最后,我们对输出数据进行了处理。 4. 运行推理 在加载模型和填充输入数据后,您可以使用session.Run()方法运行推理。您需要指定输入和输出张量的名称,并将它们传递给session.Run()方法。 5. 处理输出 session.Run()方法将返回一个或多个输出张量。您可以使用GetTensorData()方法获取输出张量的数据,并对其进行处理。 这些是一个简单的onnxruntime-gpu-c++部署步骤。您可以根据具体情况进行适当的修改。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值