PHP代码审计(笔记)——超全局变量

常见的超全局变量

2.1 $GLOBALS–引用全局作用域中可用的全部变量

GLOBALSPHP访PHP G L O B A L S 这 种 全 局 变 量 用 于 在 P H P 脚 本 中 的 任 意 位 置 访 问 全 局 变 量 ( 从 函 数 或 方 法 中 均 可 ) 。 P H P 在 名 为 GLOBALS[index]的数组中存储了所有全局变量。变量的名字就是数组的键。

2.2 $_SERVER–服务器和执行环境信息

1) SERVER使printr( S E R V E R 超 全 局 变 量 保 存 关 于 报 头 、 路 径 和 脚 本 位 置 的 信 息 。 使 用 p r i n t r ( _SERVER);输出服务器和执行环境信息。

2) 在浏览器页面上单击右键,选择查看页面源代码,可以更直观的查看服务器和执行环境信息。>

3) 下表列出了能够在 $_SERVER中访问的比较重要的元素。如图》》》》可以用于XSS反射型漏洞利用

https://i-blog.csdnimg.cn/blog_migrate/731da004a1ddafbd6c04635f9756bfb8.png

2.3 $_GET–HTTP GET 变量

PHP中 GETHTML(method="get") G E T 可 用 于 收 集 提 交 H T M L 表 单 ( m e t h o d =" g e t " ) 之 后 的 表 单 数 据 。 _GET还可以收集URL中的发送的数据。

2.4 $_POST—HTTP POST 变量

PHP POST广method="post"HTML P O S T 广 泛 用 于 收 集 提 交 m e t h o d =" p o s t " 的 H T M L 表 单 后 的 表 单 数 据 , _POST也常用于传递变量。
1) 在浏览器地址栏输入http://localhost/test.php,使用print_r($_POST);输出提交上来的数据。这里没有提交数据,故结果为空。

2) 在浏览器中输入地址http://localhost/ZVulDrill/

3) 单击“登录”,在登录界面任意输入用户名和密码,如xipu/123456,单击“登录”按钮。

4) 开启火狐浏览器代理功能(127.0.0.1/8080)。

5) 打开Burp Suite(双击c:\tools文件夹下的BurpLoad.jar),开启拦截功能,刷新浏览器页面,获得请求信息,将该请求信息发送到Repeater。

6) 修改请求信息,将网址改为http://localhost/test.php,修改post信息,单击Go按钮,可以在Response中看到输出的post信息。

7) 可以在浏览器中就行查看。在Response处单击右键,选择Request in browser->in original session。

8) 单击Copy,关闭Burp Suite的拦截功能(Intercept is off),在浏览器地址栏粘贴刚刚复制的网址,跳转到test.php页面,可以看到post信息。

2.5 $_FILES—HTTP文件上传变量

1) 使用print_r($_FILES);输出文件上传变量信息。如图18所示


图 18

2) 新建file.htm文件,代码如下。action=”test.php”表示将表单数据提交到test.php页面。method=”post”表示提交方法 post。enctype=”multipart/form-data”用于表单里有图片上传时确保匿名上载文件的正确编码。<label for="file">Filename:</label>使用for 属性规定label标签与Filename表单元素绑定。<input type="file" name="file" id="file" />用于上传文件。<input type="submit" name="submit" value="Submit" />定义提交按钮。如图19所示

这里写图片描述

图 19

3) 在浏览器地址栏输入http://localhost/file.htm,回车,单击浏览,选择某一张图片上传。

4) 单击Submit,上传图片

5) 这时跳转到test.php页面,输出上传文件的一些信息,如文件的名字、类型(此处为图片image/png)和大小等。

2.7 $_REQUEST—HTTP Request 变量

PHP $_REQUEST用于收集 HTML 表单提交的数据。

2.8 $_SESSION—session 变量,包含当前脚本中session变量的数组。

使用print_r ($_SESSION);输出session信息。

2.9 $_ENV—环境变量

1) 修改代码如图所示,使用print_r($_ENV);输出当前php环境变量数组。在浏览器地址栏输入http://localhost/test.php,则可以得到php环境变量信息。

这里写图片描述

2) 在网页上单击右键,选择查看页面源代码,则可以更清楚直接的查看php环境信息。

FROM:
http://www.shiyanbar.com/experiment-course/experiment-course/vid/2108

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 好的,下面是SparkSQL代码笔记03——连接Hive的中文回复: 在SparkSQL中,我们可以通过以下步骤连接Hive: 1. 首先,需要在SparkSession中启用Hive支持,可以使用以下代码: ``` from pyspark.sql import SparkSession spark = SparkSession.builder \ .appName("SparkSQL Hive Example") \ .config("spark.sql.warehouse.dir", "/user/hive/warehouse") \ .enableHiveSupport() \ .getOrCreate() ``` 其中,`enableHiveSupport()`方法启用了Hive支持,`config("spark.sql.warehouse.dir", "/user/hive/warehouse")`指定了Hive元数据存储的目录。 2. 接下来,我们可以使用`spark.sql()`方法执行Hive SQL语句,例如: ``` spark.sql("show databases").show() ``` 这将显示所有的Hive数据库。 3. 如果需要在SparkSQL中访问Hive表,可以使用以下代码: ``` df = spark.sql("select * from my_hive_table") ``` 其中,`my_hive_table`是Hive中的表名。 4. 如果需要在SparkSQL中创建Hive表,可以使用以下代码: ``` spark.sql("create table my_hive_table (id int, name string)") ``` 这将在Hive中创建一个名为`my_hive_table`的表,包含两个列:`id`和`name`。 以上就是连接Hive的基本步骤。需要注意的是,连接Hive需要在Spark集群中安装Hive,并且需要将Hive的JAR包添加到Spark的CLASSPATH中。 ### 回答2: SparkSQL是Apache Spark的一个组件,它提供了用于分布式数据处理的高级SQL查询引擎。SparkSQL支持连接多种数据源,其中之一就是Hive。 如何连接Hive? 在开始连接Hive之前,我们需要确保Hadoop和Hive的配置已经被正确的设置好了,以便Spark能够访问Hive元数据和数据。 首先,我们需要在Spark环境中添加Hive支持。运行下面的代码: `from pyspark.sql import SparkSession spark = SparkSession.builder \ .appName("hive_support") \ .enableHiveSupport() \ .getOrCreate()` 其中,`.enableHiveSupport()`将启用hive支持。 接下来,我们可以使用SparkSession连接Hive。运行下面的代码: `hive_df = spark.sql("SELECT * FROM default.student")` 其中,“default”是Hive的默认数据库,“student”是Hive数据库中的表名。 如果你要访问非默认的Hive数据库,可以使用下面的代码: `hive_df = spark.sql("SELECT * FROM dbname.student")` 其中,“dbname”是非默认的Hive数据库名。 我们还可以使用HiveContext来连接Hive。运行下面的代码: `from pyspark.sql import HiveContext hive_context = HiveContext(sc)` 其中,“sc”是SparkContext对象。 我们可以像这样从Hive中检索数据: `hive_df = hive_ctx.sql("SELECT * FROM default.student")` 现在你已经成功地连接Hive并从中检索了数据,你可以使用SparkSQL的强大功能对数据进行分析。而在连接Hive之外,在SparkSQL中还可以连接其他数据源,包括MySQL、PostgreSQL、Oracle等。 ### 回答3: Spark SQL是一个强大的分布式计算引擎,它可以支持处理多种数据源,并可通过Spark SQL shell、Spark应用程序或JDBC/ODBC接口等方式进行操作。其中,连接Hive是Spark SQL最常用的数据源之一。下面,将介绍如何通过Spark SQL连接Hive。 1、在Spark配置中设置Hive Support 要连接Hive,首先需要在Spark配置中开启Hive Support。在启动Spark Shell时,可以添加如下参数: ``` ./bin/spark-shell --master local \ --conf spark.sql.warehouse.dir="/user/hive/warehouse" \ --conf spark.sql.catalogImplementation=hive \ --conf spark.sql.hive.metastore.version=0.13 \ --conf spark.sql.hive.metastore.jars=maven ``` 这里以本地模式为例,设置Spark SQL的元数据存储在本地文件系统中,设置Hive为catalog实现,以及为Hive Metastore设置版本和JAR文件路径。根据实际情况,还可以指定其他参数,如Hive Metastore地址、数据库名称、用户名和密码等。 2、创建SparkSession对象 在连接Hive之前,需要先创建SparkSession对象。可以通过调用SparkSession.builder()静态方法来构建SparkSession对象,如下所示: ``` val spark = SparkSession.builder() .appName("SparkSQLTest") .config("spark.sql.warehouse.dir", "/user/hive/warehouse") .enableHiveSupport() .getOrCreate() ``` 这里通过builder()方法指定应用程序名称、元数据存储路径以及启用Hive Support,最后调用getOrCreate()方法创建SparkSession对象。 3、通过Spark SQL操作Hive表 通过Spark SQL连接Hive后,就可以通过Spark SQL语句来操作Hive表了。例如,我们可以使用select语句查询Hive表中的数据: ``` val df = spark.sql("SELECT * FROM tablename") df.show() ``` 其中,select语句指定要查询的列和表名,然后通过show()方法来显示查询结果。 除了查询数据之外,Spark SQL还可以通过insertInto语句将数据插入到Hive表中: ``` val data = Seq(("Alice", 25), ("Bob", 30)) val rdd = spark.sparkContext.parallelize(data) val df = rdd.toDF("name", "age") df.write.mode(SaveMode.Append).insertInto("tablename") ``` 这里先创建一个包含数据的RDD对象,然后将其转换为DataFrame对象,并指定列名。接着,通过insertInto()方法将DataFrame对象中的数据插入到Hive表中。 总之,通过Spark SQL连接Hive可以方便地查询、插入、更新和删除Hive表中的数据,从而实现更加灵活和高效的数据处理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值