GetRows的用法详解!

大家应该都知道 Recordset 有个 GetRows 属性,但是真正使用的不多,我也是最近才用的!汗……

其实这个属性很简单,就是把数据集输出到一个数组中。但是实用性可不小,在这里我举一个例子说明一下GetRows的使用方法,大家举一反三能想到更多的用法!

比如一个分类的表 T_Cate,结构和数据如下:

ID   |   Title   |  Intro
-----------------------------------------
1    |   新闻   |  这里是新闻
2    |   教程   |  这里是教程
3    |   下载   |  这里是下载

好了,表建立好了,数据也有了,下面我们就要用到GetRows咯!


程序代码:
Dim Rs_Cate
Dim Arr_Cate
Set Rs_Cate=Conn.ExeCute("SELECT ID,Title,Intro FROM T_Cate ORDER BY ID ASC")
Arr_Cate=Rs_Cate.GetRows
Set Rs_Cate=Nothing


好了表数据已经导出到数组了!下面我们将遍历这个数组


程序代码:
Dim Arr_CateNumS,Arr_CateNumI
Arr_CateNumS=Ubound(Arr_Cate,2)  '得到数组中数据的下标
For Arr_CateNumI=0 To Arr_CateNumS
    Response.Write("ID:"&Arr_Cate(0,Arr_CateNumI)&" | 标题:"&Arr_Cate(1,Arr_CateNumI)&" | 介绍:"&Arr_Cate(2,Arr_CateNumI)&"<br>")
Next


呵呵,好了,输出的数据为:
ID:1 | 标题:新闻 | 介绍:这里是新闻
ID:2 | 标题:教程 | 介绍:这里是教程
ID:3 | 标题:下载 | 介绍:这里是下载

好了,具体就写这么多吧!文采不行,如果大家有什么不明白的,多用用就可以了,呵呵
更多的GetRows信息,大家可以看看相关的文章,在这里我就不多说了!

转载于:https://www.cnblogs.com/Dove/archive/2005/03/03/111892.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
`getRows()`是Spark SQL中的一个方法,用于获取查询结果集合。在Java中使用`getRows()`方法可以通过以下步骤: 1. 首先获取到SparkSession对象,可以通过以下代码获取: ```java SparkSession sparkSession = SparkSession.builder() .appName("JavaSparkSQLExample") .config("spark.some.config.option", "some-value") .getOrCreate(); ``` 2. 通过SparkSession对象创建Dataset或DataFrame,例如: ```java Dataset<Row> df = sparkSession.read().json("path/to/json"); ``` 3. 执行查询操作,例如: ```java df.createOrReplaceTempView("people"); Dataset<Row> sqlDF = sparkSession.sql("SELECT * FROM people"); ``` 4. 调用`getRows()`方法获取查询结果集,例如: ```java Row[] rows = (Row[])sqlDF.collect(); ``` 注意,`getRows()`方法返回的是一个数组,其中每个元素都是一个`Row`对象,表示一行数据。可以通过`Row`对象的`get*()`方法获取每个字段的值。 完整示例代码如下: ```java import org.apache.spark.sql.*; public class JavaSparkSQLExample { public static void main(String[] args) { SparkSession sparkSession = SparkSession.builder() .appName("JavaSparkSQLExample") .config("spark.some.config.option", "some-value") .getOrCreate(); Dataset<Row> df = sparkSession.read().json("path/to/json"); df.createOrReplaceTempView("people"); Dataset<Row> sqlDF = sparkSession.sql("SELECT * FROM people"); Row[] rows = (Row[])sqlDF.collect(); for (Row row : rows) { System.out.println(row.getString(0) + ", " + row.getLong(1)); } sparkSession.stop(); } } ``` 其中,假设JSON文件中的数据格式为: ```json {"name":"Alice","age":25} {"name":"Bob","age":30} ``` 运行以上代码将输出: ``` Alice, 25 Bob, 30 ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值