个人代码笔记1——冒泡排序

文章详细介绍了冒泡排序的思路,通过两两比较并交换数值来排序,其特点是简单但效率较低。在C语言实现中,需要注意交换元素时应使用指针传递地址,而非值传递,因为C语言不支持引用传递。文中还提到了因错误使用指针导致的问题以及解决方案。
摘要由CSDN通过智能技术生成

(1)思路:每两个数依次进行比较,如果乱序则交换位置。比如升序排序,两个数比较,如果first>second,交换位置,即将first下沉。这样一来,第一轮比较将MAX沉到最底,第二轮比较则将第二大数沉到倒数第二,最后MIN浮到最顶。(降序同理)当前轮比较次数总比前一轮少1

(结合下图理解)假设有n个数,要进行n-1轮的整体比较。假设i表示轮次,从下图可看出,i=1,2....n-1,关于i的循环可以表示为for(int i = 0;i < n-1;i ++)。

j表示每轮比较多少次,分别等于n-1,n-2....n=1,关于j的循环,如果的要表示的话,for(int j = 0;j < n-1; j ++)、for(int j = 0;j < n-2; j ++)......for(int j = 0;j < 1; j ++)。

很明显,这么多循环直接加进代码肯定会显得冗杂臃肿。这种情况我们要借助嵌套循环了,不难看出,其实i和j是有着一定联系的。i和j的关系:j=n-1-(i-1)。也等价于j=n-1-i(i=0,1......n-2)。j随着i变化而变化,i增大j减小,因此i在外层循环,j在内层循环

如果比较arr[j]和arr[j + 1]),for循环中,j从0开始计数;如果比较arr[j] > arr[j - 1]),很明显j从1开始计数

(2)特点简单稳定,但时间复杂度高,效率慢。

​​​​​​
#include <stdio.h>
void swap(int *a, int *b)
{
    int temp;
    temp =*b;
    *b= *a;
    *a= temp;
    return ;
}
int main()
{
    int i;
    int arr[5] = {2, 34, 6, 20, 11};
    for (int i = 0;  i< 4; i++) //总共比较4轮
    {
        for(int j=0;j<4-i;j++)  
        {
            if (arr[j] > arr[j + 1])
            {
                swap(&arr[j],&arr[j+1]);
            }
        }
    }
    for(int i=0;i<5;i++)
    printf("%d\n",arr[i]);
    return 0;
}
~ 

(3)注意:

  • 一开始我的swap函数采用值传递的方式,导致交换数据不成功。修改成了地址传递和引用传递,才运行成功。写法1取地址的方式可能报错:

error: expected ‘;’, ‘,’ or ‘)’ before ‘&’ token void swap(int &a, int &b)

  • 在C语言中是不存在“引用传递”的,&表示的不是引用,仅仅是取地址符。

  • swap函数下列写法出错。temp如果作为指针,不管是否初始化,都无法确定temp指向的内容在哪。

  • swap函数以下写法错误

  • int *temp = NULL;
    *temp = *b;
    

    int *temp = NULL 声明一个指向 int 类型的指针 temp,并将其初始化为 NULL。这意味着 temp 指针当前不指向任何有效的内存位置。*temp = *b 尝试将 b 指针所指向的值赋值给 temp 指针所指向的位置。然而,由于 temp 指针是空指针,即指向 NULL,解引用指向 NULL 的指针会导致未定义行为。正确的做法是先为 temp 分配内存,然后再进行赋值。

  • swap函数以下写法无法实现交换

  • void swap(int *a,int *b)
    {
            int *temp = NULL;
            temp = b;
            b = a;
            a = temp;
    }

(4)问题:C文件使用引用传递时,报错: error: expected ‘;‘, ‘,‘ or ‘)‘ before ‘&‘ token

        分析:C语言中其实不存在引用传递,只有C++支持

        解决将代码保存成.cpp文件,c++中支持引用

(5)参考文章

(19条消息) C语言中 error: expected ‘;‘, ‘,‘ or ‘)‘ before ‘&‘ token 解决方法_迷途ぽ的博客-CSDN博客_error: ';' expected

(19条消息) 函数参数传递三种方式(传值方式,地址传递,引用传递)_M&&C的博客-CSDN博客_函数传值

Swap(交换函数)_交换函数swap-CSDN博客

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 好的,下面是SparkSQL代码笔记03——连接Hive的中文回复: 在SparkSQL中,我们可以通过以下步骤连接Hive: 1. 首先,需要在SparkSession中启用Hive支持,可以使用以下代码: ``` from pyspark.sql import SparkSession spark = SparkSession.builder \ .appName("SparkSQL Hive Example") \ .config("spark.sql.warehouse.dir", "/user/hive/warehouse") \ .enableHiveSupport() \ .getOrCreate() ``` 其中,`enableHiveSupport()`方法启用了Hive支持,`config("spark.sql.warehouse.dir", "/user/hive/warehouse")`指定了Hive元数据存储的目录。 2. 接下来,我们可以使用`spark.sql()`方法执行Hive SQL语句,例如: ``` spark.sql("show databases").show() ``` 这将显示所有的Hive数据库。 3. 如果需要在SparkSQL中访问Hive表,可以使用以下代码: ``` df = spark.sql("select * from my_hive_table") ``` 其中,`my_hive_table`是Hive中的表名。 4. 如果需要在SparkSQL中创建Hive表,可以使用以下代码: ``` spark.sql("create table my_hive_table (id int, name string)") ``` 这将在Hive中创建一个名为`my_hive_table`的表,包含两个列:`id`和`name`。 以上就是连接Hive的基本步骤。需要注意的是,连接Hive需要在Spark集群中安装Hive,并且需要将Hive的JAR包添加到Spark的CLASSPATH中。 ### 回答2: SparkSQL是Apache Spark的一个组件,它提供了用于分布式数据处理的高级SQL查询引擎。SparkSQL支持连接多种数据源,其中之一就是Hive。 如何连接Hive? 在开始连接Hive之前,我们需要确保Hadoop和Hive的配置已经被正确的设置好了,以便Spark能够访问Hive元数据和数据。 首先,我们需要在Spark环境中添加Hive支持。运行下面的代码: `from pyspark.sql import SparkSession spark = SparkSession.builder \ .appName("hive_support") \ .enableHiveSupport() \ .getOrCreate()` 其中,`.enableHiveSupport()`将启用hive支持。 接下来,我们可以使用SparkSession连接Hive。运行下面的代码: `hive_df = spark.sql("SELECT * FROM default.student")` 其中,“default”是Hive的默认数据库,“student”是Hive数据库中的表名。 如果你要访问非默认的Hive数据库,可以使用下面的代码: `hive_df = spark.sql("SELECT * FROM dbname.student")` 其中,“dbname”是非默认的Hive数据库名。 我们还可以使用HiveContext来连接Hive。运行下面的代码: `from pyspark.sql import HiveContext hive_context = HiveContext(sc)` 其中,“sc”是SparkContext对象。 我们可以像这样从Hive中检索数据: `hive_df = hive_ctx.sql("SELECT * FROM default.student")` 现在你已经成功地连接Hive并从中检索了数据,你可以使用SparkSQL的强大功能对数据进行分析。而在连接Hive之外,在SparkSQL中还可以连接其他数据源,包括MySQL、PostgreSQL、Oracle等。 ### 回答3: Spark SQL是一个强大的分布式计算引擎,它可以支持处理多种数据源,并可通过Spark SQL shell、Spark应用程序或JDBC/ODBC接口等方式进行操作。其中,连接Hive是Spark SQL最常用的数据源之一。下面,将介绍如何通过Spark SQL连接Hive。 1、在Spark配置中设置Hive Support 要连接Hive,首先需要在Spark配置中开启Hive Support。在启动Spark Shell时,可以添加如下参数: ``` ./bin/spark-shell --master local \ --conf spark.sql.warehouse.dir="/user/hive/warehouse" \ --conf spark.sql.catalogImplementation=hive \ --conf spark.sql.hive.metastore.version=0.13 \ --conf spark.sql.hive.metastore.jars=maven ``` 这里以本地模式为例,设置Spark SQL的元数据存储在本地文件系统中,设置Hive为catalog实现,以及为Hive Metastore设置版本和JAR文件路径。根据实际情况,还可以指定其他参数,如Hive Metastore地址、数据库名称、用户名和密码等。 2、创建SparkSession对象 在连接Hive之前,需要先创建SparkSession对象。可以通过调用SparkSession.builder()静态方法来构建SparkSession对象,如下所示: ``` val spark = SparkSession.builder() .appName("SparkSQLTest") .config("spark.sql.warehouse.dir", "/user/hive/warehouse") .enableHiveSupport() .getOrCreate() ``` 这里通过builder()方法指定应用程序名称、元数据存储路径以及启用Hive Support,最后调用getOrCreate()方法创建SparkSession对象。 3、通过Spark SQL操作Hive表 通过Spark SQL连接Hive后,就可以通过Spark SQL语句来操作Hive表了。例如,我们可以使用select语句查询Hive表中的数据: ``` val df = spark.sql("SELECT * FROM tablename") df.show() ``` 其中,select语句指定要查询的列和表名,然后通过show()方法来显示查询结果。 除了查询数据之外,Spark SQL还可以通过insertInto语句将数据插入到Hive表中: ``` val data = Seq(("Alice", 25), ("Bob", 30)) val rdd = spark.sparkContext.parallelize(data) val df = rdd.toDF("name", "age") df.write.mode(SaveMode.Append).insertInto("tablename") ``` 这里先创建一个包含数据的RDD对象,然后将其转换为DataFrame对象,并指定列名。接着,通过insertInto()方法将DataFrame对象中的数据插入到Hive表中。 总之,通过Spark SQL连接Hive可以方便地查询、插入、更新和删除Hive表中的数据,从而实现更加灵活和高效的数据处理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值