SQL基础认识

SQL(Structured Query Language)是结构化查询语言,专门用来访问和处理数据库的编程语言。能够以编程的形式,操作数据库里面的数据。

三个关键点:
(1)SQL是一门数据库编程语言;
(2)使用SQL语言编写出来的代码,叫做SQL语句;
(3)SQL语言只能在关系型数据库中使用,非关系型型数据库(Mongodb)不支持SQL语言。

SQL能做什么:
(1)从数据库中查询数据
(2)向数据库中插入新的数据
(3)更新数据库中的数据;
(4)从数据库删除数据;
(5)可以创建新数据库;
(6)可在数据库中创建新表
(7)可在数据库中创建存储过程、视图

SQL的SELECT语句:
SELECT语句用于从表中查询数据。执行的结果被存储在一个结果表中(成为结果集)。
注意:SQL语句中的关键字大小写不敏感。SELECT等效于select

--从FROM指定的表中,查询出所有的数据。*表示所有列
SELECT *FROM 表名称

--从FROM指定的表中,查询出指定的 列名称(字段) 的数据
SELECT 列名称 FROM 表名称

insert into 语句:用于向数据表中插入新的数据行,

-- 向指定的表中,插入几列数据,列值通过value 一 一指定
INSERT INTO table_name表名(列1,列2,...) VALUES(值1,值2,...)

WHERE子句用于限定选择的标准。下面的运算符可在WHERE子句中使用,用来限定子句的标准(除了常见的=、>、<、>=、<=):

<>不等于
BETWEEN在某个范围内
LIXE搜索某种模式

UPDATE语句:用于修改表中的数据

-- 用UPDATE指定要更新哪个表中的数据,SET指定列对应的新值,WHERE指定更新的条件
UPDATE 表名称 SET 列名称 = 新值 WHERE 列名称 = 某值

DELETE语句:

delete from 表名 where 列名称 = 某值

AND和OR可在where子语句中把两个或多个条件结合起来。
AND表示必须同时满足多个条件,相当于JavaScript中的&&运算符;
OR表示只要满足一个条件即可,相当于JavaScript中的 || 运算符。

ORDER BY子句-升序排序:

--对表中数据,例如按照status字段进行升序排序 ASC(可写可不写)关键字代表升序排序 DESC代表降序
select * from 表名 order by status ASC
select * from 表名 order by status DESC

-- 多重排序 例如先按照status字段进行降序排序,再按照username的字母顺序进行升序
select * from users order by status DESC,username ASC

COUNT(*)函数用于返回查询结果的总数据条数

select count(*) from 表名称

使用AS为列设置别名

-- 原名 as 新名
SELECT COUNT(*) AS total from 表名
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark SQL与普通SQL的不同主要有以下几点: 1. 数据源:Spark SQL可以处理多种数据源,包括Hive、JSON、Parquet、ORC等,而普通SQL只能处理关系型数据库的数据源。 2. 执行引擎:Spark SQL采用分布式计算引擎执行SQL查询,可以利用Spark的分布式计算能力,支持海量数据的处理和分析;而普通SQL采用传统的关系型数据库执行引擎,无法进行分布式计算。 3. 数据处理方式:Spark SQL支持流式的数据处理方式,使得它可以处理实时数据流;而普通SQL只能处理静态的数据。 4. 扩展性:Spark SQL具有很好的扩展性,可以通过自定义函数、聚合函数等方式扩展SQL的功能;而普通SQL的扩展性较弱。 5. 性能:Spark SQL在处理大规模数据时,由于采用了分布式计算的方式,可以获得较好的性能表现;而普通SQL的性能在处理大规模数据时会受到限制。 ### 回答2: 在学习Spark SQL的过程中,需要认识到与普通SQL相比,Spark SQL具有以下不同之处。 首先,Spark SQL是构建在Apache Spark之上的,它是Spark生态系统中的一部分。相比于传统的SQL,Spark SQL能够处理更大规模的数据集,并进行分布式计算,提供更高的性能和可伸缩性。 其次,Spark SQL不仅支持传统的结构化查询语言(SQL),还支持使用DataFrame和DataSet这两种数据抽象的API进行编程。DataFrame是一种以RDD为基础的分布式数据集,它能够提供更高级的数据操作和优化。而DataSet是对DataFrame的一种类型安全的封装,提供了更丰富的编程接口。 另外,Spark SQL还提供了更多的数据源连接选项,可以连接多种数据源,如Hive、Avro、Parquet等。这使得开发者可以使用不同的数据源,在一个查询中同时处理多种类型的数据。 此外,Spark SQL还具有更强大的数据处理和分析能力。它支持复杂的分析操作,如窗口函数、聚合操作、连接操作等。同时,Spark SQL还提供了内置的机器学习库(MLlib),可以在查询中直接使用机器学习算法,实现更复杂的数据分析和挖掘功能。 最后,Spark SQL具有更好的生态系统支持。由于其广泛的应用和社区参与,Spark SQL拥有丰富的文档、教程和示例,方便开发者学习和使用。同时,其与其他Spark组件的集成也使得开发者可以在一个项目中同时使用Spark SQL和其他组件,如Spark Streaming、Spark ML等。 ### 回答3: 在学习Spark SQL的过程中,需要认识到它与普通SQL有以下几个不同之处。 首先,Spark SQL是Apache Spark生态系统中的一部分,它提供了一种在分布式环境下处理结构化数据的高性能数据处理引擎。相比普通SQL,Spark SQL可以处理更大规模的数据量并提供更快的执行速度。 其次,Spark SQL不仅支持传统的SQL查询语句,还提供了一系列扩展功能。它可以与其他Spark组件(如Spark Streaming和Spark MLlib)无缝集成,支持流式数据和机器学习算法的查询和处理。 另外,Spark SQL还引入了DataFrame和DataSet的概念,用于表示分布式数据集。DataFrame是以表格形式组织的数据集合,类似于关系数据库中的表,可以进行查询和转换操作。DataSet是强类型的DataFrame,可以通过编程语言的类型来定义数据集的结构,提供了更加丰富的类型安全性和编译时错误检查。 此外,Spark SQL还提供了一种基于Catalyst优化器的查询优化和执行引擎。Catalyst是Spark SQL内部使用的一种语言无关的查询优化框架,它可以将查询计划转换为更高效的物理执行计划,并进行优化和推测执行。 最后,Spark SQL还支持多种数据源,包括Hive、HBase、Parquet、Avro等。这使得用户可以方便地将不同格式的数据导入和导出到Spark SQL中进行处理和分析。 综上所述,在学习Spark SQL的过程中,需要认识到它与普通SQL在功能、性能和扩展性方面的不同,以便更好地使用和发挥其强大的数据处理能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值