MY SQL使用笔记1

MySQL学习记录。 win+r,打开cmd窗口,在cmd窗口里输入mysqld --console打开MySQL

再输入 mysql -h localhost -u root -p(登录)。输入用户名,密码成功登录。

关闭服务:net stop mysql56

启动服务:net start mysql56;

刷新:flush privileges;

Mysql -uroot -p输入密码

Mysql -uroot -P端口 -p密码

在进入mysql之前修改密码:mysqladmin -uroot -p password 新密码

知道密码修改密码:set password=password(‘输入密码’);

不知道密码修改密码:update mysql.user set password=password(‘输入密码’) where user=’root’;

跳过密码输入:skip-grant-tables

基础命令: 退出:exit     \q

创建账号:create  user 账号名;

设置密码:Set password for 账户名@’%’=password(‘111111’);

删除账号:drop user 账户名;

显示当前账户:select user();

查看用户全部信息:select * from user\G;

查看部分信息:select host,user,password(三个选项)from user\G;

新建一个在本机使用的账号和密码:create user 用户名@'localhost' identified by '密码';

关于库:

1.查看数据库:show databases;

2.新建库:create database 库名;

3.删除库:drop database 库名;

4.选择库:use 库名

关于权限

1查看一个账号的权限show grants for 账号名@'%';

2赋予权限:grant all privileges on *.* to 账号名@'%';

3收回权限:revoke all privileges on *.* from 账户名@'%';

4查看一个账号的全部权限:select * from mysql.user where user='账号名'\G;

5设置密码,赋予权限:grant all privileges on *.* to 用户名@'%' identified by '密码';

*.*所有库,所有表,第一个*是库,第二个*是表

关于表:

建表:create table computer_book(book_id int(10) not null,

     book_name varchar(20) not null,

     book_price float(8,2) not null,

     primary key(book_id));

1.查看表:desc item;

2.删除表:drop table 表名

3.查看当前库中所有表: show tables;

4.查看表的创建语句:show create table 表名

5.表重命名:alter table 原有表名 rename 新表名

6.修改表的结构:alter table 表名 modify 数据类型 varchar(长度)

7表中增加字段:alter table 表名 add 数据类型 varchar(50);

Not null first;第一列

8.添加在某一列数据之后:alter table 表名add数据类型 text(长度) after 已有的类型;

9.删除某一列数据:alter table 表名 drop 那一列数据;

10.查看表中数据所有:select * from 表名

11.查询表中某几列数据:select last_name(列名),first_name(列名) from t_persons(表名);

12.查看某列中不重复的数据:select distinct(去重) last_name(列名) from t_persons(表名);

13.筛选条件查询:select * from t_persons(表名) where city(列名)='beijing(值)';<,>,=,<=,>=,<>不等于,!=不等于

14满足两个条件的筛选:select * from t_persons where last_name='carter' and first_name='thomas';

15多种搜索条件搜索:select * from t_persons(表名) where year(列名)>'1975(值)' and address(列名)='Xuanwumen 10(值)' or address(列名)='changan street(值)';先or在and

排序:select * from t_persons(表名) order by year(列名) asc(升序);     select * from t_persons(表名) order by year(列名) desc(降序);

16.加自动增长,alter table t_persons(表名) modify id(列名) int(10长度) auto_increment;

17.更新某一项数据:update t_persons(表名) set address(列名)='waitan(新值)' where last_name(列名)='james(原值)';

18.修改字段名称:alter table item change item_id(旧) item_number(新) int(5) not null;

19.增加主键(主键内容不能为空,不能重复):alter table item(表名) add primary key(item_id);

20.删除主键:alter table item(表名) drop primary key;

21.删除表数据:delete from 表名,(自动增长不能删),

22.清空表内数据turuncate table 表名  (自动增长也清空)

关于数据

1.添加数据:insert into

insert into bookshelf (book_name,book_price) values('c',20);

2.查看表中所有数据:select * from 表名称

3.删除表中指定数据: delete from 表名 where id=XX

4,修改整列数据: update 表名 set 列名=‘要改的数据’;

5.修改指定数据: update 表名 set 列名=新数据列名=新数据 where id=XX’;

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: 好的,下面是SparkSQL代码笔记03——连接Hive的中文回复: 在SparkSQL中,我们可以通过以下步骤连接Hive: 1. 首先,需要在SparkSession中启用Hive支持,可以使用以下代码: ``` from pyspark.sql import SparkSession spark = SparkSession.builder \ .appName("SparkSQL Hive Example") \ .config("spark.sql.warehouse.dir", "/user/hive/warehouse") \ .enableHiveSupport() \ .getOrCreate() ``` 其中,`enableHiveSupport()`方法启用了Hive支持,`config("spark.sql.warehouse.dir", "/user/hive/warehouse")`指定了Hive元数据存储的目录。 2. 接下来,我们可以使用`spark.sql()`方法执行Hive SQL语句,例如: ``` spark.sql("show databases").show() ``` 这将显示所有的Hive数据库。 3. 如果需要在SparkSQL中访问Hive表,可以使用以下代码: ``` df = spark.sql("select * from my_hive_table") ``` 其中,`my_hive_table`是Hive中的表名。 4. 如果需要在SparkSQL中创建Hive表,可以使用以下代码: ``` spark.sql("create table my_hive_table (id int, name string)") ``` 这将在Hive中创建一个名为`my_hive_table`的表,包含两个列:`id`和`name`。 以上就是连接Hive的基本步骤。需要注意的是,连接Hive需要在Spark集群中安装Hive,并且需要将Hive的JAR包添加到Spark的CLASSPATH中。 ### 回答2: SparkSQL是Apache Spark的一个组件,它提供了用于分布式数据处理的高级SQL查询引擎。SparkSQL支持连接多种数据源,其中之一就是Hive。 如何连接Hive? 在开始连接Hive之前,我们需要确保Hadoop和Hive的配置已经被正确的设置好了,以便Spark能够访问Hive元数据和数据。 首先,我们需要在Spark环境中添加Hive支持。运行下面的代码: `from pyspark.sql import SparkSession spark = SparkSession.builder \ .appName("hive_support") \ .enableHiveSupport() \ .getOrCreate()` 其中,`.enableHiveSupport()`将启用hive支持。 接下来,我们可以使用SparkSession连接Hive。运行下面的代码: `hive_df = spark.sql("SELECT * FROM default.student")` 其中,“default”是Hive的默认数据库,“student”是Hive数据库中的表名。 如果你要访问非默认的Hive数据库,可以使用下面的代码: `hive_df = spark.sql("SELECT * FROM dbname.student")` 其中,“dbname”是非默认的Hive数据库名。 我们还可以使用HiveContext来连接Hive。运行下面的代码: `from pyspark.sql import HiveContext hive_context = HiveContext(sc)` 其中,“sc”是SparkContext对象。 我们可以像这样从Hive中检索数据: `hive_df = hive_ctx.sql("SELECT * FROM default.student")` 现在你已经成功地连接Hive并从中检索了数据,你可以使用SparkSQL的强大功能对数据进行分析。而在连接Hive之外,在SparkSQL中还可以连接其他数据源,包括MySQL、PostgreSQL、Oracle等。 ### 回答3: Spark SQL是一个强大的分布式计算引擎,它可以支持处理多种数据源,并可通过Spark SQL shell、Spark应用程序或JDBC/ODBC接口等方式进行操作。其中,连接Hive是Spark SQL最常用的数据源之一。下面,将介绍如何通过Spark SQL连接Hive。 1、在Spark配置中设置Hive Support 要连接Hive,首先需要在Spark配置中开启Hive Support。在启动Spark Shell时,可以添加如下参数: ``` ./bin/spark-shell --master local \ --conf spark.sql.warehouse.dir="/user/hive/warehouse" \ --conf spark.sql.catalogImplementation=hive \ --conf spark.sql.hive.metastore.version=0.13 \ --conf spark.sql.hive.metastore.jars=maven ``` 这里以本地模式为例,设置Spark SQL的元数据存储在本地文件系统中,设置Hive为catalog实现,以及为Hive Metastore设置版本和JAR文件路径。根据实际情况,还可以指定其他参数,如Hive Metastore地址、数据库名称、用户名和密码等。 2、创建SparkSession对象 在连接Hive之前,需要先创建SparkSession对象。可以通过调用SparkSession.builder()静态方法来构建SparkSession对象,如下所示: ``` val spark = SparkSession.builder() .appName("SparkSQLTest") .config("spark.sql.warehouse.dir", "/user/hive/warehouse") .enableHiveSupport() .getOrCreate() ``` 这里通过builder()方法指定应用程序名称、元数据存储路径以及启用Hive Support,最后调用getOrCreate()方法创建SparkSession对象。 3、通过Spark SQL操作Hive表 通过Spark SQL连接Hive后,就可以通过Spark SQL语句来操作Hive表了。例如,我们可以使用select语句查询Hive表中的数据: ``` val df = spark.sql("SELECT * FROM tablename") df.show() ``` 其中,select语句指定要查询的列和表名,然后通过show()方法来显示查询结果。 除了查询数据之外,Spark SQL还可以通过insertInto语句将数据插入到Hive表中: ``` val data = Seq(("Alice", 25), ("Bob", 30)) val rdd = spark.sparkContext.parallelize(data) val df = rdd.toDF("name", "age") df.write.mode(SaveMode.Append).insertInto("tablename") ``` 这里先创建一个包含数据的RDD对象,然后将其转换为DataFrame对象,并指定列名。接着,通过insertInto()方法将DataFrame对象中的数据插入到Hive表中。 总之,通过Spark SQL连接Hive可以方便地查询、插入、更新和删除Hive表中的数据,从而实现更加灵活和高效的数据处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值