数据库引擎
MySQL中的数据用各种不同的存储机制、索引技巧、锁定水平等存储在文件中的技术或功能称为数据库引擎。
MyISAM
索引和实际数据是分开的。不过索引指向实际的数据,这种索引也就是非聚合索引。但是它没有提供对数据库事务的支持,也不支持表级锁,写操作需要锁定整个表,效率便会低一些。
Innodb
数据域存储的就是表中的数据,(累了,,,下次接着写完)
特点就是支持事务和外键。
数据库隔离级别:
Read Uncommitted(读取未提交内容)
在该隔离级别,所有事务都可以看到其他未提交事务的执行结果。本隔离级别很少用于实际应用,因为它的性能也不比其他级别好多少。读取未提交的数据,也被称之为脏读(Dirty Read)。
Read Committed(读取提交内容)
这种隔离级别 也支持所谓的不可重复读(Nonrepeatable Read)
Repeatable Read(可重读)
这是MySQL的默认事务隔离级别,它确保同一事务的多个实例在并发读取数据时,会看到同样的数据行。不过理论上,这会导致另一个棘手的问题:幻读 (Phantom Read)。简单的说,幻读指当用户读取某一范围的数据行时,另一个事务又在该范围内插入了新行,当用户再读取该范围的数据行时,会发现有新的“幻影” 行。InnoDB和Falcon存储引擎通过多版本并发控制(MVCC,Multiversion Concurrency Control)机制解决了该问题。
串行化
联合索引
在Mysql建立多列索引(联合索引)有最左前缀的原则,即最左优先。
如果我们建立了一个2列的联合索引(col1,col2),实际上已经建立了两个联合索引(col1)、(col1,col2);
如果有一个3列索引(col1,col2,col3),实际上已经建立了三个联合索引(col1)、(col1,col2)、(col1,col2,col3)。
查看表中字段
插入数据
查询最新记录
查询平均时间、
根据最新时间排序
插入一条
创建带有主键的表
创建双主键,带有外键的表
选择,投影和连接
选择
投影
模糊查询like
为了查询不确定字段,需要进行模糊查询
'%a' //以a结尾的数据
'a%' //以a开头的数据
'%a%' //含有a的数据
'_a_' //三位且中间字母是a的
'_a' //两位且结尾字母是a的
'a_' //两位且开头字母是a的
limit的用法
连接(后续完善的)
之前以为用外键就算是连接了,而且用的是where去连接的,经过学习,发现应该是join和on
这个是内连接,还有左右连接
根据专业分组统计人数
使用having
order排个序
python链接mysql
方法一:直连
user = 'mysql_root'
password = ''
host = '192.168.20.xx'
port = 13306
dbname = 'test'
conn = pymysql.connect(host=host, user=user, password=password, db=dbname, port=port, charset='utf8')
cursor = conn.cursor()
# country province city wgs_lon wgs_lat
sql = 'select * from city where country like "%%" or province like "%%"'
# sql = 'select * from city where city=""'
cursor.execute(sql)
data = cursor.fetchone()
# data = cursor.fetchall()
方法二:sqlalchemy
在这里有个坑,模糊查询时一个百分号会报错,需要两个百分号
user = 'mysql_root'
password = ''
host = '192.168.20.xx'
port = 13306
dbname = 'test'
engine = create_engine('mysql+pymysql://{}:{}@{}:{}/{}'.format(user, password, host, port, dbname), encoding='gbk')
print('连接成功')
sql = 'select * from city where city like "%%xx" limit 1'
df1 = pd.read_sql_query(sql, engine)
print(df1)
MongoDB
数据库
collection
document
就这三个概念
第一步获取Collection
第二步输入filter
此处还可以用一些函数,比如
collection.find().skip(pageindex * 10).limit(10);
skip是跳过多少行
limit是要前多少行
collection.count()
计数,很明显
collection.find().sort(new Document("_id", -1)) .limit(5)
按id排序,查前五个
因为id是mongo自己根据时间戳生成的,所以有大小
com.mongodb.client.model.Filters这个是用来写过滤规则的
这里的eq就是匹配等于
Bson filter = Filters.eq("_id", new ObjectId(updateId));