总结:如何使用redis缓存加索引处理数据库百万级并发

前言:事先说明:在实际应用中这种做法设计需要各位读者自己设计,本文只提供一种思想。准备工作:安装后本地数redis服务器,使用mysql数据库,事先插入1000万条数据,可以参考我之前的文章插入数据,这里不再细说。我大概的做法是这样的,编码使用多线程访问我的数据库,在访问数据库前先访问redis缓存没有的话在去查询数据库,需要注意的是redis最大连接数最好设置为300,不然会出现很多报错。

 贴一下代码吧

package select;

import redis.clients.jedis.JedisPool;
import redis.clients.jedis.JedisPoolConfig;

public class SelectFromMysql {
	   public static void main(String[] args) {
		   	JedisPool pool;
	      
	        JedisPoolConfig config = new JedisPoolConfig();//创建redis连接池
	        // 设置最大连接数,-1无限制
	        config.setMaxTotal(300);
	        // 设置最大空闲连接
	        config.setMaxIdle(100);
	        // 设置最大阻塞时间,记住是毫秒数milliseconds
	        config.setMaxWaitMillis(100000);
	        // 创建连接池
	        pool = new JedisPool(config, "127.0.0.1", 6379,200000);
	      for (int i =9222000; i <=9222200; i++) {//这里自己设置用多少线程并发访问
				String teacherName=String.valueOf(i);
				new ThreadToMysql(teacherName, "123456",pool).start();
				 
			}
	 }
}

 

package select;

import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.SQLException;
import java.sql.Statement;

import redis.clients.jedis.Jedis;
import redis.clients.jedis.JedisPool;

public class ThreadToMysql extends Thread {
	public String teacherName;
	public String password;
	public JedisPool pool;
	public ThreadToMysql(String teacherName, String password,JedisPool pool) {//构造函数传入要查询登录的老师姓名和密码
		
		this.teacherName=teacherName;
		this.password=password;
		this.pool=pool;
	}
	
	public void run() {
		 Jedis jedis = pool.getResource();
		 Long startTime=System.currentTimeMillis();//开始时间
		if (jedis.get(teacherName)!=null) {
			 Long entTime=System.currentTimeMillis();//开始时间
			System.out.println(currentThread().getName()+" 缓存得到的结果: "+jedis.get(teacherName)+" 开始时间:"+startTime+"  结束时间:"+entTime+"  用时:" +(entTime-startTime)+"ms");
			pool.returnResource(jedis);
			System.out.println("释放该redis连接");
		} else {

		
		 String url = "jdbc:mysql://127.0.0.1/teacher";  
		 String name = "com.mysql.jdbc.Driver";  
		 String user = "root";  
		 String password = "123456";  
		Connection conn = null;  
		try {
			Class.forName(name);
			conn = DriverManager.getConnection(url, user, password);//获取连接  
			conn.setAutoCommit(false);//关闭自动提交,不然conn.commit()运行到这句会报错
		} catch (ClassNotFoundException e1) {
			e1.printStackTrace();
		} catch (SQLException e) {
			e.printStackTrace();
		}
		if (conn!=null) {
		   
			String sql="select t_name from test_teacher where t_name='"+teacherName+"' and t_password='"+password+"' ";//SQL语句
			String t_name=null;
			try {
				Statement stmt=conn.createStatement();
				ResultSet rs=stmt.executeQuery(sql);//获取结果集
				if (rs.next()) {
					t_name=rs.getString("t_name");
					jedis.set(teacherName, t_name);
					System.out.println("释放该连接");
				}
				conn.commit();
				stmt.close();
				conn.close();
			} catch (SQLException e) {
				e.printStackTrace();
			}finally {
				pool.returnResource(jedis);
				System.out.println("释放该连接");
			}
			    Long end=System.currentTimeMillis();
			    System.out.println(currentThread().getName()+"  数据库得到的查询结果:"+t_name+"   开始时间:"+startTime+"  结束时间:"+end+"  用时:"+(end-startTime)+"ms");
			
			
		} else {
			System.out.println(currentThread().getName()+"数据库连接失败:");
		}
		
		
	}
	}
	
}

 我的数据库表数据是这样的。可以看到我的t_name是1-10000000,密码固定123456.利用循环创建线程很好做传入循环的次数作为查询的t_name就行了

采用redis缓存替换加索引的方案

1.在200并发访问下:

第一次访问结果:由于第一次访问缓存不存在该数据,速度很慢

最慢90多秒

运行第二次访问后(redis数据库已存在数据)的结果:

最慢700多毫秒

2.当我尝试1000线程并发访问时redis直接挂掉,原因在于reids缓存并没有要查找的数据,就从数据库查找,1000个线程同时并发访问数据库等待时间太长了,造成redis连接等待超时(就算把redis的超时等待时间设置为100分钟也没用,会报redis连接被拒绝的错误)

3.当我利用循环事先把100万条数据插入redis缓存服务器后,在1万个线程并发访问测试下只需要5~6秒就拿到了查询结果,效率出奇的快,而且没有报任何错

4.在3的条件下我把并发线程提升到100万个时,测试在百万并发条件下查询性能,发现完全没有压力,每个线程也是几毫秒就能查到结果,这个时候限制我速度的就是电脑CPU了。我的测试电脑是4核的,处理100万个线程起来比较慢,下面是截图,运行到50多万个线程的时候我就停止了运行

 

 好了,以上都是数据库查询的字段没有加索引直接利用redis缓存查找的

 而且有个弊端,百万级的并发访问需要事先把数据放到缓存中,在实际中并不科学(因为并不知道那些是热点数据),下面来看看如何使用索引加缓存的效果

 1.给t_name和t_password字段加组合索引

 

 我们来看看在有索引且redis缓存事先没有数据的时候,创建100万个线程并发访问的结果

 没问题,这样就完成了百万级别下的并发访问,但是这样我的程序创建线程很慢,因为我的电脑4核CPU的(但是要创建100万个线程),这个时候就是硬件设备的性能了,在设备硬件性能足够的条件下是没问题的

 以下是我的总结:

1.我的优化方案中只有两种,一种是给查询的字段加组合索引。另一种是给在用户和数据库中增加缓存

2.添加索引方案:面对1~2千的并发是没有压力的,在往上则限制的瓶颈就是数据库最大连接数了,在上面中我用show global status like 'Max_used_connections’查看数据库可以知道数据库最大响应连接数是5700多,超过这个数tomcat直接报错连接被拒绝或者连接已经失效

3.缓存方案:在上面的测试可以知道,要是我们事先把数据库的千万条数据同步到redis缓存中,瓶颈就是我们的设备硬件性能了,假如我们的主机有几百个核心CPU,就算是千万级的并发下也可以完全无压力,带个用户很好的。

4.索引+缓存方案:缓存事先没有要查询的数据,在一万的并发下测试数据库毫无压力,程序先通过查缓存再查数据库大大减轻了数据库的压力,即使缓存不命中在一万的并发下也能正常访问,在10万并发下数据库依然没压力,但是redis服务器设置最大连接数300去处理10万的线程,4核CPU处理不过来,很多redis连接不了。我用show global status like 'Max_used_connections'查看数据库发现最大响应连接数是388,这么低所以数据库是不会挂掉的。

5.使用场景:a.几百或者2000以下并发直接加上组合索引就可以了。b.不想加索引又高并发的情况下可以先事先把数据放到缓存中,硬件设备支持下可解决百万级并发。c.加索引且缓存事先没有数据,在硬件设备支持下可解决百万级并发问题。d.不加索引且缓存事先没有数据,不可取,要80多秒才能得到结果,用户体验极差。

6.原理:其实使用了redis的话为什么数据库不会崩溃是因为redis最大连接数为300,这样数据库最大同时连接数也是300多,所以不会挂掉,至于redis为什么设置为300是因为设置的太高就会报错(连接被拒绝)或者等待超时(就算设置等待超时的时间很长也会报这个错)。

 最后说明:本文不代表实际应用开发场景,更多的是提供一种思想,一种解决方案,如有错误,请指正,谢谢

技术交流群:494389786

本文源码:

http://download.csdn.net/detail/qq_32780741/9606370

本代码需要的jar包下载地址:

http://download.csdn.net/detail/qq_32780741/9606380

转载于:https://www.cnblogs.com/fanwencong/p/5782860.html

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 感谢您的提问!以下是我推荐的几个高效且易用的读写数据库的库: 1. SQLAlchemy:这是一个 Python 的 ORM(Object Relational Mapping)库,提供了对多种关系型数据库的支持,包括 PostgreSQL、MySQL、SQLite、Oracle 等等。它能够实现数据库操作的抽象,使得编写和维护数据库相关的代码更简单和方便。 2. PyMySQL:这是一个纯 Python 实现的 MySQL 客户端库,适用于 Python 2.x 和 3.x 版本,支持执行 SQL 语句、事务处理、数据类型转换等等。 3. Psycopg2:这是一个 PostgreSQL 的 Python 客户端库,提供了对 PostgreSQL 数据库的连接、查询、事务处理等等操作的支持。 4. MongoDB:这是一个文档型 NoSQL 数据库,提供了对数据存储和检索的支持,具有高可扩展性和高性能的特点。在 Python 中,pymongo 库是对 MongoDB 数据库进行操作的主要工具。 以上是我推荐的一些 Python 中常用的数据库操作库,具体使用时您可以根据自己的需要选择适合自己的库进行开发。 ### 回答2: 高并发读写数据库是指在同一时间内有大量同时连接数据库进行读写操作的情况。在面对高并发读写数据库时,可以考虑以下几点推荐: 1. 水平扩展:通过增数据库服务器的数量来分担负载,可以使用数据库集群或分布式系统来实现。这样可以将请求分散到多台服务器上,提高读写效率和数据库处理能力。 2. 缓存技术:可以使用缓存技术来减轻数据库的读写压力。通过将热门数据缓存在内存中,减少数据库的读取次数,提高读取速度。常用的缓存技术有Redis、Memcached等。 3. 数据库优化:优化数据库的结构和性能,包括合适的索引设计、适当的表分片等。通过合理地使用索引可以快查询速度,表分片可以将数据分散存储在多个表中,避免单表过大造成的性能瓶颈。 4. 异步处理:对于一些不需要实时响应的操作,可以将其放入消息队列中异步处理,减少数据库的读写压力。例如,将用户的上传操作放入消息队列中,由后台异步处理,可以提高数据库的性能。 5. 数据库连接池:使用数据库连接池可以减少数据库连接的重复创建和销毁,提高连接的复用率。 6. 数据库读写分离:将数据库的读操作和写操作分离,使用不同的数据库服务器处理。这样可以将读操作负载均衡到多台服务器上,提高数据库的读性能。 综上所述,高并发读写数据库可以通过水平扩展、缓存技术、数据库优化、异步处理数据库连接池和数据库读写分离等方式来进行优化。根据具体的业务场景和需求,可以选择合适的方案进行应用。 ### 回答3: 高并发读写数据库是指在短时间内有大量的并发请求涉及到数据库的读取和写入操作。为了解决这个问题,以下是一些推荐措施: 1. 数据库优化:对数据库进行适当的调优,包括合理的索引设计、表分区、查询优化等,以提高数据库的读写性能。 2. 缓存机制:可以使用缓存来减轻数据库的读写压力。将常用的数据缓存在内存中,减少数据库的访问次数,从而提高并发读取的性能。 3. 异步处理:将一些可以异步处理的任务放入消息队列或者后台线程中,减少主线程对数据库的压力。例如,将写入操作放入消息队列中由后台线程处理,避免阻塞主线程。 4. 数据分片:将数据进行分片存储,使得每个片段只有部分数据,可以减少数据库的访问冲突,提高并发读写的效率。 5. 垂直扩展和水平扩展:可以通过垂直扩展(增硬件资源)和水平扩展(增数据库节点)来提高数据库并发读写能力。 6. 使用缓冲区:可以使用缓冲区将一些写入操作临时存储起来,延迟向数据库写入,从而减少瞬时的写入压力。 7. 数据库连接池:合理使用数据库连接池,复用数据库连接,减少数据库连接的创建和销毁的开销。 8. 压测和性能监控:进行压力测试,对数据库进行性能监控,及时发现性能瓶颈,并作出相应的调整和优化。 总之,高并发读写数据库的关键是优化数据库的结构和使用合适的技术手段来分散并发请求,提高数据库的读写性能和吞吐量。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值