解决docker下安装redis后,RedisDesktopManager可以链接,但是springboot项目不能链接的问题

主要原因:docker中的redis需要添加密码,不然数据会丢失,添加了密码远程访问的时候可能会出现链接不上,密码报错等问题,是因为docker中的redis版本是随时更新的,可以用 docker images 查看版本 是latest,版本更新之后,项目就链接不上redis了,之前可能能连接上,最新版本的redis需要redis.conf 配置文件,这里如果继续用dockers下的redis,就需要配置,可以在网上搜索redis.conf,然后保存在linux,映射到dockers中的文件夹,这样可以解决,或者删掉dockers中的redis容器之后,重新安装。

 

docker拉取redis镜像

docker search redis 搜索
docker pull redis  拉取最新redis
docker pull redis:6.  拉取指定版本
配置redis运行:

lulu@ubuntu:~$ docker run -itd --name redis -p 6379:6379 redis
c1a0da71c41a67bf43539b3c0c46afe5d92291fb6e0115b773ab10f30d48b2bd
进入redis内部,以客户端启动 

lulu@ubuntu:~$ docker exec -it redis /bin/bash
root@c1a0da71c41a:/data# redis-cli
127.0.0.1:6379> set test 1
OK
127.0.0.1:6379> get test
"1"
127.0.0.1:6379> exit
redis.conf 从官网下载: http://download.redis.io/redis-stable/redis.conf

redis.conf配置

 

 
# 是否以后台进程运行
daemonize yes 
 
# pid文件位置
pidfile /var/run/redis/redis-server.pid  
 
# 监听端口
port 6379
 
# 绑定地址,如外网需要连接,设置0.0.0.0
bind 127.0.0.1  
 
# 连接超时时间,单位秒
timeout 300   
 
##日志级别,分别有:
# debug :适用于开发和测试
# verbose :更详细信息
# notice :适用于生产环境
# warning :只记录警告或错误信息
loglevel notice 
 
# 日志文件位置
logfile /var/log/redis/redis-server.log  
 
# 是否将日志输出到系统日志
syslog-enabled no
 
# 设置数据库数量,默认数据库为0
databases 16
 
############### 快照方式 ###############
 
# 在900s(15m)之后,至少有1个key发生变化,则快照
save 900 1  
 
# 在300s(5m)之后,至少有10个key发生变化,则快照
save 300 10  
 
# 在60s(1m)之后,至少有1000个key发生变化,则快照
save 60 10000 
 
# dump时是否压缩数据
rdbcompression yes  
 
# 数据库(dump.rdb)文件存放目录
dir /var/lib/redis  
 
 
############### 主从复制 ###############
 
#主从复制使用,用于本机redis作为slave去连接主redis
slaveof <masterip> <masterport> 
 
#当master设置密码认证,slave用此选项指定master认证密码
masterauth <master-password>  
 
#当slave与master之间的连接断开或slave正在与master进行数据同步时,如果有slave请求,当设置为yes时,slave仍然响应请求,此时可能有问题,如果设置no时,slave会返回"SYNC with master in progress"错误信息。但INFO和SLAVEOF命令除外。
slave-serve-stale-data yes   
 
 
############### 安全 ###############
 
#配置redis连接认证密码
requirepass foobared  
 
 
############### 限制 ###############
 
#设置最大连接数,0为不限制
maxclients 128
 
##内存清理策略,如果达到此值,将采取以下动作:
# volatile-lru :默认策略,只对设置过期时间的key进行LRU算法删除
# allkeys-lru :删除不经常使用的key
# volatile-random :随机删除即将过期的key
# allkeys-random :随机删除一个key
# volatile-ttl :删除即将过期的key
# noeviction :不过期,写操作返回报错
maxmemory <bytes>
 
# 如果达到maxmemory值,采用此策略
maxmemory-policy volatile-lru
 
# 默认随机选择3个key,从中淘汰最不经常用的
maxmemory-samples 3  
 
 
############### 附加模式 ###############
 
# AOF持久化,是否记录更新操作日志,默认redis是异步(快照)把数据写入本地磁盘
appendonly no  
 
# 指定更新日志文件名
appendfilename appendonly.aof 
 
## AOF持久化三种同步策略:
# appendfsync always  #每次有数据发生变化时都会写入appendonly.aof
# appendfsync everysec #默认方式,每秒同步一次到appendonly.aof
# appendfsync no    #不同步,数据不会持久化
 
# 当AOF日志文件即将增长到指定百分比时,redis通过调用BGREWRITEAOF是否自动重写AOF日志文件。
no-appendfsync-on-rewrite no  
 
 
############### 虚拟内存 ###############
 
# 是否启用虚拟内存机制,虚拟内存机将数据分页存放,把很少访问的页放到swap上,内存占用多,最好关闭虚拟内存
vm-enabled no  
 
# 虚拟内存文件位置
vm-swap-file /var/lib/redis/redis.swap  
 
# redis使用的最大内存上限,保护redis不会因过多使用物理内存影响性能
vm-max-memory 0  
 
# 每个页面的大小为32字节
vm-page-size 32  
 
# 设置swap文件中页面数量
vm-pages 134217728 
 
# 访问swap文件的线程数
vm-max-threads 4  
 
 
############### 高级配置 ###############
 
# 哈希表中元素(条目)总个数不超过设定数量时,采用线性紧凑格式存储来节省空间
hash-max-zipmap-entries 512  
 
# 哈希表中每个value的长度不超过多少字节时,采用线性紧凑格式存储来节省空间
hash-max-zipmap-value 64   
 
# list数据类型多少节点以下会采用去指针的紧凑存储格式
list-max-ziplist-entries 512 
 
# list数据类型节点值大小小于多少字节会采用紧凑存储格式
list-max-ziplist-value 64  
 
# set数据类型内部数据如果全部是数值型,且包含多少节点以下会采用紧凑格式存储
set-max-intset-entries 512  
 
# 是否激活重置哈希
activerehashing yes    

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值