Rsync+inotify 实现文件自动同步

Rsync (remote sync)是UNIX及类UNIX平台下的一款数据镜像备份软件

Rsync的优点与不足

与传统的cp、scp、tar备份方式相比,rsync具有安全性高、备份迅速、支持增量备份等优点,通过rsync可以解决对实时性要求不高的数据备份需求,例如定期的备份文件服务器数据到远端服务器,对本地磁盘定期做数据镜像等。随着应用系统规模的不断扩大,对数据的安全性和可靠性也提出的更好的要求,rsync在高端业务系统中也逐渐暴露出了很多不足,首先,rsync同步数据时,需要扫描所有文件后进行比对,进行增量传输。如果文件数量达到了百万甚至千万量级,扫描所有文件将是非常耗时的。而且正在发生变化的往往是其中很少的一部分,这是非常低效的方式。其次,rsync不能实时的去监测、同步数据,虽然它可以通过linux守护进程的方式进行触发同步,但是两次触发动作一定会有时间差,这样就导致了服务端和客户端数据可能出现不一致,无法在应用故障时完全的恢复数据。

Inotify

Inotify 是一种强大的、细粒度的、异步的文件系统事件监控机制,linux内核从2.6.13起,加入了Inotify支持,通过Inotify可以监控文件系统中添加、删除,修改、移动等各种细微事件,利用这个内核接口,第三方软件就可以监控文件系统下文件的各种变化情况,而inotify-tools就是这样的一个第三方软件。
 rsync可以实现触发式的文件同步,但是通过crontab守护进程方式进行触发,同步的数据和实际数据会有差异,而inotify可以监控文件系统的各种变化,当文件有任何变动时,就触发rsync同步,这样刚好解决了同步数据的实时性问

搭建rsync+inotify 服务器实现文件自动同步

实验目的:通过Inotify监控机制实现两台Web服务器数据同步

实验环境:两台web服务器,同时也是rsync服务器,一台数据同步服务器作为rsync的客户端+inotify,通过inotify监控机制,将数据同步服务器上的数据同时推送至两台web服务器,保持数据一致

web服务器+rsync服务器:agent1:192.168.1.101     agent2:192.168.1.102

数据同步服务器+rsync客户端+Inotify:master:192.168.1.111

1,搭建web服务器+rsync服务器

安装rsync软件

[root@agent1 web1]# rpm -qa rsync
rsync-3.0.6-9.el6.x86_64

编辑web1 rsync配置文件/etc/rsyncd.conf,这个文件需要自己创建,

[root@agent1 web1]# cat /etc/rsyncd.conf
#/etc/rsyncd.conf
motd file = /etc/rsyncd.motd
transfer logging = yes
pid file = /var/run/rsyncd.pid
log file = /var/log/rsyncd.pid
lock file = /var/run/rsync.lock
port = 873
uid = root
gid = root
use chroot = no
read only = no
max connections = 10

[web1]
comment = webdata
path = /var/www/web1
ignore errors
auth users = tom
secrets file = /etc/rsyncd.secrets
hosts allow=192.168.1.111/255.255.255.0
hosts deny =*

创建同步目录并启动rsync服务

mkdir /var/www/web1

chmod 660 /var/www/web1

rsync --daemon

[root@agent1 web1]# ps -ef | grep rsync
root      2962     1  0 01:40 ?        00:00:00 rsync --daemo

[root@agent1 web1]# lsof -i:873
COMMAND  PID USER   FD   TYPE DEVICE SIZE/OFF NODE NAME
rsync   2962 root    4u  IPv4  40919      0t0  TCP *:rsync (LISTEN)
rsync   2962 root    5u  IPv6  40920      0t0  TCP *:rsync (LISTEN)



同样的方式创建web2 rsync配置文件

[root@agent2 web2]# cat /etc/rsyncd.conf
#/etc/rsyncd.conf
motd file = /etc/rsyncd.motd
transfer logging = yes
pid file = /var/run/rsyncd.pid
log file = /var/log/rsyncd.pid
lock file = /var/run/rsync.lock
port = 873
uid = root
gid = root
use chroot = no
read only = no
max connections = 10

[web2]
comment = webdata
path = /var/www/web2
ignore errors
auth users = tom
secrets file = /etc/rsyncd.secrets
hosts allow=192.168.1.111/255.255.255.0
hosts deny =*

创建同步目录并启动rsync服务

mkdir /var/www/web2

chmod 660 /var/www/web2

[root@agent2 web2]# ps -ef | grep rsync
root      8022     1  0 Jun22 ?        00:00:00 rsync --daemon
root     14392  7627  0 01:42 pts/1    00:00:00 grep rsync
[root@agent2 web2]# lsof -i:873
COMMAND  PID USER   FD   TYPE DEVICE SIZE/OFF NODE NAME
rsync   8022 root    4u  IPv4  24376      0t0  TCP *:rsync (LISTEN)
rsync   8022 root    5u  IPv6  24377      0t0  TCP *:rsync (LISTEN)

配置数据同步服务器即rsync客户端+inotify

yum -y install rsync

rpm -ivh inotify-tools inotify-tools-devel

mkdir /web_data

创建inotify监控脚本并给予可执行权限,当监控到数据发生变化时,自动将数据同步至web服务器(即从rsync客户端将数据同步至rsync服务端)

[root@master ~]# vim notify_rsync.sh

#!/bin/bash
SRC=/web_data/
DEST1=web1
DEST2=web2
Client1=192.168.1.101
Client2=192.168.1.102
User=tom
Passfile=/etc/rsyncd.pass

inotifywait -mrq --timefmt '%d/%m/%y %H:%M' --format '%T %w%f %e' -e delete,create,modify,attrib $SRC | while read line

do

echo "$SRC success transfered" > /var/log/inotify_web 2>&1

rsync -avz --delete --progress --password-file=$Passfile $SRC $User@$Client1::$DEST1 >> /var/log/rsync_web1 2>&1
rsync -avz --delete --progress --password-file=$Passfile $SRC $User@$Client2::$DEST2 >> /var/log/rsync_web2 2>&1

done &


测试:

在master上运行脚本sh notify_rsync.sh

并在web_data中写入文件,查看web1,web2,对应目标文件/var/www/web1与/var/www/web2是否同步写入文件。


注意事项:

1.rsync配置文件/etc/rsyncd.conf 是需要自己创建的,具体格式可参照samba配件文件格式

2.在同步时查看服务器端日志有如下错误rsync: failed to connect to x.x.x.x: Connection refused (111) ,经排查是由于rsync服务未起,或者端口未开启,





深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值