俺需要把一台机器上面的大量的小文件(总大小在27G的样子)
备份到另外一台机器
周末试了cp命令,大概需要10多个小时,最后还报内存不足
而且中间看网络流量,也就是几百K的大小
想知道用什么方式好做这个东西
如果整个归档到一个大文件,那几十G的大小即使成功了俺也恢复不回去
能不能先提示几个思路啊,俺测试一下
备份到另外一台机器
周末试了cp命令,大概需要10多个小时,最后还报内存不足
而且中间看网络流量,也就是几百K的大小
想知道用什么方式好做这个东西
如果整个归档到一个大文件,那几十G的大小即使成功了俺也恢复不回去
能不能先提示几个思路啊,俺测试一下
***********************************************************************************************************************
两台机器你是怎么用的CP我觉得很奇怪?!
1、FTP。
2、十几个GB用GZIP压一下,也就不到一个GB,可以TAR过去,但看你CP一份要十个小时多,算了,这个方法不可行。
3、用BACKUP命令。find <dir1/file*>; <dir2/filename*>;... -print|backup -iqvf /dev/rmt0
解压:restore -xdqvf /dev/rmt0 <dir?/???>; (不打路径默认全部)
4、PAX用过,能备大文件,但恢复和备份机制我都不推荐。所以使用方法也不介绍。
1、FTP。
2、十几个GB用GZIP压一下,也就不到一个GB,可以TAR过去,但看你CP一份要十个小时多,算了,这个方法不可行。
3、用BACKUP命令。find <dir1/file*>; <dir2/filename*>;... -print|backup -iqvf /dev/rmt0
解压:restore -xdqvf /dev/rmt0 <dir?/???>; (不打路径默认全部)
4、PAX用过,能备大文件,但恢复和备份机制我都不推荐。所以使用方法也不介绍。
把另外一个机器nfs文件系统mount到本地使用
十几个小时不是网络速度有问题
主要是文件都很小,但数量巨多
当时用tar命令就是因为报内存不足才放弃
用cp提示差不多的错误,都是内存不足
才换成cpio命令试一下
我要备份到一个存储用的机器上面
磁带备份还是要保留的
十几个小时不是网络速度有问题
主要是文件都很小,但数量巨多
当时用tar命令就是因为报内存不足才放弃
用cp提示差不多的错误,都是内存不足
才换成cpio命令试一下
我要备份到一个存储用的机器上面
磁带备份还是要保留的