阿里TFS数据迁移OSS一些感受

我们是一家电商公司,有着大量的图片需要存储,因历史原因当时使用的存储是阿里的TFS,但是我们接手项目后发现老出问题并且没有专业的运维且维护成本很高,所以决定迁移到阿里的OSS (这不是我定的),下面具体讲下这次迁移过程中的一点实践心得。

遗憾的是TFS并没有提供批量导出的工具,所以只有自己想法子决绝了,有两种方案。

一、通过TFS的api

@SpringBootApplication
@ImportResource(locations = "classpath:tfs.xml")
public class App implements CommandLineRunner {

public static final Logger log = LoggerFactory.getLogger(App.class);
	@Autowired
	private TfsManager tfsManager;

	public static void main(String[] args) {

		SpringApplication.run(App.class, args);
	}

	@Override
	public void run(String... args) throws Exception {
		
		Boolean result = tfsManager.fetchFile("ssf151f12sdf1.jpg", null, new FileOutputStream(new File("e:\\","ssf151f12sdf1.jpg")));
	}

二、使用TFS自带的tfstools 工具 使用tfstools batch 命令需要组装数据格式 如:get T16ahTBgKT1RCvBVdK /usr/local/tfs/T16ahTBgKT1RCvBVdK 或者把组装好的格式放到文件当中。

文本文件内容如下(urls.txt)
  • get T16ahTBgKT1RCvBVdK /usr/local/tfs/T16ahTBgKT1RCvBVdK
  • get T1FRhTBgWT1RCvBVdK /usr/local/tfs/T1FRhTBgWT1RCvBVdK
  • get T1JyhTB_VT1RCvBVdK /usr/local/tfs/T1JyhTB_VT1RCvBVdK
  • get T1EthTB_ZT1RCvBVdK /usr/local/tfs/T1EthTB_ZT1RCvBVdK
  • get T1MthTB_dT1RCvBVdK /usr/local/tfs/T1MthTB_dT1RCvBVdK
  • get T1pthTB_ET1RCvBVdK /usr/local/tfs/T1pthTB_ET1RCvBVdK
  • get T1NRhTBgVT1RCvBVdK /usr/local/tfs/T1NRhTBgVT1RCvBVdK

使用tfstoos -s localhost:8100 进入到tfs的终端模式#

进入终端后使用 batch /usr/local/urls.txt 然后回车开始执行,也可以不进入终端直接使用tfstools -s localhost:8100 -i "batch /usr/local/urls.txt"来执行,顺便提一下就是使用tfstools get 命令只能获取单个图片。

总结

在选择存储的时候一定要考虑到以后的数据迁移问题,最好支持批量导出数据。

转载于:https://my.oschina.net/u/1455335/blog/740138

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
TFS(Taobao FileSystem)是一个高可扩展、高可用、高性能、面向互联网服务的分布式文件系统,其设计目标是支持海量的非结构化数据。 目前,国内自主研发的文件系统可谓凤毛麟角。淘宝在这一领域做了有效的探索和实践,Taobao File System(TFS)作为淘宝内部使用的分布式文件系统,针对海量小文件的随机读写访问性能做了特殊优化,承载着淘宝主站所有图片、商品描述等数据存储。 文章首先概括了TFS的特点:最近,淘宝核心系统团队工程师楚材(李震)在其官方博客上撰文(《TFS简介》,以下简称文章)简要介绍了TFS系统的基本情况,引起了社区的关注。 完全扁平化的数据组织结构,抛弃了传统文件系统的目录结构。 在块设备基础上建立自有的文件系统,减少EXT3等文件系统数据碎片带来的性能损耗。 单进程管理单块磁盘的方式,摒除RAID5机制。 带有HA机制的中央控制节点,在安全稳定和性能复杂度之间取得平衡。 尽量缩减元数据大小,将元数据全部加载入内存,提升访问速度。 跨机架和IDC的负载均衡和冗余安全策略。 完全平滑扩容。 当前,TFS淘宝的应用规模达到“数百台PCServer,PB级数据量,百亿数据级别”,对于其性能参数,楚材透漏: TFS淘宝的部署环境中前端有两层缓冲,到达TFS系统的请求非常离散,所以TFS内部是没有任何数据的内存缓冲的,包括传统文件系统的内存缓冲也不存在......基本上我们可以达到单块磁盘随机IOPS(即I/O per second)理论最大值的60%左右,整机的输出随盘数增加而线性增加。 TFS的逻辑架构图1如下所示: 图1. TFS逻辑架构图(来源:淘宝核心系统团队博客) 楚材结合架构图做了进一步说明: TFS尚未对最终用户提供传统文件系统API,需要通过TFSClient进行接口访问,现有JAVA、JNI、C、PHP的客户端 TFS的NameServer作为中心控制节点,监控所有数据节点的运行状况,负责读写调度的负载均衡,同时管理一级元数据用来帮助客户端定位需要访问的数据节点 TFS的DataServer作为数据节点,负责数据实际发生的负载均衡和数据冗余,同时管理二级元数据帮助客户端获取真实的业务数据。 标签:分布式  阿里巴巴

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值