当你只需要获取一个文件的attributes,而非整个文件的内容时,它也会将整个文件传输到客户机,
在文件很大或频繁访问小文件时,会导致极为可观的网络流量,严重时会把网络拖垮。。
【 在 Mikov 的大作中提到: 】
: 这种情况就别用nfs了. 本来nfs就是一种偷懒的做法.
: 在存储端跑一个jvm做代理, 将功能接口化
嗯,在公有云的虚拟IDC里,,,
其实原本想用S3兼容接口的存储服务(比如Minio),不过技术调研还有些兼容性问题。
用NFS是个过渡,还考虑过FTP的方案,但是FTP也是个巨坑。
姑且先用cachefilesd配合NFS试试,只要能降低反复读的压力就能扛一段时间,
等到S3兼容的存储服务OK了,就直接切换到S3 API了。
【 在 zxeoc 的大作中提到: 】
: 文件存进去的时候就同时存一份相关信息,手工维护一下两者的关系
现在就等价于这么干的。
因为文件是用户上传而来的,取得size、mime等信息的时候就改为从上传的临时文件里取了。
不过即便如此,从临时文件到nfs落盘等,有些第三方代码还是不好控制的,导致多读了几次文件。
回来报告一下初步结果:cachefilesd然并卵。
有待进一步调查。
【 在 zxeoc 的大作中提到: 】