我有一个5.2G的大文件,苦于分享给别人,但是有白嫖不到各大云盘,他们都有单文件大小限制,所以想到了这个
split -b 1024m xxxx.zip newname
# 1024m 是分卷后的文件大小
# newname是新名字的前缀,后面会被拼接上aa ab 啥的,不过这都不重要
# 拆分之后,可以看到多了很多个小文件
# 下一步是把小文件再合并成一个大文件
cat newname* > all.zip
以下是一个例子:

这篇博客介绍了如何在没有云盘文件大小限制的情况下,利用Linux的split命令将大文件拆分为多个小文件,以便于分享。通过设置分卷大小和新文件名前缀,可以方便地管理拆分后的文件。之后,使用cat命令可以将这些小文件合并回原始大文件。这种方法对于需要绕过大文件限制的情况非常实用。
我有一个5.2G的大文件,苦于分享给别人,但是有白嫖不到各大云盘,他们都有单文件大小限制,所以想到了这个
split -b 1024m xxxx.zip newname
# 1024m 是分卷后的文件大小
# newname是新名字的前缀,后面会被拼接上aa ab 啥的,不过这都不重要
# 拆分之后,可以看到多了很多个小文件
# 下一步是把小文件再合并成一个大文件
cat newname* > all.zip
以下是一个例子:

914

被折叠的 条评论
为什么被折叠?