如题我手上的 NAS 有 60T 数据,出于想要用不同介质备份的想法,打算买个 lto5 磁带机。因为 lto5 磁带每盘只有 1.3T 左右的空间,而我的 60T 数据又是一大堆树状的文件夹,可能有的文件夹里就几 G ,有的文件夹里里有上几十个文件夹,加起来有四五个 T 。现在有 2 个问题:1.除了人工分类,有什么办法可以把这 60T 的不太方便分类的数据,拆分成 60 个 1T 左右的备份文件。让我分别塞进 60 个磁带?2.这些文件夹里的数据还会增长。我除了定期把这堆文件重新拆分、用磁带冷备,有没有别的什么办法可以只需要做增量备份吗?lto5 磁带的备份价格差不多是 30 块钱 1T ,且保存时间优于硬盘。也期待大家提出别的更好的冷备份方案,谢谢!

linux 下直接 split 指令,或者自己直接手写一个也行。

分卷压缩?

磁带很便宜 磁带机不便宜,而且磁带有个问题 它速度很慢 ,而且坏了就很难搞

自己看一下 tar 命令的选项,也不用切割,选里面的多卷备份就行,写满了一盘会提示你换下一盘。既然都是买二手货,别买 LTO5 磁带机,买 LTO6 。

这个我熟,我的思路是文件不分类了,大概率本来相关的文件放的就是比较近的。因为 lto5 可以直接 ltfs ,跟正常的文件写入操作没有什么区别。所以我是直接写了一个脚本,1.先计算文件的 sha256 ,2.把文件的相关信息和 sha256 存到数据库里,3.把文件拷贝到磁带机里,位置就:磁带编号/sha256 前两位/sha256 其余位,4.数据库里记录存到的磁带编号,5.删除本地文件。然后需要数据的时候,直接把一整块磁带先读出来,然后再找数据就行,即使是执意要取部分数据,也可以有相关的软件帮助按磁带顺序读一遍带就把对应的数据都取出来,就是多写点代码来交互的问题。

winrar 分卷压缩?

然后不要纠结 1T 这种固定的分块,因为每盘磁带可能最多能存储的数据量是不同的,虽然几乎不太可能低于 1T ,但是你要是设个 1.3T 很可能有的磁带就存不进去。一个一个文件往里放更保险一点。

你这很像 Git 啊

目测需要一把尺子,一个小钢锯,一个计算器

感谢,多卷备份这个太有用了。在闲鱼上看到有个卖外置的雷电接口的 lto6 磁带机卖家,插上 Mac OS ,直接 tar 多卷备份,完美。

谢谢提醒,少走弯路。你说的数据库方案我还不太会用 MySQL ,Python 也刚学没多久。或许后面可以按你说的写一个脚本来练练手,解决增量备份的问题

duplicati 可能可以,混合几个参数之后可以使用 LOT 类似的后端 github.com/duplicati/duplicati/issues/4200

其实我数据库用的是 MongoDB ,但是看你这个描述编程基础有点薄弱。不过看你既然能接受雷电口的 lto6 磁带机,看来也不是很在乎成本,可能只是想多一个备份途径,多买点磁带每次都全量备份似乎也行(不过说起来,磁带机这玩意噪音巨大,以 lto6 为例,你备份 60T 可能要连续运行 5 天,如果你要跟磁带机在一个屋肯定忍不了

另外群里大佬写的程序: github.com/zhaoyangwx/LTFSCopyGUI虽然你是 mac 已经是用不上了,但是里面有个群号,有问题啥的或许可以加进去问问(

分卷压缩?多卷备份?你是真不怕数据丢失是吧六十卷!一次全备就要六十卷磁带!随便坏一个你所有数据全废!

这个后面我查资料也想到了,这相当于 60 个磁带的 raid5 ,raid5 好歹还有一个容错…不过我看资料描述似乎第一个分卷是包含了索引的分卷,理论上,第一个分卷我创建多几个副本,后面的卷坏了一两个,其他的数据还能再恢复出来?我不知道这个想法是否成立。要是实在不行我就打算人工分类,把手动拷进去的目录树直接写标签贴磁盘上了,这样有个好处是至少我不用全量恢复了才能拿到某些目录里的数据,并且也能明确知道坏掉的盘是存了什么数据的。

谢谢!雷电口的 win 本我也有一个,可以试试看这个程序

lto5 磁带机 这个是个新鲜玩意。长知识了

分卷的压缩的话,前提是不是得另外还有 60T 左右的空间?这个就挺难的吧

tar 直接输出到备份位置啊