远程关键数据定期备份

半腔热情 提交于 2020-08-06 13:39:29

远程数据备份和恢复历来分散的原因有两个:移动大量的数据到集中的位置的高额成本,以及远程恢复时缓慢的访问时间。带宽成本高昂,而且在许多远程站点,甚至提供足够的可用性也是夸张的。使问题复杂化的是,传统的备份是批量化的行为,涉及在有限的时间内移动大量的数据。用以支持这种跨越广域网活动的额外的带宽需要证明是不可能的。还有恢复的问题:通过一个小管道备份是痛苦的,恢复数据卷可能是极其痛苦的。
因此,企业往往按照“迷你数据中心”模式实施ROBO备份,每个地点配置自己的备份服务器和磁带驱动器或小型带库。有人在远程办公室定期插入和移走磁带,并且幸运的是,磁带不定期会送到一个外部地点。不同站点的数据保护质量和一致性有着显著的不同。
远程办公室备份技术
对于远程备份,一些技术已经逐渐发展,并导致备份模式的转换和新的可供选择的方案。这些变化包括从改进传统的远程备份模式,到消除远程备份的需要,可能甚至远程服务器和存储。这些包括:
磁盘: 和一般而言的备份一样,低成本,高容量基于磁盘的备份已经成为提升远程保护的主要推动者。使用磁盘能够减少磁带固有的停-起情况、,对可靠性的担心,以及顺序的工作调度和资源管理约束。这些问题使本地远程备份特别痛苦。但是记住磁带的两个优势很重要——低单位储存成本和可运输性——可能成为最主要的因素。
数据复制: 有限的备份运作能力和把数据移动到其它站点的需要,使得考虑把复制作为一种远程备份的选择是合情合理的。把数据备份到公司的数据中心,作为标准运作的一部分进行管理(和后备)是明智的。这需要带宽,但不同于每晚集中的高容量备份,它是基于变化数据的持续数据流。因为,当在远端恢复大数据卷的时候,对单独的数据复制提出了挑战,典型的方式是和其它技术一起部署。
连续数据保护 (CDP): 对于复制来说,CDP是一个互补的选择。Real-CDP 或 near-CDP技术可以用于基于SAN的应用,应用程序特定的辅助产品,基于主机的快照管理和备份应用程序。结合连续数据保护,数据能够透明的保护到本地的备份服务器,然后复制。
数据压缩: 成功实施远程复制的关键是要能够最小化传送的字节。以重复数据删除和压缩的形式进行数据压缩,是远程数据保护必不可少的有利技术。必要的能力可以保持磁盘的容量需求较低,并最大限度地利用带宽。像CDP一样,这项技术已被纳入不同类型的硬件和软件产品之中。
UCACHE灾备云功能列举:数据保留策略、流量控制、任务告警、任务日志、FusionCloud 云平台备份/恢复、FusionCloud 云平台备份/恢复、VMware架构虚拟化备份/恢复、H3C CAS云平台备份/恢复、OpenStack云平台备份/恢复、XenServer虚拟化备份/恢复、Hyper-v虚拟化平台、公有云实例备份/恢复、操作系统备份(windows、linux)备份/恢复、文件系统备份/恢复、卷级备份/恢复、并行重删、并行重删DB2\GauDB\GBase\MySQL\Oracle\SAP HANA\SQL\ Sybase\TimesTen备份/恢复等
UCACHE灾备云实现了中小企业因为前期预算而带来的苦恼,UCACHE灾备云利用现有的数据中心及软硬件的整体方案实现了云端灾备,成本低,灵活的方案,保证企业重复数据删除技术:累积重删比高达99% , 减少备份窗口 , 压缩比例1:7.








易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!