今日有朋友加好友与我探讨一些问题,我觉得这些问题倒挺有价值的;于是就想在本公众号开设一个问答专栏,方便技术交流与分享,专栏名就定为:《读者来信》。如遇到本人能力有限难以解决的问题,该贴将会被转发至我的资源圈寻求大佬们出手帮助,并附上提问者微信二维码。也欢迎大家在留言区积极探讨解决方案~
来信人:黄*伟
小猿提问
如果我用Spark处理文件写进HBase,文件按日期每天增量下发,如果只想在HBase中保留最近90天的文件数据,有什么好的方法吗?TTL会有禁用表操作,后端查询就会报错。除了TTL,还有别的解决方案吗?
小猿分析
该问题主要的症结点在于:建表之初,没有及时给列族设置TTL,入数据之后想到可以设置表的TTL属性来保证数据时效性但又不想禁用表。怎么办呢?
小猿解答
这里,小猿给出两条解决方案:
方案一:
其实在稍微高一点的HBase版本,设置表TTL属性已经可以在线进行,不需要disable表了。如果不确定,可以先建一个测试表在线设置一下TTL试一试。如果支持,那可以选择在低峰期通过HBase Shell手动修改列族的时效性,一劳永逸。
hbase(main):030:0> create 'test','f1'
0 row(s) in 1.2990 seconds
=> Hbase::Table - test
hbase(main):031:0> desc 'test'
Table test is ENABLED
test
COLUMN FAMILIES DESCRIPTION
{NAME => 'f1', BLOOMFILTER => 'ROW', VERSIONS => '1', IN_MEMORY => 'false', KEEP_DELETED_CELLS => 'FALSE', DATA_BLOCK_ENCODING => 'NONE', TTL => 'FOREVER', COMPRESSION => 'NONE', MIN_VERSIONS
=> '0', BLOCKCACHE => 'true', BLOCKSIZE => '65536', REPLICATION_SCOPE => '0'}
1 row(s) in 0.0480 seconds
hbase(main):032:0> alter 'test',{NAME => 'f1',TTL => '86400'}
Updating all regions with the new schema...
1/1 regions updated.
Done.
0 row(s) in 1.9870 seconds
单位:秒(s)
方案二:
如果方案1行不通,可以尝试通过API的方式,在插入数据时实时设置单条数据TTL。只不过历史数据就要手动删除了。
Put put = new Put(Bytes.toBytes("row1"));
put.setTTL(86400L);
单位:秒(s)
知识点补充
如果想重置TTL为'FOREVER'怎么做?
答:HBase TTL 最大值为INT最大值 2147483647,只需将TTL设为该整数即可。
hbase(main):033:0> alter 'test',{NAME => 'f1',TTL => '2147483647'}
Updating all regions with the new schema...
1/1 regions updated.
Done.
0 row(s) in 1.9170 seconds
hbase(main):034:0> desc 'test'
Table test is ENABLED
test
COLUMN FAMILIES DESCRIPTION
{NAME => 'f1', BLOOMFILTER => 'ROW', VERSIONS => '1', IN_MEMORY => 'false', KEEP_DELETED_CELLS => 'FALSE', DATA_BLOCK_ENCODING => 'NONE', TTL => 'FOREVER', COMPRESSION => 'NONE', MIN_VERSIONS
=> '0', BLOCKCACHE => 'true', BLOCKSIZE => '65536', REPLICATION_SCOPE => '0'}
1 row(s) in 0.0140 seconds
如果您有更好的答案,欢迎留言区留言哦~
转载请注明出处!欢迎关注本人微信公众号【HBase工作笔记】
来源:oschina
链接:https://my.oschina.net/u/4353238/blog/3223090