Redis-Dump

redis的几种数据导入导出方式【转】

人走茶凉 提交于 2020-11-09 17:19:10
环境说明: 202.102.221.11 redis源实例 202.102.221.12 redis目标实例 202.102.221.13 任意linux系统 一、redis-dump方式   1.安装redis-dump工具 [root@ 202.102 . 221.13 ~]# yum install ruby rubygems ruby-devel - y # 更改gem源 [root@ 202.102 . 221.13 ~]# gem sources -a http: // ruby.taobao.org Error fetching http: // ruby.taobao.org: bad response Not Found 404 (http: // ruby.taobao.org/specs.4.8.gz)   访问http: // ruby.taobao.org,公告通知镜像维护站点已迁往Ruby China镜像 #gem sources --add https: // gems.ruby-china.org/ --remove https://rubygems.org/ [root@ 202.102 . 221.13 ~]# gem sources --add http: // gems.ruby-china.org/ --remove http:/

玩转Redis-生产环境如何导入、导出及删除大量数据

十年热恋 提交于 2020-11-09 14:03:17
  《玩转Redis》系列文章主要讲述Redis的基础及中高级应用。本文是《玩转Redis》系列第【13】篇,最新系列文章请前往 公众号“zxiaofan”(点我点我) 查看,或 百度搜索“玩转Redis zxiaofan” 即可。 本文关键字: 玩转Redis、Redis数据导入、Redis大量插入、Redis数据导出、Redis导出指定通配符、Redis数据删除、Redis批量删除、Redis删除指定前缀key、Redis删除指定通配符key; 往期精选: 《玩转Redis-删除了两百万key,为什么内存依旧未释放?》 大纲 Redis生产环境安全高效导入大量数据 使用shell脚本构造测试数据 Redis非集群模式导入大量数据 Redis集群模式导入大量数据 Redis生产环境安全高效导出大量数据 Redis导入导出所有数据 Redis导出指定前缀(指定通配符)数据 Redis生产环境安全高效删除数据 Redis删除已知的指定key Redis删除指定前缀(指定通配符)数据 实用小技巧 Redis统计指定通配符key的数量 免输密码连接Redis脚本 思考题:Linux可以设置脚本可执行但不可读吗 概述:   本文将模拟生产环境,构造大量测试数据,并完成高效安全的数据导入、数据导出、数据删除。   众所周知,Redis是单线程的,一旦一个命令发生长时间阻塞

redis-dump数据导入导出

别说谁变了你拦得住时间么 提交于 2020-08-10 19:14:13
介绍 迁移 redis 数据一般有三种方式: 第三方工具 redis-dump redis-load aof 机制,需要开启 aof 功能 rdb 存储机制 这里示例 redis-dump 导出数据,再通过 redis-load 导入 安装软件 由于安装 redis-dump 需要依赖 ruby ,且版本大于 2.2.2 ,所以这里需要先升级 ruby 1 . 添加 aliyun 镜像并检测 Ruby 版本 # gem sources -a http://mirrors.aliyun.com/rubygems/ # gem sources --remove https://rubygems.org/ #移除自带的国外源 # gem sources -l #查看源,只保留阿里云的源 *** CURRENT SOURCES *** http://mirrors.aliyun.com/rubygems/ 2 . 安装 RAM ,通过 RAM 可以轻松安装、管理 Ruby 版本 # gpg --keyserver hkp://keys.gnupg.net --recv-keys 409B6B1796C275462A1703113804BB82D39DC0E3 7D2BAF1CF37B13E2069D6956105BD0E739499BDB # curl -sSL https://get

redis-dump 报错:ERROR (Errno::ENOENT): No such file or directory

ε祈祈猫儿з 提交于 2020-04-22 06:29:24
redis-dump 报错:ERROR (Errno::ENOENT): No such file or directory - ps -o rss= -p 6128 ERROR (Errno::ENOENT): No such file or directory - ps -o rss= -p 6128 解决方法 到ruby安装目录 如下目录: Ruby25-x64/lib/ruby/gems/2.5.0/gems/redis-dump-0.4.0/lib/redis 下的dump.rb文件, 用记事本打开,将第32行 ps -o rss= -p #{Process.pid} .to_i # in kb用#注释掉,保存即可。 成功实例: 你不能把坏习惯扔出窗外 但你可以一步步赶下电梯 标签: redis , python 来源: oschina 链接: https://my.oschina.net/u/3367404/blog/3014557

你不会Python这几个库,不要说你会爬虫

老子叫甜甜 提交于 2020-04-22 00:58:50
很多朋友不知道Python爬虫怎么入门,怎么学习,到底要学习哪些内容。今天我来给大家说说学习爬虫,我们必须掌握的一些第三方库。 废话不多说,直接上干货。 这里要注意:不管你是为了Python就业还是兴趣爱好,记住:项目开发经验永远是核心,如果你没有2020最新python入门到高级实战视频教程,可以去小编的Python交流.裙 :七衣衣九七七巴而五(数字的谐音)转换下可以找到了,里面很多新python教程项目,还可以跟老司机交流讨教! 请求库 1. requests GitHub:https://github.com/psf/requests requests库应该是现在做爬虫最火最实用的库了,非常的人性化。有关于它的使用我之前也写过一篇文章 一起看看Python之Requests库 ,大家可以去看一下。 有关于requests最详细的使用方法,大家可以参考官方文档:https://requests.readthedocs.io/en/master/ 小案例 >>> import requests >>> r = requests.get( 'https://api.github.com/user', auth=( 'user', 'pass')) >>> r.status_code 200 >>> r.headers[ 'content-type'] 'application

Redis数据的导出和导入(dump和load方式)

Deadly 提交于 2019-12-18 10:56:30
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> 网上有些文章已经不再适用,本人也是踩了些坑,在此记录下。 迁移redis数据一般有如下3种方式: 第三方工具redis-dump,redis-load aof机制,需要开启aof功能 rdb存储机制 这里介绍第一种方式,通过redis-dump导出数据,再通过redis-load导入。开始吧。 第一步:安装gcc 终端执行 gcc 命令,如果提示没有此命令,说明需要安装。否则跳过此步 yum -y install gcc automake autoconf libtool make 第二步:配置Ruby官网源地址 因为默认的Ruby官网源地址在国外,访问速度很慢,所以需要配置成国内的源地址 gem sources -a http://gems.ruby-china.org/ 添加国内源地址 gem source -l 查看是否添加成功 gem source --remove http://rubygems.org/ 去掉国外源地址 gem source -l 确认现在的源地址只有国内 第三步:安装rvm命令 配置Google DNS /etc/resolv.conf nameserver 8.8.8.8 gpg2 --keyserver hkp://keys.gnupg.net --recv-keys

ZooKeeper持久化原理

℡╲_俬逩灬. 提交于 2019-11-28 19:44:38
切换事务日志文件的时机,实际是生成快照文件的时机 ZK 的数据与存储中,有几个特别关注点: 内存数据 与 磁盘数据 间的关系: 内存数据,是真正提供服务的数据 磁盘数据,作用: 恢复内存数据,恢复现场 数据同步:集群内,不同节点间的数据同步(另,内存中的提议缓存队列 proposals) 磁盘数据,为什么同时包含:快照、事务日志?出于数据粒度的考虑 如果只包含快照,那恢复现场的时候,会有数据丢失, 因为生成快照的时间间隔太大,即,快照的粒度太粗了 事务日志,针对每条提交的事务都会 flush 到磁盘, 因此粒度很细,恢复现场时,能够恢复到事务粒度上 快照生成的时机:基于阈值,引入随机因素 解决的关键问题:避免所有节点同时 dump snapshot, 因为 dump snapshot 耗费大量的 磁盘 IO、CPU, 所有节点同时 dump 会严重影响集群的对外服务能力 countLog > snapCount/2 + randRoll ,其中: countLog 为累计执行事务个数 snapCount 为配置的阈值 randRoll 为随机因素(取值:0~snapCount/2) ZK 的 快照文件是 Fuzzy 快照,不是精确到某一时刻的快照,而是某一时间段内的快照 ZK 使用「异步线程」生成快照: 线程之间共享内存空间,导致 Fuzzy 快照 这就要求 ZK