数据同步

基于微服务的平台服务体系

匿名 (未验证) 提交于 2019-12-03 00:26:01
微服务体系架构版本。 术语 / 缩写 描述 PSI purchase-sale-inventory,进销存 psi-service 进销存服务器,对应原主站服务器 psi-gateway 进销存服务网关 psi-registry 进销存服务注册中心,由jhipster-registry提供 lbm-master 前置机接入服务器 lbm-work 前置机接入服务工作库,存储待发送消息 服务端结构如下图所示: 即原主站数据库。 原主站id即为分区数据库id。 lbm-master的工作库。 主要用于消息传输,确认,失败重做。 存储消息待发送给前置机的消息。 具体有:待发送消息队列表,待确认消息队列表,失败重做队列表,系统序列表。 数据库信息表(t_sys_db):包含涉及数据同步的数据库的信息,包括各个分区数据库 数据库模式表(t_sys_dbschema)和数据同步任务类型(t_sys_dstt)用于数据同步,需要用脚本初始化数据。 提供服务注册,查找功能。 基于Zuul的服务网关。 客户端HTTP请求验证后借助psi-registry路由到psi-service服务器。 原主站服务器的服务划分为3类,在系统中的位置如下: psi-service在兼容和过渡期,保留TCP端口服务。 另外,有java程序通过此端口访问,在改造java程序前必须保留TCP端口。 负责psi的后台服务

canal-1.1.3数据同步异常 EOF encountered

匿名 (未验证) 提交于 2019-12-02 23:26:52
canal数据同步异常 : ERROR c.a.o.canal.parse.inbound.mysql.dbsync.DirectLogFetcher - I/O error while reading from client socket java.io.IOException: EOF encountered. at com.alibaba.otter.canal.parse.driver.mysql.socket.BioSocketChannel.read(BioSocketChannel.java:113) ~[canal.parse.driver-1.1.3-SNAPSHOT.jar:na] at com.alibaba.otter.canal.parse.inbound.mysql.dbsync.DirectLogFetcher.fetch0(DirectLogFetcher.java:174) ~[canal.parse-1.1.3-SNAPSHOT.jar:na] at com.alibaba.otter.canal.parse.inbound.mysql.dbsync.DirectLogFetcher.fetch(DirectLogFetcher.java:77) ~[canal.parse-1.1.3-SNAPSHOT.jar:na] at com

mysql定时数据同步的实现

匿名 (未验证) 提交于 2019-12-02 22:06:11
一、首先在TreeSoft数据库中配置两个数据源信息 二、配置数据同步任务,并执行任务 三、同步结果数据查看确认 四、 支持以下数据同步方案,好强大! 1、MySQL同步数据到Oracl 2、MySQL同步数据到PostgreSQL 3、MySQL同步数据到SQL Server 4、MySQL同步数据到MongoDB 5、Oracle同步数据到MySQL 6、Oracle同步数据到PostgreSQL 7、Oracle同步数据到SQL Server 8、Oracle同步数据到MongoDB 9、PostgreSQL同步数据到MySQL 10、PostgreSQL同步数据到Oracle 11、PostgreSQL同步数据到SQL Server 12、PostgreSQL同步数据到MongoDB 13、MongoDB同步数据到MySQL 14、MongoDB同步数据到Oracle 15、MongoDB同步数据到PostgreSQL 16、MongoDB同步数据到SQL Server 17、SQL Server同步数据到MongoDB 18、SQL Server同步数据到MySQL 19、SQL Server同步数据到Oracl 20、SQL Server同步数据到PostgreSQL 文章来源: mysql定时数据同步的实现

mysql数据同步es踩坑记

匿名 (未验证) 提交于 2019-12-02 22:02:20
背景: 需要把mysql的数据同步到es中。由于没有维护canal集群, 我们选择了通过记录最后一次同步数据的update_time来进行数据同步。 ? 具体的做法,当有数据变更的时候,发个消息,表示需要进行数据同步。 消息的监听者加锁串行执行,?从要同步数据的表中获取上一次update_time之后的数据,并且把最后一条记录的update_time更新回去。 比如说有用户表 user id:int name:varchar update_time:datetime ? sync_log syc_table_name last_update_time ? 从sync_log中获取last_update_time, 执行sql: select * from user where update_time>=last_update_time. ? 问题: 我们当时限制了一次取一千条出来,发现在有DB工单执行,批量更新数据出现了死循环, 导致所有MQ消费线程被占用,其他消息无法消费,产生了消息堆积,因为写了一段代码 结果集=select * from user where update_time>=last_update_time limit 1000 while(非空结果集合){ 同步数据 结果集=select * from user where update_time>=last

MySQL数据库数据同步至DataHub实例

匿名 (未验证) 提交于 2019-12-02 22:02:20
本小节介绍如何使用数据传输 DTS (以下简称 DTS) 完成MySQL数据库数据同步至DataHub实例的配置,让数据可以实时进入流计算等大数据产品进行数据实时分析。 支持通过专线、VPN网关或智能网关接入阿里云的自建MySQL数据同步至Datahub实例。 支持ECS上的自建MySQL数据同步至Datahub实例。 支持同一个阿里云账号下RDS for MySQL实例数据同步至DataHub实例。 支持不同阿里云账号下的RDS for MySQL实例数据同步至DataHub实例。 同步对象 只支持表的同步,不支持其他非表对象的同步。 同步地域 源MySQL实例支持的地域包括: 华东1(杭州)、华东2(上海)、华北1(青岛)、华北2(北京)、华北3(张北)、华北5(呼和浩特)、华南1(深圳)、美西(硅谷)、美东、亚太(新加坡)、香港、中东东部1(迪拜)、亚太东南3(吉隆坡)、澳大利亚(悉尼)、印度尼西亚(雅加达)、印度(孟买)、欧洲中部1(法兰克福) 目标Datahub实例支持的地域包括: 华东1(杭州)、华东2(上海)、华北2(北京) 如上图所示,MySQL->DataHub 数据实时同步,是将 MySQL 产生的增量数据实时同步到DataHub实例中的 topic。增量日志在DataHub实例中存储的表名默认同 MySQL 表同名。topic 名称可以根据业务需要修改

MySQL数据库数据同步至DataHub实例

匿名 (未验证) 提交于 2019-12-02 22:02:20
本小节介绍如何使用数据传输 DTS (以下简称 DTS) 完成MySQL数据库数据同步至DataHub实例的配置,让数据可以实时进入流计算等大数据产品进行数据实时分析。 支持通过专线、VPN网关或智能网关接入阿里云的自建MySQL数据同步至Datahub实例。 支持ECS上的自建MySQL数据同步至Datahub实例。 支持同一个阿里云账号下RDS for MySQL实例数据同步至DataHub实例。 支持不同阿里云账号下的RDS for MySQL实例数据同步至DataHub实例。 同步对象 只支持表的同步,不支持其他非表对象的同步。 同步地域 源MySQL实例支持的地域包括: 华东1(杭州)、华东2(上海)、华北1(青岛)、华北2(北京)、华北3(张北)、华北5(呼和浩特)、华南1(深圳)、美西(硅谷)、美东、亚太(新加坡)、香港、中东东部1(迪拜)、亚太东南3(吉隆坡)、澳大利亚(悉尼)、印度尼西亚(雅加达)、印度(孟买)、欧洲中部1(法兰克福) 目标Datahub实例支持的地域包括: 华东1(杭州)、华东2(上海)、华北2(北京) 如上图所示,MySQL->DataHub 数据实时同步,是将 MySQL 产生的增量数据实时同步到DataHub实例中的 topic。增量日志在DataHub实例中存储的表名默认同 MySQL 表同名。topic 名称可以根据业务需要修改

elasticsearch与MySQL数据同步

匿名 (未验证) 提交于 2019-12-02 21:59:42
什么是Logstash Logstash是一款轻量级的日志搜集处理框架,可以方便的把分散的、多样化的日志搜集 起来,并进行自定义的处理,然后传输到指定的位置,比如某个服务器或者文件。 下载Logstash 解压,进入bin目录 stdin,表示输入流,指从键盘输入 stdout,表示输出流,指从显示器输出 命令行参数: -e 执行 路径(如:/etc/logstash.d/,logstash会自动读取/etc/logstash.d/目录下所有*.conf 的文 本文件,然后在自己内存里拼接成一个完整的大配置文件再去执行 MySQL数据导入Elasticsearch (1)在logstash-5.6.8安装目录下创建文件夹mysqletc (名称随意) (2)文件夹下创建mysql.conf (名称随意) ,内容如 input { jdbc { # mysql jdbc connection string to our backup databse jdbc_connection_string => "jdbc:mysql://127.0.0.1:3306/tensquare_article?characterEncoding=UTF8" # the user we wish to excute our statement as jdbc_user => "root" jdbc

Eureka源码解析系列文章汇总

折月煮酒 提交于 2019-12-02 21:23:39
先看一张图 0 这个图是Eureka官方提供的架构图,整张图基本上把整个Eureka的核心功能给列出来了,当你要阅读Eureka的源码时可以参考着这个图和下方这些文章 EurekaServer EurekaServer就是我们常说的服务端 Eureka服务端的启动可参考这篇文章 EurekaServer自动装配及启动流程解析 它维护了一张服务注册表,在这个服务注册表中包含了所有的客户端信息 当服务端启动时会做这么几个事情: 向集群中的其他服务端发起数据同步请求: Eureka应用注册与集群数据同步源码解析 开启清理过期租约的线程: Eureka客户端续约及服务端过期租约清理源码解析 EurekaClient EurekaClient就是我们常说的客户端 Eureka客户端的启动可参考这篇文章: EurekaClient自动装配及启动流程解析 客户端是与应用程序绑定到一起的,某种意识上来说它是应用实例在注册中心的代言人 当客户端启动时会做这么几个事情: 向服务端发起注册请求: Eureka应用注册与集群数据同步源码解析 开启续租的线程: Eureka客户端续约及服务端过期租约清理源码解析 先全量获取一次可用服务列表且开启一个定时增量获取的线程: Eureka获取服务列表源码解析 当服务下线时会向服务端发送下线通知: Eureka服务下线源码解析 服务分区

Excel中的VBA宏:每次划款前从总名册中同步用户数据到当前页

╄→гoц情女王★ 提交于 2019-12-02 20:59:13
我使用的Office为 Microsoft Office Professional Plus 2010,我使用的Excel 版本为14.0.4760.1000(32位)。 这段时间遇到了一件事,就是我需要给很多小伙伴打钱,但是每次打给的人又不一样。每次都一遍遍地做一些重复工作,自然不是我的风格,所以我写了下面这个VBA脚本执行我的工作: 1、建立一个Excel,第一个Sheet页取名为“成员名册”,里面一共有三列,第一列为成员名称,第二列为打款方式,第三列为账号 2、将一个新的Sheet页命名为报销单1,先填写前两列,第一列写上成员名称,第二列写上打款金额 3 3、添加宏GenerateDoc,在Excel自带的VisualBasic编辑器中输入下面代码 '从总名单中将对应信息填入新建的名单中 '约定各列内容: ' 1 - SheetNameList 成员名称-汇款方式-账号号码(需全部填写) ' 2 - SheetGenDoc 成员名称-汇款金额-汇款方式(通过本Sub同步)-账号号码(通过本Sub同步)-是否汇讫(默认未汇) Sub GenerateDoc() Dim SheetNameList As Worksheet Set SheetNameList = Sheets("成员名册") '成员名册Sheet页名 Dim SheetGenDoc As Worksheet