OGG 从Oracle备库同步数据至kafka
Table of Contents
1 目的
测试物理standby 作为ogg 源端的可行性,效率及安全性。
2 环境及规划
以下数据库及OGG版本是实际目的的最低版本要求。
-
环境
服务器ip 作用 10.10.100.91 Oracle_primary (zookeeper kafka) 10.10.100.92 Oracle_standby ogg (zookeeper kafka) 10.10.100.98 zookeeper kafka ogg -
版本及路径
软件 版本 路径 oracle 11.2.0.4 /u01/app/oracle zookeeper 3.4.13 /opt/zookeeper-3.4.13 kafka 2.12-2.1.1 /opt/kafka_2.12-2.1.1 ogg for bigdata 12.3.2.1.1 /u01/app/ogg ogg for oracle 12.3.0.1.4 /u01/app/ogg jdk 1.8u181 /opt/jdk1.8.0_181
3 安装配置JDK
在所有节点安装。由于OGG 12以上的版本都要求jdk1.8以上。因此需要单独安装jdk。
3.1 安装jdk
tar -xzvf /opt/jdk-8u181-linux-x64.tar.gz -C /opt/jdk1.8.0_181
3.2 配置环境变量
根据规则,现在我们将每个环境中的环境变量进行配置。 按如下说明修改 $HOME/.bash_profile:
#添加一行
export JAVA_HOME=/opt/jdk1.8.0_181
# 修改PATH变量
PATH=$JAVA_HOME/bin:$PATH
4 安装Dataguard
4.1 安装备库软件
-
上传软件并解压 上传文件请使用ftp或者类ftp方式等。解压安装包示例:
unzip p13390677_112040_Linux-x86-64_1of7.zip unzip p13390677_112040_Linux-x86-64_2of7.zip
-
编辑响应文件 由于参数过多,此处只列出需要调整的内容. :
oracle.install.option=INSTALL_DB_SWONLY ORACLE_HOSTNAME=pmo2 UNIX_GROUP_NAME=oinstall INVENTORY_LOCATION=/u01/app/oraInventory ORACLE_HOME=/u01/app/oracle/product/11.2.0/dbhome_1 ORACLE_BASE=/u01/app/oracle/ oracle.install.db.DBA_GROUP=dba oracle.install.db.OPER_GROUP=oper oracle.install.db.config.starterdb.globalDBName=orcl oracle.install.db.config.starterdb.SID=orcl oracle.install.db.config.starterdb.characterSet=AL32UTF8 oracle.install.db.config.starterdb.memoryOption=true oracle.install.db.config.starterdb.memoryLimit=1384 oracle.install.db.config.starterdb.password.ALL=Sys123passwd oracle.install.db.config.starterdb.storageType=FILE_SYSTEM_STORAGE oracle.install.db.config.starterdb.fileSystemStorage.dataLocation=/u01/app/oracle/oradata oracle.install.db.config.starterdb.fileSystemStorage.recoveryLocation=/u01/app/oracle/arch
-
安装软件
cd ~/database/ ./runInstaller -silent -force -ignoreSysprereqs -ignorePrereq -showProgress -responseFile /home/oracle/database/response/db_install.rsp
4.2 配置dataguard
4.2.1 主库
- 主库开启强制日志
alter database force logging;
- 主库调整参数
alter system set db_unique_name='orcl' scope=spfile; alter system set log_archive_config='DG_CONFIG=(primary,standby)' scope=both; alter system set log_archive_dest_1='LOCATION=/u01/app/oracle/arch VALID_FOR=(ALL_LOGFILES,ALL_ROLES) DB_UNIQUE_NAME=orcl' scope=both; alter system set log_archive_dest_2='SERVICE=standby LGWR ASYNC VALID_FOR=(ONLINE_LOGFILES,PRIMARY_ROLE) DB_UNIQUE_NAME=orcl' scope=both; alter system set log_archive_format='%t_%s_%r.arc' scope=spfile;
重启主库, 使参数生效。
- 主库添加standby 日志
日志添加规则为原有日志组个数为N, 添加的standby 日志组个数为N+1. 默认数据库的日志为3个,大小为50M.
alter database add standby logfile group 4('/u01/app/oracle/oradata/redo04.log') size 50m; alter database add standby logfile group 5('/u01/app/oracle/oradata/redo05.log') size 50m; alter database add standby logfile group 6('/u01/app/oracle/oradata/redo06.log') size 50m; alter database add standby logfile group 7('/u01/app/oracle/oradata/redo07.log') size 50m;
- 主库创建密码文件
orapwd file=$ORACLE_HOME/dbs/orapworcl entries=5 force=y ignorecase=y password=oracle
创建完密码文件后,记得在主库修改下sys用户密码。此时的密码,以简单便于使用为主。后期再调整为符合密码规则的密码。
sqlplus / as sysdba alter user sys identified by oracle; exit
- TNS配置
TNS 文件: $ORACLE_HOME/network/admin/tnsnames.ora
文件内容如下:primary = (DESCRIPTION = (ADDRESS = (PROTOCOL = TCP)(HOST = 10.10.100.91)(PORT = 1521)) (CONNECT_DATA = (SERVER = DEDICATED) (SERVICE_NAME = orcl) ) ) standby = (DESCRIPTION = (ADDRESS = (PROTOCOL = TCP)(HOST = 10.10.100.92)(PORT = 1521)) (CONNECT_DATA = (SERVER = DEDICATED) (SERVICE_NAME = orcl) (UA=R) ) )
4.2.2 备库
- 参数
备库参数文件为$ORACLE_HOME/dbs/initorcl.ora. 内容如下:
*.db_name='orcl' *.db_unique_name='orcls' *.compatible='11.2.0.4.0' *.fal_server='primary' *.log_archive_config='DG_CONFIG=(orcls,orcl)' *.log_archive_dest_1='LOCATION=/u01/app/oracle/oradata/arch VALID_FOR=(ALL_LOGFILES,ALL_ROLES) DB_UNIQUE_NAME=orcls' *.log_archive_dest_state_1='ENABLE' *.db_file_name_convert='/u01/app/oracle/oradata/orcl/','/u01/app/oracle/oradata/' *.log_file_name_convert='/u01/app/oracle/oradata/orcl/','/u01/app/oracle/oradata/redo' *.standby_file_management='AUTO'
- 启动实例
请注意,备库此时需要启动至nomount状态。
sqlplus / as sysdba startup nomount; exit
- 监听配置并启动
- 监听配置
监听文件: $ORACLE_HOME/network/admin/listener.ora
sid_list_listener = (sid_list = (sid_desc = (global_dbname=orcl ) (sid_name=orcl ) (oracle_home=/u01/app/oracle/product/11.2.0/dbhome_1) ) ) LISTENER = (DESCRIPTION_LIST = (DESCRIPTION = (ADDRESS = (PROTOCOL = TCP)(HOST = 10.10.100.92)(PORT = 1521)) ) ) ADR_BASE_LISTENER = /u01/app/oracle
-
启动监听
lsnrctl start
- 密码文件
将主库的密码文件拷贝至备库的$ORACLE_HOME/dbs路径中。
scp 10.10.100.91:$ORACLE_HOME/dbs/orapworcl $ORACLE_HOME/dbs/
- TNS配置
将主库的密码文件拷贝至备库的$ORACLE_HOME/network/admin路径中。 使用如下命令,或者通过复制粘贴待方式将文件内容复制到备库环境。
scp 10.10.100.91:$ORACLE_HOME/network/admin/tnsnames.ora $ORACLE_HOME/network/admin/
4.3 完成操作
在主库或者备库均可操作。
-
连接 rman 环境
rman target sys/oracle@primary auxiliary sys/oracle@setandby
-
执行 rman 命令
run { allocate channel cl1 type disk; allocate channel cl2 type disk; allocate channel cl3 type disk; allocate auxiliary channel c1 type disk; allocate auxiliary channel c2 type disk; allocate auxiliary channel c3 type disk; duplicate target database for standby from active database dorecover ; release channel c1; release channel c2; release channel c3; release channel cl1; release channel cl2; release channel cl3; }
4.4 启动实时复制
alter database recover managed standby database using current logfile disconnect from session;
5 zookeeper集群
5.1 上传并解压
可使用ftp 等工具或者其他工具上传。上传后解压. 注意,所有节点都需要安装。所以要上传至所有服务器并解压。
tar -xzvf ~/zookeeper-3.4.13.tar.gz -C /opt/
5.2 配置
zookeeper 集群中所有节点都需要进行配置。
-
规则相关路径
# 日志文件路径 mkdir -p /opt/zookeeper/zkdatalog # 数据存放路径 mkdir -p /opt/zookeeper/zkdata
-
配置内容 进入到目录中, 查看配置文件.相关的配置文件存储于<path>/zookeeper-<version>/conf 路径中。
# cd /opt/zookeeper-3.4.13/conf # ls configuration.xsl log4j.properties zoo_sample.cfg # 说明: # zoo_sample.cfg 这个文件是官方给我们的zookeeper的样板文件,给他复制一份命名为zoo.cfg,zoo.cfg是官方指定的文件命名规则。\\
文件内容如下:
tickTime=2000 initLimit=10 syncLimit=5 dataDir=/opt/zookeeper/zkdata dataLogDir=/opt/zookeeper/zkdatalog # 3.4 and later autopurge.snapRetainCount=60 autopurge.purgeInterval=24 clientPort=12181 server.1=10.10.100.91:12888:13888 server.2=10.10.100.92:12888:13888 server.3=10.10.100.98:12888:13888
5.3 创建myid文件
在每个服务器上,将server.N 中的N 写入dataDir 路径中的myid文件。
# server1
echo "1" > /opt/zookeeper/zkdata/myid
#server2
echo "2" > /opt/zookeeper/zkdata/myid
#server3
echo "3" > /opt/zookeeper/zkdata/myid
5.4 配置环境变量
为了日后管理方便,建议将zookeeper的位置信息配置到用户的环境变量中去。此处使用 .bash_profile ,在文件中添加以下内容。
export ZK_HOME=/opt/zookeeper-3.4.13
PATH=$JAVA_HOME:$ZK_HOME/bin:$PATH
通过 source ~/.bash_profile/ 使修改生效.
5.5 启动和查看服务
#cd $ZK_HOME/bin
zkServer.sh start
zkServer.sh status
经查看,zk 集中,server.2 为leader,server1,server3 为follower。 不同环境这个结果是不一样的。
如果没启动,可以使用./zkServer.sh start-foreground启动,屏幕上会显示日志信息,能看出哪块出了问题。
6 kafka集群
6.1 上传并解压
可使用ftp 等工具或者其他工具上传,然后用解压。所有节点都需要安装,所以要上传至所有服务器。
tar -xzvf kafka_2.12-2.1.1.tgz
6.2 配置
kafka集群所有节点都需要配置。
-
规则相关路径
#消息目录 mkdir -p /opt/kafka_2.12-2.1.1/logs
-
修改配置文件 kafka 的配置文件有很多,存放在<path>/kafka-version/config中。
对于本环境来讲,路径为:/opt/kafka_2.12-2.1.1/config。
需要调整的配置文件为:server.properties# 每台服务器的broker.id都不能相同 broker.id=0 #hostname和port参数,在2.12 2.1.1 版本的server.properties 中已经找不到该参数配置了。 #取而代之的是 listeners参数. 其中的IP 地址, 设置为本主机的IP。 #host.name=10.10.100.91 #port = 9092 listeners=PLAINTEXT://10.10.100.92:9092 # 日志路径 log.dirs=/opt/kafka_2.12-2.1.1/logs #在log.retention.hours=168 下面新增下面三项 message.max.byte=5242880 default.replication.factor=2 replica.fetch.max.bytes=5242880 #设置zookeeper的连接端口,集群中所有节点都需要包含。 zookeeper.connect=10.10.100.91:12181,10.10.100.92:12181,10.10.100.98:12181
6.3 配置环境变量
为了方便日后管理,需要配置kafka的环境变量。在$HOME/.bash_profile 文件中加入以下 两行:
export KFK_HOME=/opt/kafka_2.12-2.1.1/config
export PATCH=$KFK_HOME/bin:$PATH
或者直接修改为以下格式,包含zookeeper与kafka的环境变量:
export ZK_HOME=/opt/zookeeper-3.4.13
export KFK_HOME=/opt/kafka_2.12-2.1.1
export PATH=$JAVA_HOME:$ZK_HOME/bin:$KFK_HOME/bin:$PATH
配置完成后, 使用source 命令使配置生效。
6.4 服务管理
-
启动服务
kafka-server-start.sh -daemon $KFK_HOME/config/server.properties
-
查看服务
# 使用jps查看kafka进程是否有启动, 直接执行jps,正常如下: 22707 QuorumPeerMain 28439 Jps 28314 Kafka
6.5 TOPIC
-
创建Topic
kafka-topics.sh --create --zookeeper 10.10.100.92:12181,10.10.100.91:12181,10.10.100.98:12181 --replication-factor 3 -partitions 3 --topic testogg
成功时提示:Created topic "testogg".
-
查看Topic
#列出所有可用的topics kafka-topics.sh --list --zookeeper 10.10.100.91:12181 # 查看指定topic 信息 kafka-topics.sh --describe --zookeeper 10.10.100.91:12181,10.10.100.92:12181,10.10.100.98:12181 --topic testogg
-
创建consumer 这里创建一个consumer,以便在安装配置完ogg 后,进行验证。
kafka-console-consumer.sh -–zookeeper 10.10.100.92:12181,10.10.100.91:12181,10.10.100.98:12181 -–from-beginning –-topic oggtest
6.6 测试集群
-
发布消息 利用kafka自身提供的发布消息的脚本, 来创建发布消息.
kafka-console-producer.sh --broker-list 10.10.100.91:9092,10.10.100.92:9092,10.10.100.98:9092 --topic testogg
-
接收消息
kafka-console-consumer.sh --topic testogg --bootstrap-server 10.10.100.92:9092,10.10.100.91:9092,10.10.100.98:9092 --group testogg1 --from-beginning
- 测试结果
-
消息发送端
[root@pmo02 config]# kafka-console-producer.sh --broker-list 10.10.100.91:9092,10.10.100.92:9092,10.10.100.98:9092 --topic testogg >1,'This is a test message', `date` >2,'Second test message',boooooooo >一人
-
消息接收端
[root@app-01 ~]# kafka-console-consumer.sh --topic testogg --bootstrap-server 10.10.100.92:9092,10.10.100.91:9092,10.10.100.98:9092 --group testogg1 --from-beginning 2,'Second test message',boooooooo 1�,'This is a test message', `date` 一人
-
7 OGG 安装配置
OGG针对不同的软件有不同的版本,我们需要安装针对Oracle 版本和针对大数据的版本。 本次测试的是, oracle 从备库同步数据至kafka集群。因此我们需要将ogg for oracle 安装至备库(10.10.100.92)。
7.1 源端
7.1.1 准备
- 准备OGG软件
将文件上传至服务器oracle用户的家目录. 并保证Oracle用户对安装包有操作权限:
chown -R oracle:oinstall /home/oracle/123014_fbo_ggs_Linux_x64_shiphome.zip unzip 123014_fbo_ggs_Linux_x64_shiphome.zip # 软件解压后的路径为fbo_ggs_Linux_x64_shiphome
- 修改OGG安装的配置文件
软件安装的配置文件存放于
=<path>/fbo_ggs_Linux_x64_shiphome/Disk1/response/=
中. 名为oggcore.rsp. 请按下面要求进行设置:# 保持不变 oracle.install.responseFileVersion=/oracle/install/rspfmt_ogginstall_response_schema_v12_1_2 # 与数据库版本保持一致,分为ORA12c与ORA11g INSTALL_OPTION=ORA11g # 配置ogg 的安装路径 SOFTWARE_LOCATION=/u01/app/ogg # 如果需要启动mgr 需要配置以下 三项,如果不需要启动,则不需要配置,此处不进行配置。 START_MANAGER= MANAGER_PORT= DATABASE_LOCATION= # windows 平台以下两项不需要配置。其他平台需要配置。 INVENTORY_LOCATION=/u01/app/oraInventory UNIX_GROUP_NAME=oinstall
- 创建OGG安装路径
# 用Oracle用户创建 mkdir -p /u01/app/ogg
- 静默安装OGG
# 进入相关路径 cd ~/fbo_ggs_Linux_x64_shiphome/Disk1/ # 执行静默安装 ./runInstaller -silent -responseFile `pwd`/response/oggcore.rsp # 安装过程中会提示安装日志, 可通过日志查看安装过程是否正常。
- 配置环境变量
#添加OGG_HOME export OGG_HOME=/u01/app/ogg # 将OGG_HOME路径添加至PATH export PATH=$PATH:$OGG_HOME
- 创建相关路径
ogg 提供了一个命令,用于创建相关的子目录 ,比如数据目录,配置文件存放目录等。
ggsci<<EOF create subdirs EOF
7.1.2 配置数据库
- 开启日志
通过以下SQL检查确认,要求结果都是yes:
SQL> select force_logging,supplemental_log_data_min, supplemental_log_data_pk,supplemental_log_data_ui from v$database; FOR SUPPLEME SUP SUP --- -------- --- --- YES YES YES YES
如果不是YES,即为NO,根据上面SQL的查询顺序,对应的调整SQL为:
alter database force logging; alter database add supplemental log data; alter database add supplemental log data (primary key) columns; alter database add supplemental log data (unique) columns; -- 后面两个列可以一起处理,语句如下: alter database add supplemental log data (primary key,unique,foreign key) columns; -- 一般建议把foreign key 也加上,以防万一。
- 创建表空间及用户
create tablespace ogg datafile '&absolute_path' size 1G; create user ogg identified by ogg123 default tablespace ogg; --如果不做ddl trigger,dba权限可以不给 grant connect,resource,dba to ogg; GRANT alter session TO ogg; grant select any transaction, SELECT ANY DICTIONARY,SELECT ANY TABLE TO ogg; --用户配置表级追加日志 GRANT ALTER ANY TABLE , FLASHBACK ANY TABLE TO ogg; GRANT EXECUTE on DBMS_FLASHBACK TO ogg; GRANT EXECUTE ON utl_file TO oggtest; grant execute on sys.dbms_lob to ogg; --如下pl/sql块是在oracle 11g之上版本用的,10g版本不需要执行 BEGIN DBMS_GOLDENGATE_AUTH.GRANT_ADMIN_PRIVILEGE( Grantee => 'OGG', privilege_type => 'CAPTURE', grant_select_privileges => TRUE, do_grants => TRUE); END; /
- 配置ddl同步
cd $GGATE sqlplus / as sysdba @marker_setup.sql; @ddl_setup.sql; @role_setup.sql; grant GGS_GGSUSER_ROLE to ogg; @ddl_enable.sql;
- 性能优化
cd $OGG_HOME sqlplus / as sysdba @?/rdbms/admin/dbmspool -- ddl_pin将触发器用到的plsql包放进内存中 sqlplus / as sysdba @ddl_pin ogg; exit
7.1.3 配置OGG
- 配置MGR
edit params mgr # 输入如下内容,第三行,一般不配置. PORT 7809 DYNAMICPORTLIST 7810-7860 # AUTORESTART EXTRACT *, RETRIES 5, WAITMINUTES 3, RESETMINUTES 60 PURGEOLDEXTRACTS ./dirdat/*, usecheckpoints, minkeepdays 1 LAGREPORTHOURS 1 LAGINFOMINUTES 30 LAGCRITICALMINUTES 45
- 数据初始化配置
数据初始化,指的是从源端Oracle 数据库将已存在的需要的数据同步至目标端.
此节中,操作都可在OGG 环境中进行。对OGG的内部逻辑了解的,也可以在shell环境中配置.- 配置初始化进程
add extract init01, sourceistable EDIT PARAMS init01 # 编辑参数内容如下: EXTRACT init01 SETENV (NLS_LANG=AMERICAN_AMERICA.ZHS16GBK) USERID ogg,PASSWORD ogg123 #USERID c##ggadmin,PASSWORD ggadmin # for oracle 12C,注意用户名格式 RMTHOST 10.10.100.98, MGRPORT 7809 RMTFILE ./dirdat/in,maxfiles 999, megabytes 500,format release 12.3 # SOURCECATALOG PDBNAME # FOR ORACLE 12C,11g does not need. table oggtest.*;
- 生成表结构
GoldenGate 提供了一个名为 DEFGEN 的专用工具,用于生成数据定义,当源表和目标表中 的定义不同时,Oracle GoldenGate 进程将引用该专用工具。在运行 DEFGEN 之前,需要 为其创建一个参数文件:
edit param defgen USERID ogg,PASSWORD ogg123 defsfile ./dirdef/defgen.def,format release 12.2 # format release 指的是OGG的版本 # SOURCECATALOG orclpdb # for oracle 12C 。11g及之前版本不需要 table oggtest.*;
- note
- 配置中每个 table 行尾都要加上分号。不然会报错。如上面配置:table oggtest.*;
生成表结构文件,需要执行shell命令,如果配置中的文件已经存在,执行下面命令会报错,所以 在执行前需要先删除:
rm -f $OGG_HOME/dirdef/defgen.def defgen paramfile dirprm/defgen.prm
将生成的定义文件传送到目标端, 目标端的replicate进程会使用这个文件。
scp $OGG_HOME/dirdef/defgen.def 10.10.100.98:/u01/app/ogg/dirdef/
- 配置初始化进程
- 实时同步配置
- 关于集成模式
standby 实例 不支持集成模式 集成模式关键的三个命令:
add extract ext_kfk,integrated tranlog,threads 1,begin now DBLOGIN USERID <username>,PASSWORD <password> # for 12C register extract ext_kfk database container (orclpdb) # for 11g/ 10G register extract ext_kfk
- 配置抽取进程
添加抽取进程,OGG命令行:
add extract ext_kfk,tranlog,threads 1,begin now add exttrail ./dirdat/kf, extract ext_kfk, megabytes 500
配置抽取进程参数,OGG命令行:
edit params ext_kfk
以下内容为参数明细
EXTRACT ext_kfk USERID ogg, PASSWORD ogg123 Setenv (NLS_LANG="AMERICAN_AMERICA.ZHS16GBK") gettruncates DISCARDFILE ./dirrpt/ext_kfk.dsc, APPEND, MEGABYTES 1024 # RMTHOST 10.10.100.98, MGRPORT 9178 # RMTFILE ./dirdat/kf,maxfiles 999, megabytes 500,format release 12.2 DBOPTIONS ALLOWUNUSEDCOLUMN REPORTCOUNT EVERY 1 MINUTES, RATE WARNLONGTRANS 2h,CHECKINTERVAL 300 FETCHOPTIONS NOUSESNAPSHOT EXTTRAIL ./dirdat/kf TRANLOGOPTIONS MINEFROMACTIVEDG # TRANLOGOPTIONS altarchivelogdest primary instance orcl /u01/app/oracle/oradata/arch 配置此行时,将读取归档日志 GETUPDATEBEFORES NOCOMPRESSUPDATES NOCOMPRESSDELETES table oggtest.*;
若配置rmthost rmtfile 参数, 可不配置分发进程(pump).
- TABLE 关键词,必须以分号结束。
- TRANLOGOPTIONS altarchivelogdest 是standby 端作为ogg 源端, ogg 读取归档的关键。也适用于RAC环境,不过RAC环境不建议配置。
- 一般情况下,ogg 同步数据有5秒左右的延迟. 为了解决这个问题,有 的同学可能会配置 EOFDELAY或者EOFDELAYCSECS,以及FLUSHCSECS. 有 些情况,配置确实可以减少延迟,但不是所有情况都有用。而且配置 以后,很容易产生control file sequence read 等待。
- 配置分发进程
OGG 环境添加分发进程:
add extract pmp_kfk,exttrailsource ./dirdat/kf add rmttrail ./dirdat/kf,EXTRACT PMP_kfk,MEGABYTES 500
编辑分发进程参数:
edit param PMP_KAF1 #内容如下: extract pmp_kfk USERID ogg, password ogg123 PASSTHRU RMTHOST 10.10.100.98, MGRPORT 7809 RMTTRAIL ./dirdat/kf,format release 12.3 # 下面一行适用于12C # SOURCECATALOG orclpdb table oggtest.*;
- 关于集成模式
7.2 目标端(kafka)
7.2.1 安装
oracle 软件统一安装到/u01/app/路径中,方便日后统一管理.OGG解压到路径/u01/app/ogg.
unzip OGG_BigData_Linux_x64_12.3.2.1.1.zip
tar -xvf OGG_BigData_Linux_x64_12.3.2.1.1.tar -C /u01/app/ogg/
7.2.2 配置环境变量
#su - oracle
#vi .bash_profile
# 内容如下:
JAVA_HOME=/opt/jdk1.8.0_181/
OGG_HOME=/u01/app/ogg
LD_LIBRARY_PATH=$JAVA_HOME/jre/lib/amd64/server/:$JAVA_HOME/lib:$LD_LIBRARY_PATH
PATH=$JAVA_HOME/bin:$PATH:$HOME/bin:$OGG_HOME
export PATH JAVA_HOME ORACLE_HOME OGG_HOME LD_LIBRARY_PATH
修改完环境变量执行: source .bash_profile
7.2.3 目标端OGG配置
- 创建相关路径
ggsci create subdirs
示例:
$ ggsci Oracle GoldenGate Command Interpreter Version 12.3.0.1.2 OGGCORE_OGGADP.12.3.0.1.2_PLATFORMS_180712.2305 Linux, x64, 64bit (optimized), Generic on Jul 13 2018 00:46:09 Operating system character set identified as UTF-8. Copyright (C) 1995, 2018, Oracle and/or its affiliates. All rights reserved. GGSCI (app-01) 1> create subdirs Creating subdirectories under current directory /home/oracle Parameter file /u01/app/ogg/dirprm: created. Report file /u01/app/ogg/dirrpt: created. Checkpoint file /u01/app/ogg/dirchk: created. Process status files /u01/app/ogg/dirpcs: created. SQL script files /u01/app/ogg/dirsql: created. Database definitions files /u01/app/ogg/dirdef: created. Extract data files /u01/app/ogg/dirdat: created. Temporary files /u01/app/ogg/dirtmp: created. Credential store files /u01/app/ogg/dircrd: created. Masterkey wallet files /u01/app/ogg/dirwlt: created. Dump files /u01/app/ogg/dirdmp: created.
- 复制参数文件
cd $OGG_HOME/AdapterExamples/big-data/kafka cp * $OGG_HOME/dirprm
- 参数配置
- custom_kafka_producer.properties
bootstrap.servers=10.1.1.246:9200,10.1.1.247:9200 --只需要改动这一行就行,指定kafka的地址和端口号 acks=1 reconnect.backoff.ms=1000 value.serializer=org.apache.kafka.common.serialization.ByteArraySerializer key.serializer=org.apache.kafka.common.serialization.ByteArraySerializer batch.size=16384 linger.ms=10000
- kafka.props
该配置文件主要控制着消息输出格式。由参数: gg.handler.kafkahandler.format 控制。
-
text mode
gg.handlerlist = kafkahandler gg.handler.kafkahandler.type=kafka gg.handler.kafkahandler.KafkaProducerConfigFile=custom_kafka_producer.properties #The following resolves the topic name using the short table name gg.handler.kafkahandler.topicMappingTemplate= testogg -- 此处指定为要同步到的目标testogg名字 gg.handler.kafkahandler.format=delimitedtext gg.handler.kafkahandler.format.fieldDelimiter=| gg.handler.kafkahandler.format.insertOpKey=I gg.handler.kafkahandler.format.updateOpKey=U gg.handler.kafkahandler.format.deleteOpKey=D gg.handler.kafkahandler.format.truncateOpKey=T gg.handler.kafkahandler.SchemaTopicName= testogg --此处指定为要同步到的目标topic名字 gg.handler.kafkahandler.BlockingSend =false gg.handler.kafkahandler.includeTokens=false gg.handler.kafkahandler.mode=op goldengate.userexit.timestamp=utc goldengate.userexit.writers=javawriter javawriter.stats.display=TRUE javawriter.stats.full=TRUE gg.log=log4j gg.log.level=INFO gg.report.time=30sec gg.classpath=dirprm/:/opt/cloudera/parcels/KAFKA/lib/kafka/libs/ --指定classpath,这里很重要,必须有kafka安装文件的类库。 javawriter.bootoptions=-Xmx512m -Xms32m -Djava.class.path=ggjava/ggjava.jar
-
json mode
gg.handlerlist = kafkahandler gg.handler.kafkahandler.type=kafka gg.handler.kafkahandler.KafkaProducerConfigFile=custom_kafka_producer.properties #The following resolves the topic name using the short table name gg.handler.kafkahandler.topicMappingTemplate=xiamen_dev #The following selects the message key using the concatenated primary keys gg.handler.kafkahandler.keyMappingTemplate=xiamen_dev gg.handler.kafkahandler.format=json gg.handler.hdfs.format.jsonDelimiter=CDATA[] #gg.handler.kafkahandler.format.fieldDelimiter= #gg.handler.name.format.pkUpdateHandling=delete-insert gg.handler.kafkahandler.format.insertOpKey=I gg.handler.kafkahandler.format.updateOpKey=U gg.handler.kafkahandler.format.deleteOpKey=D gg.handler.kafkahandler.format.truncateOpKey=T gg.handler.kafkahandler.SchemaTopicName=xiamen_dev gg.handler.kafkahandler.BlockingSend =false gg.handler.kafkahandler.includeTokens=false gg.handler.kafkahandler.mode=op goldengate.userexit.timestamp=utc goldengate.userexit.writers=javawriter javawriter.stats.display=TRUE javawriter.stats.full=TRUE gg.log=log4j gg.log.level=INFO gg.report.time=30sec #Sample gg.classpath for Apache Kafka gg.classpath=dirprm/:/opt/kafka_2.12-2.1.1/libs/*:/u01/app/ogg/*:/u01/app/ogg/lib/* #Sample gg.classpath for HDP #gg.classpath=/etc/kafka/conf:/usr/hdp/current/kafka-broker/libs/* javawriter.bootoptions=-Xmx512m -Xms32m -Djava.class.path=ggjava/ggjava.jar
-
- custom_kafka_producer.properties
- 配置MGR
edit params mgr # 内容如下(第三行在实际配置时已删除,一般不配置成自动启动): PORT 7809 DYNAMICPORTLIST 7810-7860 -- AUTORESTART REPLICAT *, RETRIES 5, WAITMINUTES 3, RESETMINUTES 60 PURGEOLDEXTRACTS ./dirdat/*, usecheckpoints, minkeepdays 1 LAGREPORTHOURS 1 LAGINFOMINUTES 30 LAGCRITICALMINUTES 45
- 配置初始化进程
-
添加并配置初始化进程
# 添加进程 ADD replicat init01, specialrun # 配置进程 edit params init01
参数内容:
SPECIALRUN end runtime setenv(NLS_LANG="AMERICAN_AMERICA.ZHS16GBK") targetdb libfile libggjava.so set property=./dirprm/kafka.props SOURCEDEFS ./dirdef/defgen.def --- 如果有多个map ,则需要配置sourcedefs,如果只有一个则可以不配置。 EXTFILE ./dirdat/in reportcount every 1 minutes, rate grouptransops 10000 map oggtest.*,target oggtest.*;
如果是12C 数据库, map 后面的格式为pdb.schema.table , target schema.table
-
示例
GGSCI (app-01) 1> ADD replicat init01, specialrun REPLICAT added. GGSIC (app-01) 2> exit cd $OGG_HOME/dirprm cat >> init01.prm <<EOF SPECIALRUN end runtime setenv(NLS_LANG="AMERICAN_AMERICA.ZHS16GBK") targetdb libfile libggjava.so set property=./dirprm/kafka.props SOURCEDEFS ./dirdef/defgen.def EXTFILE ./dirdat/in reportcount every 1 minutes, rate grouptransops 10000 map orclpdb.oggtest.*,target oggtest.*; EOF
示例中并没有通过 eidt params 命令来配置初始化进程的参数,而是通过shell的方式。 这是因为 edit params 方式的实际操作就是将配置内容输出到操作系统 dirprm/中的 文件。文件名是在进程名后加 rpm 后缀。
-
- 配置数据恢复进程
恢复进程,用于读取源库传送来的数据,解析成ddl/dml,并发送给KAFKA。
# GGSCI 环境 add replicat rep1,exttrail ./dirdat/kf # shell 环境 cd $OGG_HOME/dirprm/ cat >> rep1.prm <<EOF REPLICAT rep1 setenv(NLS_LANG="AMERICAN_AMERICA.ZHS16GBK") HANDLECOLLISIONS targetdb libfile libggjava.so set property=./dirprm/kafka.props SOURCEDEFS ./dirdef/defgen.def reportcount every 1 minutes, rate grouptransops 10000 MAP oggtest.*,target oggtest.*; EOF
7.3 同步数据
-
源端
源端 start ext_kfk start pmp_kfk start init01
-
目标端初始化数据
./replicat paramfile ./dirprm/init01.prm reportfile ./dirrpt/init01.rpt -p INITIALDATALOAD
kafka console consumer text-mode示例:
I|OGGTEST.T_TEST_LOB|2019-03-22 06:38:33.026733|2019-03-22T15:55:07.326000|00000000000000001803|1|adbx123
I|OGGTEST.T_TEST_LOB|2019-03-22 06:38:33.026733|2019-03-22T15:55:08.183000|00000000000000001886|2|adbx123lkjn
-
目标端追加数据
I|OGGTEST.T_TEST_LOB|2019-03-22 11:47:11.477910|2019-03-22T19:47:16.932000|00000000010000002197|6|biubiubiu|2019-03-22 20:25:49 D|OGGTEST.T_TEST_LOB|2019-03-22 11:55:12.461842|2019-03-22T19:55:18.378000|00000000010000002363|5||2019-03-22 19:37:51 U|OGGTEST.T_TEST_LOB|2019-03-22 11:55:12.461842|2019-03-22T19:55:18.385000|00000000010000002617|4|123|2019-03-22 16:48:03
8 错误
8.1 OGG-01044
错误信息:
ERROR OGG-01044 Oracle GoldenGate Capture for Oracle, ext_kfk.prm: The trail './dirdat/kf' is not assigned to extract 'EXT_KFK'. Assign the trail to the extract with the command "ADD EXTTRAIL/RMTTRAIL ./dirdat/kf, EXTRACT EXT_KFK".
该错误出现,是由于 在添加extrace 时,没有将exttrail 与extract name 进行绑定。按照提示操作,即可。
8.2 OGG-01389
错误信息:OGG-01389 File header failed to parse tokens. 出现此错误信息,原因是生成的表定义文件的头信息有固定的格式,不同的OGG版本,格式不一样。 因此,要想让目标端的OGG 可以正常识别表定义文件,需要指定目标端OGG的版本。 在defsfile 或者rmtfile 后加上format release <version> 即可。
8.3 OGG-06439
这个错误是一个警告,并不是错误类型。出现这个错误,说明表上没有主键。可以给表添加一个主键,或者完全不处理。
8.4 OGG-00060
错误信息:
ERROR OGG-00060 Oracle GoldenGate Capture for Oracle, ext_kfk.prm: Extract requires a value specified for parameter ALTARCHIVELOGDEST when in archived log only mode.
8.5 OGG-00868
- 单机环境中
- standby 日志thread 号与checkpoint的日志线程不匹配。重新添加standby redo log,指定thread 与其他日志组一致即可。
- RAC 环境
-
重新添加抽取进程, 添加时指定thread 编号
add extract ymsextr,tranlog,threads 1,begin now
来源:oschina
链接:https://my.oschina.net/u/4396523/blog/3501642