背景

最近在支持一个从Oracle转TiDB的项目,为方便应用端兼容性测试需要把Oracle测试环境的库表结构和数据同步到TiDB中,由于数据量并不大,所以怎么方便怎么来,这里使用CSV导出导入的方式来实现。

整个过程可以分为三个步骤:

  • 库表结构转换
  • 源数据导出
  • 导入目标库

库表结构转换

众所周知TiDB是兼容MySQL协议的,所以Oracle的表结构定义在TIDB不一定能完全使用,这时候就需要做一些转换,比如字段类型、关键字、系统函数等等。如果表比较少的话,手动转一下也不是不行,但本次测试的Oracle其中一个用户下就有将近900张表,手动去转换显然不可能。

这里我使用的工具是TransferDB,它可以支持异构数据Oracle到MySQL/TiDB的结构转换,项目主页https://github.com/wentaojin/transferdb。

这个工具由PingCAP某位大佬开发,虽然没有正式对外发布,但确实挺好用的。TransferDB是TiDB运维常用工具集(TiDBA)中的一部分,其他的还包含收集统计信息、Mok 解析 key、基于 region key、数据 range、数据估算生成打散语句、查看表数据以及索引 region leader 分布、版本升级,比对 3.0 以及 4.0 配置文件以及 tidb 系统变量等,可以说是非常实用了,它的项目主页是https://github.com/wentaojin/tidba

使用过Lightning的朋友对这个工具的使用一定不会陌生,从配置文件到运行程序几乎可以说是如出一辙,项目自带的操作手册也写的非常详细。

它包含以下几点核心功能:schema转换、表结构检查、迁移成本评估、数据迁移(全量或增量)、CSV导出等,其中有些功能目前还是实验特性,我这里只用到了它的核心特性schema转换。

它的配置文件参数非常丰富,注释很清晰使用起来非常简单,对于schema转换场景来说,只需要修改[source][target]部分的连接信息就行,详细的配置清单可以看这里:https://github.com/wentaojin/transferdb/blob/main/conf/config.toml

配置文件修改好以后,执行下面两条命令就可以实现转换:

# 这个过程是在目标库中生成一个迁移元信息库,用来存储转换规则、断点信息等等,类似于DM中的dm_meta库
./transferdb --config config.toml --mode prepare
# 这个过程是实现schema转换,输出sql文件
./transferdb --config config.toml --mode reverse

执行成以后会生成2个SQL文件,一个叫 reverse_${sourcedb}.sql,它是在TiDB中可以执行的sql,另一个是 compatibility_${sourcedb}.sql,它是TiDB不兼容的sql,比如Foreign Key、Constraint等等,这部分SQL需要人工去评估下使用别的方案来实现。

接着,把reverse_${sourcedb}.sql导入到TiDB即可,常用的两种方式:

  • mysql -h -u -P < reverse.sql
  • source reverse.sql

源数据导出

Oracle数据导出到CSV文件我使用sqluldr2来实现,这是一款在Oracle使用非常广泛的数据导出工具,它的特点就是小巧、轻便、速度快、跨平台、支持自定义SQL。

网上的资料比较多,这里就不详细介绍怎么去使用了,作者(前阿里数据库大佬)也写了一份超级详细的文档,大家搜索sqluldr2超详细使用教程-loracle数据导出工具及方法即可。

sqluldr2虽然很强大,但它却不支持批量导出这点很让人迷惑,没办法只能另辟蹊径来实现了。

我先把需要导出的表清单放到一个txt文件中:

./sqluldr2linux64.bin user=user/pwd@192.168.1.1:1521/orcl query='select table_name from all_tables where owner='test';' file=/tmp/tidb/sqluldr_tables.sql

再写一个批处理脚本把所有表进行导出:

#!/bin/bash

cat /tmp/tidb/sqluldr_tables.sql | while read line
do
echo $line
/tmp/tidb/sqluldr2linux64.bin user=user/pwd@192.168.1.1:1521/orcl query={$line} charset=UTF8 field=0x7c0x260x7c record=0x3d0x37 null=null file=/tmp/tidb/data/orcltest.{$line}.csv
done

这里有几点需要注意:

  • 字段分隔符和换行符建议使用复杂的字符,最好使用多种组合字符(推荐使用ASCII码),这样能尽可能的避免出现导出的数据value count和column count不一致的情况。
  • 导出的文件字符集设置成UTF8格式,避免数据导入到TiDB后出现中文乱码
  • 由于后面要使用Lightning导入CSV,文件命名格式要符合Lightning的要求,即{dbname}.{tablename}.csv

到这里数据就准备就绪了。

导入到TiDB

往TiDB中导入CSV文件有两种常用的方式,第一种就是Lightning,第二种是Load Data,无论是从操作上还是性能上我都推荐优先考虑Lightning,原因如下:

  • Load Data只能导入单个文件,Lightning可以批量导入
  • Lightning以性能著称,支持多种后端模式,Load Data只能走计算层,还有内存放大现象
  • 对于异常情况,Lightning可以断点续传,Load Data要清理数据重新导入

单从900个csv文件来看,Lightning绝对是第一选择。

这里贴一下Lightning的几项核心配置:

[tikv-importer]
# 选择使用的 local 后端
backend = "local"
# 设置排序的键值对的临时存放地址,目标路径需要是一个空目录
sorted-kv-dir = "/tmp/tidb/lightning_dir" [mydumper]
data-source-dir = "/tmp/tidb/data"
no-schema = true
filter = ['*.*'] [mydumper.csv]
# 字段分隔符,支持一个或多个字符,默认值为 ','。
separator = '|&|'
# 引用定界符,设置为空表示字符串未加引号。
delimiter = ''
# 行尾定界字符,支持一个或多个字符。设置为空(默认值)表示 "\n"(换行)和 "\r\n" (回车+换行),均表示行尾。
terminator = "=%"
# CSV 文件是否包含表头。
# 如果 header = true,将跳过首行。
header = false
# CSV 文件是否包含 NULL。
# 如果 not-null = true,CSV 所有列都不能解析为 NULL。
not-null = false
# 如果 not-null = false(即 CSV 可以包含 NULL),
# 为以下值的字段将会被解析为 NULL。
null = '\N'
# 是否对字段内“\“进行转义
backslash-escape = true
# 如果有行以分隔符结尾,删除尾部分隔符。
trim-last-separator = false

注意事项:

- 推荐使用local模式,这样应对blob类型的数据处理更友好

- 不需要导入表结构,所以设置no-schema = true

- 分隔符和换行符这些要和sqluldr2设置的一样

最后运行Lightning即可:

./tidb-lightning --config tidb.toml --checkrequirements=false

这个过程中我还发现了一个Lightning的bug,后面我会尝试自己修复一下。

其他部分

至于Oracle的其他部分例如存储过程和自定义函数,也不用多想怎么去迁移了,老老实实改代码去应用端实现。

视图的话我是先用PLSQL把视图导成sql文件再导入TiDB中,但是报错的比较多,基本都是系统函数和语法不兼容问题,这部分就涉及SQL改写了,没有什么好的办法。

总结

在之前的项目中也使用过DSG来实现Oracle到TiDB的数据迁移,但它毕竟是个纯商业性工具,先充钱才能玩,对于这种测试阶段来说不是太好的选择。

当然了,官方发布的《TiDB in Action》一书中也给出了Oracle到TiDB的迁移案例:https://book.tidb.io/session4/chapter5/from-oracle-to-tidb.html,它基于Oracle自家的OGG组件来实现,部署使用上稍微有点麻烦。

本文提到的几个工具都是随取随用,不需要安装各种依赖环境,这对于我现在面对的这种没有网络没有yum源的服务器来说简直太舒服了,在这样的小数据量测试场景中不失是一种选择。

更多好方案也欢迎大家推荐,为TiDB生态助力。

记一次简单的Oracle离线数据迁移至TiDB过程的


扫描二维码,在手机上阅读!