PolarDB是阿里巴巴自主研发的下一代关系型分布式云原生数据库,可完全兼容MySQL,具备简单易用、高性能、高可靠、高可用等优势。通过数据传输服务DTS(Data Transmission Service),可以帮助您将自建MySQL数据库迁移至PolarDB MySQL。

前提条件

注意事项

  • DTS在执行全量数据迁移时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,在数据库性能较差、规格较低或业务量较大的情况下(例如源库有大量慢SQL、存在无主键表或目标库存在死锁等),可能会加重数据库压力,甚至导致数据库服务不可用。因此您需要在执行数据迁移前评估源库和目标库的性能,同时建议您在业务低峰期执行数据迁移(例如源库和目标库的CPU负载在30%以下)。
  • 如果源数据库没有主键或唯一约束,且所有字段没有唯一性,可能会导致目标数据库中出现重复数据。
  • 对于数据类型为FLOAT或DOUBLE的列,DTS会通过ROUND(COLUMN,PRECISION)来读取该列的值。如果没有明确定义其精度,DTS对FLOAT的迁移精度为38位,对DOUBLE的迁移精度为308位,请确认迁移精度是否符合业务预期。
  • 对于迁移失败的任务,DTS会触发自动恢复。在您将业务切换至目标集群前,请务必先结束或释放该任务,避免该任务被自动恢复后,导致源端数据覆盖目标集群的数据。

迁移类型介绍

支持结构迁移、全量数据迁移和增量数据迁移,详细介绍请参见 名词解释
说明 同时使用这三种迁移类型可实现在应用不停服的情况下,平滑地完成数据库迁移。

费用说明

迁移类型 链路配置费用 公网流量费用
结构迁移和全量数据迁移 不收费。 通过公网将数据迁移出阿里云时将收费,详情请参见产品定价
增量数据迁移 收费,详情请参见产品定价

增量数据迁移阶段支持同步的SQL操作

操作类型 SQL操作语句
DML INSERT、UPDATE、DELETE、REPLACE
DDL
  • ALTER TABLE、ALTER VIEW
  • CREATE FUNCTION、CREATE INDEX、CREATE PROCEDURE、CREATE TABLE、CREATE VIEW
  • DROP INDEX、DROP TABLE
  • RENAME TABLE
  • TRUNCATE TABLE

数据库账号的权限要求

数据库 结构/全量迁移 增量迁移
自建MySQL数据库 SELECT权限 REPLICATION CLIENT、REPLICATION SLAVE、SHOW VIEW和SELECT权限
PolarDB集群 读写权限 读写权限

数据库账号创建及授权方法:

准备工作

为自建MySQL创建账号并设置binlog

操作步骤

  1. 登录数据传输控制台
  2. 在左侧导航栏,单击数据迁移
  3. 迁移任务列表页面顶部,选择迁移的目标集群所属地域。
    选择地域
  4. 单击页面右上角的创建迁移任务
  5. 配置迁移任务的源库和目标库连接信息。
    源库及目标库配置
    类别 配置 说明
    任务名称 DTS会自动生成一个任务名称,建议配置具有业务意义的名称(无唯一性要求),便于后续识别。
    源库信息 实例类型 根据源库的部署位置进行选择,本文以有公网IP的自建数据库为例介绍配置流程。
    说明 当自建数据库为其他实例类型时,您还需要执行相应的准备工作,详情请参见 准备工作概览
    实例地区 当实例类型选择为有公网IP的自建数据库时,实例地区无需设置。
    说明 如果您的自建MySQL数据库具有白名单安全设置,您需要在 实例地区配置项后,单击 获取DTS IP段来获取到DTS服务器的IP地址,并将获取到的IP地址加入自建MySQL数据库的白名单安全设置中。
    数据库类型 选择MySQL
    主机名或IP地址 填入自建MySQL数据库的访问地址,本案例中填入公网地址。
    端口 填入自建MySQL数据库的服务端口,默认为3306
    数据库账号 填入自建MySQL的数据库账号,权限要求请参见数据库账号的权限要求
    数据库密码 填入该账号对应的密码。
    说明 源库信息填写完毕后,您可以单击 数据库密码后的 测试连接来验证填入的信息是否正确。如果填写正确则提示 测试通过;如果提示 测试失败,单击 测试失败后的 诊断,根据提示调整填写的源库信息。
    目标实例信息 实例类型 选择PolarDB
    实例地区 选择目标PolarDB集群所属的地域。
    PolarDB实例ID 选择目标PolarDB集群ID。
    数据库账号 填入目标PolarDB集群的数据库账号,权限要求请参见数据库账号的权限要求
    数据库密码 填入该账号对应的密码。
    说明 目标库信息填写完毕后,您可以单击 数据库密码后的 测试连接来验证填入的信息是否正确。如果填写正确则提示 测试通过;如果提示 测试失败,单击 测试失败后的 诊断,根据提示调整填写的目标库信息。
  6. 配置完成后,单击页面右下角的授权白名单并进入下一步
    说明 此步骤会将DTS服务器的IP地址自动添加到目标PolarDB MySQL的白名单中,用于保障DTS服务器能够正常连接目标集群。
  7. 选择迁移类型和迁移对象。
    选择迁移对象和类型
    配置 说明
    迁移类型
    • 如果只需要进行全量迁移,则同时选中结构迁移全量数据迁移
    • 如果需要进行不停机迁移,则同时选中结构迁移全量数据迁移增量数据迁移
    注意 如果未选中 增量数据迁移,为保障数据一致性,全量数据迁移期间请勿在源库中写入新的数据。
    迁移对象

    迁移对象框中单击待迁移的对象,然后单击向右小箭头图标将其移动至已选择对象框。

    注意
    • 迁移对象选择的粒度为库、表、列。
    • 默认情况下,迁移对象在目标库中的名称与源库保持一致。如果您需要改变迁移对象在目标库中的名称,需要使用对象名映射功能,详情请参见库表列映射
    • 如果使用了对象名映射功能,可能会导致依赖这个对象的其他对象迁移失败。
    映射名称更改 如需更改迁移对象在目标实例中的名称,请使用对象名映射功能,详情请参见库表列映射
    源、目标库无法连接重试时间 当源、目标库无法连接时,DTS默认重试720分钟(即12小时),您也可以自定义重试时间。如果DTS在设置的时间内重新连接上源、目标库,迁移任务将自动恢复。否则,迁移任务将失败。
    说明 由于连接重试期间,DTS将收取任务运行费用,建议您根据业务需要自定义重试时间,或者在源和目标库实例释放后尽快释放DTS实例。
    源表DMS_ONLINE_DDL过程中是否复制临时表到目标库 如源库使用数据管理DMS(Data Management Service)执行Online DDL变更,您可以选择是否迁移Online DDL变更产生的临时表数据。
    • :迁移Online DDL变更产生的临时表数据。
      说明 Online DDL变更产生的临时表数据过大,可能会导致迁移任务延迟。
    • :不迁移Online DDL变更产生的临时表数据,只迁移源库的原始DDL数据。
      说明 该方案会导致目标库锁表。
  8. 上述配置完成后,单击页面右下角的预检查并启动
    说明
    • 在迁移任务正式启动之前,会先进行预检查。只有预检查通过后,才能成功启动迁移任务。
    • 如果预检查失败,单击具体检查项后的提示,查看失败详情。
      • 您可以根据提示修复后重新进行预检查。
      • 如无需修复告警检测项,您也可以选择确认屏蔽忽略告警项并重新进行预检查,跳过告警检测项重新进行预检查。
  9. 预检查通过后,单击下一步
  10. 在弹出的购买配置确认对话框,选择链路规格并选中数据传输(按量付费)服务条款
  11. 单击购买并启动,迁移任务正式开始。
    • 结构迁移+全量数据迁移

      请勿手动结束迁移任务,否则可能会导致数据不完整。您只需等待迁移任务完成即可,迁移任务会自动结束。

    • 结构迁移+全量数据迁移+增量数据迁移

      迁移任务不会自动结束,您需要手动结束迁移任务。

      注意 请选择合适的时间手动结束迁移任务,例如业务低峰期或准备将业务切换至目标集群时。
      1. 观察迁移任务的进度变更为增量迁移,并显示为无延迟状态时,将源库停写几分钟,此时增量迁移的状态可能会显示延迟的时间。
      2. 等待迁移任务的增量迁移再次进入无延迟状态后,手动结束迁移任务。结束增量迁移任务
  12. 将业务切换至PolarDB集群。