更新时间:2023-04-11 15:10:44
多域数据复制遵循网络限制规则,通过在多个网络域之间的数据复制,实现数据的统一存储,进而实现全局数据搜索和分析。
进入数据管理>数据开放>多域数据复制页面,在此页面可进行创建、筛选、排序、修改、删除多域数据复制任务的功能操作。
► 新建多域数据复制任务:
1. 在多域数据复制页面,点击【+新建】进入“新建任务”的配置页面,配置以下参数信息:
  • 基本信息配置

元素名称 元素说明 限制条件
*任务名称 设置多域数据复制任务的名称 • ≤32字符,且不允许为空或重名;
• 允许包含~`@#&*()-+=_{}’,<>/特殊字符,但不允许以其开头
备注 设置任务的备注信息 • ≤255字符
  • 源端配置&目标端配置

元素名称 元素说明 限制条件
*源集群主机地址 输入被收集数据的源集群主机IP地址(或host name)和Kafka端口号

• 输入格式为IP:port或host:port;

• 支持输入多个主机地址,同时需要使用英文“,”隔开;

• 若主机使用的是Kafka默认对外开放的端口,则此处端口号默认使用31000

*目标集群主机地址 输入收集数据的目标集群主机IP地址(或host name)和Kafka端口号
sasl认证 选择是否开启源集群/目标集群主机Kafka的SASL认证:
• 开启:
   • *用户名:输入源集群/目标集群主机部署Kafka时设置的用户名;
   • *密码:输入源集群/目标集群主机部署Kafka时设置的密码;
• 关闭
• SASL可以保障Kafka的安全性,让未经认证的客户端无法连接Kafka服务;
• 默认开启 
ssl认证 选择是否开启源集群/目标集群主机Kafka的SSL认证 • 客户端与Kafka服务端的SSL连接可以保证数据的加密传输,保障数据安全;
• 默认关闭 
  • 高级项配置

元素名称 元素说明 限制条件
开启定时复制

• 开启:开启定时复制时,系统将在指定的时间点、持续时间执行多域复制任务

*执行周期:设置多域复制定时任务的开启时间。例如设置执行周期为“08:00”表示系统将在每天上午的8点开启多域复制任务;

*持续时间:设置多域复制任务开启后的持续时间。例如设置持续时间为“4”表示系统开启多域复制任务后,任务将持续执行4小时。

• 关闭:关闭定时复制时,系统默认全天执行多域复制任务,即实时复制。

• 执行周期默认为00:00;

• 持续时间默认单位为“小时”不可修改,默认值为“5”,输入值应>0且≤23;

• 默认关闭,即系统默认全天执行多域复制任务

复制开始策略

• 从最新的数据开始:复制任务将从源端Kafka的最新数据开始复制,即复制到目的端的数据不包括源端kafka缓冲中的数据;
• 从最早的数据开始:复制任务将从源端Kafka的最早数据开始复制,即从源端Kafka缓冲中最早时间的数据开始复制(Kafka 默认数据保留周期为 7 天)。

-

开启限速策略

• 开启:开启限速策略后,需填写" *限速大小”(单位MB /s)设置速度上限,系统将基于此限制复制任务的网络传输速度。

• 关闭:默认情况下不开启限速策略,即系统默认不对复制任务的网络传输速度予以限制。

 提示:建议您在网络高峰期带宽资源有限的情况下开启此功能,以保证其他业务的正常运行。

-
数据来源

在数据来源下拉框中选择需要复制的数据来源,支持设置以下三种来源:

• 原始数据:表示复制任务将复制源端的原始数据,完成复制后,目的端可以留存并管理来自源端的原始数据;

• 解析后数据:表示复制任务将源端解析后的格式化数据传输并复制到目的端,可减少目的端数据处理的压力;

注意:当两个多域复制任务互为源端和目标端时,两任务的数据来源不能同时选择“解析后数据”,否则会导致循环复制!

• 自定义topic:当复制场景有明确的数据范围时,可在"*自定义topics"的文本框中填写正则表达式或topic名称以指定需复制的topic列表(通过键入回车键可添加多个自定义topic)。完成复制后,目的端可以留存并管理来自源端的自定义原始数据。

说明:

◆ 复制任务源端topic变动说明

AnyRobot会对“运行中”任务的源端topic变动情况进行轮询(时间间隔默认为10分钟):当源端需复制数据的topic发生变动时(如:新增或减少topic、新增topic的分区数),AnyRobot会在每次轮询时获取到topic的变动信息,并根据已配置的“复制开始策略”自动复制新增的topic及topic分区的数据;

• 针对“运行中”的任务,若您删除了此类任务关联的源端需复制的topic后,再重新创建同名topic,则会面临丢失数据的风险,请谨慎操作!

 ◆ 复制任务目的端数据类型说明

• 当数据来源选择“原始数据”时,若原始数据无数据类型,则数据复制到目的端后其数据类型为“kafka_topic”;

• 当数据来源选择“自定义topic”时,若原始数据无数据类型,则数据复制到目的端后其数据类型为源端Kafka的topic名称(即假设配置的自定义topic的名称为“abc”,则数据复制到目的端后其数据类型为“abc”)。

自定义topics的文本框内容需遵循以下限制:

• 当数据来源选择"自定义topic"时,topic不能为空;

• topic不能为.*,不能以anyrobot_data-replicator和__开头,且不能包含中文;

• 可填写多个topic,最多不能超过10个

注意:
• 每个任务中的“源集群主机地址”和“目标集群主机地址”这一集群对是唯一的;当已存在相同集群对的任务时,则该任务无法保存;
• 若源端或目标端的Kafka开启了SASL认证,则之前创建的多域数据复制任务需编辑配置后才可继续正常复制数据; 
• 任务数量上限为10个。

2. 点击【保存】完成多域数据复制任务的创建操作,进入多域数据复制列表页面。
说明:多域数据复制任务创建成功后,可在源端和目标端的日志库中查看复制成功的数据。
► 筛选多域数据复制任务:
在多域数据复制列表页面,点击在下拉菜单中选择一种状态,点击确定,即可看到此种状态下的任务列表,如下所示:


注意:
1. 任务状态可以显示当前各多域数据复制任务的执行状态,有运行中、休眠中、关闭及失败四种状态:

• 休眠中:表示已开启定时复制但还未到执行周期的任务。
2. 当任务状态为“失败”时,失败详情可通过点击右侧【查看】后在弹出的详情页中查看,若出现以下类似情况,则为源端或目的端 Kafka连接失败,需排查Kafka连通性问题:
异常详情 异常原因
{"error_code":"DataReplicator.InternalError.KafkaInternalError","description":"服务器内部错误(kafka)","error_link":"","solution":"","error_details":"Failed to create sinkTopic, Local: Broker transport failure"} 目的端创建topic失败
Fatal error: Local: Broker transport failure 数据复制过程中,源端/目的端Kafka连接失败
Fatal error: Local: Timed out 数据复制过程中,源端/目的端Kafka连接超时
Local:Message timed out 往目的端发送消息超时

► 排序多域数据复制任务:
在多域数据复制列表页面,默认各任务从上到下根据更新时间递减排序;点击一次“更新最新时间”表头,各任务将根据更新时间递增排序;点击两次,各任务根据更新时间递减排序;点击三次回到默认排序。
► 查看多域数据复制任务:

在多域数据复制列表页面,点击右侧【查看】,在页面右侧抽屉弹窗中可查看此任务详情,包括任务名称、最近更新时间、任务状态等信息,如下所示:

► 更改多域数据复制任务状态:
在多域数据复制列表页面,点击启用列的“”按钮即可关闭复制任务;任务处于失败或关闭状态时,点击启用列的“”按钮即可重新开始复制任务,如下所示:

► 编辑多域数据复制任务:
在多域数据复制列表页面,点击右侧【编辑】,进入编辑任务界面,可对任务名称、源集群地址、目标集群地址、高级设置进行编辑修改。

► 删除多域数据复制任务:
在多域数据复制列表页面,点击右侧【删除】,即可删除此任务。
素名称