Skip To Content

订阅 Kafka Topic for Text

“订阅 Kafka Topic for Text”输入连接器可用于从 Apache Kafka® Topic 检索和改编格式化为分隔文本的事件数据记录。文本分隔符通常为逗号,因此这种类型的文本数据有时被称为逗号分隔值数据,但是 ArcGIS GeoEvent Server 可以使用任何普通 ASCII 字符作为分隔符来分隔数据属性值。有关 Apache Kafka® 入门知识的详细信息,请参阅 Apache Kafka 简介

用法说明

  • 使用此输入连接器可使用 Kafka Topic 中格式化或分隔文本的数据。此输入连接器是 Kafka 的用户。
  • 此输入连接器可将文本入站适配器与 Kafka 入站传输进行配对。
  • 分隔文本不必包含表示几何的数据。因此,该输入连接器可用于从 Kafka 检索和处理非空间数据。
  • 适配器支持根据 X、Y 和 Z 属性字段构造点几何的功能。
  • 解析来自 Kafka 的分隔文本需要消息分隔符属性分隔符消息分隔符可指示用于标识数据记录结尾的字符;默认为 \n(换行)。属性分隔符可指定用于在单行文本中将一个属性值与另一个属性值分开的字符;默认为 ,(逗号)。指定为字符或 Unicode 值的任何普通的 ASCII 字符都可以用作消息或属性分隔符。
  • Kafka 入站传输支持 TLS 1.2 和 SASL 安全协议,其使用 Kafka 集群或 broker 进行身份验证。

参数

参数描述

名称

用于在 GeoEvent Manager 中引用的输入连接器的描述性名称。

使用自定义 Kafka 属性覆盖

指定是否覆盖默认 GeoEvent Server Kafka 客户端属性。默认为

  • - 将覆盖传输公开的默认 Kafka 客户端属性。对于有效 Kafka 配置,使用 GeoEvent Server 注册的文件夹必须指定为包含正确格式的 Kafka .properties 文件。有关支持的配置和指定 .properties 文件的预期格式的列表,请参阅 Apache Kafka 配置
  • - 不会覆盖传输公开的默认 Kafka 客户端属性。必须指定 Kafka 引导服务器用户群组 ID

Kafka Bootstrap Servers

(条件分析)

用于建立与 Kafka 集群初始连接的 hostname:port 对列表。Hostname:port 对必须使用逗号分隔,例如:

  • broker0.example.com:9092,broker1.example.com:9092,broker2.example.com:9092

属性将在使用自定义 Kafka 属性覆盖设置为时显示。

主题名称

Kafka 主题的名称或 Kafka 主题列表,用于使用感兴趣的数据。多个主题必须用分号分隔。

  • topic1
  • topic1;topic2;topic3;topic4

注:

ArcGIS GeoEvent Server 10.8 及更高版本中可以指定多个 Kafka 主题。

注:

不能保证特定主题的数据顺序。

用户数量

指定每个用户群组的用户数量。将用户数量设置为默认值 1。

注:

用户数量受 Kafka 主题的分区数量限制。有关用户实例的详细信息,请参阅 Apache Kafka 简介

用户组 ID

(条件分析)

可选字符串,用于唯一标识一组用户的用户群组。也称为用户群组名称。

如果未指定用户组 ID,GeoEvent Server 会分配一个名为 geoevent-consumer 的静态用户组 ID。此静态用户组 ID 将在所有未指定用户组 ID 的 Kafka 连接器实例之间共享。

强烈建议指定自定义用户组 ID。有关用户群组的详细信息,请参阅 Apache Kafka 简介

属性将在使用自定义 Kafka 属性覆盖设置为时显示。

Kafka 属性文件的已注册文件夹

(条件分析)

使用 GeoEvent Server 注册的文件夹,其中包含 Kafka .properties 文件。当使用自定义 Kafka 属性覆盖被设置为时,Kafka .properties 文件将定义自定义 Kafka 属性 确保使用 GeoEvent Server 注册的文件夹为 Kafka .properties 文件所在位置的完整路径。

属性将在使用自定义 Kafka 属性覆盖设置为时显示。

Kafka 属性文件名称

(条件分析)

Kafka .properties 文件的名称,该文件包含用于客户端配置的自定义 Kafka 属性。文件名称应指定为不带 .properties 扩展名。

  • 如果自定义 Kafka .properties 文件的名称是 sample.properties,则将此属性指定为样本

属性将在使用自定义 Kafka 属性覆盖设置为时显示。

从头开始

指定是始终从主题开始偏移还是从用户的上次偏移开始使用记录。默认为

  • - 从主题开始偏移时开始使用记录。
  • - 从用户的上次偏移开始使用记录。

注:

有关偏移的详细信息,请参阅 Apache Kafka 配置

事件分隔符

单个文字字符,表示事件数据记录的结束。Unicode 值可用于指定字符分隔符。该字符不应用引号括起。换行符 (\n) 是常见的记录结束分隔符。

字段分隔符

用于将消息中的一个属性值与另一个属性值分开的单个文字字符。Unicode 值可用于指定字符分隔符。该字符不应用引号括起。逗号 (,) 是常见的属性分隔符。

创建 GeoEvent 定义

指定是否应将新的或现有的 GeoEvent 定义用于入站事件数据。GeoEvent Server 需要 GeoEvent 定义,以了解入站事件数据属性字段和数据类型。

  • - 将根据收到的第一个事件记录的模式创建新的 GeoEvent 定义。
  • - 不会创建新的 GeoEvent 定义。选择与入站事件数据的方案匹配的现有 GeoEvent 定义。

GeoEvent 定义名称(新)

(条件分析)

分配给新 GeoEvent 定义的名称。如果已存在具有指定名称的 GeoEvent 定义,则会使用现有的 GeoEvent 定义。收到的第一个数据记录将用于确定后续数据记录的预期方案,将根据第一个数据记录的方案创建新的 GeoEvent 定义。

属性在创建 GeoEvent 定义设置为时显示,设置为时隐藏。

GeoEvent 定义名称(现有)

(条件分析)

在调整接收数据以创建事件数据以供 GeoEvent 服务处理时使用的现有 GeoEvent 定义的名称。

属性在创建 GeoEvent 定义设置为时显示,设置为时隐藏。

从字段构建几何

指定输入连接器是否应使用作为属性接收的坐标值构造点几何。默认为

  • - 来自指定事件属性字段的值将用于构造点几何。
  • - 不会构造点几何。假定属性字段包含可以解释为几何的值,或者事件记录为非空间(不具有几何)。

X 几何字段

(条件分析)

入站事件数据中的属性字段包含点位置的 X 坐标部分(例如水平或经度)。

属性在从字段构建几何设置为时显示,设置为时隐藏。

Y 几何字段

(条件分析)

入站事件数据中的属性字段包含点位置的 Y 坐标部分(例如垂直或纬度)。

属性在从字段构建几何设置为时显示,设置为时隐藏。

Z 几何字段

(条件分析)

入站事件数据中的属性字段包含点位置的 Z 坐标部分(例如深度或高度)。如果留空,则将省略 Z 值,并将构建 2D 点几何。

属性在从字段构建几何设置为时显示,设置为时隐藏。

默认空间参考

当从坐标不是假定的 WGS84 地理坐标系的纬度和经度值的属性字段值构造几何时使用的空间参考的熟知 ID (WKID),或接收的不包含空间参考的几何字符串。还可以指定熟知文本 (WKT) 值或包含 WKID 或 WKT 的属性字段的名称。

预期日期格式

该模式用于匹配日期/时间值的预期字符串表示形式,并将它们转换为 Java 日期值。模式的格式遵循 Java SimpleDateFormat 类约定。此属性不具有默认值。

GeoEvent Server 更偏好以 ISO 8601 标准表示的日期/时间值,通常被识别为日期值的日期/时间值的多个字符串表示可以转换为 Java 日期值,且无需指定预期日期格式模式。其中包括:

  • “2019-12-31T23:59:59”- ISO 8601 标准格式
  • 1577836799000 - Java 日期(时间长整型;UTC)
  • “Tue Dec 31 23:59:59 -0000 2019”- 常见的 web 服务字符串格式
  • “12/31/2019 11:59:59 PM”- 美国使用的通用格式(12 小时制)
  • “12/31/2019 23:59:59”- 美国使用的通用格式 (24 小时制)

如果收到的日期/时间值使用上述五种之一以外的约定表示,则必须指定一个预期日期格式以便 GeoEvent Server 了解如何调整日期/时间值。

数字格式化语言

从数据值格式化数字时用于区分区域设置敏感行为的区域设置标识符 (ID)。默认值为安装 GeoEvent Server 的计算机的区域设置。有关详细信息,请参阅 Java 支持的区域设置

需要身份验证

指示连接到 Kafka 集群(或 Kafka broker)是否需要身份验证。默认为

  • - Kafka 集群或 broker 需要身份验证。
  • - 连接到 Kafka 集群或 broker 不需要身份验证。

身份验证方式

(条件分析)

指定用于保护 Kafka 集群的安全协议。可用安全协议包括 TLS 1.2 和 SASL。

  • TLS 1.2 - Kafka 集群使用的安全协议是 TLS 1.2。确保将 Kafka 群集的 PKI 文件(x509 证书)导入到 ArcGIS Server 的信任存储中,此信任存储将用于配置 ArcGIS GeoEvent Server。有关导入证书指定说明的详细信息,请参阅使用现有的 CA 签名证书配置 ArcGIS Server 中的将证书导入 ArcGIS Server 部分。
  • SASL - Kafka 集群使用的安全协议是 SASL。仅支持 SASL SSL 和 Kerberos。

注:

在使用 Kerberos 时,请确保运行 ArcGIS GeoEvent Server 的操作系统用户帐户具有 Kerberos 设置/配置中密钥表文件的读取权限。

属性在需要身份验证设置为时显示。

凭据文件的已注册文件夹

(条件分析)

使用 GeoEvent Server 注册的文件夹中包含 Kafka 集群的 PKI 文件(x509 证书)。确保使用 GeoEvent Server 注册的文件夹为 Kafka 集群证书所在位置的完整路径。

属性在需要身份验证设置为时显示。该属性仅适用于 TLS 1.2。

凭据配置文件

(条件分析)

Kafka 集群 PKI 文件的名称(x509 证书)。必须以 PKCS#12 格式存储此证书及其关联私钥,表示为具有 .p12 或 .pfx 扩展名的文件。请输入文件名和扩展名。

  • my_kafka_certificate.pfx
  • my_other_kafka_certificate.p12

注:

此参数仅支持证书文件名称和扩展名。证书的相对路径不应在此参数中指定。使用凭据文件的已注册文件夹参数注册证书文件的完整路径。

属性在需要身份验证设置为时显示。该属性仅适用于 TLS 1.2。

Keystore 密码

(条件分析)

Kafka 集群 PKI 文件的密码(x509 证书)。也称为证书的私钥。

属性在需要身份验证设置为时显示。该属性仅适用于 TLS 1.2。

SASL 身份验证类型

(条件分析)

指定 Kafka 集群支持的 SASL 身份验证机制类型。可用 SASL 身份验证类型包括 SASL GSSAPI (Kerberos) 和 SASL PLAIN。

  • SASL/GSSAPI (Kerberos) - Kafka 集群将使用 SASL/GSSAPI Kerberos 身份验证。
  • SASL/PLAIN - Kafka 集群将使用 SASL/PLAIN 身份验证。

属性在需要身份验证设置为时显示。该属性仅适用于 SASL。

Kerberos 主体

(条件分析)

特定用户的 kerberos 主体。例如:

  • GeoEventKafkaClient1@example.com.

属性在需要身份验证设置为时显示。该属性仅适用于 SASL/GSSAPI (Kerberos)。

使用密钥表

(条件分析)

指示是否在 Kerberos 设置中使用密钥表。默认为

  • - 将在 Kerberos 设置中使用密钥表。
  • - 不会在 Kerberos 设置中使用密钥表。

属性在需要身份验证设置为时显示。该属性仅适用于 SASL/GSSAPI (Kerberos)。

存储密钥

(条件分析)

指示是否在 Kerberos 设置中存储密钥。默认为

  • - 密钥将存储在 Kerberos 设置中。
  • - 密钥不会存储在 Kerberos 设置中。

属性在需要身份验证设置为时显示。该属性仅适用于 SASL/GSSAPI (Kerberos)。

用户名

(条件分析)

指定用于使用 Kafka 集群进行身份验证的用户名。也称为与某些云提供商的连接字符串。有关正确的语法,请参阅所选云提供商的文档。

属性在需要身份验证设置为时显示。该属性仅适用于 SASL/PLAIN。

密码

(条件分析)

指定用于使用 Kafka 集群进行身份验证的密码。有关正确的语法,请参阅所选云提供商的文档。

属性在需要身份验证设置为时显示。该属性仅适用于 SASL/PLAIN。

注意事项和限制

  • 对用户的管理和优化不足,在某些情况下,将导致订阅 Kafka Topic for Text 输入连接器无法检索任何数据。用户组中的用户数量受 Kafka 主题的分区数量限制。如果用户组中的用户数量数超过 Kafka 主题的可用分区数量,则超出的用户将无法使用数据。为避免发生上述情况,需考虑对用户数量进行优化,使其最好与 Kafka 主题的分区数量保持一致,或者为每个连接器实施不同的用户组。有关用户和用户组的详细信息,请参阅 Kafka 文档
  • 订阅 Kafka Topic for Text 输入连接器是 Kafka 的客户端用户。对此输入连接器应用与 Kafka 任何其他客户端用户相同的注意事项。例如,如果此输入连接器未从 Kafka 主题接收任何数据,而是从 Kafka 的一个独立客户端用户那里接收数据,请考虑拥有两个客户端用户所涉及的因素。这包括但不限于配置的用户组 ID、主题上可用的分区数量以及现有用户的数量。或者,如果输入连接器连续的快速停止或启动,请从用户角度考虑对 Kafka 产生的影响。重新平衡 Kafka 主题的分区可能会阻止输入连接器立即作为同一用户组下的用户重新加入。