Debezium
This documentation is for an unreleased version of Apache Flink. We recommend you use the latest stable version.

Debezium Format #

Changelog-Data-Capture Format Format: Serialization Schema Format: Deserialization Schema

Debezium is a CDC (Changelog Data Capture) tool that can stream changes in real-time from MySQL, PostgreSQL, Oracle, Microsoft SQL Server and many other databases into Kafka. Debezium provides a unified format schema for changelog and supports to serialize messages using JSON and Apache Avro.

Flink supports to interpret Debezium JSON and Avro messages as INSERT/UPDATE/DELETE messages into Flink SQL system. これは次のような多くの場合にこの機能を利用するのに役立ちます

  • データベースから他のシステムへの増分データの同期
  • 監査ログ
  • データベース上でのリアルタイムのマテリアライズドビュー
  • データベーステーブルなどの変更履歴の一時結合。

Flink also supports to encode the INSERT/UPDATE/DELETE messages in Flink SQL as Debezium JSON or Avro messages, and emit to external systems like Kafka. ただし、現在FlinkはUPDATE_BEFOREとUPDATE_AFTERを単一のUPDATEメッセージに組み合わせることはできません。Therefore, Flink encodes UPDATE_BEFORE and UDPATE_AFTER as DELETE and INSERT Debezium messages.

依存 #

Debezium Avro #

In order to use the Debezium format the following dependencies are required for both projects using a build automation tool (such as Maven or SBT) and SQL Client with SQL JAR bundles.

Maven dependency SQL Client
Only available for stable releases.

Debezium Json #

In order to use the Debezium format the following dependencies are required for both projects using a build automation tool (such as Maven or SBT) and SQL Client with SQL JAR bundles.

Maven dependency SQL Client
Built-in

Note: please refer to Debezium documentation about how to setup a Debezium Kafka Connect to synchronize changelog to Kafka topics.

How to use Debezium format #

Debezium provides a unified format for changelog, here is a simple example for an update operation captured from a MySQL products table in JSON format:

{
  "before": {
    "id": 111,
    "name": "scooter",
    "description": "Big 2-wheel scooter",
    "weight": 5.18
  },
  "after": {
    "id": 111,
    "name": "scooter",
    "description": "Big 2-wheel scooter",
    "weight": 5.15
  },
  "source": {...},
  "op": "u",
  "ts_ms": 1589362330904,
  "transaction": null
}

Note: please refer to Debezium documentation about the meaning of each fields.

MySQL productsテーブルには4つのカラムがあります(idnamedescriptionweight)。上記のJSONメッセージは、productsテーブルの更新変更イベントであり、id = 111の行のweight値が、5.18から5.15に変更されます。 Assuming this messages is synchronized to Kafka topic products_binlog, then we can use the following DDL to consume this topic and interpret the change events.

CREATE TABLE topic_products (
  -- schema is totally the same to the MySQL "products" table
  id BIGINT,
  name STRING,
  description STRING,
  weight DECIMAL(10, 2)
) WITH (
 'connector' = 'kafka',
 'topic' = 'products_binlog',
 'properties.bootstrap.servers' = 'localhost:9092',
 'properties.group.id' = 'testGroup',
 -- using 'debezium-json' as the format to interpret Debezium JSON messages
 -- please use 'debezium-avro-confluent' if Debezium encodes messages in Avro format
 'format' = 'debezium-json'
)

In some cases, users may setup the Debezium Kafka Connect with the Kafka configuration 'value.converter.schemas.enable' enabled to include schema in the message. Then the Debezium JSON message may look like this:

{
  "schema": {...},
  "payload": {
    "before": {
      "id": 111,
      "name": "scooter",
      "description": "Big 2-wheel scooter",
      "weight": 5.18
    },
    "after": {
      "id": 111,
      "name": "scooter",
      "description": "Big 2-wheel scooter",
      "weight": 5.15
    },
    "source": {...},
    "op": "u",
    "ts_ms": 1589362330904,
    "transaction": null
  }
}

In order to interpret such messages, you need to add the option 'debezium-json.schema-include' = 'true' into above DDL WITH clause (false by default). Usually, this is not recommended to include schema because this makes the messages very verbose and reduces parsing performance.

After registering the topic as a Flink table, then you can consume the Debezium messages as a changelog source.

-- a real-time materialized view on the MySQL "products"
-- which calculate the latest average of weight for the same products
SELECT name, AVG(weight) FROM topic_products GROUP BY name;

-- synchronize all the data and incremental changes of MySQL "products" table to
-- Elasticsearch "products" index for future searching
INSERT INTO elasticsearch_products
SELECT * FROM topic_products;

利用可能なメタデータ #

次のフォーマットのメタデータは、テーブル定義の読み取り専用(VIRTUAL)カラムとして公開できます。

Attention Format metadata fields are only available if the corresponding connector forwards format metadata. 現在、Kafkaコネクタだけがその値の形式のメタデータフィールドを公開できます。

キー データ型 説明
schema STRING NULL JSON string describing the schema of the payload. Null if the schema is not included in the Debezium record.
ingestion-timestamp TIMESTAMP_LTZ(3) NULL コネクタがイベントを処理した時のタイムスタンプ。Corresponds to the ts_ms field in the Debezium record.
source.timestamp TIMESTAMP_LTZ(3) NULL The timestamp at which the source system created the event. Corresponds to the source.ts_ms field in the Debezium record.
source.database STRING NULL 元のデータベース。Corresponds to the source.db field in the Debezium record if available.
source.schema STRING NULL The originating database schema. Corresponds to the source.schema field in the Debezium record if available.
source.table STRING NULL 元のデータベーステーブル。Corresponds to the source.table or source.collection field in the Debezium record if available.
source.properties MAP<STRING, STRING> NULL Map of various source properties. Corresponds to the source field in the Debezium record.

The following example shows how to access Debezium metadata fields in Kafka:

CREATE TABLE KafkaTable (
  origin_ts TIMESTAMP(3) METADATA FROM 'value.ingestion-timestamp' VIRTUAL,
  event_time TIMESTAMP(3) METADATA FROM 'value.source.timestamp' VIRTUAL,
  origin_database STRING METADATA FROM 'value.source.database' VIRTUAL,
  origin_schema STRING METADATA FROM 'value.source.schema' VIRTUAL,
  origin_table STRING METADATA FROM 'value.source.table' VIRTUAL,
  origin_properties MAP<STRING, STRING> METADATA FROM 'value.source.properties' VIRTUAL,
  user_id BIGINT,
  item_id BIGINT,
  behavior STRING
) WITH (
  'connector' = 'kafka',
  'topic' = 'user_behavior',
  'properties.bootstrap.servers' = 'localhost:9092',
  'properties.group.id' = 'testGroup',
  'scan.startup.mode' = 'earliest-offset',
  'value.format' = 'debezium-json'
);

フォーマットオプション #

Flink provides debezium-avro-confluent and debezium-json formats to interpret Avro or Json messages produced by Debezium. Use format debezium-avro-confluent to interpret Debezium Avro messages and format debezium-json to interpret Debezium Json messages.

オプション 必要条件 デフォルト 種類 説明
形式
必須 (none) 文字列 Specify what format to use, here should be 'debezium-avro-confluent'.
debezium-avro-confluent.basic-auth.credentials-source
オプション (none) 文字列 スキーマレジストリのBasic auth credentialソース
debezium-avro-confluent.basic-auth.user-info
オプション (none) 文字列 スキーマレジストリのBasic auth user info
debezium-avro-confluent.bearer-auth.credentials-source
オプション (none) 文字列 スキーマレジストリのBearer auth credentialソース
debezium-avro-confluent.bearer-auth.token
オプション (none) 文字列 スキーマレジストリのBearer auth トークン
debezium-avro-confluent.properties
オプション (none) マップ 基礎となる隙間レジストリに転送されるプロパティマップ。これは、Flink設定オプションを介して正式に公開されていないオプションに便利です。ただし、Flinkオプションの方が優先されることに注意してください。
debezium-avro-confluent.ssl.keystore.location
オプション (none) 文字列 SSLキーストアの場所/ファイル
debezium-avro-confluent.ssl.keystore.password
オプション (none) 文字列 SSLキーストアのパスワード
debezium-avro-confluent.ssl.truststore.location
オプション (none) 文字列 SSL truststoreの場所/ファイル
debezium-avro-confluent.ssl.truststore.password
オプション (none) 文字列 SSL truststoreのパスワード
debezium-avro-confluent.schema
オプション (none) 文字列 Confluentスキーマレジストリに格納されている、あるいは格納されるスキーマ。スキーマが指定されていない場合、Flinkはテーブルスキーマをavroスキーマに変換します。The schema provided must match the Debezium schema which is a nullable record type including fields 'before', 'after', 'op'.
debezium-avro-confluent.subject
オプション (none) 文字列 シリアル化中にこの形式で使われるスキーマを登録するためのConfluentスキーマレジストリサブジェクト。デフォルトは、'kafka'と'upsert-kafka'コネクタは、この形式が値またはキー形式として使われる場合、デフォルトのサブジェクト名として'<topic_name>-value'または'<topic_name>-key'を使います。ただし、他のコネクタ(例えば'filesystem')の場合、シンクとして使う場合は、サブジェクトオプションが必要です。
debezium-avro-confluent.url
必須 (none) 文字列 ConfluentスキーマレジストリのスキーマURLを取得/登録するためのスキーマレジストリのURL。
オプション 必要条件 デフォルト 種類 説明
形式
必須 (none) 文字列 Specify what format to use, here should be 'debezium-json'.
debezium-json.schema-include
オプション false 真偽値 When setting up a Debezium Kafka Connect, users may enable a Kafka configuration 'value.converter.schemas.enable' to include schema in the message. This option indicates whether the Debezium JSON message includes the schema or not.
debezium-json.ignore-parse-errors
オプション false 真偽値 解析エラーが発生したフィールドと行を失敗せずにスキップします。 エラーが発生した場合は、フィールドはnullに設定されます。
debezium-json.timestamp-format.standard
オプション 'SQL' 文字列 入力および出力のタイムスタンプの形式を指定します。現在サポートされる値は、'SQL''ISO-8601'です:
  • オプション'SQL'は、入力タイムスタンプを"yyyy-MM-dd HH:mm:ss.s{precision}"形式で解析して出力します。例えば'2020-12-30 12:13:14.123'と出力タイムスタンプは同じ形式です。
  • Option 'ISO-8601'will parse input timestamp in "yyyy-MM-ddTHH:mm:ss.s{precision}" format, e.g '2020-12-30T12:13:14.123' and output timestamp in the same format.
debezium-json.map-null-key.mode
オプション 'FAIL' 文字列 マップデータのnullキーをシリアライズする際のモードを指定します。現在サポートされる値は'FAIL''DROP''LITERAL'です:
  • オプション'FAIL'は、nullキーを持つマップ値に遭遇した場合に例外を投げます。
  • オプション'DROP'はマップデータのnullキーエントリを削除します。
  • オプション'LITERAL'はnullキーを文字列リテラルに置き換えます。The string literal is defined by debezium-json.map-null-key.literal option.
debezium-json.map-null-key.literal
オプション 'null' 文字列 Specify string literal to replace null key when 'debezium-json.map-null-key.mode' is LITERAL.
debezium-json.encode.decimal-as-plain-number
オプション false 真偽値 全ての小数を科学的な表記法ではなく単純な数値としてエンコードします。デフォルトでは、小数は科学的な表記法を使って記述できます。例えば、0.000000027はデフォルトで2.7E-8としてエンコードされ、このオプションをtrueに設定すると0.000000027として書き込まれます。

警告 #

変更イベントの重複 #

Under normal operating scenarios, the Debezium application delivers every change event exactly-once. Flink works pretty well when consuming Debezium produced events in this situation. However, Debezium application works in at-least-once delivery if any failover happens. See more details about delivery guarantee from Debezium documentation. That means, in the abnormal situations, Debezium may deliver duplicate change events to Kafka and Flink will get the duplicate events. これにより、Flinkクエリで間違った結果や予期しない例外が発生する可能性があります。Thus, it is recommended to set job configuration table.exec.source.cdc-events-duplicate to true and define PRIMARY KEY on the source in this situation. フレームワークは追加のステートフルオペレーションを生成し、主キーを使って変更イベントの重複排除をし、正規化された変更ログストリームを生成します。

Consuming data produced by Debezium Postgres Connector #

If you are using Debezium Connector for PostgreSQL to capture the changes to Kafka, please make sure the REPLICA IDENTITY configuration of the monitored PostgreSQL table has been set to FULL which is by default DEFAULT. Otherwise, Flink SQL currently will fail to interpret the Debezium data.

In FULL strategy, the UPDATE and DELETE events will contain the previous values of all the table’s columns. In other strategies, the “before” field of UPDATE and DELETE events will only contain primary key columns or null if no primary key. You can change the REPLICA IDENTITY by running ALTER TABLE <your-table-name> REPLICA IDENTITY FULL. See more details in Debezium Documentation for PostgreSQL REPLICA IDENTITY.

データ型マッピング #

Currently, the Debezium format uses JSON and Avro format for serialization and deserialization. Please refer to JSON Format documentation and [Confluent Avro Format documentation]({< ref “docs/connectors/table/formats/avro-confluent” >}}#data-type-mapping) for more details about the data type mapping.

inserted by FC2 system