翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
宛先の設定を構成する
このセクションでは、選択した宛先に基づいて Firehose ストリームのために構成する必要がある設定について説明します。
トピック
- Amazon S3 の宛先の設定を構成する
- Apache Iceberg テーブルの宛先の設定を構成する
- Amazon Redshift の宛先の設定を構成する
- OpenSearch サービスの送信先設定を構成する
- OpenSearch Serverless の送信先設定を構成する
- HTTP エンドポイントの送信先設定を構成する
- Datadog の宛先の設定を構成する
- Honeycomb の宛先の設定を構成する
- Coralogix の宛先の設定を構成する
- Dynatrace の宛先の設定を構成する
- の送信先設定を構成する LogicMonitor
- Logz.io の宛先の設定を構成する
- MongoDB Cloud の宛先の設定を構成する
- New Relic の宛先の設定を構成する
- Snowflake の宛先の設定を構成する
- Splunk の宛先の設定を構成する
- Splunk Observability Cloud の宛先の設定を構成する
- Sumo Logic の宛先の設定を構成する
- Elastic の宛先の設定を構成する
Amazon S3 の宛先の設定を構成する
Firehose ストリームの宛先として Amazon S3 を使用するには、次の設定を指定する必要があります。
-
以下のフィールドに値を入力します。
- S3 バケット
-
ストリーミングデータの配信先となる、お客様が所有している S3 バケットを選択します。新しい S3 バケットを作成するか、既存のバケットを選択することができます。
- 改行区切り記号
-
Amazon S3 に配信されるオブジェクトのレコード間に改行区切り記号を追加するように Firehose ストリームを設定できます。これを行うには、[[Enabled (有効)] をクリックします。Amazon S3 に配信されるオブジェクトのレコード間に改行区切り文字を追加しない場合は、 [Disabled (無効)] をクリックします。集約されたレコードを持つ S3 オブジェクトを、Athena を使用してクエリする場合は、このオプションを有効にします。
- 動的パーティショニング
-
[Enabled (有効)] をクリックして、動的パーティショニングを有効にして設定します。
- マルチレコードの集約解除
-
これは、Firehose ストリーム内のレコードを解析し、有効な JSON または指定された新しい行区切り文字に基づいてそれらを分離するプロセスです。
複数のイベント、ログ、またはレコードを 1 つの PutRecord および PutRecordBatch API 呼び出しに集約しても、動的パーティショニングを有効にして設定できます。集約データでは、動的パーティショニングを有効にすると、Amazon Data Firehose はレコードを解析し、各API呼び出し内で複数の有効なJSONオブジェクトを検索します。Firehose ストリームが Kinesis Data Stream をソースとして設定されている場合は、Kinesis プロデューサーライブラリ () の組み込み集約を使用することもできますKPL。データパーティション機能は、データが集約解除された後に実行されます。したがって、各API呼び出しの各レコードは、異なる Amazon S3 プレフィックスに配信できます。また、Lambda 関数の統合を活用して、データパーティショニング機能の前に、他の集約解除や他の変換を実行することもできます。
重要
データが集約されている場合、動的パーティショニングは、データの集約解除が実行された後にのみ適用できます。したがって、集約データに対して動的パーティショニングを有効にする場合は、[Enabled (有効)] をクリックして、マルチレコード集約解除を有効にします。
Firehose ストリームは、 KPL (protobuf) の集約解除、JSONまたは区切り記号の集約解除、Lambda 処理、データパーティショニング、データ形式変換、Amazon S3 配信の順序で処理ステップを実行します。
- マルチレコードの集約解除のタイプ
-
マルチレコードの集約解除を有効にした場合、Firehose でデータを集約解除する方法を指定する必要があります。ドロップダウンメニューを使用して、 JSONまたは 区切り文字を選択します。
- インライン解析
-
これは、Amazon S3 にバインドされたデータの動的パーティショニングを行うためにサポートされているメカニズムの 1 つです。データの動的パーティショニングにインライン解析を使用するには、パーティショニングキーとして使用するデータレコードパラメータを指定し、指定したパーティショニングキーの値を提供する必要があります。[Enabled (有効)] をクリックして、インライン解析を有効にして設定します。
重要
上記のステップでソースレコードを変換するために AWS Lambda 関数を指定した場合、この関数を使用して S3 にバインドされたデータを動的にパーティション分割できます。また、インライン解析を使用してパーティショニングキーを作成することもできます。動的パーティショニングでは、インライン解析または AWS Lambda 関数を使用してパーティショニングキーを作成できます。または、インライン解析と AWS Lambda 関数の両方を同時に使用して、パーティショニングキーを作成できます。
- 動的パーティショニングキー
-
[キー] および [値] フィールドを使用して、動的パーティションニングキーとして使用するデータレコードパラメータを指定し、動的パーティショニングキーの値を生成するための jq クエリを指定することができますます。Firehose では jq 1.6 のみをサポートしています。最大 50 個の動的パーティショニングキーを指定できます。Firehose ストリームの動的パーティショニングを正常に設定するには、動的パーティショニングキーの値に有効な jq 式を入力する必要があります。
- S3 バケットプレフィックス
-
動的パーティショニングを有効にして設定する場合は、Amazon Data Firehose がパーティション化されたデータを配信する S3 バケットプレフィックスを指定する必要があります。
動的パーティショニングを正しく設定するには、S3 バケットプレフィクスの数が、指定したパーティショニングキーの数と同じである必要があります。
ソースデータは、インライン解析または指定した AWS Lambda 関数でパーティション化できます。ソースデータのパーティショニングキーを作成する Lambda 関数を指定 AWS した場合は、partitionKeyFrom「Lambda:keyID」の形式を使用して S3 バケットプレフィックス値 (複数可) を手動で入力する必要があります。インライン解析を使用してソースデータのパーティショニングキーを指定する場合は、partitionKeyFrom「Query:keyID」の形式を使用して S3 バケットプレビュー値を手動で入力するか、動的パーティショニングキーの適用ボタンを選択して、動的パーティショニングキーと値のペアを使用して S3 バケットプレフィックスを自動生成できます。インライン解析または AWS Lambda を使用してデータをパーティション化するときに、S3 バケットプレフィックス !{namespace:value} で次の式フォームを使用することもできます。ここで、名前空間は partitionKeyFromQuery または partitionKeyFromLambda のいずれかになります。
- S3 バケットと S3 エラー出力プレフィックスのタイムゾーン
Amazon S3 オブジェクトのカスタムプレフィックスで日付と時刻で使用するタイムゾーンを選択します。デフォルトでは、Firehose は に時間プレフィックスを追加しますUTC。異なるタイムゾーンを使用する場合は、S3 プレフィックスで使用されるタイムゾーンを変更できます。
- バッファリングのヒント
-
Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
- S3 圧縮
-
GZIP、Snappy、Zip、または Hadoop 互換の Snappy データ圧縮を選択するか、データ圧縮なしを選択します。Snappy、Zip、および Hadoop 互換の Snappy 圧縮は、Amazon Redshift を宛先とする Firehose ストリームには使用できません。
- S3 のファイル拡張子の形式 (オプション)
Amazon S3 の宛先バケットに配信されるオブジェクトのファイル拡張子の形式を指定します。この機能を有効にすると、指定されたファイル拡張子は、データ形式変換または .parquet や .gz などの S3 圧縮機能によって付加されたデフォルトのファイル拡張子を上書きします。この機能をデータ形式変換または S3 圧縮で使用する際には、適切なファイル拡張子を設定しているかどうかを確認します。ファイル拡張子はピリオド (.) で始まらなければならず、次の文字を含めることができます: 0-9a-z!-_.*‘()。ファイル拡張子は最大 128 文字です。
- S3 暗号化
Firehose は、Amazon S3 で配信されたデータを暗号化するための AWS Key Management Service (SSE-KMS) を使用した Amazon S3 サーバー側の暗号化をサポートしています。送信先 S3 バケットで指定されたデフォルトの暗号化タイプを使用するか、所有するキーのリストから AWS KMS キーで暗号化するかを選択できます。 AWS KMS キーでデータを暗号化する場合は、デフォルトの AWS マネージドキー (aws/s3) またはカスタマーマネージドキーを使用できます。詳細については、「 AWS KMSで管理されたキーによるサーバー側の暗号化 (SSE-KMS) を使用したデータの保護」を参照してください。
Apache Iceberg テーブルの宛先の設定を構成する
Firehose は、中国リージョンおよびアジアパシフィック (マレーシア) AWS リージョンを除くすべての で AWS GovCloud (US) Regions、Apache Iceberg テーブルを送信先としてサポートしています。
宛先としての Apache Iceberg テーブルの詳細については、「Amazon Data Firehose を使用して Apache Iceberg テーブルにデータを配信する」を参照してください。
Amazon Redshift の宛先の設定を構成する
このセクションでは、Firehose ストリームの宛先として Amazon Redshift を使用するための設定について説明します。
Amazon Redshift プロビジョンドクラスターまたは Amazon Redshift Serverless ワークグループのどちらを使用しているかに基づき、以下の手順のいずれかを選択します。
-
Amazon Redshift Serverless ワークグループの宛先の設定を構成する
注記
Firehose は、拡張VPCルーティングを使用する Amazon Redshift クラスターに書き込むことはできません。
Amazon Redshift プロビジョンドクラスター
このセクションでは、Firehose ストリームの宛先として Amazon Redshift プロビジョンドクラスターを使用するときの設定について説明します。
-
以下のフィールドに値を入力します。
- クラスター
-
S3 バケットデータのコピー先となる Amazon Redshift クラスター。Amazon Redshift クラスターをパブリックアクセス可能に設定し、Amazon Data Firehose の IP アドレスをブロック解除します。詳細については、「Amazon Redshift の宛先へのアクセスを Firehose に付与する 」を参照してください。
- 認証
-
ユーザー名/パスワードを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Amazon Redshift クラスターにアクセスすることを選択できます。
-
[ユーザーネーム]
Amazon Redshift クラスターへの許可がある Amazon Redshift ユーザーを指定します。このユーザーには、S3 バケットから Amazon Redshift クラスターにデータをコピーする Amazon Redshift
INSERT
アクセス許可が必要です。 [パスワード]
クラスターへの許可を持つユーザーのパスワードを指定します。
-
シークレット
Amazon Redshift クラスターの認証情報 AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、Amazon Redshift の認証情報用に AWS Secrets Manager でシークレットを作成します。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
-
- データベース
-
データのコピー先となる Amazon Redshift データベース。
- テーブル
-
データのコピー先となる Amazon Redshift テーブル。
- 列
-
(オプション) データのコピー先となるテーブル内の特定の列。Amazon S3 オブジェクトで定義した列数が Amazon Redshift テーブル内の列数より少ない場合に、このオプションを使用します。
- 中間の S3 送信先
-
Firehose は最初にデータを S3 バケットに配信してから、Amazon Redshift COPY コマンドを発行してデータを Amazon Redshift クラスターにロードします。ストリーミングデータの配信先となる、お客様が所有している S3 バケットを指定します。新しい S3 バケットを作成するか、お客様が所有する既存のバケットを選択します。
Firehose は、Amazon Redshift クラスターにロードした後で S3 バケットからデータを削除することはしません。ライフサイクル設定を使用して、S3 バケットでデータを管理できます。詳細については、Amazon Simple Storage Service ユーザーガイドの「オブジェクトのライフサイクルの管理」を参照してください。
- 中間の S3 プレフィックス
-
(オプション) Amazon S3 オブジェクトに対してデフォルトのプレフィックスを使用するには、このオプションを空白のままにします。Firehose は、配信された Amazon S3 オブジェクトに
YYYY/MM/dd/HH
UTC「」時間形式のプレフィックスを自動的に使用します。このプレフィックスの開始に追加できます。詳細については、「Amazon S3 オブジェクト名の形式を設定する」を参照してください。 - COPY オプション
-
Amazon Redshift COPY コマンドで指定できるパラメータです。これらのパラメータは、設定に必要になる場合があります。例えば、Amazon S3 データ圧縮が有効になっている場合は
GZIP
「」が必要です。S3 バケットが Amazon Redshift クラスターと同じ AWS リージョンにない場合はREGION
「」が必要です。詳細については、Amazon Redshift データベース開発者ガイドの「COPY」を参照してください。 - COPY コマンド
-
Amazon Redshift COPY コマンド。詳細については、Amazon Redshift データベース開発者ガイドの「COPY」を参照してください。
- 再試行の期間
-
Amazon Redshift クラスターへのデータ COPY が失敗した場合に Firehose が再試行する時間 (0~7200 秒)です。Firehose は再試行の期間が終了するまで 5 分ごとに再試行します。再試行の期間を 0 (ゼロ) 秒に設定した場合、Firehose は COPY コマンドが失敗しても再試行しません。
- バッファリングのヒント
-
Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
- S3 圧縮
-
GZIP、Snappy、Zip、または Hadoop 互換の Snappy データ圧縮を選択するか、データ圧縮なしを選択します。Snappy、Zip、および Hadoop 互換の Snappy 圧縮は、Amazon Redshift を宛先とする Firehose ストリームには使用できません。
- S3 のファイル拡張子の形式 (オプション)
S3 のファイル拡張子の形式 (オプション) – Amazon S3 宛先バケットに配信されるオブジェクトのファイル拡張子の形式を指定します。この機能を有効にすると、指定されたファイル拡張子は、データ形式変換または .parquet や .gz などの S3 圧縮機能によって付加されたデフォルトのファイル拡張子を上書きします。この機能をデータ形式変換または S3 圧縮で使用する際には、適切なファイル拡張子を設定しているかどうかを確認します。ファイル拡張子はピリオド (.) で始まらなければならず、次の文字を含めることができます: 0-9a-z!-_.*‘()。ファイル拡張子は最大 128 文字です。
- S3 暗号化
Firehose は、Amazon S3 で配信されたデータを暗号化するための AWS Key Management Service (SSE-KMS) を使用した Amazon S3 サーバー側の暗号化をサポートしています。送信先 S3 バケットで指定されたデフォルトの暗号化タイプを使用するか、所有するキーのリストから AWS KMS キーで暗号化するかを選択できます。 AWS KMS キーでデータを暗号化する場合は、デフォルトの AWS マネージドキー (aws/s3) またはカスタマーマネージドキーを使用できます。詳細については、AWS KMS「マネージドキーによるサーバー側の暗号化を使用したデータの保護 (SSE-KMS)」を参照してください。
Amazon Redshift Serverless ワークグループの宛先の設定を構成する
このセクションでは、Firehose ストリームの宛先として Amazon Redshift Serverless ワークグループを使用するときの設定について説明します。
-
以下のフィールドに値を入力します。
- ワークグループ名
-
S3 バケットデータのコピー先となる Amazon Redshift Serverless ワークグループ。Amazon Redshift Serverless ワークグループをパブリックアクセス可能に設定し、Firehose の IP アドレスをブロック解除します。詳細については、「Amazon Redshift Serverless への接続」の「パブリックにアクセス可能なときの Amazon Redshift Serverless に接続する」と、「Amazon Redshift の宛先へのアクセスを Firehose に付与する 」を参照してください。
- 認証
-
ユーザー名/パスワードを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Amazon Redshift Serverless ワークグループにアクセスするかを選択できます。
-
[ユーザーネーム]
Amazon Redshift Serverless ワークグループへの許可を持つ Amazon Redshift ユーザーを指定します。このユーザーには、S3 バケットから Amazon Redshift Serverless ワークグループにデータをコピーする Amazon Redshift
INSERT
アクセス許可が必要です。 [パスワード]
Amazon Redshift Serverless ワークグループにアクセスするための許可を持っているユーザーのパスワードを指定します。
-
シークレット
Amazon Redshift Serverless ワークグループの認証情報 AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、Amazon Redshift の認証情報用に AWS Secrets Manager でシークレットを作成します。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
-
- データベース
-
データのコピー先となる Amazon Redshift データベース。
- テーブル
-
データのコピー先となる Amazon Redshift テーブル。
- 列
-
(オプション) データのコピー先となるテーブル内の特定の列。Amazon S3 オブジェクトで定義した列数が Amazon Redshift テーブル内の列数より少ない場合に、このオプションを使用します。
- 中間の S3 送信先
-
Amazon Data Firehose は最初にデータを S3 バケットに配信してから、Amazon Redshift COPY コマンドを発行してデータを Amazon Redshift Serverless ワークグループにロードします。ストリーミングデータの配信先となる、お客様が所有している S3 バケットを指定します。新しい S3 バケットを作成するか、お客様が所有する既存のバケットを選択します。
Firehose は、Amazon Redshift Serverless ワークグループにロードした後は、S3 バケットからデータを削除しません。ライフサイクル設定を使用して、S3 バケットでデータを管理できます。詳細については、Amazon Simple Storage Service ユーザーガイドの「オブジェクトのライフサイクルの管理」を参照してください。
- 中間の S3 プレフィックス
-
(オプション) Amazon S3 オブジェクトに対してデフォルトのプレフィックスを使用するには、このオプションを空白のままにします。Firehose は、配信された Amazon S3 オブジェクトに
YYYY/MM/dd/HH
UTC「」時間形式のプレフィックスを自動的に使用します。このプレフィックスの開始に追加できます。詳細については、「Amazon S3 オブジェクト名の形式を設定する」を参照してください。 - COPY オプション
-
Amazon Redshift COPY コマンドで指定できるパラメータです。これらのパラメータは、設定に必要になる場合があります。例えば、Amazon S3 データ圧縮が有効になっている場合
GZIP
は「」が必要です。S3 バケットが Amazon Redshift Serverless ワークグループと同じ AWS リージョンにない場合はREGION
「」が必要です。詳細については、Amazon Redshift データベース開発者ガイドの「COPY」を参照してください。 - COPY コマンド
-
Amazon Redshift COPY コマンド。詳細については、Amazon Redshift データベース開発者ガイドの「COPY」を参照してください。
- 再試行の期間
-
Amazon Redshift Serverless ワークグループへのデータ COPY が失敗した場合に Firehose が再試行する時間 (0~7200 秒)。Firehose は再試行の期間が終了するまで 5 分ごとに再試行します。再試行の期間を 0 (ゼロ) 秒に設定した場合、Firehose は COPY コマンドが失敗しても再試行しません。
- バッファリングのヒント
-
Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
- S3 圧縮
-
GZIP、Snappy、Zip、または Hadoop 互換の Snappy データ圧縮を選択するか、データ圧縮なしを選択します。Snappy、Zip、および Hadoop 互換の Snappy 圧縮は、Amazon Redshift を宛先とする Firehose ストリームには使用できません。
- S3 のファイル拡張子の形式 (オプション)
S3 のファイル拡張子の形式 (オプション) – Amazon S3 宛先バケットに配信されるオブジェクトのファイル拡張子の形式を指定します。この機能を有効にすると、指定されたファイル拡張子は、データ形式変換または .parquet や .gz などの S3 圧縮機能によって付加されたデフォルトのファイル拡張子を上書きします。この機能をデータ形式変換または S3 圧縮で使用する際には、適切なファイル拡張子を設定しているかどうかを確認します。ファイル拡張子はピリオド (.) で始まらなければならず、次の文字を含めることができます: 0-9a-z!-_.*‘()。ファイル拡張子は最大 128 文字です。
- S3 暗号化
Firehose は、Amazon S3 で配信されたデータを暗号化するための AWS Key Management Service (SSE-KMS) を使用した Amazon S3 サーバー側の暗号化をサポートしています。送信先 S3 バケットで指定されたデフォルトの暗号化タイプを使用するか、所有するキーのリストから AWS KMS キーで暗号化するかを選択できます。 AWS KMS キーでデータを暗号化する場合は、デフォルトの AWS マネージドキー (aws/s3) またはカスタマーマネージドキーを使用できます。詳細については、「 AWS KMSで管理されたキーによるサーバー側の暗号化 (SSE-KMS) を使用したデータの保護」を参照してください。
OpenSearch サービスの送信先設定を構成する
このセクションでは、送信先に OpenSearch サービスを使用するためのオプションについて説明します。
-
以下のフィールドに値を入力します。
- OpenSearch サービスドメイン
-
データが配信される OpenSearch サービスドメイン。
- [Index] (インデックス)
-
OpenSearch サービスクラスターへのデータのインデックス作成時に使用する OpenSearch サービスインデックス名。
- インデックスのローテーション
-
OpenSearch サービスインデックスをローテーションするかどうかと頻度を選択します。インデックスのローテーションが有効になっている場合、Amazon Data Firehose は指定されたインデックス名に対応するタイムスタンプを追加し、ローテーションします。詳細については、「 OpenSearch サービスのインデックスローテーションを設定する」を参照してください。
- Type
-
OpenSearch サービスクラスターにデータのインデックスを作成するときに使用する OpenSearch サービスタイプ名。Elasticsearch 7.x および OpenSearch 1.x では、インデックスごとに 1 つのタイプしか使用できません。既に別のタイプを持つ既存のインデックスに新しいタイプを指定しようとすると、Firehose は実行時にエラーを戻します。
Elasticsearch 7.x では、このフィールドは空のままにします。
- 再試行の期間
-
へのインデックスリクエストが OpenSearch 失敗した場合に Firehose が再試行する時間。再試行期間については、0~7,200 秒の任意の値を設定できます。デフォルトの再試行時間は 300 秒です。Firehose は、再試行期間が終了するまで、エクスポネンシャルバックオフで複数回再試行します。
再試行期間が終了すると、Firehose は設定された S3 エラーバケットであるデッドレターキュー (DLQ) にデータを配信します。に配信されるデータについてはDLQ、設定された S3 エラーバケットから送信 OpenSearch 先にデータを再処理する必要があります。
OpenSearch クラスターのダウンタイムまたはメンテナンスDLQのために Firehose ストリームが にデータを配信するのをブロックする場合は、再試行期間を秒単位でより高い値に設定できます。AWS サポート
に問い合わせて、再試行期間を 7,200 秒超に増やすことができます。 - DocumentID タイプ
-
ドキュメント ID を設定する方法を示します。サポートされているメソッドは、Firehose 生成のドキュメント ID と OpenSearch サービス生成のドキュメント ID です。Firehose が生成するドキュメント ID は、ドキュメント ID 値が設定されていない場合のデフォルトのオプションです。 OpenSearch サービスが生成するドキュメント ID は、ログ分析や可観測性などの書き込み負荷の高いオペレーションをサポートし、 OpenSearch サービスドメインで消費するCPUリソースが少ないため、パフォーマンスが向上します。
- 送信先VPC接続
-
OpenSearch サービスドメインがプライベート にある場合はVPC、このセクションを使用してその を指定しますVPC。また、Amazon Data Firehose が OpenSearch サービスドメインにデータを送信するときに使用するサブネットとサブグループを指定します。 OpenSearch サービスドメインが使用しているのと同じセキュリティグループを使用できます。異なるセキュリティグループを指定する場合は、 OpenSearch サービスドメインのセキュリティグループへのアウトバウンドHTTPSトラフィックが許可されていることを確認してください。また、Firehose ストリームの設定時に指定したセキュリティグループからのHTTPSトラフィックが OpenSearch サービスドメインのセキュリティグループで許可されていることを確認してください。Firehose ストリームと OpenSearch サービスドメインの両方に同じセキュリティグループを使用する場合は、セキュリティグループのインバウンドルールでHTTPSトラフィックが許可されていることを確認してください。セキュリティグループルールの詳細については、Amazon VPCドキュメントの「セキュリティグループルール」を参照してください。
重要
プライベート の送信先にデータを配信するためのサブネットを指定する場合はVPC、選択したサブネットに十分な数の空き IP アドレスがあることを確認してください。指定されたサブネットに使用可能な空き IP アドレスがない場合、Firehose はプライベート でのデータ配信ENIsを作成または追加できずVPC、配信は低下または失敗します。
- バッファリングのヒント
-
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
OpenSearch Serverless の送信先設定を構成する
このセクションでは、送信先に OpenSearch Serverless を使用するためのオプションについて説明します。
-
以下のフィールドに値を入力します。
- OpenSearch サーバーレスコレクション
-
データが配信される OpenSearch サーバーレスインデックスのグループのエンドポイント。
- [Index] (インデックス)
-
OpenSearch Serverless コレクションにデータのインデックスを作成するときに使用する OpenSearch Serverless インデックス名。
- 送信先VPC接続
-
OpenSearch Serverless コレクションがプライベート にある場合はVPC、このセクションを使用してその を指定しますVPC。また、Amazon Data Firehose が OpenSearch Serverless コレクションにデータを送信するときに使用するサブネットとサブグループを指定します。
重要
プライベート の送信先にデータを配信するためのサブネットを指定する場合はVPC、選択したサブネットに十分な数の空き IP アドレスがあることを確認してください。指定されたサブネットに使用可能な空き IP アドレスがない場合、Firehose はプライベート でのデータ配信ENIsを作成または追加できずVPC、配信は低下または失敗します。
- 再試行の期間
-
OpenSearch Serverless へのインデックスリクエストが失敗した場合に Firehose が再試行する時間。再試行期間については、0~7,200 秒の任意の値を設定できます。デフォルトの再試行時間は 300 秒です。Firehose は、再試行期間が終了するまで、エクスポネンシャルバックオフで複数回再試行します。
再試行期間が終了すると、Firehose は設定された S3 エラーバケットであるデッドレターキュー (DLQ) にデータを配信します。に配信されるデータについてはDLQ、設定された S3 エラーバケットから OpenSearch Serverless 送信先にデータを再処理する必要があります。
OpenSearch サーバーレスクラスターのダウンタイムまたはメンテナンスDLQにより、Firehose ストリームが にデータを配信するのをブロックする場合は、再試行期間を秒単位でより高い値に設定できます。AWS サポート
に問い合わせて、再試行期間を 7,200 秒超に増やすことができます。 - バッファリングのヒント
-
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
HTTP エンドポイントの送信先設定を構成する
このセクションでは、送信先にHTTPエンドポイントを使用するためのオプションについて説明します。
重要
送信先としてHTTPエンドポイントを選択する場合は、「」の手順を確認して実行しますHTTP エンドポイント配信リクエストとレスポンスの仕様を理解する。
-
以下のフィールドに値を入力します。
- HTTP エンドポイント名 - オプション
-
HTTP エンドポイントのわかりやすい名前を指定します。例えば、
My HTTP Endpoint Destination
と指定します。 - HTTP エンドポイント URL
-
HTTP エンドポイントURLの を の形式で指定します
https://xyz.httpendpoint.com
。は HTTPS URLである必要がありますURL。 - 認証
-
アクセスキーを直接入力するか、 からシークレットを取得 AWS Secrets Manager してHTTPエンドポイントにアクセスすることを選択できます。
(オプション) アクセスキー
Firehose からエンドポイントへのデータ配信を有効にするためにアクセスキーを取得する必要がある場合は、エンドポイントの所有者に連絡します。
-
シークレット
HTTP エンドポイントのアクセスキー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、アクセスキー AWS Secrets Manager の にシークレットを作成します。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- コンテンツのエンコーディング
-
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。リクエストのコンテンツエンコーディングを有効または無効にするには、 GZIPまたは Disabled を選択します。
- 再試行の期間
-
Amazon Data Firehose が選択したHTTPエンドポイントへのデータ送信を再試行する期間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がHTTPエンドポイントにデータを送信するたびに (最初の試行または再試行)、確認応答タイムアウトカウンターが再起動され、HTTPエンドポイントからの確認応答を待機します。
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose は、各HTTP呼び出しにこれらのキーと値のペアを含めます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
- バッファリングのヒント
-
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
重要
HTTP エンドポイントの送信先で、 CloudWatch ログの送信先エンドポイントから 413 レスポンスコードが表示されている場合は、Firehose ストリームのバッファリングヒントサイズを小さくして、もう一度試してください。
Datadog の宛先の設定を構成する
このセクションでは、送信先に Datadog を使用するためのオプションについて説明します。Datadog の詳細については、https://docs.datadoghq.com/integrations/amazon_web_services/
-
次のフィールドに値を入力します。
- HTTP エンドポイント URL
-
ドロップダウンメニューで、次のいずれかのオプションからデータを送信する場所を選択します。
-
Datadog ログ - US1
-
Datadog ログ - US3
-
Datadog ログ - US5
-
Datadog ログ - AP1
-
Datadog ログ - EU
-
Datadog ログ - GOV
-
Datadog メトリクス - 米国
-
Datadog メトリクス - US5
-
Datadog メトリクス - AP1
-
Datadog メトリクス - EU
-
Datadog 設定 - US1
-
Datadog 設定 - US3
-
Datadog 設定 - US5
-
Datadog 設定 - AP1
-
Datadog の設定 - EU
-
Datadog 設定 - 米国 GOV
-
- 認証
-
Datadog にアクセスするには、APIキーを直接入力するか AWS Secrets Manager 、 からシークレットを取得するかを選択できます。
API キー
Datadog に連絡して、Firehose からこのエンドポイントへのデータ配信を有効にするために必要なAPIキーを取得します。
-
シークレット
Datadog の APIキー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- コンテンツのエンコーディング
-
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。リクエストのコンテンツエンコーディングを有効または無効にするには、 GZIPまたは Disabled を選択します。
- 再試行の期間
-
Amazon Data Firehose が選択したHTTPエンドポイントへのデータ送信を再試行する期間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がHTTPエンドポイントにデータを送信するたびに (初回または再試行)、確認応答タイムアウトカウンターが再起動され、HTTPエンドポイントからの確認応答を待機します。
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose は、HTTP呼び出しごとにこれらのキーと値のペアを含めます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
- バッファリングのヒント
-
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
Honeycomb の宛先の設定を構成する
このセクションでは、送信先に Honeycomb を使用する方法について説明します。Honeycomb の詳細については、https://docs.honeycom「b.io/getting-data-in/metrics/aws-cloudwatch-metrics/
-
以下のフィールドに値を入力します。
- Honeycomb Kinesis エンドポイント
-
HTTP エンドポイントURLの を次の形式で指定します: https://api.honeycomb.io/1/kinesis_events/{{dataset}}
- 認証
-
Honeycomb にアクセスするには、APIキーを直接入力するか AWS Secrets Manager 、 からシークレットを取得するかを選択できます。
API キー
Honeycomb に連絡して、Firehose からこのエンドポイントへのデータ配信を有効にするために必要なAPIキーを取得します。
-
シークレット
Honeycomb の APIキー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- コンテンツのエンコーディング
-
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。リクエストのコンテンツエンコードGZIPを有効にするには、 を選択します。こちらは、Honeycomb が送信先である場合に推奨される方法です。
- 再試行の期間
-
Amazon Data Firehose が選択したHTTPエンドポイントへのデータ送信を再試行する期間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がHTTPエンドポイントにデータを送信するたびに (初回または再試行)、確認応答タイムアウトカウンターが再起動され、HTTPエンドポイントからの確認応答を待機します。
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose は、HTTP呼び出しごとにこれらのキーと値のペアを含めます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
- バッファリングのヒント
-
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
Coralogix の宛先の設定を構成する
このセクションでは、送信先に Coralogix を使用する方法について説明します。Coralogix の詳細については、「Get Started with Coralogix
-
以下のフィールドに値を入力します。
- HTTP エンドポイント URL
-
ドロップダウンメニューの次のオプションURLからHTTPエンドポイントを選択します。
-
Coralogix - 米国
-
Coralogix - SINGAPORE
-
Coralogix - IRELAND
-
Coralogix - INDIA
-
Coralogix - STOCKHOLM
-
- 認証
-
Coralogix AWS Secrets Manager にアクセスするには、プライベートキーを直接入力するか、 からシークレットを取得するかを選択できます。
プライベートキー
Coralogix に連絡し、Firehose からこのエンドポイントへのデータ配信を有効にするために必要なプライベートキーを取得します。
-
シークレット
Coralogix のプライベートキー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- コンテンツのエンコーディング
-
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。リクエストのコンテンツエンコードGZIPを有効にするには、 を選択します。こちらは、Coralogix が送信先である場合に推奨される方法です。
- 再試行の期間
-
Amazon Data Firehose が選択したHTTPエンドポイントへのデータ送信を再試行する期間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がHTTPエンドポイントにデータを送信するたびに (初回または再試行)、確認応答タイムアウトカウンターが再起動され、HTTPエンドポイントからの確認応答を待機します。
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose は、HTTP呼び出しごとにこれらのキーと値のペアを含めます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
-
applicationName: Data Firehose を実行している環境
-
subsystemName: Data Firehose 統合の名前
-
computerName: 使用中の Firehose ストリームの名前
-
- バッファリングのヒント
-
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。宛先に推奨されるバッファリングサイズは、サービスプロバイダーによって異なります。
Dynatrace の宛先の設定を構成する
このセクションでは、送信先に Dynatrace を使用するためのオプションについて説明します。詳細については、https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch「-metric-streams/
-
Firehose ストリームの宛先として Dynatrace を使用するオプションを選択します。
- 取り込みタイプ
-
さらなる分析と処理のために Dynatrace で [メトリクス] または [ログ] (デフォルト) を配信するかどうかを選択します。
- HTTP エンドポイント URL
-
ドロップダウンメニューからHTTPエンドポイント URL (Dynatrace US、Dynatrace EU、または Dynatrace Global) を選択します。
- 認証
-
Dynatrace AWS Secrets Manager にアクセスするには、APIトークンを直接入力するか、 からシークレットを取得するかを選択できます。
API トークン
Firehose からこのエンドポイントへのデータ配信を有効にするために必要な Dynatrace APIトークンを生成します。詳細については、「Dynatrace API - トークンと認証
」を参照してください。 -
シークレット
Dynatrace のAPIトークン AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- API URL
-
Dynatrace 環境APIURLの を指定します。
- コンテンツのエンコーディング
-
リクエストの本文を圧縮するためにコンテンツエンコーディングを有効にするかどうかを選択します。Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。有効にすると、 GZIP 形式で圧縮されたコンテンツ。
- 再試行の期間
-
Firehose が選択したHTTPエンドポイントへのデータ送信を再試行する期間を指定します。
データの送信後、Firehose はまずHTTPエンドポイントからの確認を待ちます。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Firehose は、再試行期間カウンターを開始します。再試行期間が終わるまで再試行が続けられます。その後、Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。
Firehose が最初の試行HTTP中または再試行後にエンドポイントにデータを送信するたびに、確認応答タイムアウトカウンターが再起動され、HTTPエンドポイントからの確認応答を待機します。
再試行期間が切れた場合でも、Firehose は、確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose は、HTTP呼び出しごとにこれらのキーと値のペアを含めます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
- バッファリングのヒント
-
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。バッファリングのヒントには、ストリームのバッファリングサイズと間隔が含まれます。宛先に推奨されるバッファリングサイズは、サービスプロバイダーによって異なります。
の送信先設定を構成する LogicMonitor
このセクションでは、送信先に LogicMonitor を使用するためのオプションについて説明します。詳細については、「https://www.logicmonitor.com
-
以下のフィールドに値を入力します。
- HTTP エンドポイント URL
-
HTTP エンドポイントURLの を次の形式で指定します。
https://ACCOUNT.logicmonitor.com
- 認証
-
API キーを直接入力するか、 からシークレットを取得 AWS Secrets Manager してアクセスするかを選択できます LogicMonitor。
API キー
LogicMonitor に連絡して、Firehose からこのエンドポイントへのデータ配信を有効にするために必要なAPIキーを取得します。
-
シークレット
API のキー AWS Secrets Manager を含むシークレットを から選択します LogicMonitor。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- コンテンツのエンコーディング
-
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。リクエストのコンテンツエンコーディングを有効または無効にするには、 GZIPまたは Disabled を選択します。
- 再試行の期間
-
Amazon Data Firehose が選択したHTTPエンドポイントへのデータ送信を再試行する期間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がHTTPエンドポイントにデータを送信するたびに (初回または再試行)、確認応答タイムアウトカウンターが再起動され、HTTPエンドポイントからの確認応答を待機します。
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose は、HTTP呼び出しごとにこれらのキーと値のペアを含めます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
- バッファリングのヒント
-
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
Logz.io の宛先の設定を構成する
このセクションでは、送信先に Logz.io を使用する方法について説明します。詳細については、https://logz.io/
注記
欧州 (ミラノ) リージョンでは、Logz.io は Amazon Data Firehose の宛先としてサポートされていません。
-
以下のフィールドに値を入力します。
- HTTP エンドポイント URL
-
HTTP エンドポイントURLの を次の形式で指定します。は
HTTPS
URLである必要がありますURL。https://listener-aws-metrics-stream-<region>.logz.io/
例
https://listener-aws-metrics-stream-us.logz.io/
- 認証
-
Logz.io AWS Secrets Manager にアクセスするには、配送トークンを直接入力するか、 からシークレットを取得することを選択できます。
-
シッピングトークン
Firehose からこのエンドポイントへのデータ配信を有効にするために必要なシッピングトークンを取得するには、Logz.io にお問い合わせください。
-
シークレット
Logz.io の配送トークン AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
-
- 再試行の期間
-
Amazon Data Firehose が Logz.io へのデータ送信を再試行する期間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がHTTPエンドポイントにデータを送信するたびに (初回または再試行)、確認応答タイムアウトカウンターが再起動され、HTTPエンドポイントからの確認応答を待機します。
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose は、HTTP呼び出しごとにこれらのキーと値のペアを含めます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
- バッファリングのヒント
-
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
MongoDB Cloud の宛先の設定を構成する
このセクションでは、送信先に MongoDB Cloud を使用するためのオプションについて説明します。詳細については、「https://www.mongodb.com
-
以下のフィールドに値を入力します。
- MongoDB Realm ウェブフック URL
-
HTTP エンドポイントURLの を次の形式で指定します。
https://webhooks.mongodb-realm.com
は
HTTPS
URLである必要がありますURL。 - 認証
-
API キーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して MongoDB Cloud にアクセスすることを選択できます。
API キー
MongoDB クラウドに連絡して、Firehose からこのエンドポイントへのデータ配信を有効にするために必要なAPIキーを取得します。
-
シークレット
MongoDB Cloud の APIキー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- コンテンツのエンコーディング
-
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。リクエストのコンテンツエンコーディングを有効または無効にするには、 GZIPまたは Disabled を選択します。
- 再試行の期間
-
Amazon Data Firehose が、選択したサードパーティープロバイダーへのデータの送信を再試行する期間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がHTTPエンドポイントにデータを送信するたびに (初回または再試行)、確認応答タイムアウトカウンターが再起動され、HTTPエンドポイントからの確認応答を待機します。
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- バッファリングのヒント
-
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
- Parameters - オプション
-
Amazon Data Firehose は、HTTP呼び出しごとにこれらのキーと値のペアを含めます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
New Relic の宛先の設定を構成する
このセクションでは、送信先に New Relic を使用するためのオプションについて説明します。詳細については、「https://newrelic.com
-
以下のフィールドに値を入力します。
- HTTP エンドポイント URL
-
ドロップダウンリストから次のオプションURLからHTTPエンドポイントを選択します。
-
New Relic ログ - 米国
-
New Relic メトリクス - 米国
-
New Relic メトリクス - EU
-
- 認証
-
API キーを直接入力するか、 からシークレットを取得 AWS Secrets Manager して New Relic にアクセスすることを選択できます。
API キー
New Relic One アカウント設定から、40 文字の 16 進文字列であるライセンスキーを入力します。Firehose からこのエンドポイントへのデータ配信を有効にするには、このAPIキーが必要です。
-
シークレット
New Relic の APIキー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- コンテンツのエンコーディング
-
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。リクエストのコンテンツエンコーディングを有効または無効にするには、 GZIPまたは Disabled を選択します。
- 再試行の期間
-
Amazon Data Firehose が New Relic HTTPエンドポイントへのデータ送信を再試行する期間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がHTTPエンドポイントにデータを送信するたびに (初回または再試行)、確認応答タイムアウトカウンターが再起動され、HTTPエンドポイントからの確認応答が待機します。
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose は、各HTTP呼び出しにこれらのキーと値のペアを含めます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
- バッファリングのヒント
-
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
Snowflake の宛先の設定を構成する
このセクションでは、宛先に Snowflake を使用するためのオプションについて説明します。
注記
Firehose と Snowflake の統合は、米国東部 (バージニア北部)、米国西部 (オレゴン)、欧州 (アイルランド)、米国東部 (オハイオ)、アジアパシフィック (東京)、欧州 (フランクフルト)、アジアパシフィック (シンガポール)、アジアパシフィック (ソウル)、アジアパシフィック (シドニー)、アジアパシフィック (ムンバイ)、欧州 (ロンドン)、南米 (サンパウロ)、カナダ (中部)、欧州 (パリ)、アジアパシフィック (大阪)、欧州 (ストックホルム)、アジアパシフィック (ジャカルタ) で利用できます AWS リージョン。
接続の設定
-
以下のフィールドに値を入力します。
- Snowflake アカウント URL
-
Snowflake アカウント を指定しますURL。例:
xy12345.us-east-1.aws.snowflakecomputing.com
。アカウントの確認方法については、Snowflake のドキュメントを参照してくださいURL。ポート番号を指定してはなりませんが、プロトコル (https://) はオプションであることに留意してください。 - 認証
-
ユーザーログイン、プライベートキー、パスフレーズを手動で入力するか、 からシークレットを取得 AWS Secrets Manager して Snowflake にアクセスすることを選択できます。
-
ユーザーログイン
データのロードに使用する Snowflake ユーザーを指定します。Snowflake テーブルにデータを挿入するためのアクセスがユーザーに付与されていることを確認します。
-
プライベートキー
Snowflake で認証するためのプライベートキーを
PKCS8
形式で指定します。さらに、プライベートキーの一部としてPEMヘッダーとフッターを含めないでください。キーが複数の行に分割されている場合は、改行を削除します。プライベートキーがどのように表示されるかの例を次に示します。-----BEGIN PRIVATE KEY----- KEY_CONTENT -----END PRIVATE KEY-----
KEY_CONTENT
のスペースを削除し、それを Firehose に提供します。ヘッダー/フッターや改行文字は必要ありません。 パスフレーズ
暗号化されたプライベートキーを復号するパスフレーズを指定します。プライベートキーが暗号化されていない場合は、このフィールドを空のままにできます。詳細については、「Using Key Pair Authentication & Key Rotation
」を参照してください。 -
シークレット
Snowflake の認証情報 AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
-
- ロールの設定
-
デフォルトの Snowflake ロールを使用 – このオプションが選択されている場合、Firehose は Snowflake にロールを渡しません。デフォルトのロールは、データをロードするために引き受けられます。Snowflake テーブルにデータを挿入するための許可がデフォルトのロールに付与されていることを確認してください。
カスタム Snowflake ロールを使用 – Snowflake テーブルにデータをロードする際に Firehose が引き受けるデフォルト以外の Snowflake ロールを入力します。
- Snowflake 接続
-
オプションは、[プライベート] または [パブリック] です。
- プライベート VPCE ID (オプション)
-
Firehose が Snowflake にプライベートに接続するための VPCE ID。ID 形式は com.amazonaws.vpce.[region].vpce-svc- です
[id]
。詳細については、AWS PrivateLink 「& Snowflake」を参照してください。 注記
Snowflake クラスターでプライベートリンクが有効になっている場合は、
AwsVpceIds
ベースのネットワークポリシーを使用して Amazon Data Firehose データを許可します。Firehose では、Snowflake アカウントで IP ベースのネットワークポリシーを設定する必要はありません。IP ベースのネットワークポリシーを有効にすると、Firehose の接続が妨げられる可能性があります。IP ベースのポリシーを必要とするエッジケースがある場合は、サポートチケットを送信して Firehose チームにお問い合わせください。使用できる のリストについては、VPCEIDs「」を参照してくださいでの Snowflake へのアクセス VPC。
データベース設定
-
Firehose ストリームの宛先として Snowflake を使用するには、次の設定を指定する必要があります。
-
Snowflake データベース - Snowflake のすべてのデータはデータベースに保持されます。
-
Snowflake スキーマ – 各データベースは 1 つ以上のスキーマで構成され、テーブルやビューなどのデータベースオブジェクトの論理グループです。
-
Snowflake テーブル – Snowflake のすべてのデータはデータベーステーブルに保存され、列と行のコレクションとして論理的に構造化されます。
-
Snowflake テーブルのデータロードオプション
-
列名としてJSONキーを使用する
VARIANT 列を使用する
コンテンツ列名 – テーブル内の列名を指定します。ここでは、未処理のデータをロードする必要があります。
メタデータ列名 (オプション) – テーブル内の列名を指定します。ここでは、メタデータ情報をロードする必要があります。このフィールドを有効にすると、ソースタイプに基づいて Snowflake テーブルに次の列が表示されます。
ソースPUTとしての Direct の場合
{ "firehoseDeliveryStreamName" : "
streamname
", "IngestionTime" : "timestamp
" }ソースとしての Kinesis Data Stream の場合
{ "kinesisStreamName" : "
streamname
", "kinesisShardId" : "Id
", "kinesisPartitionKey" : "key
", "kinesisSequenceNumber" : "1234
", "subsequenceNumber" : "2334
", "IngestionTime" : "timestamp
" }
再試行の期間
Snowflake サービスの問題を理由として、チャネルを開くこと、または Snowflake への配信のいずれかが失敗した場合に、Firehose が再試行する時間 (0~7,200 秒)。Firehose は、再試行期間が終了するまでエクスポネンシャルバックオフで再試行します。再試行期間を 0 (ゼロ) 秒に設定すると、Firehose は Snowflake の障害発生時に再試行せず、データを Amazon S3 エラーバケットにルーティングします。
バッファリングのヒント
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。詳細については、「バッファリングのヒントを設定する」を参照してください。
Splunk の宛先の設定を構成する
このセクションでは、送信先に Splunk を使用するためのオプションについて説明します。
注記
Firehose は、Classic Load Balancer または Application Load Balancer を使用して設定された Splunk クラスターにデータを配信します。
-
以下のフィールドに値を入力します。
- Splunk クラスターエンドポイント
-
エンドポイントを確認するには、Splunk ドキュメントの「Configure Amazon Data Firehose to Send Data to the Splunk Platform
」を参照してください。 - Splunk エンドポイントタイプ
-
ほとんどの場合は
Raw endpoint
を選択します。を使用してデータを前処理 AWS Lambda し、イベントタイプ別に異なるインデックスにデータを送信するEvent endpoint
場合は、 を選択します。使用するエンドポイントについては、Splunk ドキュメントの「Configure Amazon Data Firehose to send data to the Splunk platform」を参照してください。 - 認証
-
認証トークンを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Splunk にアクセスすることを選択できます。
認証トークン
Amazon Data Firehose からデータを受信できる Splunk エンドポイントをセットアップするには、Splunk ドキュメントの「Installation and configuration overview for the Splunk Add-on for Amazon Data Firehose
」を参照してください。この Firehose ストリームのエンドポイントを設定するときに Splunk から取得したトークンを保存し、ここで追加します。 -
シークレット
Splunk の認証トークン AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- HEC 確認タイムアウト
-
Amazon Data Firehose が Splunk からのインデックス確認応答を待機する時間を指定します。Splunk が確認を送信しないままタイムアウトに達すると、Amazon Data Firehose ではデータ配信失敗とみなされます。その後、Amazon Data Firehose は設定された再試行期間値に従って、再試行するか、データを Amazon S3 バケットにバックアップします。
- 再試行の期間
-
Amazon Data Firehose が Splunk へのデータ送信を再試行する期間を指定します。
データの送信後、Amazon Data Firehose はまず Splunk からの送達確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がデータを Splunk に送信するたびに (初回か再試行かにかかわらず)、確認応答タイムアウトカウンターが再度開始され、Splunk からの確認応答を待機します。
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- バッファリングのヒント
-
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。宛先に推奨されるバッファリングサイズは、サービスプロバイダーによって異なります。
Splunk Observability Cloud の宛先の設定を構成する
このセクションでは、送信先に Splunk Observability Cloud を使用する方法について説明します。詳細については、https://docs.splunk.com/observability/en/gdi/get-data-in/connect/aws/aws「-apiconfig.html#connect-to-aws-using-the-splunk-observability-cloud-api
-
以下のフィールドに値を入力します。
- クラウド取り込みエンドポイント URL
-
Splunk Observability Cloud のリアルタイムデータインジェストは、Splunk Observability コンソールURLのプロファイル > 組織 > リアルタイムデータインジェストエンドポイントで確認できます。
- 認証
-
アクセストークンを直接入力するか、 からシークレットを取得 AWS Secrets Manager して Splunk Observability Cloud にアクセスすることを選択できます。
アクセストークン
Splunk Observability コンソールの設定のアクセストークンから、INGEST認可スコープを持つ Splunk Observability アクセストークンをコピーします。
-
シークレット
Splunk Observability Cloud のアクセストークン AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- コンテンツのエンコーディング
-
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。リクエストのコンテンツエンコーディングを有効または無効にするには、 GZIPまたは Disabled を選択します。
- 再試行の期間
-
Amazon Data Firehose が選択したHTTPエンドポイントへのデータ送信を再試行する期間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がHTTPエンドポイントにデータを送信するたびに (初回または再試行)、確認応答タイムアウトカウンターが再起動され、HTTPエンドポイントからの確認応答が待機します。
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose は、各HTTP呼び出しにこれらのキーと値のペアを含めます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
- バッファリングのヒント
-
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。送信先の推奨バッファサイズは、サービスプロバイダーによって異なります。
Sumo Logic の宛先の設定を構成する
このセクションでは、送信先に Sumo Logic を使用するためのオプションについて説明します。詳細については、「https://www.sumologic.com
-
以下のフィールドに値を入力します。
- HTTP エンドポイント URL
-
HTTP エンドポイントURLの を の形式で指定します
https://deployment name.sumologic.net/receiver/v1/kinesis/dataType/access token
。は HTTPS URLである必要がありますURL。 - コンテンツのエンコーディング
-
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。リクエストのコンテンツエンコーディングを有効または無効にするには、 GZIPまたは Disabled を選択します。
- 再試行の期間
-
Amazon Data Firehose が Sumo Logic へのデータ送信を再試行する期間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がHTTPエンドポイントにデータを送信するたびに (初回または再試行)、確認応答タイムアウトカウンターが再起動され、HTTPエンドポイントからの確認応答が待機します。
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose は、各HTTP呼び出しにこれらのキーと値のペアを含めます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
- バッファリングのヒント
-
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。Elastic を送信先とする場合の推奨のバッファサイズは、サービスプロバイダーに応じて異なります。
Elastic の宛先の設定を構成する
このセクションでは、送信先に Elastic を使用する方法について説明します。
-
以下のフィールドに値を入力します。
- Elastic エンドポイント URL
-
HTTP エンドポイントURLの を の形式で指定します
https://<cluster-id>.es.<region>.aws.elastic-cloud.com
。は HTTPS URLである必要がありますURL。 - 認証
-
Elastic AWS Secrets Manager にアクセスするには、APIキーを直接入力するか、 からシークレットを取得するかを選択できます。
API キー
Elastic に連絡して、Firehose からサービスへのデータ配信を有効にするために必要なAPIキーを取得します。
-
シークレット
Elastic の API キー AWS Secrets Manager を含むシークレットを から選択します。ドロップダウンリストにシークレットが表示されない場合は、 AWS Secrets Managerでシークレットを作成します。詳細については、「Amazon Data Firehose AWS Secrets Manager で を使用して認証する」を参照してください。
- コンテンツのエンコーディング
-
Amazon Data Firehose は、リクエストを宛先に送信する前に、コンテンツのエンコードを使用してリクエストの本文を圧縮します。リクエストのコンテンツエンコーディングを有効/無効にするには、 GZIP (デフォルトで選択されているもの) または Disabled を選択します。
- 再試行の期間
-
Amazon Data Firehose が Elastic へのデータの送信を再試行する期間を指定します。
データの送信後、Amazon Data Firehose はまずHTTPエンドポイントからの確認を待機します。エラーが発生した場合、または確認タイムアウト期間内に確認が到着しない場合、Amazon Data Firehose で再試行期間カウンターが開始されます。再試行期間が終わるまで再試行が続けられます。その後、Amazon Data Firehose はデータ配信が失敗したとみなしてデータを Amazon S3 バケットにバックアップします。
Amazon Data Firehose がHTTPエンドポイントにデータを送信するたびに (初回または再試行)、確認応答タイムアウトカウンターが再起動され、HTTPエンドポイントからの確認応答が待機します。
再試行期間が切れた場合でも、Amazon Data Firehose は確認応答が到着するか確認応答タイムアウト期間に達するまで確認応答を待機し続けます。確認がタイムアウトすると、Amazon Data Firehose は再試行カウンターの残り時間があるかどうかを判別します。残り時間がある場合は、確認が到着するか再試行時間が切れたと判断されるまで再試行されロジックが繰り返されます。
Amazon Data Firehose でデータの送信を再試行しない場合は、この値を 0 に設定します。
- Parameters - オプション
-
Amazon Data Firehose は、各HTTP呼び出しにこれらのキーと値のペアを含めます。これらのパラメータを使用すると、送信先の識別や整理に役立ちます。
- バッファリングのヒント
-
Amazon Data Firehose は着信データをバッファリングしてから、指定された宛先にデータを送信します。Elastic の送信先の推奨バッファサイズは 1 MiB です。