Configurare le impostazioni di destinazione - Amazon Data Firehose

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Configurare le impostazioni di destinazione

Questa sezione descrive le impostazioni da configurare per lo stream Firehose in base alla destinazione selezionata.

Configurazione delle impostazioni di destinazione per Amazon S3

È necessario specificare le seguenti impostazioni per utilizzare Amazon S3 come destinazione per lo stream Firehose.

  • Inserisci i valori per i seguenti campi.

    Bucket S3

    Scegliere un bucket S3 di proprietà dove devono essere distribuiti i dati in streaming. Puoi creare un nuovo bucket S3 o sceglierne uno esistente.

    Nuovo delimitatore di riga

    Puoi configurare il tuo stream Firehose per aggiungere un nuovo delimitatore di riga tra i record negli oggetti che vengono consegnati ad Amazon S3. Per farlo, scegli Abilitato. Per non aggiungere un nuovo delimitatore di riga tra i record negli oggetti distribuiti ad Amazon S3, scegli Disabilitato. Se prevedi di utilizzare Athena per interrogare oggetti S3 con record aggregati, abilita questa opzione.

    Partizionamento dinamico

    Scegli Abilitato per abilitare e configurare il partizionamento dinamico.

    Disaggregazione di più record

    Si tratta del processo di analisi dei record nello stream Firehose e di separazione degli stessi in base a un delimitatore di riga JSON valido o al nuovo delimitatore di riga specificato.

    Se si aggregano più eventi, registri o record in un'unica PutRecordBatch API chiamata PutRecord AND, è comunque possibile abilitare e configurare il partizionamento dinamico. Con i dati aggregati, quando abiliti il partizionamento dinamico, Amazon Data Firehose analizza i record e cerca più oggetti validi all'interno di ogni chiamata. JSON API Quando il flusso Firehose è configurato con Kinesis Data Stream come sorgente, puoi anche utilizzare l'aggregazione integrata nella Kinesis Producer Library (). KPL La funzionalità di partizione dei dati viene eseguita dopo la disaggregazione dei dati. Pertanto, ogni record di ogni API chiamata può essere inviato a diversi prefissi Amazon S3. Puoi anche sfruttare l'integrazione della funzione Lambda per eseguire qualsiasi altra deaggregazione o qualsiasi altra trasformazione prima della funzionalità di partizionamento dei dati.

    Importante

    Se i dati sono aggregati, il partizionamento dinamico può essere applicato solo dopo aver eseguito la disaggregazione dei dati. Quindi, se abiliti il partizionamento dinamico dei dati aggregati, devi scegliere Abilitato per abilitare la disaggregazione di più record.

    Firehose stream esegue le seguenti fasi di elaborazione nel seguente ordine: deaggregazione KPL (protobuf) o deaggregazione dei JSON delimitatori, elaborazione Lambda, partizionamento dei dati, conversione del formato dei dati e distribuzione di Amazon S3.

    Tipo di deaggregazione di più record

    Se è stata abilitata la deaggregazione di più record, è necessario specificare il metodo di disaggregazione dei dati da parte di Firehose. Utilizza il menu a discesa per scegliere tra Delimitato o Delimitato. JSON

    Analisi in linea

    Questo è uno dei meccanismi supportati per partizionare in modo dinamico i dati destinati ad Amazon S3. Per utilizzare l'analisi in linea per il partizionamento dinamico dei dati, devi specificare i parametri del record di dati da utilizzare come chiavi di partizionamento e fornire un valore per ogni chiave di partizionamento specificata. Scegli Abilitato per abilitare e configurare l'analisi in linea.

    Importante

    Se hai specificato una funzione AWS Lambda nei passaggi precedenti per trasformare i record di origine, puoi usare questa funzione per partizionare dinamicamente i dati associati a S3 e puoi comunque creare le tue chiavi di partizionamento con l'analisi in linea. Con il partizionamento dinamico, puoi utilizzare l'analisi in linea o la funzione AWS Lambda per creare le tue chiavi di partizionamento. Oppure puoi utilizzare contemporaneamente l'analisi in linea e la funzione AWS Lambda per creare le tue chiavi di partizionamento.

    Chiavi di partizionamento dinamico

    Puoi utilizzare i campi Chiave e Valore per specificare i parametri del record di dati da usare come chiavi di partizionamento dinamico e le query jq per generare valori delle chiavi di partizionamento dinamico. Firehose supporta solo jq 1.6. È possibile specificare fino a 50 chiavi di partizionamento dinamico. È necessario inserire espressioni jq valide per i valori della chiave di partizionamento dinamico per configurare correttamente il partizionamento dinamico per il flusso Firehose.

    Prefisso del bucket S3

    Quando abiliti e configuri il partizionamento dinamico, devi specificare i prefissi dei bucket S3 a cui Amazon Data Firehose deve fornire i dati partizionati.

    Affinché il partizionamento dinamico sia configurato correttamente, il numero di prefissi del bucket S3 deve essere identico al numero delle chiavi di partizionamento specificate.

    Puoi partizionare i dati di origine con l'analisi in linea o con la funzione AWS Lambda specificata. Se hai specificato una funzione AWS Lambda per creare chiavi di partizionamento per i tuoi dati di origine, devi digitare manualmente i valori del prefisso del bucket S3 utilizzando il seguente formato: "lambda:keyID». partitionKeyFrom Se utilizzi l'analisi in linea per specificare le chiavi di partizionamento per i tuoi dati di origine, puoi digitare manualmente i valori di anteprima del bucket S3 utilizzando il seguente formato: "partitionKeyFromquery:keyID» oppure puoi scegliere il pulsante Applica chiavi di partizionamento dinamico per utilizzare le coppie chiave/valore del partizionamento dinamico per generare automaticamente i prefissi dei bucket S3. Durante il partizionamento dei dati con analisi in linea o AWS Lambda, puoi anche utilizzare le seguenti forme di espressione nel prefisso del bucket S3:! {namespace:value}, dove lo spazio dei nomi può essere Query o Lambda. partitionKeyFrom partitionKeyFrom

    Bucket S3 e fuso orario del prefisso di output di errore S3

    Scegli un fuso orario che desideri utilizzare per la data e l'ora nei prefissi personalizzati per gli oggetti Amazon S3. Per impostazione predefinita, Firehose aggiunge un prefisso orario in. UTC È possibile modificare il fuso orario utilizzato nei prefissi S3 se si desidera utilizzare un fuso orario diverso.

    Suggerimenti per il buffering

    Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.

    Compressione S3

    Scegli tra GZIP la compressione dei dati Snappy, Zip o compatibile con Hadoop o nessuna compressione dei dati. La compressione Snappy compatibile con Snappy, Zip e Hadoop non è disponibile per gli stream Firehose con Amazon Redshift come destinazione.

    Formato di estensione di file S3 (opzionale)

    Specificare un formato di estensione di file per gli oggetti consegnati al bucket di destinazione Amazon S3. Se abiliti questa funzionalità, l'estensione di file specificata sostituirà le estensioni di file predefinite aggiunte dalle funzionalità di compressione Data Format Conversion o S3 come .parquet o .gz. Assicurati di aver configurato l'estensione di file corretta quando usi questa funzionalità con Data Format Conversion o la compressione S3. L'estensione del file deve iniziare con un punto (.) e può contenere caratteri consentiti: 0-9a-z! -_.*' (). L'estensione del file non può superare i 128 caratteri.

    Crittografia S3

    Firehose supporta la crittografia lato server di Amazon S3 AWS Key Management Service con SSE (KMS-) per crittografare i dati forniti in Amazon S3. Puoi scegliere di utilizzare il tipo di crittografia predefinito specificato nel bucket S3 di destinazione o di crittografare con una chiave dall'elenco di chiavi di tua proprietà. AWS KMS Se crittografi i dati con le AWS KMS chiavi, puoi utilizzare la chiave AWS gestita predefinita (aws/s3) o una chiave gestita dal cliente. Per ulteriori informazioni, consulta Protezione dei dati mediante la crittografia lato server con AWS KMS -Managed Keys (-). SSE KMS

Configura le impostazioni di destinazione per Apache Iceberg Tables

Firehose supporta Apache Iceberg Tables come destinazione in tutte le regioni tranne Regioni AWSCina e Asia Pacifico (Malesia). AWS GovCloud (US) Regions

Per ulteriori informazioni su Apache Iceberg Tables come destinazione, consulta. Distribuisci dati ad Apache Iceberg Tables con Amazon Data Firehose

Configurazione delle impostazioni di destinazione per Amazon Redshift

Questa sezione descrive le impostazioni per l'utilizzo di Amazon Redshift come destinazione dello stream Firehose.

Scegli una delle procedure seguenti a seconda che tu disponga di un cluster con provisioning di Amazon Redshift o di un gruppo di lavoro Amazon Redshift serverless.

Cluster con provisioning di Amazon Redshift

Questa sezione descrive le impostazioni per l'utilizzo del cluster con provisioning di Amazon Redshift come destinazione dello stream Firehose.

  • Immetti i valori per i seguenti campi:

    Cluster

    Il cluster Amazon Redshift sul quale vengono copiati i dati del bucket S3. Configura il cluster Amazon Redshift in modo che sia accessibile al pubblico e sblocca gli indirizzi IP di Amazon Data Firehose. Per ulteriori informazioni, consulta Concedi a Firehose l'accesso a una destinazione Amazon Redshift .

    Autenticazione

    Puoi scegliere di inserire direttamente il nome utente/password o recuperare il segreto da cui accedere AWS Secrets Manager al cluster Amazon Redshift.

    • Nome utente

      Specificare un utente Amazon Redshift con le autorizzazioni per accedere al cluster Amazon Redshift. Tale utente deve disporre dell'autorizzazione INSERT di Amazon Redshift per copiare i dati dal bucket S3 al cluster Amazon Redshift.

    • Password

      Specificare la password per l'utente che dispone delle autorizzazioni per accedere al cluster.

    • Secret

      Seleziona un campo segreto AWS Secrets Manager che contenga le credenziali per il cluster Amazon Redshift. Se non vedi il tuo segreto nell'elenco a discesa, creane uno AWS Secrets Manager per le tue credenziali Amazon Redshift. Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.

    Database

    Il database Amazon Redshift su cui vengono copiati i dati.

    Tabella

    La tabella Amazon Redshift su cui vengono copiati i dati.

    Colonne

    (Opzionale) Le colonne specifiche della tabella su cui vengono copiati i dati. Utilizza questa opzione se il numero di colonne definite negli oggetti Amazon S3 è inferiore al numero delle colonne nella tabella Amazon Redshift.

    Destinazione S3 intermedia

    Firehose invia prima i dati al bucket S3 e poi emette un COPY comando Amazon Redshift per caricare i dati nel cluster Amazon Redshift. Specificare un bucket S3 di proprietà dove devono essere distribuiti i dati in streaming. Crea un nuovo bucket S3 o scegline uno esistente di proprietà.

    Firehose non elimina i dati dal bucket S3 dopo averli caricati nel cluster Amazon Redshift. Puoi gestire i dati nel bucket S3 utilizzando una configurazione del ciclo di vita. Per ulteriori informazioni, consulta Gestione del ciclo di vita degli oggetti nella Guida per l'utente di Amazon Simple Storage Service.

    Prefisso S3 intermedio

    (Facoltativo) Per utilizzare il prefisso predefinito per gli oggetti Amazon S3, lascia vuota questa opzione. Firehose utilizza automaticamente un prefisso in formato UTC orario "YYYY/MM/dd/HH" per gli oggetti Amazon S3 consegnati. Puoi aggiungerlo all'inizio di questo prefisso. Per ulteriori informazioni, consulta Configurazione del formato del nome oggetto Amazon S3.

    COPYopzioni

    Parametri che puoi specificare nel comando COPY di Amazon Redshift. Questi potrebbero essere necessari per la configurazione. Ad esempio, "GZIP" è necessario se la compressione dei dati di Amazon S3 è abilitata. «REGION" è obbligatorio se il bucket S3 non si trova nella stessa AWS regione del cluster Amazon Redshift. Per ulteriori informazioni, consulta COPY nella Guida per gli sviluppatori di database di Amazon Redshift.

    Comando COPY

    Il comando COPY di Amazon Redshift. Per ulteriori informazioni, consulta COPY nella Guida per gli sviluppatori di database di Amazon Redshift.

    Retry duration (Durata nuovi tentativi)

    Periodo di tempo (0—7200 secondi) entro il quale Firehose riprova in caso di errore dei dati del cluster COPY Amazon Redshift. Firehose riprova ogni 5 minuti fino al termine del nuovo tentativo. Se si imposta la durata del nuovo tentativo su 0 (zero) secondi, Firehose non riprova in caso COPY di errore del comando.

    Suggerimenti per il buffering

    Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.

    Compressione S3

    Scegli tra GZIP la compressione dei dati Snappy, Zip o compatibile con Hadoop o nessuna compressione dei dati. La compressione Snappy compatibile con Snappy, Zip e Hadoop non è disponibile per gli stream Firehose con Amazon Redshift come destinazione.

    Formato di estensione di file S3 (opzionale)

    Formato di estensione file S3 (opzionale): specifica un formato di estensione di file per gli oggetti consegnati al bucket di destinazione Amazon S3. Se abiliti questa funzionalità, l'estensione di file specificata sostituirà le estensioni di file predefinite aggiunte dalle funzionalità di compressione Data Format Conversion o S3 come .parquet o .gz. Assicurati di aver configurato l'estensione di file corretta quando usi questa funzionalità con Data Format Conversion o la compressione S3. L'estensione del file deve iniziare con un punto (.) e può contenere caratteri consentiti: 0-9a-z! -_.*' (). L'estensione del file non può superare i 128 caratteri.

    Crittografia S3

    Firehose supporta la crittografia lato server di Amazon S3 AWS Key Management Service con SSE (KMS-) per crittografare i dati forniti in Amazon S3. Puoi scegliere di utilizzare il tipo di crittografia predefinito specificato nel bucket S3 di destinazione o di crittografare con una chiave dall'elenco di chiavi di tua proprietà. AWS KMS Se crittografi i dati con le AWS KMS chiavi, puoi utilizzare la chiave AWS gestita predefinita (aws/s3) o una chiave gestita dal cliente. Per ulteriori informazioni, consulta Protezione dei dati mediante la crittografia lato server con AWS KMS -Managed Keys (-). SSE KMS

Configura le impostazioni di destinazione per il gruppo di lavoro Amazon Redshift Serverless

Questa sezione descrive le impostazioni per l'utilizzo del gruppo di lavoro Amazon Redshift Serverless come destinazione del flusso Firehose.

  • Immetti i valori per i seguenti campi:

    Workgroup name (Nome del gruppo di lavoro)

    Il gruppo di lavoro Amazon Redshift serverless in cui vengono copiati i dati del bucket S3. Configura il gruppo di lavoro Amazon Redshift Serverless in modo che sia accessibile al pubblico e sblocca gli indirizzi IP Firehose. Per ulteriori informazioni, consulta la sezione Connessione a un'istanza Amazon Redshift serverless accessibile pubblicamente in Connessione ad Amazon Redshift serverless e anche Concedi a Firehose l'accesso a una destinazione Amazon Redshift .

    Autenticazione

    Puoi scegliere di inserire direttamente il nome utente/password o recuperare il codice segreto per accedere AWS Secrets Manager al gruppo di lavoro Amazon Redshift Serverless.

    • Nome utente

      Specificare un utente Amazon Redshift con le autorizzazioni per accedere al gruppo di lavoro Amazon Redshift Serverless. Questo utente deve disporre dell'autorizzazione INSERT di Amazon Redshift per copiare i dati dal bucket S3 al gruppo di lavoro Amazon Redshift serverless.

    • Password

      Specificare la password per l'utente che dispone delle autorizzazioni per accedere al gruppo di lavoro Amazon Redshift Serverless.

    • Secret

      Seleziona un campo segreto AWS Secrets Manager che contenga le credenziali per il gruppo di lavoro Serverless Amazon Redshift. Se non vedi il tuo segreto nell'elenco a discesa, creane uno AWS Secrets Manager per le tue credenziali Amazon Redshift. Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.

    Database

    Il database Amazon Redshift su cui vengono copiati i dati.

    Tabella

    La tabella Amazon Redshift su cui vengono copiati i dati.

    Colonne

    (Opzionale) Le colonne specifiche della tabella su cui vengono copiati i dati. Utilizza questa opzione se il numero di colonne definite negli oggetti Amazon S3 è inferiore al numero delle colonne nella tabella Amazon Redshift.

    Destinazione S3 intermedia

    Amazon Data Firehose invia prima i dati al bucket S3 e poi emette un COPY comando Amazon Redshift per caricare i dati nel tuo gruppo di lavoro Serverless Amazon Redshift. Specificare un bucket S3 di proprietà dove devono essere distribuiti i dati in streaming. Crea un nuovo bucket S3 o scegline uno esistente di proprietà.

    Firehose non elimina i dati dal bucket S3 dopo averli caricati nel gruppo di lavoro Amazon Redshift Serverless. Puoi gestire i dati nel bucket S3 utilizzando una configurazione del ciclo di vita. Per ulteriori informazioni, consulta Gestione del ciclo di vita degli oggetti nella Guida per l'utente di Amazon Simple Storage Service.

    Prefisso S3 intermedio

    (Facoltativo) Per utilizzare il prefisso predefinito per gli oggetti Amazon S3, lascia vuota questa opzione. Firehose utilizza automaticamente un prefisso in formato UTC orario "YYYY/MM/dd/HH" per gli oggetti Amazon S3 consegnati. Puoi aggiungerlo all'inizio di questo prefisso. Per ulteriori informazioni, consulta Configurazione del formato del nome oggetto Amazon S3.

    COPYopzioni

    Parametri che puoi specificare nel comando COPY di Amazon Redshift. Questi potrebbero essere necessari per la configurazione. Ad esempio, "GZIP" è necessario se la compressione dei dati di Amazon S3 è abilitata. «REGION" è obbligatorio se il bucket S3 non si trova nella stessa AWS regione del gruppo di lavoro Serverless Amazon Redshift. Per ulteriori informazioni, consulta COPY nella Guida per gli sviluppatori di database di Amazon Redshift.

    Comando COPY

    Il comando COPY di Amazon Redshift. Per ulteriori informazioni, consulta COPY nella Guida per gli sviluppatori di database di Amazon Redshift.

    Retry duration (Durata nuovi tentativi)

    Periodo di tempo (0—7200 secondi) entro il quale Firehose riprova in caso di errore dei dati del gruppo di lavoro COPY Amazon Redshift Serverless. Firehose riprova ogni 5 minuti fino al termine del nuovo tentativo. Se si imposta la durata del nuovo tentativo su 0 (zero) secondi, Firehose non riprova in caso COPY di errore del comando.

    Suggerimenti per il buffering

    Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.

    Compressione S3

    Scegli tra GZIP la compressione dei dati Snappy, Zip o compatibile con Hadoop o nessuna compressione dei dati. La compressione Snappy compatibile con Snappy, Zip e Hadoop non è disponibile per gli stream Firehose con Amazon Redshift come destinazione.

    Formato di estensione di file S3 (opzionale)

    Formato di estensione file S3 (opzionale): specifica un formato di estensione di file per gli oggetti consegnati al bucket di destinazione Amazon S3. Se abiliti questa funzionalità, l'estensione di file specificata sostituirà le estensioni di file predefinite aggiunte dalle funzionalità di compressione Data Format Conversion o S3 come .parquet o .gz. Assicurati di aver configurato l'estensione di file corretta quando usi questa funzionalità con Data Format Conversion o la compressione S3. L'estensione del file deve iniziare con un punto (.) e può contenere caratteri consentiti: 0-9a-z! -_.*' (). L'estensione del file non può superare i 128 caratteri.

    Crittografia S3

    Firehose supporta la crittografia lato server di Amazon S3 AWS Key Management Service con SSE (KMS-) per crittografare i dati forniti in Amazon S3. Puoi scegliere di utilizzare il tipo di crittografia predefinito specificato nel bucket S3 di destinazione o di crittografare con una chiave dall'elenco di chiavi di tua proprietà. AWS KMS Se crittografi i dati con le AWS KMS chiavi, puoi utilizzare la chiave AWS gestita predefinita (aws/s3) o una chiave gestita dal cliente. Per ulteriori informazioni, consulta Protezione dei dati mediante la crittografia lato server con AWS KMS -Managed Keys (-). SSE KMS

Configurare le impostazioni di destinazione per Service OpenSearch

Questa sezione descrive le opzioni per l'utilizzo OpenSearch del Servizio per la destinazione.

  • Immetti i valori per i seguenti campi:

    OpenSearch Dominio di servizio

    Il dominio del OpenSearch servizio a cui vengono consegnati i dati.

    Indice

    Il nome dell'indice del OpenSearch servizio da utilizzare per l'indicizzazione dei dati nel cluster di OpenSearch servizio.

    Index rotation (Rotazione indice)

    Scegli se e con che frequenza l'indice del OpenSearch servizio deve essere ruotato. Se la rotazione dell'indice è abilitata, Amazon Data Firehose aggiunge il timestamp corrispondente al nome dell'indice specificato e ruota. Per ulteriori informazioni, consulta Configura la rotazione dell'indice per Service OpenSearch .

    Tipo

    Il nome del tipo di OpenSearch servizio da utilizzare per l'indicizzazione dei dati nel cluster di servizio. OpenSearch Per Elasticsearch 7.x e OpenSearch 1.x, può esserci un solo tipo per indice. Se si tenta di specificare un nuovo tipo per un indice esistente che ne ha già un altro, Firehose restituisce un errore durante il runtime.

    Per Elasticsearch 7.x, lasciare vuoto questo campo.

    Retry duration (Durata nuovi tentativi)

    Intervallo di tempo entro il quale Firehose deve riprovare se una richiesta di indice fallisce. OpenSearch Per la durata dei nuovi tentativi, è possibile impostare qualsiasi valore compreso tra 0 e 7200 secondi. La durata predefinita dei nuovi tentativi è 300 secondi. Firehose riproverà più volte con il back up esponenziale disattivato fino alla scadenza della durata del nuovo tentativo.

    Una volta scaduta la durata del nuovo tentativo, Firehose invia i dati a Dead Letter Queue (DLQ), un bucket di errori S3 configurato. Per i dati consegnati aDLQ, è necessario reindirizzare i dati dal bucket di errore S3 configurato alla destinazione. OpenSearch

    Se desideri impedire che lo stream di Firehose fornisca dati a DLQ causa di tempi di inattività o manutenzione dei OpenSearch cluster, puoi configurare la durata dei tentativi su un valore più alto, in secondi. È possibile aumentare il valore della durata del nuovo tentativo portandolo a 7200 secondi contattando l'assistenza.AWS

    Tipo di ID documento

    Indica il metodo per impostare l'ID documento. I metodi supportati sono l'ID del documento generato da FireHose e l'ID del documento generato dal OpenSearch servizio. L'ID documento generato da FireHose è l'opzione predefinita quando il valore dell'ID del documento non è impostato. OpenSearch L'ID documento generato dal servizio è l'opzione consigliata perché supporta operazioni che richiedono molta scrittura, tra cui l'analisi dei log e l'osservabilità, consumando meno CPU risorse nel dominio del OpenSearch servizio e quindi migliorando le prestazioni.

    Connettività di destinazione VPC

    Se il tuo dominio di OpenSearch servizio è privatoVPC, usa questa sezione per specificarloVPC. Specificate anche le sottoreti e i sottogruppi che desiderate che Amazon Data Firehose utilizzi quando invia dati al tuo dominio di servizio. OpenSearch Puoi utilizzare gli stessi gruppi di sicurezza utilizzati dal dominio OpenSearch Service. Se specifichi gruppi di sicurezza diversi, assicurati che consentano il HTTPS traffico in uscita verso il gruppo di sicurezza del dominio del OpenSearch servizio. Assicuratevi inoltre che il gruppo di sicurezza del dominio di OpenSearch servizio consenta il HTTPS traffico proveniente dai gruppi di sicurezza specificati durante la configurazione dello stream Firehose. Se utilizzi lo stesso gruppo di sicurezza sia per lo stream Firehose che per il dominio di OpenSearch servizio, assicurati che la regola in entrata del gruppo di sicurezza consenta il traffico. HTTPS Per ulteriori informazioni sulle regole dei gruppi di sicurezza, consulta Regole dei gruppi di sicurezza nella VPC documentazione di Amazon.

    Importante

    Quando specifichi delle sottoreti per la consegna dei dati alla destinazione in modalità privataVPC, assicurati di avere un numero sufficiente di indirizzi IP liberi nelle sottoreti scelte. Se non è disponibile un indirizzo IP gratuito in una sottorete specificata, Firehose non può creare o ENIs aggiungere dati per la consegna dei dati in VPC modalità privata e la consegna verrà compromessa o avrà esito negativo.

    Suggerimenti sul buffer

    Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.

Configura le impostazioni di destinazione per Serverless OpenSearch

Questa sezione descrive le opzioni per l'utilizzo di OpenSearch Serverless per la destinazione.

  • Immetti i valori per i seguenti campi:

    OpenSearch Collezione Serverless

    L'endpoint per un gruppo di indici OpenSearch Serverless a cui vengono distribuiti i dati.

    Indice

    Il nome dell'indice OpenSearch Serverless da utilizzare per l'indicizzazione dei dati nella raccolta Serverless. OpenSearch

    VPCConnettività di destinazione

    Se la tua raccolta OpenSearch Serverless è privataVPC, usa questa sezione per specificarloVPC. Specificate anche le sottoreti e i sottogruppi che desiderate che Amazon Data Firehose utilizzi quando invia dati alla tua raccolta Serverless. OpenSearch

    Importante

    Quando specifichi delle sottoreti per la trasmissione di dati alla destinazione in modalità privataVPC, assicurati di avere un numero sufficiente di indirizzi IP liberi nelle sottoreti scelte. Se non è disponibile un indirizzo IP gratuito in una sottorete specificata, Firehose non può creare o ENIs aggiungere dati per la consegna dei dati in VPC modalità privata e la consegna verrà compromessa o avrà esito negativo.

    Retry duration (Durata nuovi tentativi)

    Intervallo di tempo entro il quale Firehose deve riprovare se una richiesta di indicizzazione a OpenSearch Serverless fallisce. Per la durata dei nuovi tentativi, è possibile impostare qualsiasi valore compreso tra 0 e 7200 secondi. La durata predefinita dei nuovi tentativi è 300 secondi. Firehose riproverà più volte con il back up esponenziale disattivato fino alla scadenza della durata del nuovo tentativo.

    Una volta scaduta la durata del nuovo tentativo, Firehose invia i dati a Dead Letter Queue (DLQ), un bucket di errori S3 configurato. Per i dati consegnati aDLQ, è necessario reindirizzarli dal bucket di errore S3 configurato alla destinazione Serverless. OpenSearch

    Se desideri impedire che lo stream Firehose fornisca dati a DLQ causa di tempi di inattività o manutenzione di cluster OpenSearch Serverless, puoi configurare la durata dei tentativi su un valore più alto in secondi. È possibile aumentare il valore della durata del nuovo tentativo fino a 7200 secondi contattando l'assistenza.AWS

    Suggerimenti sul buffer

    Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.

Configura le impostazioni di destinazione per Endpoint HTTP

Questa sezione descrive le opzioni per l'utilizzo dell'HTTPendpoint per la destinazione.

Importante

Se scegli un HTTP endpoint come destinazione, esamina e segui le istruzioni riportate in. Comprendi le HTTP specifiche di richieste e risposte di consegna degli endpoint

  • Fornisci i valori per i seguenti campi:

    HTTPnome dell'endpoint: opzionale

    Specificare un nome intuitivo per l'HTTPendpoint. Ad esempio My HTTP Endpoint Destination.

    HTTPendpoint URL

    Specificare il URL per l'HTTPendpoint nel seguente formato:. https://xyz.httpendpoint.com URLDeve essere un HTTPSURL.

    Autenticazione

    Puoi scegliere di inserire direttamente la chiave di accesso o recuperare il segreto da cui accedere AWS Secrets Manager all'HTTPendpoint.

    • (Facoltativo) Chiave di accesso

      Contatta il proprietario dell'endpoint se hai bisogno di ottenere la chiave di accesso per abilitare la consegna dei dati al suo endpoint da Firehose.

    • Secret

      Seleziona un campo segreto AWS Secrets Manager che contenga la chiave di accesso per l'endpoint. HTTP Se non vedi il tuo segreto nell'elenco a discesa, creane uno AWS Secrets Manager per la chiave di accesso. Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.

    Codifica del contenuto

    Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli GZIPo Disabilita per abilitare/disabilitare la codifica del contenuto della tua richiesta.

    Retry duration (Durata nuovi tentativi)

    Specificare per quanto tempo Amazon Data Firehose tenta di inviare nuovamente i dati all'endpoint selezionato. HTTP

    Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.

    Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP

    Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.

    Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.

    Parametri: facoltativo

    Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.

    Suggerimenti per il buffering

    Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.

    Importante

    Per le destinazioni degli HTTP endpoint, se visualizzi 413 codici di risposta dall'endpoint di destinazione in CloudWatch Logs, riduci la dimensione del suggerimento di buffering sullo stream Firehose e riprova.

Configura le impostazioni di destinazione per Datadog

Questa sezione descrive le opzioni per l'utilizzo di Datadog come destinazione. Per ulteriori informazioni su Datadog, consulta amazon_web_services/. https://docs.datadoghq.com/integrations/

  • Fornisci valori per i seguenti campi.

    HTTPendpoint URL

    Scegli dove vuoi inviare i dati da una delle seguenti opzioni nel menu a discesa.

    • Registri Datadog - US1

    • Registri Datadog - US3

    • Registri Datadog - US5

    • Registri Datadog - AP1

    • Registri Datadog - UE

    • Registri Datadog - GOV

    • Parametri Datadog - USA

    • Metriche Datadog - US5

    • Metriche Datadog - AP1

    • Parametri Datadog - UE

    • Configurazioni Datadog - US1

    • Configurazioni Datadog - US3

    • Configurazioni Datadog - US5

    • Configurazioni Datadog - AP1

    • Configurazioni Datadog - EU

    • Configurazioni Datadog - USA GOV

    Autenticazione

    Puoi scegliere di inserire direttamente la API chiave o recuperare il segreto da AWS Secrets Manager cui accedere a Datadog.

    • APIchiave

      Contatta Datadog per ottenere la API chiave necessaria per abilitare la consegna dei dati a questo endpoint da Firehose.

    • Secret

      Seleziona un campo segreto AWS Secrets Manager che contenga la chiave per DatadogAPI. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.

    Codifica del contenuto

    Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli GZIPo Disabilita per abilitare/disabilitare la codifica del contenuto della tua richiesta.

    Retry duration (Durata nuovi tentativi)

    Specificare per quanto tempo Amazon Data Firehose tenta di inviare nuovamente i dati all'endpoint selezionato. HTTP

    Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.

    Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP

    Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.

    Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.

    Parametri: facoltativo

    Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.

    Suggerimenti per il buffering

    Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.

Configura le impostazioni di destinazione per Honeycomb

Questa sezione descrive le opzioni per l'utilizzo di Honeycomb come destinazione. Per ulteriori informazioni su Honeycomb, https://docs.honeycom consulta b. -cloudwatch-metrics/. io/getting-data-in/metrics/aws

  • Fornisci i valori per i seguenti campi:

    Endpoint Honeycomb Kinesis

    Specificare il URL per l'HTTPendpoint nel seguente formato: b.io/1/kinesis_events/ {{dataset}} https://api.honeycom

    Autenticazione

    Puoi scegliere di inserire direttamente la chiave o recuperare il segreto da cui accedere a Honeycomb. API AWS Secrets Manager

    • APIchiave

      Contatta Honeycomb per ottenere la API chiave necessaria per abilitare la consegna dei dati a questo endpoint da Firehose.

    • Secret

      Seleziona un campo segreto AWS Secrets Manager che contenga la chiave per HoneycombAPI. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.

    Codifica del contenuto

    Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli GZIPdi abilitare la codifica del contenuto della tua richiesta. Questa è l'opzione consigliata per la destinazione Honeycomb.

    Retry duration (Durata nuovi tentativi)

    Specificare per quanto tempo Amazon Data Firehose tenta di inviare nuovamente i dati all'endpoint selezionato. HTTP

    Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.

    Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP

    Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.

    Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.

    Parametri: facoltativo

    Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.

    Suggerimenti per il buffering

    Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.

Configura le impostazioni di destinazione per Coralogix

Questa sezione descrive le opzioni per l'utilizzo di Coralogix come destinazione. Per ulteriori informazioni su Coralogix, consulta Guida introduttiva a Coralogix.

  • Fornisci i valori per i seguenti campi:

    HTTPendpoint URL

    Scegli l'HTTPendpoint URL tra le seguenti opzioni nel menu a discesa:

    • Coralogix - STATI UNITI

    • Coralogix - SINGAPORE

    • Coralogix - IRELAND

    • Coralogix - INDIA

    • Coralogix - STOCKHOLM

    Autenticazione

    Puoi scegliere di inserire direttamente la chiave privata o recuperare il codice segreto per accedere a Coralogix. AWS Secrets Manager

    • Chiave privata

      Contatta Coralogix per ottenere la chiave privata necessaria per abilitare la consegna dei dati a questo endpoint da Firehose.

    • Secret

      Seleziona una cartella segreta AWS Secrets Manager che contenga la chiave privata per Coralogix. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.

    Codifica del contenuto

    Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli GZIPdi abilitare la codifica del contenuto della tua richiesta. Questa è l'opzione consigliata per la destinazione Coralogix.

    Retry duration (Durata nuovi tentativi)

    Specificare per quanto tempo Amazon Data Firehose tenta di inviare nuovamente i dati all'endpoint selezionato. HTTP

    Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.

    Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP

    Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.

    Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.

    Parametri: facoltativo

    Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.

    • applicationName: l'ambiente in cui si esegue Data Firehose

    • subsystemName: il nome dell'integrazione Data Firehose

    • computerName: il nome dello stream Firehose in uso

    Suggerimenti per il buffering

    Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia in base al fornitore di servizi.

Configura le impostazioni di destinazione per Dynatrace

Questa sezione descrive le opzioni per l'utilizzo di Dynatrace come destinazione. Per ulteriori informazioni, consulta https://www.dynatrace.com/support/ help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch -metric-streams/.

  • Scegli le opzioni per utilizzare Dynatrace come destinazione per il tuo stream Firehose.

    Tipo di ingestione

    Scegliete se desiderate fornire metriche o log (impostazione predefinita) in Dynatrace per ulteriori analisi ed elaborazioni.

    HTTPendpoint URL

    Scegli l'HTTPendpoint URL (Dynatrace US, Dynatrace EU o Dynatrace Global) dal menu a discesa.

    Autenticazione

    Puoi scegliere di inserire direttamente il API token o recuperare il codice segreto per accedere a Dynatrace. AWS Secrets Manager

    • Token API

      Genera il API token Dynatrace necessario per abilitare la consegna dei dati a questo endpoint da Firehose. Per ulteriori informazioni, consulta Dynatrace API - Tokens and authentication.

    • Secret

      Seleziona un campo segreto AWS Secrets Manager che contenga il API token per Dynatrace. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.

    API URL

    Fornisci il API URL tuo ambiente Dynatrace.

    Codifica del contenuto

    Scegli se abilitare la codifica del contenuto per comprimere il corpo della richiesta. Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Se abilitata, il contenuto viene compresso nel formato. GZIP

    Retry duration (Durata nuovi tentativi)

    Specificate per quanto tempo Firehose riprova a inviare dati all'endpoint selezionato. HTTP

    Dopo aver inviato i dati, Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout della conferma, Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Dopodiché, Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.

    Ogni volta che Firehose invia dati all'HTTPendpoint, durante il tentativo iniziale o dopo un nuovo tentativo, riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP

    Anche se la durata del nuovo tentativo scade, Firehose attende comunque la conferma fino a quando non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.

    Se non desiderate che Firehose tenti di inviare nuovamente i dati, impostate questo valore su 0.

    Parametri: facoltativo

    Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.

    Suggerimenti per il buffering

    Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. I suggerimenti sul buffer includono la dimensione e l'intervallo del buffer per i tuoi stream. La dimensione del buffer consigliata per la destinazione varia in base al fornitore di servizi.

Configura le impostazioni di destinazione per LogicMonitor

Questa sezione descrive le opzioni per l'utilizzo di LogicMonitor come destinazione. Per ulteriori informazioni, consulta https://www.logicmonitor.com.

  • Fornisci i valori per i seguenti campi:

    HTTPendpoint URL

    Specificare il URL per l'HTTPendpoint nel seguente formato.

    https://ACCOUNT.logicmonitor.com
    Autenticazione

    Puoi scegliere di inserire direttamente la API chiave o recuperare il segreto da cui AWS Secrets Manager accedere. LogicMonitor

    • APIchiave

      Contattateci LogicMonitor per ottenere la API chiave necessaria per abilitare la consegna dei dati a questo endpoint da Firehose.

    • Secret

      Seleziona un campo segreto AWS Secrets Manager che contenga la API chiave per. LogicMonitor Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.

    Codifica del contenuto

    Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli GZIPo Disabilita per abilitare/disabilitare la codifica del contenuto della tua richiesta.

    Retry duration (Durata nuovi tentativi)

    Specificare per quanto tempo Amazon Data Firehose tenta di inviare nuovamente i dati all'endpoint selezionato. HTTP

    Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.

    Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP

    Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.

    Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.

    Parametri: facoltativo

    Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.

    Suggerimenti per il buffering

    Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.

Configura le impostazioni di destinazione per Logz.io

Questa sezione descrive le opzioni per l'utilizzo di Logz.io come destinazione. Per ulteriori informazioni, vedere https://logz.io/.

Nota

Nella regione Europa (Milano), Logz.io non è supportato come destinazione Amazon Data Firehose.

  • Fornisci i valori per i seguenti campi:

    HTTPendpoint URL

    Specificare il URL per l'HTTPendpoint nel seguente formato. URLDeve essere un HTTPSURL.

    https://listener-aws-metrics-stream-<region>.logz.io/

    Ad esempio

    https://listener-aws-metrics-stream-us.logz.io/
    Autenticazione

    Puoi scegliere di inserire direttamente il token di spedizione o recuperare il codice segreto AWS Secrets Manager per accedere a Logz.io.

    • Token di spedizione

      Contatta Logz.io per ottenere il token di spedizione necessario per abilitare la consegna dei dati a questo endpoint da Firehose.

    • Secret

      Seleziona un codice segreto AWS Secrets Manager che contenga il token di spedizione per Logz.io. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.

    Retry duration (Durata nuovi tentativi)

    Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati a Logz.io.

    Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.

    Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP

    Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.

    Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.

    Parametri: facoltativo

    Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.

    Suggerimenti per il buffering

    Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.

Configurare le impostazioni di destinazione per MongoDB Cloud

Questa sezione descrive le opzioni per l'utilizzo di MongoDB Cloud come destinazione. Per ulteriori informazioni, consulta https://www.mongodb.com.

  • Fornisci i valori per i seguenti campi:

    Webhook MongoDB Realm URL

    Specificare il URL per l'HTTPendpoint nel seguente formato.

    https://webhooks.mongodb-realm.com

    URLDeve essere un HTTPSURL.

    Autenticazione

    Puoi scegliere di inserire direttamente la API chiave o recuperare il codice segreto AWS Secrets Manager per accedere a MongoDB Cloud.

    • APIchiave

      Contatta MongoDB Cloud per ottenere API la chiave necessaria per abilitare la consegna dei dati a questo endpoint da Firehose.

    • Secret

      Seleziona un segreto AWS Secrets Manager che contenga la API chiave per MongoDB Cloud. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.

    Codifica del contenuto

    Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli GZIPo Disabilita per abilitare/disabilitare la codifica del contenuto della tua richiesta.

    Retry duration (Durata nuovi tentativi)

    Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati al provider terzo selezionato.

    Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.

    Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP

    Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.

    Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.

    Suggerimenti per il buffering

    Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.

    Parametri: facoltativo

    Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.

Configura le impostazioni di destinazione per New Relic

Questa sezione descrive le opzioni per l'utilizzo di New Relic come destinazione. Per ulteriori informazioni, consulta https://newrelic.com.

  • Fornisci i valori per i seguenti campi:

    HTTPendpoint URL

    Scegli l'HTTPendpoint URL tra le seguenti opzioni nell'elenco a discesa.

    • Log di New Relic - USA

    • Parametri di New Relic - USA

    • Parametri di New Relic - UE

    Autenticazione

    Puoi scegliere di inserire direttamente la API chiave o recuperare il segreto da cui accedere AWS Secrets Manager a New Relic.

    • APIchiave

      Inserisci la tua chiave di licenza, che è una stringa esadecimale di 40 caratteri, dalle impostazioni del tuo account New Relic One. È necessaria questa API chiave per abilitare la consegna dei dati a questo endpoint da Firehose.

    • Secret

      Seleziona un campo segreto AWS Secrets Manager che contenga la API chiave per New Relic. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.

    Codifica del contenuto

    Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli GZIPo Disabilita per abilitare/disabilitare la codifica del contenuto della tua richiesta.

    Retry duration (Durata nuovi tentativi)

    Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati all'endpoint New Relic. HTTP

    Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.

    Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP

    Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.

    Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.

    Parametri: facoltativo

    Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.

    Suggerimenti per il buffering

    Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.

Configura le impostazioni di destinazione per Snowflake

Questa sezione descrive le opzioni per l'utilizzo di Snowflake per la destinazione.

Nota

L'integrazione di Firehose con Snowflake è disponibile negli Stati Uniti orientali (Virginia settentrionale), Stati Uniti occidentali (Oregon), Europa (Irlanda), Stati Uniti orientali (Ohio), Asia Pacifico (Tokyo), Europa (Francoforte), Asia Pacifico (Singapore), Asia Pacifico (Seoul) e Asia Pacifico (Sydney), Asia Pacifico (Mumbai), Europa (Londra), Sud America (San Paolo), Canada (Centrale), Europa (Parigi), Asia Pacifico (Osaka), Europa (Stoccolma), Asia Pacifico (Giacarta). Regioni AWS

Impostazioni di connessione
  • Fornisci i valori per i seguenti campi:

    Account Snowflake URL

    Specificare un account Snowflake. URL Ad esempio: xy12345.us-east-1.aws.snowflakecomputing.com. Consulta la documentazione di Snowflake su come determinare il tuo account. URL Nota che non devi specificare il numero di porta, mentre il protocollo (https://) è facoltativo.

    Autenticazione

    Puoi scegliere di inserire manualmente userlogin, chiave privata e passphrase oppure recuperare il codice segreto per accedere a Snowflake. AWS Secrets Manager

    • Login utente

      Specificare l'utente Snowflake da utilizzare per il caricamento dei dati. Assicurati che l'utente abbia accesso per inserire dati nella tabella Snowflake.

    • Chiave privata

      Specificate la chiave privata per l'autenticazione con Snowflake nel formato. PKCS8 Inoltre, non includete l'PEMintestazione e il piè di pagina come parte della chiave privata. Se la chiave è suddivisa su più righe, rimuovi le interruzioni di riga. Di seguito è riportato un esempio di come deve essere la tua chiave privata.

      -----BEGIN PRIVATE KEY----- KEY_CONTENT -----END PRIVATE KEY-----

      Rimuovi lo spazio KEY_CONTENT e forniscilo a Firehose. Non sono richiesti caratteri di intestazione/piè di pagina o di nuova riga.

    • Passphrase

      Specificare la passphrase per decrittografare la chiave privata crittografata. È possibile lasciare vuoto questo campo se la chiave privata non è crittografata. Per informazioni, consulta Utilizzo dell'autenticazione a coppie di chiavi e della rotazione delle chiavi.

    • Secret

      Seleziona una cartella segreta AWS Secrets Manager che contenga le credenziali per Snowflake. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.

    Configurazione dei ruoli

    Usa il ruolo Snowflake predefinito: se questa opzione è selezionata, Firehose non passerà alcun ruolo a Snowflake. Per il caricamento dei dati si presuppone il ruolo predefinito. Assicurati che il ruolo predefinito sia autorizzato a inserire dati nella tabella Snowflake.

    Usa il ruolo Snowflake personalizzato: inserisci un ruolo Snowflake non predefinito che Firehose deve assumere durante il caricamento dei dati nella tabella Snowflake.

    Connettività Snowflake

    Le opzioni sono private o pubbliche.

    VPCEID privato (opzionale)

    L'VPCEID per la connessione privata di Firehose con Snowflake. Il formato ID è com.amazonaws.vpce. [regione] .vpce-svc-[id]. Per ulteriori informazioni, vedere & Snowflake.AWS PrivateLink

    Nota

    Se il tuo cluster Snowflake è abilitato al collegamento privato, utilizza una policy di rete AwsVpceIds basata su una politica di rete per consentire i dati di Amazon Data Firehose. Firehose non richiede la configurazione di una politica di rete basata su IP nel tuo account Snowflake. L'attivazione di una policy di rete basata su IP potrebbe interferire con la connettività Firehose. Se hai un caso limite che richiede una policy basata su IP, contatta il team di Firehose inviando un ticket di supporto. Per un elenco di quelli VPCE IDs che puoi usare, consulta. Accesso a Snowflake in VPC

Configurazione del database
  • È necessario specificare le seguenti impostazioni per utilizzare Snowflake come destinazione per lo stream Firehose.

    • Database Snowflake: tutti i dati in Snowflake vengono conservati nei database.

    • Schema Snowflake: ogni database è costituito da uno o più schemi, che sono raggruppamenti logici di oggetti del database, come tabelle e viste

    • Tabella Snowflake: tutti i dati in Snowflake sono archiviati in tabelle di database, strutturate logicamente come raccolte di colonne e righe.

Opzioni di caricamento dei dati per la tabella Snowflake

  • Usa JSON le chiavi come nomi di colonna

  • Usa VARIANT le colonne

    • Nome della colonna di contenuto: specifica il nome di una colonna nella tabella, in cui devono essere caricati i dati grezzi.

    • Nome della colonna di metadati (opzionale): specifica un nome di colonna nella tabella, in cui devono essere caricate le informazioni sui metadati. Quando abiliti questo campo, vedrai la colonna seguente nella tabella Snowflake in base al tipo di fonte.

      Per Direct PUT come fonte

      { "firehoseDeliveryStreamName" : "streamname", "IngestionTime" : "timestamp" }

      Per Kinesis Data Stream come sorgente

      { "kinesisStreamName" : "streamname", "kinesisShardId" : "Id", "kinesisPartitionKey" : "key", "kinesisSequenceNumber" : "1234", "subsequenceNumber" : "2334", "IngestionTime" : "timestamp" }

Retry duration (Durata nuovi tentativi)

Intervallo di tempo (0—7200 secondi) entro cui Firehose riprova se l'apertura del canale o la consegna a Snowflake falliscono a causa di problemi del servizio Snowflake. Firehose riprova con un backoff esponenziale fino al termine della durata del nuovo tentativo. Se si imposta la durata del nuovo tentativo su 0 (zero) secondi, Firehose non riprova in caso di errori Snowflake e indirizza i dati al bucket di errore di Amazon S3.

Suggerimenti sul buffer

Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro. Per ulteriori informazioni, consulta Configura i suggerimenti per il buffering.

Configura le impostazioni di destinazione per Splunk

Questa sezione descrive le opzioni per l'utilizzo di Splunk come destinazione.

Nota

Firehose fornisce dati ai cluster Splunk configurati con Classic Load Balancer o Application Load Balancer.

  • Fornisci i valori per i seguenti campi:

    Splunk cluster endpoint (Endpoint del cluster Splunk)

    Per determinare l'endpoint, consulta Configurare Amazon Data Firehose per inviare dati alla piattaforma Splunk nella documentazione Splunk.

    Splunk endpoint type (Tipo endpoint Splunk)

    Selezionare Raw endpoint nella maggior parte dei casi, Scegli Event endpoint se hai preelaborato i dati utilizzando AWS Lambda per inviare dati a diversi indici in base al tipo di evento. Per informazioni sull'endpoint da utilizzare, consulta Configurare Amazon Data Firehose per inviare dati alla piattaforma Splunk nella documentazione di Splunk.

    Autenticazione

    Puoi scegliere di inserire direttamente il token di autenticazione o recuperare il segreto da cui accedere a Splunk. AWS Secrets Manager

    HECtimeout di riconoscimento

    Specificate per quanto tempo Amazon Data Firehose attende la conferma dell'indice da parte di Splunk. Se Splunk non invia la conferma prima del raggiungimento del timeout, Amazon Data Firehose lo considera un errore di consegna dei dati. Amazon Data Firehose riprova quindi o esegue il backup dei dati nel bucket Amazon S3, a seconda del valore della durata del nuovo tentativo impostato.

    Retry duration (Durata nuovi tentativi)

    Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati a Splunk.

    Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma da parte di Splunk. Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.

    Ogni volta che Amazon Data Firehose invia dati a Splunk (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma da parte di Splunk.

    Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.

    Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.

    Suggerimenti per il buffering

    Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia in base al fornitore di servizi.

Configura le impostazioni di destinazione per Splunk Observability Cloud

Questa sezione descrive le opzioni per l'utilizzo di Splunk Observability Cloud come destinazione. Per ulteriori informazioni, consulta https://docs.splunk.com/observability/en/gdi/get-data-in/connect/aws/aws-apiconfig.html# - -api connect-to-aws-using. the-splunk-observability-cloud

  • Fornisci i valori per i seguenti campi:

    Cloud Ingest Endpoint URL

    Puoi trovare Real-time Data Ingest di Splunk Observability Cloud in Profile > Organizations > Real-time Data Ingest Endpoint URL nella console Splunk Observability.

    Autenticazione

    Puoi scegliere di inserire direttamente il token di accesso o recuperare il codice segreto per accedere a Splunk Observability Cloud. AWS Secrets Manager

    • Token di accesso

      Copia il token di accesso Splunk Observability con ambito di INGEST autorizzazione da Access Tokens in Impostazioni nella console Splunk Observability.

    • Secret

      Seleziona un codice segreto AWS Secrets Manager che contenga il token di accesso per Splunk Observability Cloud. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.

    Codifica del contenuto

    Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli GZIPo Disabilita per abilitare/disabilitare la codifica del contenuto della tua richiesta.

    Retry duration (Durata nuovi tentativi)

    Specificare per quanto tempo Amazon Data Firehose tenta di inviare nuovamente i dati all'endpoint selezionato. HTTP

    Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.

    Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP

    Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.

    Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.

    Parametri: facoltativo

    Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.

    Suggerimenti per il buffering

    Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.

Configura le impostazioni di destinazione per Sumo Logic

Questa sezione descrive le opzioni per l'utilizzo di Sumo Logic come destinazione. Per ulteriori informazioni, consulta https://www.sumologic.com.

  • Fornisci i valori per i seguenti campi:

    HTTPendpoint URL

    Specificare il URL per l'HTTPendpoint nel seguente formato:. https://deployment name.sumologic.net/receiver/v1/kinesis/dataType/access token URLDeve essere un HTTPSURL.

    Codifica del contenuto

    Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli GZIPo Disabilita per abilitare/disabilitare la codifica del contenuto della tua richiesta.

    Retry duration (Durata nuovi tentativi)

    Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati a Sumo Logic.

    Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.

    Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP

    Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.

    Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.

    Parametri: facoltativo

    Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.

    Suggerimenti per il buffering

    Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione Elastic varia da un fornitore di servizi all'altro.

Configura le impostazioni di destinazione per Elastic

Questa sezione descrive le opzioni per l'utilizzo di Elastic come destinazione.

  • Fornisci i valori per i seguenti campi:

    Endpoint elastico URL

    Specificare il URL per l'HTTPendpoint nel seguente formato:. https://<cluster-id>.es.<region>.aws.elastic-cloud.com URLDeve essere un HTTPSURL.

    Autenticazione

    Puoi scegliere di inserire direttamente la API chiave o recuperare il segreto da cui accedere AWS Secrets Manager a Elastic.

    • APIchiave

      Contatta Elastic per ottenere da Firehose la API chiave necessaria per abilitare la consegna dei dati al suo servizio.

    • Secret

      Seleziona un campo segreto AWS Secrets Manager che contenga la API chiave per Elastic. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.

    Codifica del contenuto

    Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli GZIP(che è l'opzione selezionata per impostazione predefinita) o Disabilitato per abilitare/disabilitare la codifica del contenuto della richiesta.

    Retry duration (Durata nuovi tentativi)

    Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati a Elastic.

    Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.

    Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP

    Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.

    Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.

    Parametri: facoltativo

    Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.

    Suggerimenti per il buffering

    Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione Elastic è di 1 MiB.