Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Configurare le impostazioni di destinazione
Questa sezione descrive le impostazioni da configurare per lo stream Firehose in base alla destinazione selezionata.
Argomenti
- Configurazione delle impostazioni di destinazione per Amazon S3
- Configura le impostazioni di destinazione per Apache Iceberg Tables
- Configurazione delle impostazioni di destinazione per Amazon Redshift
- Configurare le impostazioni di destinazione per Service OpenSearch
- Configura le impostazioni di destinazione per Serverless OpenSearch
- Configura le impostazioni di destinazione per Endpoint HTTP
- Configura le impostazioni di destinazione per Datadog
- Configura le impostazioni di destinazione per Honeycomb
- Configura le impostazioni di destinazione per Coralogix
- Configura le impostazioni di destinazione per Dynatrace
- Configura le impostazioni di destinazione per LogicMonitor
- Configura le impostazioni di destinazione per Logz.io
- Configurare le impostazioni di destinazione per MongoDB Cloud
- Configura le impostazioni di destinazione per New Relic
- Configura le impostazioni di destinazione per Snowflake
- Configura le impostazioni di destinazione per Splunk
- Configura le impostazioni di destinazione per Splunk Observability Cloud
- Configura le impostazioni di destinazione per Sumo Logic
- Configura le impostazioni di destinazione per Elastic
Configurazione delle impostazioni di destinazione per Amazon S3
È necessario specificare le seguenti impostazioni per utilizzare Amazon S3 come destinazione per lo stream Firehose.
-
Inserisci i valori per i seguenti campi.
- Bucket S3
-
Scegliere un bucket S3 di proprietà dove devono essere distribuiti i dati in streaming. Puoi creare un nuovo bucket S3 o sceglierne uno esistente.
- Nuovo delimitatore di riga
-
Puoi configurare il tuo stream Firehose per aggiungere un nuovo delimitatore di riga tra i record negli oggetti che vengono consegnati ad Amazon S3. Per farlo, scegli Abilitato. Per non aggiungere un nuovo delimitatore di riga tra i record negli oggetti distribuiti ad Amazon S3, scegli Disabilitato. Se prevedi di utilizzare Athena per interrogare oggetti S3 con record aggregati, abilita questa opzione.
- Partizionamento dinamico
-
Scegli Abilitato per abilitare e configurare il partizionamento dinamico.
- Disaggregazione di più record
-
Si tratta del processo di analisi dei record nello stream Firehose e di separazione degli stessi in base a un delimitatore di riga JSON valido o al nuovo delimitatore di riga specificato.
Se si aggregano più eventi, registri o record in un'unica PutRecordBatch API chiamata PutRecord AND, è comunque possibile abilitare e configurare il partizionamento dinamico. Con i dati aggregati, quando abiliti il partizionamento dinamico, Amazon Data Firehose analizza i record e cerca più oggetti validi all'interno di ogni chiamata. JSON API Quando il flusso Firehose è configurato con Kinesis Data Stream come sorgente, puoi anche utilizzare l'aggregazione integrata nella Kinesis Producer Library (). KPL La funzionalità di partizione dei dati viene eseguita dopo la disaggregazione dei dati. Pertanto, ogni record di ogni API chiamata può essere inviato a diversi prefissi Amazon S3. Puoi anche sfruttare l'integrazione della funzione Lambda per eseguire qualsiasi altra deaggregazione o qualsiasi altra trasformazione prima della funzionalità di partizionamento dei dati.
Importante
Se i dati sono aggregati, il partizionamento dinamico può essere applicato solo dopo aver eseguito la disaggregazione dei dati. Quindi, se abiliti il partizionamento dinamico dei dati aggregati, devi scegliere Abilitato per abilitare la disaggregazione di più record.
Firehose stream esegue le seguenti fasi di elaborazione nel seguente ordine: deaggregazione KPL (protobuf) o deaggregazione dei JSON delimitatori, elaborazione Lambda, partizionamento dei dati, conversione del formato dei dati e distribuzione di Amazon S3.
- Tipo di deaggregazione di più record
-
Se è stata abilitata la deaggregazione di più record, è necessario specificare il metodo di disaggregazione dei dati da parte di Firehose. Utilizza il menu a discesa per scegliere tra Delimitato o Delimitato. JSON
- Analisi in linea
-
Questo è uno dei meccanismi supportati per partizionare in modo dinamico i dati destinati ad Amazon S3. Per utilizzare l'analisi in linea per il partizionamento dinamico dei dati, devi specificare i parametri del record di dati da utilizzare come chiavi di partizionamento e fornire un valore per ogni chiave di partizionamento specificata. Scegli Abilitato per abilitare e configurare l'analisi in linea.
Importante
Se hai specificato una funzione AWS Lambda nei passaggi precedenti per trasformare i record di origine, puoi usare questa funzione per partizionare dinamicamente i dati associati a S3 e puoi comunque creare le tue chiavi di partizionamento con l'analisi in linea. Con il partizionamento dinamico, puoi utilizzare l'analisi in linea o la funzione AWS Lambda per creare le tue chiavi di partizionamento. Oppure puoi utilizzare contemporaneamente l'analisi in linea e la funzione AWS Lambda per creare le tue chiavi di partizionamento.
- Chiavi di partizionamento dinamico
-
Puoi utilizzare i campi Chiave e Valore per specificare i parametri del record di dati da usare come chiavi di partizionamento dinamico e le query jq per generare valori delle chiavi di partizionamento dinamico. Firehose supporta solo jq 1.6. È possibile specificare fino a 50 chiavi di partizionamento dinamico. È necessario inserire espressioni jq valide per i valori della chiave di partizionamento dinamico per configurare correttamente il partizionamento dinamico per il flusso Firehose.
- Prefisso del bucket S3
-
Quando abiliti e configuri il partizionamento dinamico, devi specificare i prefissi dei bucket S3 a cui Amazon Data Firehose deve fornire i dati partizionati.
Affinché il partizionamento dinamico sia configurato correttamente, il numero di prefissi del bucket S3 deve essere identico al numero delle chiavi di partizionamento specificate.
Puoi partizionare i dati di origine con l'analisi in linea o con la funzione AWS Lambda specificata. Se hai specificato una funzione AWS Lambda per creare chiavi di partizionamento per i tuoi dati di origine, devi digitare manualmente i valori del prefisso del bucket S3 utilizzando il seguente formato: "lambda:keyID». partitionKeyFrom Se utilizzi l'analisi in linea per specificare le chiavi di partizionamento per i tuoi dati di origine, puoi digitare manualmente i valori di anteprima del bucket S3 utilizzando il seguente formato: "partitionKeyFromquery:keyID» oppure puoi scegliere il pulsante Applica chiavi di partizionamento dinamico per utilizzare le coppie chiave/valore del partizionamento dinamico per generare automaticamente i prefissi dei bucket S3. Durante il partizionamento dei dati con analisi in linea o AWS Lambda, puoi anche utilizzare le seguenti forme di espressione nel prefisso del bucket S3:! {namespace:value}, dove lo spazio dei nomi può essere Query o Lambda. partitionKeyFrom partitionKeyFrom
- Bucket S3 e fuso orario del prefisso di output di errore S3
Scegli un fuso orario che desideri utilizzare per la data e l'ora nei prefissi personalizzati per gli oggetti Amazon S3. Per impostazione predefinita, Firehose aggiunge un prefisso orario in. UTC È possibile modificare il fuso orario utilizzato nei prefissi S3 se si desidera utilizzare un fuso orario diverso.
- Suggerimenti per il buffering
-
Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.
- Compressione S3
-
Scegli tra GZIP la compressione dei dati Snappy, Zip o compatibile con Hadoop o nessuna compressione dei dati. La compressione Snappy compatibile con Snappy, Zip e Hadoop non è disponibile per gli stream Firehose con Amazon Redshift come destinazione.
- Formato di estensione di file S3 (opzionale)
Specificare un formato di estensione di file per gli oggetti consegnati al bucket di destinazione Amazon S3. Se abiliti questa funzionalità, l'estensione di file specificata sostituirà le estensioni di file predefinite aggiunte dalle funzionalità di compressione Data Format Conversion o S3 come .parquet o .gz. Assicurati di aver configurato l'estensione di file corretta quando usi questa funzionalità con Data Format Conversion o la compressione S3. L'estensione del file deve iniziare con un punto (.) e può contenere caratteri consentiti: 0-9a-z! -_.*' (). L'estensione del file non può superare i 128 caratteri.
- Crittografia S3
Firehose supporta la crittografia lato server di Amazon S3 AWS Key Management Service con SSE (KMS-) per crittografare i dati forniti in Amazon S3. Puoi scegliere di utilizzare il tipo di crittografia predefinito specificato nel bucket S3 di destinazione o di crittografare con una chiave dall'elenco di chiavi di tua proprietà. AWS KMS Se crittografi i dati con le AWS KMS chiavi, puoi utilizzare la chiave AWS gestita predefinita (aws/s3) o una chiave gestita dal cliente. Per ulteriori informazioni, consulta Protezione dei dati mediante la crittografia lato server con AWS KMS -Managed Keys (-). SSE KMS
Configura le impostazioni di destinazione per Apache Iceberg Tables
Firehose supporta Apache Iceberg Tables come destinazione in tutte le regioni tranne Regioni AWSCina e Asia Pacifico (Malesia). AWS GovCloud (US) Regions
Per ulteriori informazioni su Apache Iceberg Tables come destinazione, consulta. Distribuisci dati ad Apache Iceberg Tables con Amazon Data Firehose
Configurazione delle impostazioni di destinazione per Amazon Redshift
Questa sezione descrive le impostazioni per l'utilizzo di Amazon Redshift come destinazione dello stream Firehose.
Scegli una delle procedure seguenti a seconda che tu disponga di un cluster con provisioning di Amazon Redshift o di un gruppo di lavoro Amazon Redshift serverless.
-
Configura le impostazioni di destinazione per il gruppo di lavoro Amazon Redshift Serverless
Nota
Firehose non è in grado di scrivere su cluster Amazon Redshift che utilizzano un routing avanzato. VPC
Cluster con provisioning di Amazon Redshift
Questa sezione descrive le impostazioni per l'utilizzo del cluster con provisioning di Amazon Redshift come destinazione dello stream Firehose.
-
Immetti i valori per i seguenti campi:
- Cluster
-
Il cluster Amazon Redshift sul quale vengono copiati i dati del bucket S3. Configura il cluster Amazon Redshift in modo che sia accessibile al pubblico e sblocca gli indirizzi IP di Amazon Data Firehose. Per ulteriori informazioni, consulta Concedi a Firehose l'accesso a una destinazione Amazon Redshift .
- Autenticazione
-
Puoi scegliere di inserire direttamente il nome utente/password o recuperare il segreto da cui accedere AWS Secrets Manager al cluster Amazon Redshift.
-
Nome utente
Specificare un utente Amazon Redshift con le autorizzazioni per accedere al cluster Amazon Redshift. Tale utente deve disporre dell'autorizzazione
INSERT
di Amazon Redshift per copiare i dati dal bucket S3 al cluster Amazon Redshift. Password
Specificare la password per l'utente che dispone delle autorizzazioni per accedere al cluster.
-
Secret
Seleziona un campo segreto AWS Secrets Manager che contenga le credenziali per il cluster Amazon Redshift. Se non vedi il tuo segreto nell'elenco a discesa, creane uno AWS Secrets Manager per le tue credenziali Amazon Redshift. Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.
-
- Database
-
Il database Amazon Redshift su cui vengono copiati i dati.
- Tabella
-
La tabella Amazon Redshift su cui vengono copiati i dati.
- Colonne
-
(Opzionale) Le colonne specifiche della tabella su cui vengono copiati i dati. Utilizza questa opzione se il numero di colonne definite negli oggetti Amazon S3 è inferiore al numero delle colonne nella tabella Amazon Redshift.
- Destinazione S3 intermedia
-
Firehose invia prima i dati al bucket S3 e poi emette un COPY comando Amazon Redshift per caricare i dati nel cluster Amazon Redshift. Specificare un bucket S3 di proprietà dove devono essere distribuiti i dati in streaming. Crea un nuovo bucket S3 o scegline uno esistente di proprietà.
Firehose non elimina i dati dal bucket S3 dopo averli caricati nel cluster Amazon Redshift. Puoi gestire i dati nel bucket S3 utilizzando una configurazione del ciclo di vita. Per ulteriori informazioni, consulta Gestione del ciclo di vita degli oggetti nella Guida per l'utente di Amazon Simple Storage Service.
- Prefisso S3 intermedio
-
(Facoltativo) Per utilizzare il prefisso predefinito per gli oggetti Amazon S3, lascia vuota questa opzione. Firehose utilizza automaticamente un prefisso in formato UTC orario "
YYYY/MM/dd/HH
" per gli oggetti Amazon S3 consegnati. Puoi aggiungerlo all'inizio di questo prefisso. Per ulteriori informazioni, consulta Configurazione del formato del nome oggetto Amazon S3. - COPYopzioni
-
Parametri che puoi specificare nel comando COPY di Amazon Redshift. Questi potrebbero essere necessari per la configurazione. Ad esempio, "
GZIP
" è necessario se la compressione dei dati di Amazon S3 è abilitata. «REGION
" è obbligatorio se il bucket S3 non si trova nella stessa AWS regione del cluster Amazon Redshift. Per ulteriori informazioni, consulta COPY nella Guida per gli sviluppatori di database di Amazon Redshift. - Comando COPY
-
Il comando COPY di Amazon Redshift. Per ulteriori informazioni, consulta COPY nella Guida per gli sviluppatori di database di Amazon Redshift.
- Retry duration (Durata nuovi tentativi)
-
Periodo di tempo (0—7200 secondi) entro il quale Firehose riprova in caso di errore dei dati del cluster COPY Amazon Redshift. Firehose riprova ogni 5 minuti fino al termine del nuovo tentativo. Se si imposta la durata del nuovo tentativo su 0 (zero) secondi, Firehose non riprova in caso COPY di errore del comando.
- Suggerimenti per il buffering
-
Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.
- Compressione S3
-
Scegli tra GZIP la compressione dei dati Snappy, Zip o compatibile con Hadoop o nessuna compressione dei dati. La compressione Snappy compatibile con Snappy, Zip e Hadoop non è disponibile per gli stream Firehose con Amazon Redshift come destinazione.
- Formato di estensione di file S3 (opzionale)
Formato di estensione file S3 (opzionale): specifica un formato di estensione di file per gli oggetti consegnati al bucket di destinazione Amazon S3. Se abiliti questa funzionalità, l'estensione di file specificata sostituirà le estensioni di file predefinite aggiunte dalle funzionalità di compressione Data Format Conversion o S3 come .parquet o .gz. Assicurati di aver configurato l'estensione di file corretta quando usi questa funzionalità con Data Format Conversion o la compressione S3. L'estensione del file deve iniziare con un punto (.) e può contenere caratteri consentiti: 0-9a-z! -_.*' (). L'estensione del file non può superare i 128 caratteri.
- Crittografia S3
Firehose supporta la crittografia lato server di Amazon S3 AWS Key Management Service con SSE (KMS-) per crittografare i dati forniti in Amazon S3. Puoi scegliere di utilizzare il tipo di crittografia predefinito specificato nel bucket S3 di destinazione o di crittografare con una chiave dall'elenco di chiavi di tua proprietà. AWS KMS Se crittografi i dati con le AWS KMS chiavi, puoi utilizzare la chiave AWS gestita predefinita (aws/s3) o una chiave gestita dal cliente. Per ulteriori informazioni, consulta Protezione dei dati mediante la crittografia lato server con AWS KMS -Managed Keys (-). SSE KMS
Configura le impostazioni di destinazione per il gruppo di lavoro Amazon Redshift Serverless
Questa sezione descrive le impostazioni per l'utilizzo del gruppo di lavoro Amazon Redshift Serverless come destinazione del flusso Firehose.
-
Immetti i valori per i seguenti campi:
- Workgroup name (Nome del gruppo di lavoro)
-
Il gruppo di lavoro Amazon Redshift serverless in cui vengono copiati i dati del bucket S3. Configura il gruppo di lavoro Amazon Redshift Serverless in modo che sia accessibile al pubblico e sblocca gli indirizzi IP Firehose. Per ulteriori informazioni, consulta la sezione Connessione a un'istanza Amazon Redshift serverless accessibile pubblicamente in Connessione ad Amazon Redshift serverless e anche Concedi a Firehose l'accesso a una destinazione Amazon Redshift .
- Autenticazione
-
Puoi scegliere di inserire direttamente il nome utente/password o recuperare il codice segreto per accedere AWS Secrets Manager al gruppo di lavoro Amazon Redshift Serverless.
-
Nome utente
Specificare un utente Amazon Redshift con le autorizzazioni per accedere al gruppo di lavoro Amazon Redshift Serverless. Questo utente deve disporre dell'autorizzazione
INSERT
di Amazon Redshift per copiare i dati dal bucket S3 al gruppo di lavoro Amazon Redshift serverless. Password
Specificare la password per l'utente che dispone delle autorizzazioni per accedere al gruppo di lavoro Amazon Redshift Serverless.
-
Secret
Seleziona un campo segreto AWS Secrets Manager che contenga le credenziali per il gruppo di lavoro Serverless Amazon Redshift. Se non vedi il tuo segreto nell'elenco a discesa, creane uno AWS Secrets Manager per le tue credenziali Amazon Redshift. Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.
-
- Database
-
Il database Amazon Redshift su cui vengono copiati i dati.
- Tabella
-
La tabella Amazon Redshift su cui vengono copiati i dati.
- Colonne
-
(Opzionale) Le colonne specifiche della tabella su cui vengono copiati i dati. Utilizza questa opzione se il numero di colonne definite negli oggetti Amazon S3 è inferiore al numero delle colonne nella tabella Amazon Redshift.
- Destinazione S3 intermedia
-
Amazon Data Firehose invia prima i dati al bucket S3 e poi emette un COPY comando Amazon Redshift per caricare i dati nel tuo gruppo di lavoro Serverless Amazon Redshift. Specificare un bucket S3 di proprietà dove devono essere distribuiti i dati in streaming. Crea un nuovo bucket S3 o scegline uno esistente di proprietà.
Firehose non elimina i dati dal bucket S3 dopo averli caricati nel gruppo di lavoro Amazon Redshift Serverless. Puoi gestire i dati nel bucket S3 utilizzando una configurazione del ciclo di vita. Per ulteriori informazioni, consulta Gestione del ciclo di vita degli oggetti nella Guida per l'utente di Amazon Simple Storage Service.
- Prefisso S3 intermedio
-
(Facoltativo) Per utilizzare il prefisso predefinito per gli oggetti Amazon S3, lascia vuota questa opzione. Firehose utilizza automaticamente un prefisso in formato UTC orario "
YYYY/MM/dd/HH
" per gli oggetti Amazon S3 consegnati. Puoi aggiungerlo all'inizio di questo prefisso. Per ulteriori informazioni, consulta Configurazione del formato del nome oggetto Amazon S3. - COPYopzioni
-
Parametri che puoi specificare nel comando COPY di Amazon Redshift. Questi potrebbero essere necessari per la configurazione. Ad esempio, "
GZIP
" è necessario se la compressione dei dati di Amazon S3 è abilitata. «REGION
" è obbligatorio se il bucket S3 non si trova nella stessa AWS regione del gruppo di lavoro Serverless Amazon Redshift. Per ulteriori informazioni, consulta COPY nella Guida per gli sviluppatori di database di Amazon Redshift. - Comando COPY
-
Il comando COPY di Amazon Redshift. Per ulteriori informazioni, consulta COPY nella Guida per gli sviluppatori di database di Amazon Redshift.
- Retry duration (Durata nuovi tentativi)
-
Periodo di tempo (0—7200 secondi) entro il quale Firehose riprova in caso di errore dei dati del gruppo di lavoro COPY Amazon Redshift Serverless. Firehose riprova ogni 5 minuti fino al termine del nuovo tentativo. Se si imposta la durata del nuovo tentativo su 0 (zero) secondi, Firehose non riprova in caso COPY di errore del comando.
- Suggerimenti per il buffering
-
Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.
- Compressione S3
-
Scegli tra GZIP la compressione dei dati Snappy, Zip o compatibile con Hadoop o nessuna compressione dei dati. La compressione Snappy compatibile con Snappy, Zip e Hadoop non è disponibile per gli stream Firehose con Amazon Redshift come destinazione.
- Formato di estensione di file S3 (opzionale)
Formato di estensione file S3 (opzionale): specifica un formato di estensione di file per gli oggetti consegnati al bucket di destinazione Amazon S3. Se abiliti questa funzionalità, l'estensione di file specificata sostituirà le estensioni di file predefinite aggiunte dalle funzionalità di compressione Data Format Conversion o S3 come .parquet o .gz. Assicurati di aver configurato l'estensione di file corretta quando usi questa funzionalità con Data Format Conversion o la compressione S3. L'estensione del file deve iniziare con un punto (.) e può contenere caratteri consentiti: 0-9a-z! -_.*' (). L'estensione del file non può superare i 128 caratteri.
- Crittografia S3
Firehose supporta la crittografia lato server di Amazon S3 AWS Key Management Service con SSE (KMS-) per crittografare i dati forniti in Amazon S3. Puoi scegliere di utilizzare il tipo di crittografia predefinito specificato nel bucket S3 di destinazione o di crittografare con una chiave dall'elenco di chiavi di tua proprietà. AWS KMS Se crittografi i dati con le AWS KMS chiavi, puoi utilizzare la chiave AWS gestita predefinita (aws/s3) o una chiave gestita dal cliente. Per ulteriori informazioni, consulta Protezione dei dati mediante la crittografia lato server con AWS KMS -Managed Keys (-). SSE KMS
Configurare le impostazioni di destinazione per Service OpenSearch
Questa sezione descrive le opzioni per l'utilizzo OpenSearch del Servizio per la destinazione.
-
Immetti i valori per i seguenti campi:
- OpenSearch Dominio di servizio
-
Il dominio del OpenSearch servizio a cui vengono consegnati i dati.
- Indice
-
Il nome dell'indice del OpenSearch servizio da utilizzare per l'indicizzazione dei dati nel cluster di OpenSearch servizio.
- Index rotation (Rotazione indice)
-
Scegli se e con che frequenza l'indice del OpenSearch servizio deve essere ruotato. Se la rotazione dell'indice è abilitata, Amazon Data Firehose aggiunge il timestamp corrispondente al nome dell'indice specificato e ruota. Per ulteriori informazioni, consulta Configura la rotazione dell'indice per Service OpenSearch .
- Tipo
-
Il nome del tipo di OpenSearch servizio da utilizzare per l'indicizzazione dei dati nel cluster di servizio. OpenSearch Per Elasticsearch 7.x e OpenSearch 1.x, può esserci un solo tipo per indice. Se si tenta di specificare un nuovo tipo per un indice esistente che ne ha già un altro, Firehose restituisce un errore durante il runtime.
Per Elasticsearch 7.x, lasciare vuoto questo campo.
- Retry duration (Durata nuovi tentativi)
-
Intervallo di tempo entro il quale Firehose deve riprovare se una richiesta di indice fallisce. OpenSearch Per la durata dei nuovi tentativi, è possibile impostare qualsiasi valore compreso tra 0 e 7200 secondi. La durata predefinita dei nuovi tentativi è 300 secondi. Firehose riproverà più volte con il back up esponenziale disattivato fino alla scadenza della durata del nuovo tentativo.
Una volta scaduta la durata del nuovo tentativo, Firehose invia i dati a Dead Letter Queue (DLQ), un bucket di errori S3 configurato. Per i dati consegnati aDLQ, è necessario reindirizzare i dati dal bucket di errore S3 configurato alla destinazione. OpenSearch
Se desideri impedire che lo stream di Firehose fornisca dati a DLQ causa di tempi di inattività o manutenzione dei OpenSearch cluster, puoi configurare la durata dei tentativi su un valore più alto, in secondi. È possibile aumentare il valore della durata del nuovo tentativo portandolo a 7200 secondi contattando l'assistenza.AWS
- Tipo di ID documento
-
Indica il metodo per impostare l'ID documento. I metodi supportati sono l'ID del documento generato da FireHose e l'ID del documento generato dal OpenSearch servizio. L'ID documento generato da FireHose è l'opzione predefinita quando il valore dell'ID del documento non è impostato. OpenSearch L'ID documento generato dal servizio è l'opzione consigliata perché supporta operazioni che richiedono molta scrittura, tra cui l'analisi dei log e l'osservabilità, consumando meno CPU risorse nel dominio del OpenSearch servizio e quindi migliorando le prestazioni.
- Connettività di destinazione VPC
-
Se il tuo dominio di OpenSearch servizio è privatoVPC, usa questa sezione per specificarloVPC. Specificate anche le sottoreti e i sottogruppi che desiderate che Amazon Data Firehose utilizzi quando invia dati al tuo dominio di servizio. OpenSearch Puoi utilizzare gli stessi gruppi di sicurezza utilizzati dal dominio OpenSearch Service. Se specifichi gruppi di sicurezza diversi, assicurati che consentano il HTTPS traffico in uscita verso il gruppo di sicurezza del dominio del OpenSearch servizio. Assicuratevi inoltre che il gruppo di sicurezza del dominio di OpenSearch servizio consenta il HTTPS traffico proveniente dai gruppi di sicurezza specificati durante la configurazione dello stream Firehose. Se utilizzi lo stesso gruppo di sicurezza sia per lo stream Firehose che per il dominio di OpenSearch servizio, assicurati che la regola in entrata del gruppo di sicurezza consenta il traffico. HTTPS Per ulteriori informazioni sulle regole dei gruppi di sicurezza, consulta Regole dei gruppi di sicurezza nella VPC documentazione di Amazon.
Importante
Quando specifichi delle sottoreti per la consegna dei dati alla destinazione in modalità privataVPC, assicurati di avere un numero sufficiente di indirizzi IP liberi nelle sottoreti scelte. Se non è disponibile un indirizzo IP gratuito in una sottorete specificata, Firehose non può creare o ENIs aggiungere dati per la consegna dei dati in VPC modalità privata e la consegna verrà compromessa o avrà esito negativo.
- Suggerimenti sul buffer
-
Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.
Configura le impostazioni di destinazione per Serverless OpenSearch
Questa sezione descrive le opzioni per l'utilizzo di OpenSearch Serverless per la destinazione.
-
Immetti i valori per i seguenti campi:
- OpenSearch Collezione Serverless
-
L'endpoint per un gruppo di indici OpenSearch Serverless a cui vengono distribuiti i dati.
- Indice
-
Il nome dell'indice OpenSearch Serverless da utilizzare per l'indicizzazione dei dati nella raccolta Serverless. OpenSearch
- VPCConnettività di destinazione
-
Se la tua raccolta OpenSearch Serverless è privataVPC, usa questa sezione per specificarloVPC. Specificate anche le sottoreti e i sottogruppi che desiderate che Amazon Data Firehose utilizzi quando invia dati alla tua raccolta Serverless. OpenSearch
Importante
Quando specifichi delle sottoreti per la trasmissione di dati alla destinazione in modalità privataVPC, assicurati di avere un numero sufficiente di indirizzi IP liberi nelle sottoreti scelte. Se non è disponibile un indirizzo IP gratuito in una sottorete specificata, Firehose non può creare o ENIs aggiungere dati per la consegna dei dati in VPC modalità privata e la consegna verrà compromessa o avrà esito negativo.
- Retry duration (Durata nuovi tentativi)
-
Intervallo di tempo entro il quale Firehose deve riprovare se una richiesta di indicizzazione a OpenSearch Serverless fallisce. Per la durata dei nuovi tentativi, è possibile impostare qualsiasi valore compreso tra 0 e 7200 secondi. La durata predefinita dei nuovi tentativi è 300 secondi. Firehose riproverà più volte con il back up esponenziale disattivato fino alla scadenza della durata del nuovo tentativo.
Una volta scaduta la durata del nuovo tentativo, Firehose invia i dati a Dead Letter Queue (DLQ), un bucket di errori S3 configurato. Per i dati consegnati aDLQ, è necessario reindirizzarli dal bucket di errore S3 configurato alla destinazione Serverless. OpenSearch
Se desideri impedire che lo stream Firehose fornisca dati a DLQ causa di tempi di inattività o manutenzione di cluster OpenSearch Serverless, puoi configurare la durata dei tentativi su un valore più alto in secondi. È possibile aumentare il valore della durata del nuovo tentativo fino a 7200 secondi contattando l'assistenza.AWS
- Suggerimenti sul buffer
-
Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.
Configura le impostazioni di destinazione per Endpoint HTTP
Questa sezione descrive le opzioni per l'utilizzo dell'HTTPendpoint per la destinazione.
Importante
Se scegli un HTTP endpoint come destinazione, esamina e segui le istruzioni riportate in. Comprendi le HTTP specifiche di richieste e risposte di consegna degli endpoint
-
Fornisci i valori per i seguenti campi:
- HTTPnome dell'endpoint: opzionale
-
Specificare un nome intuitivo per l'HTTPendpoint. Ad esempio
My HTTP Endpoint Destination
. - HTTPendpoint URL
-
Specificare il URL per l'HTTPendpoint nel seguente formato:.
https://xyz.httpendpoint.com
URLDeve essere un HTTPSURL. - Autenticazione
-
Puoi scegliere di inserire direttamente la chiave di accesso o recuperare il segreto da cui accedere AWS Secrets Manager all'HTTPendpoint.
(Facoltativo) Chiave di accesso
Contatta il proprietario dell'endpoint se hai bisogno di ottenere la chiave di accesso per abilitare la consegna dei dati al suo endpoint da Firehose.
-
Secret
Seleziona un campo segreto AWS Secrets Manager che contenga la chiave di accesso per l'endpoint. HTTP Se non vedi il tuo segreto nell'elenco a discesa, creane uno AWS Secrets Manager per la chiave di accesso. Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.
- Codifica del contenuto
-
Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli GZIPo Disabilita per abilitare/disabilitare la codifica del contenuto della tua richiesta.
- Retry duration (Durata nuovi tentativi)
-
Specificare per quanto tempo Amazon Data Firehose tenta di inviare nuovamente i dati all'endpoint selezionato. HTTP
Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.
Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.
- Parametri: facoltativo
-
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.
- Suggerimenti per il buffering
-
Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.
Importante
Per le destinazioni degli HTTP endpoint, se visualizzi 413 codici di risposta dall'endpoint di destinazione in CloudWatch Logs, riduci la dimensione del suggerimento di buffering sullo stream Firehose e riprova.
Configura le impostazioni di destinazione per Datadog
Questa sezione descrive le opzioni per l'utilizzo di Datadog come destinazione. Per ulteriori informazioni su Datadog, consulta amazon_web_services/. https://docs.datadoghq.com/integrations/
-
Fornisci valori per i seguenti campi.
- HTTPendpoint URL
-
Scegli dove vuoi inviare i dati da una delle seguenti opzioni nel menu a discesa.
-
Registri Datadog - US1
-
Registri Datadog - US3
-
Registri Datadog - US5
-
Registri Datadog - AP1
-
Registri Datadog - UE
-
Registri Datadog - GOV
-
Parametri Datadog - USA
-
Metriche Datadog - US5
-
Metriche Datadog - AP1
-
Parametri Datadog - UE
-
Configurazioni Datadog - US1
-
Configurazioni Datadog - US3
-
Configurazioni Datadog - US5
-
Configurazioni Datadog - AP1
-
Configurazioni Datadog - EU
-
Configurazioni Datadog - USA GOV
-
- Autenticazione
-
Puoi scegliere di inserire direttamente la API chiave o recuperare il segreto da AWS Secrets Manager cui accedere a Datadog.
APIchiave
Contatta Datadog per ottenere la API chiave necessaria per abilitare la consegna dei dati a questo endpoint da Firehose.
-
Secret
Seleziona un campo segreto AWS Secrets Manager che contenga la chiave per DatadogAPI. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.
- Codifica del contenuto
-
Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli GZIPo Disabilita per abilitare/disabilitare la codifica del contenuto della tua richiesta.
- Retry duration (Durata nuovi tentativi)
-
Specificare per quanto tempo Amazon Data Firehose tenta di inviare nuovamente i dati all'endpoint selezionato. HTTP
Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.
Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.
- Parametri: facoltativo
-
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.
- Suggerimenti per il buffering
-
Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.
Configura le impostazioni di destinazione per Honeycomb
Questa sezione descrive le opzioni per l'utilizzo di Honeycomb come destinazione. Per ulteriori informazioni su Honeycomb, https://docs.honeycom consulta b. -cloudwatch-metrics/. io/getting-data-in/metrics/aws
-
Fornisci i valori per i seguenti campi:
- Endpoint Honeycomb Kinesis
-
Specificare il URL per l'HTTPendpoint nel seguente formato: b.io/1/kinesis_events/ {{dataset}} https://api.honeycom
- Autenticazione
-
Puoi scegliere di inserire direttamente la chiave o recuperare il segreto da cui accedere a Honeycomb. API AWS Secrets Manager
APIchiave
Contatta Honeycomb per ottenere la API chiave necessaria per abilitare la consegna dei dati a questo endpoint da Firehose.
-
Secret
Seleziona un campo segreto AWS Secrets Manager che contenga la chiave per HoneycombAPI. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.
- Codifica del contenuto
-
Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli GZIPdi abilitare la codifica del contenuto della tua richiesta. Questa è l'opzione consigliata per la destinazione Honeycomb.
- Retry duration (Durata nuovi tentativi)
-
Specificare per quanto tempo Amazon Data Firehose tenta di inviare nuovamente i dati all'endpoint selezionato. HTTP
Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.
Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.
- Parametri: facoltativo
-
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.
- Suggerimenti per il buffering
-
Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.
Configura le impostazioni di destinazione per Coralogix
Questa sezione descrive le opzioni per l'utilizzo di Coralogix come destinazione. Per ulteriori informazioni su Coralogix, consulta Guida introduttiva a Coralogix.
-
Fornisci i valori per i seguenti campi:
- HTTPendpoint URL
-
Scegli l'HTTPendpoint URL tra le seguenti opzioni nel menu a discesa:
-
Coralogix - STATI UNITI
-
Coralogix - SINGAPORE
-
Coralogix - IRELAND
-
Coralogix - INDIA
-
Coralogix - STOCKHOLM
-
- Autenticazione
-
Puoi scegliere di inserire direttamente la chiave privata o recuperare il codice segreto per accedere a Coralogix. AWS Secrets Manager
Chiave privata
Contatta Coralogix per ottenere la chiave privata necessaria per abilitare la consegna dei dati a questo endpoint da Firehose.
-
Secret
Seleziona una cartella segreta AWS Secrets Manager che contenga la chiave privata per Coralogix. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.
- Codifica del contenuto
-
Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli GZIPdi abilitare la codifica del contenuto della tua richiesta. Questa è l'opzione consigliata per la destinazione Coralogix.
- Retry duration (Durata nuovi tentativi)
-
Specificare per quanto tempo Amazon Data Firehose tenta di inviare nuovamente i dati all'endpoint selezionato. HTTP
Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.
Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.
- Parametri: facoltativo
-
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.
-
applicationName: l'ambiente in cui si esegue Data Firehose
-
subsystemName: il nome dell'integrazione Data Firehose
-
computerName: il nome dello stream Firehose in uso
-
- Suggerimenti per il buffering
-
Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia in base al fornitore di servizi.
Configura le impostazioni di destinazione per Dynatrace
Questa sezione descrive le opzioni per l'utilizzo di Dynatrace come destinazione. Per ulteriori informazioni, consulta https://www.dynatrace.com/support/ help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch -metric-streams/.
-
Scegli le opzioni per utilizzare Dynatrace come destinazione per il tuo stream Firehose.
- Tipo di ingestione
-
Scegliete se desiderate fornire metriche o log (impostazione predefinita) in Dynatrace per ulteriori analisi ed elaborazioni.
- HTTPendpoint URL
-
Scegli l'HTTPendpoint URL (Dynatrace US, Dynatrace EU o Dynatrace Global) dal menu a discesa.
- Autenticazione
-
Puoi scegliere di inserire direttamente il API token o recuperare il codice segreto per accedere a Dynatrace. AWS Secrets Manager
Token API
Genera il API token Dynatrace necessario per abilitare la consegna dei dati a questo endpoint da Firehose. Per ulteriori informazioni, consulta Dynatrace API
- Tokens and authentication. -
Secret
Seleziona un campo segreto AWS Secrets Manager che contenga il API token per Dynatrace. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.
- API URL
-
Fornisci il API URL tuo ambiente Dynatrace.
- Codifica del contenuto
-
Scegli se abilitare la codifica del contenuto per comprimere il corpo della richiesta. Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Se abilitata, il contenuto viene compresso nel formato. GZIP
- Retry duration (Durata nuovi tentativi)
-
Specificate per quanto tempo Firehose riprova a inviare dati all'endpoint selezionato. HTTP
Dopo aver inviato i dati, Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout della conferma, Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Dopodiché, Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.
Ogni volta che Firehose invia dati all'HTTPendpoint, durante il tentativo iniziale o dopo un nuovo tentativo, riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP
Anche se la durata del nuovo tentativo scade, Firehose attende comunque la conferma fino a quando non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.
Se non desiderate che Firehose tenti di inviare nuovamente i dati, impostate questo valore su 0.
- Parametri: facoltativo
-
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.
- Suggerimenti per il buffering
-
Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. I suggerimenti sul buffer includono la dimensione e l'intervallo del buffer per i tuoi stream. La dimensione del buffer consigliata per la destinazione varia in base al fornitore di servizi.
Configura le impostazioni di destinazione per LogicMonitor
Questa sezione descrive le opzioni per l'utilizzo di LogicMonitor come destinazione. Per ulteriori informazioni, consulta https://www.logicmonitor.com
-
Fornisci i valori per i seguenti campi:
- HTTPendpoint URL
-
Specificare il URL per l'HTTPendpoint nel seguente formato.
https://ACCOUNT.logicmonitor.com
- Autenticazione
-
Puoi scegliere di inserire direttamente la API chiave o recuperare il segreto da cui AWS Secrets Manager accedere. LogicMonitor
APIchiave
Contattateci LogicMonitor per ottenere la API chiave necessaria per abilitare la consegna dei dati a questo endpoint da Firehose.
-
Secret
Seleziona un campo segreto AWS Secrets Manager che contenga la API chiave per. LogicMonitor Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.
- Codifica del contenuto
-
Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli GZIPo Disabilita per abilitare/disabilitare la codifica del contenuto della tua richiesta.
- Retry duration (Durata nuovi tentativi)
-
Specificare per quanto tempo Amazon Data Firehose tenta di inviare nuovamente i dati all'endpoint selezionato. HTTP
Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.
Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.
- Parametri: facoltativo
-
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.
- Suggerimenti per il buffering
-
Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.
Configura le impostazioni di destinazione per Logz.io
Questa sezione descrive le opzioni per l'utilizzo di Logz.io come destinazione. Per ulteriori informazioni, vedere https://logz.io/.
Nota
Nella regione Europa (Milano), Logz.io non è supportato come destinazione Amazon Data Firehose.
-
Fornisci i valori per i seguenti campi:
- HTTPendpoint URL
-
Specificare il URL per l'HTTPendpoint nel seguente formato. URLDeve essere un
HTTPS
URL.https://listener-aws-metrics-stream-<region>.logz.io/
Ad esempio
https://listener-aws-metrics-stream-us.logz.io/
- Autenticazione
-
Puoi scegliere di inserire direttamente il token di spedizione o recuperare il codice segreto AWS Secrets Manager per accedere a Logz.io.
-
Token di spedizione
Contatta Logz.io per ottenere il token di spedizione necessario per abilitare la consegna dei dati a questo endpoint da Firehose.
-
Secret
Seleziona un codice segreto AWS Secrets Manager che contenga il token di spedizione per Logz.io. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.
-
- Retry duration (Durata nuovi tentativi)
-
Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati a Logz.io.
Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.
Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.
- Parametri: facoltativo
-
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.
- Suggerimenti per il buffering
-
Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.
Configurare le impostazioni di destinazione per MongoDB Cloud
Questa sezione descrive le opzioni per l'utilizzo di MongoDB Cloud come destinazione. Per ulteriori informazioni, consulta https://www.mongodb.com
-
Fornisci i valori per i seguenti campi:
- Webhook MongoDB Realm URL
-
Specificare il URL per l'HTTPendpoint nel seguente formato.
https://webhooks.mongodb-realm.com
URLDeve essere un
HTTPS
URL. - Autenticazione
-
Puoi scegliere di inserire direttamente la API chiave o recuperare il codice segreto AWS Secrets Manager per accedere a MongoDB Cloud.
APIchiave
Contatta MongoDB Cloud per ottenere API la chiave necessaria per abilitare la consegna dei dati a questo endpoint da Firehose.
-
Secret
Seleziona un segreto AWS Secrets Manager che contenga la API chiave per MongoDB Cloud. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.
- Codifica del contenuto
-
Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli GZIPo Disabilita per abilitare/disabilitare la codifica del contenuto della tua richiesta.
- Retry duration (Durata nuovi tentativi)
-
Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati al provider terzo selezionato.
Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.
Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.
- Suggerimenti per il buffering
-
Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.
- Parametri: facoltativo
-
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.
Configura le impostazioni di destinazione per New Relic
Questa sezione descrive le opzioni per l'utilizzo di New Relic come destinazione. Per ulteriori informazioni, consulta https://newrelic.com
-
Fornisci i valori per i seguenti campi:
- HTTPendpoint URL
-
Scegli l'HTTPendpoint URL tra le seguenti opzioni nell'elenco a discesa.
-
Log di New Relic - USA
-
Parametri di New Relic - USA
-
Parametri di New Relic - UE
-
- Autenticazione
-
Puoi scegliere di inserire direttamente la API chiave o recuperare il segreto da cui accedere AWS Secrets Manager a New Relic.
APIchiave
Inserisci la tua chiave di licenza, che è una stringa esadecimale di 40 caratteri, dalle impostazioni del tuo account New Relic One. È necessaria questa API chiave per abilitare la consegna dei dati a questo endpoint da Firehose.
-
Secret
Seleziona un campo segreto AWS Secrets Manager che contenga la API chiave per New Relic. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.
- Codifica del contenuto
-
Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli GZIPo Disabilita per abilitare/disabilitare la codifica del contenuto della tua richiesta.
- Retry duration (Durata nuovi tentativi)
-
Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati all'endpoint New Relic. HTTP
Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.
Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.
- Parametri: facoltativo
-
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.
- Suggerimenti per il buffering
-
Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.
Configura le impostazioni di destinazione per Snowflake
Questa sezione descrive le opzioni per l'utilizzo di Snowflake per la destinazione.
Nota
L'integrazione di Firehose con Snowflake è disponibile negli Stati Uniti orientali (Virginia settentrionale), Stati Uniti occidentali (Oregon), Europa (Irlanda), Stati Uniti orientali (Ohio), Asia Pacifico (Tokyo), Europa (Francoforte), Asia Pacifico (Singapore), Asia Pacifico (Seoul) e Asia Pacifico (Sydney), Asia Pacifico (Mumbai), Europa (Londra), Sud America (San Paolo), Canada (Centrale), Europa (Parigi), Asia Pacifico (Osaka), Europa (Stoccolma), Asia Pacifico (Giacarta). Regioni AWS
Impostazioni di connessione
-
Fornisci i valori per i seguenti campi:
- Account Snowflake URL
-
Specificare un account Snowflake. URL Ad esempio:
xy12345.us-east-1.aws.snowflakecomputing.com
. Consulta la documentazione di Snowflakesu come determinare il tuo account. URL Nota che non devi specificare il numero di porta, mentre il protocollo (https://) è facoltativo. - Autenticazione
-
Puoi scegliere di inserire manualmente userlogin, chiave privata e passphrase oppure recuperare il codice segreto per accedere a Snowflake. AWS Secrets Manager
-
Login utente
Specificare l'utente Snowflake da utilizzare per il caricamento dei dati. Assicurati che l'utente abbia accesso per inserire dati nella tabella Snowflake.
-
Chiave privata
Specificate la chiave privata per l'autenticazione con Snowflake nel formato.
PKCS8
Inoltre, non includete l'PEMintestazione e il piè di pagina come parte della chiave privata. Se la chiave è suddivisa su più righe, rimuovi le interruzioni di riga. Di seguito è riportato un esempio di come deve essere la tua chiave privata.-----BEGIN PRIVATE KEY----- KEY_CONTENT -----END PRIVATE KEY-----
Rimuovi lo spazio
KEY_CONTENT
e forniscilo a Firehose. Non sono richiesti caratteri di intestazione/piè di pagina o di nuova riga. Passphrase
Specificare la passphrase per decrittografare la chiave privata crittografata. È possibile lasciare vuoto questo campo se la chiave privata non è crittografata. Per informazioni, consulta Utilizzo dell'autenticazione a coppie di chiavi e della rotazione delle chiavi
. -
Secret
Seleziona una cartella segreta AWS Secrets Manager che contenga le credenziali per Snowflake. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.
-
- Configurazione dei ruoli
-
Usa il ruolo Snowflake predefinito: se questa opzione è selezionata, Firehose non passerà alcun ruolo a Snowflake. Per il caricamento dei dati si presuppone il ruolo predefinito. Assicurati che il ruolo predefinito sia autorizzato a inserire dati nella tabella Snowflake.
Usa il ruolo Snowflake personalizzato: inserisci un ruolo Snowflake non predefinito che Firehose deve assumere durante il caricamento dei dati nella tabella Snowflake.
- Connettività Snowflake
-
Le opzioni sono private o pubbliche.
- VPCEID privato (opzionale)
-
L'VPCEID per la connessione privata di Firehose con Snowflake. Il formato ID è com.amazonaws.vpce. [regione] .vpce-svc-
[id]
. Per ulteriori informazioni, vedere & Snowflake.AWS PrivateLinkNota
Se il tuo cluster Snowflake è abilitato al collegamento privato, utilizza una policy di rete
AwsVpceIds
basata su una politica di rete per consentire i dati di Amazon Data Firehose. Firehose non richiede la configurazione di una politica di rete basata su IP nel tuo account Snowflake. L'attivazione di una policy di rete basata su IP potrebbe interferire con la connettività Firehose. Se hai un caso limite che richiede una policy basata su IP, contatta il team di Firehose inviando un ticket di supporto.Per un elenco di quelli VPCE IDs che puoi usare, consulta. Accesso a Snowflake in VPC
Configurazione del database
-
È necessario specificare le seguenti impostazioni per utilizzare Snowflake come destinazione per lo stream Firehose.
-
Database Snowflake: tutti i dati in Snowflake vengono conservati nei database.
-
Schema Snowflake: ogni database è costituito da uno o più schemi, che sono raggruppamenti logici di oggetti del database, come tabelle e viste
-
Tabella Snowflake: tutti i dati in Snowflake sono archiviati in tabelle di database, strutturate logicamente come raccolte di colonne e righe.
-
Opzioni di caricamento dei dati per la tabella Snowflake
-
Usa JSON le chiavi come nomi di colonna
Usa VARIANT le colonne
Nome della colonna di contenuto: specifica il nome di una colonna nella tabella, in cui devono essere caricati i dati grezzi.
Nome della colonna di metadati (opzionale): specifica un nome di colonna nella tabella, in cui devono essere caricate le informazioni sui metadati. Quando abiliti questo campo, vedrai la colonna seguente nella tabella Snowflake in base al tipo di fonte.
Per Direct PUT come fonte
{ "firehoseDeliveryStreamName" : "
streamname
", "IngestionTime" : "timestamp
" }Per Kinesis Data Stream come sorgente
{ "kinesisStreamName" : "
streamname
", "kinesisShardId" : "Id
", "kinesisPartitionKey" : "key
", "kinesisSequenceNumber" : "1234
", "subsequenceNumber" : "2334
", "IngestionTime" : "timestamp
" }
Retry duration (Durata nuovi tentativi)
Intervallo di tempo (0—7200 secondi) entro cui Firehose riprova se l'apertura del canale o la consegna a Snowflake falliscono a causa di problemi del servizio Snowflake. Firehose riprova con un backoff esponenziale fino al termine della durata del nuovo tentativo. Se si imposta la durata del nuovo tentativo su 0 (zero) secondi, Firehose non riprova in caso di errori Snowflake e indirizza i dati al bucket di errore di Amazon S3.
Suggerimenti sul buffer
Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro. Per ulteriori informazioni, consulta Configura i suggerimenti per il buffering.
Configura le impostazioni di destinazione per Splunk
Questa sezione descrive le opzioni per l'utilizzo di Splunk come destinazione.
Nota
Firehose fornisce dati ai cluster Splunk configurati con Classic Load Balancer o Application Load Balancer.
-
Fornisci i valori per i seguenti campi:
- Splunk cluster endpoint (Endpoint del cluster Splunk)
-
Per determinare l'endpoint, consulta Configurare Amazon Data Firehose per inviare dati alla piattaforma Splunk nella documentazione Splunk
. - Splunk endpoint type (Tipo endpoint Splunk)
-
Selezionare
Raw endpoint
nella maggior parte dei casi, ScegliEvent endpoint
se hai preelaborato i dati utilizzando AWS Lambda per inviare dati a diversi indici in base al tipo di evento. Per informazioni sull'endpoint da utilizzare, consulta Configurare Amazon Data Firehose per inviare dati alla piattaforma Splunk nella documentazione di Splunk. - Autenticazione
-
Puoi scegliere di inserire direttamente il token di autenticazione o recuperare il segreto da cui accedere a Splunk. AWS Secrets Manager
Authentication token (Token di autenticazione)
Per configurare un endpoint Splunk in grado di ricevere dati da Amazon Data Firehose, consulta Panoramica sull'installazione e la configurazione del componente aggiuntivo Splunk per Amazon Data Firehose
nella documentazione di Splunk. Salva il token che ottieni da Splunk quando configuri l'endpoint per questo stream Firehose e aggiungilo qui. -
Secret
Seleziona un codice segreto AWS Secrets Manager che contenga il token di autenticazione per Splunk. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.
- HECtimeout di riconoscimento
-
Specificate per quanto tempo Amazon Data Firehose attende la conferma dell'indice da parte di Splunk. Se Splunk non invia la conferma prima del raggiungimento del timeout, Amazon Data Firehose lo considera un errore di consegna dei dati. Amazon Data Firehose riprova quindi o esegue il backup dei dati nel bucket Amazon S3, a seconda del valore della durata del nuovo tentativo impostato.
- Retry duration (Durata nuovi tentativi)
-
Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati a Splunk.
Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma da parte di Splunk. Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.
Ogni volta che Amazon Data Firehose invia dati a Splunk (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma da parte di Splunk.
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.
- Suggerimenti per il buffering
-
Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia in base al fornitore di servizi.
Configura le impostazioni di destinazione per Splunk Observability Cloud
Questa sezione descrive le opzioni per l'utilizzo di Splunk Observability Cloud come destinazione. Per ulteriori informazioni, consulta https://docs.splunk.com/observability/en/gdi/get-data-in/connect/aws/aws-apiconfig.html# - -api connect-to-aws-using
-
Fornisci i valori per i seguenti campi:
- Cloud Ingest Endpoint URL
-
Puoi trovare Real-time Data Ingest di Splunk Observability Cloud in Profile > Organizations > Real-time Data Ingest Endpoint URL nella console Splunk Observability.
- Autenticazione
-
Puoi scegliere di inserire direttamente il token di accesso o recuperare il codice segreto per accedere a Splunk Observability Cloud. AWS Secrets Manager
Token di accesso
Copia il token di accesso Splunk Observability con ambito di INGEST autorizzazione da Access Tokens in Impostazioni nella console Splunk Observability.
-
Secret
Seleziona un codice segreto AWS Secrets Manager che contenga il token di accesso per Splunk Observability Cloud. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.
- Codifica del contenuto
-
Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli GZIPo Disabilita per abilitare/disabilitare la codifica del contenuto della tua richiesta.
- Retry duration (Durata nuovi tentativi)
-
Specificare per quanto tempo Amazon Data Firehose tenta di inviare nuovamente i dati all'endpoint selezionato. HTTP
Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.
Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.
- Parametri: facoltativo
-
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.
- Suggerimenti per il buffering
-
Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione varia da un fornitore di servizi all'altro.
Configura le impostazioni di destinazione per Sumo Logic
Questa sezione descrive le opzioni per l'utilizzo di Sumo Logic come destinazione. Per ulteriori informazioni, consulta https://www.sumologic.com
-
Fornisci i valori per i seguenti campi:
- HTTPendpoint URL
-
Specificare il URL per l'HTTPendpoint nel seguente formato:.
https://deployment name.sumologic.net/receiver/v1/kinesis/dataType/access token
URLDeve essere un HTTPSURL. - Codifica del contenuto
-
Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli GZIPo Disabilita per abilitare/disabilitare la codifica del contenuto della tua richiesta.
- Retry duration (Durata nuovi tentativi)
-
Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati a Sumo Logic.
Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.
Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.
- Parametri: facoltativo
-
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.
- Suggerimenti per il buffering
-
Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione Elastic varia da un fornitore di servizi all'altro.
Configura le impostazioni di destinazione per Elastic
Questa sezione descrive le opzioni per l'utilizzo di Elastic come destinazione.
-
Fornisci i valori per i seguenti campi:
- Endpoint elastico URL
-
Specificare il URL per l'HTTPendpoint nel seguente formato:.
https://<cluster-id>.es.<region>.aws.elastic-cloud.com
URLDeve essere un HTTPSURL. - Autenticazione
-
Puoi scegliere di inserire direttamente la API chiave o recuperare il segreto da cui accedere AWS Secrets Manager a Elastic.
APIchiave
Contatta Elastic per ottenere da Firehose la API chiave necessaria per abilitare la consegna dei dati al suo servizio.
-
Secret
Seleziona un campo segreto AWS Secrets Manager che contenga la API chiave per Elastic. Se non vedi il tuo segreto nell'elenco a discesa, creane uno in. AWS Secrets Manager Per ulteriori informazioni, consulta Effettua l'autenticazione con AWS Secrets Manager Amazon Data Firehose.
- Codifica del contenuto
-
Amazon Data Firehose utilizza la codifica del contenuto per comprimere il corpo di una richiesta prima di inviarla alla destinazione. Scegli GZIP(che è l'opzione selezionata per impostazione predefinita) o Disabilitato per abilitare/disabilitare la codifica del contenuto della richiesta.
- Retry duration (Durata nuovi tentativi)
-
Specificare per quanto tempo Amazon Data Firehose riprova a inviare dati a Elastic.
Dopo aver inviato i dati, Amazon Data Firehose attende innanzitutto una conferma dall'endpoint. HTTP Se si verifica un errore o la conferma non arriva entro il periodo di timeout del riconoscimento, Amazon Data Firehose avvia il contatore della durata dei nuovi tentativi. Continua a riprovare fino alla scadenza della durata dei nuovi tentativi. Successivamente, Amazon Data Firehose lo considera un errore di consegna dei dati ed esegue il backup dei dati nel bucket Amazon S3.
Ogni volta che Amazon Data Firehose invia dati all'HTTPendpoint (il tentativo iniziale o un nuovo tentativo), riavvia il contatore del timeout di riconoscimento e attende una conferma dall'endpoint. HTTP
Anche se la durata del nuovo tentativo scade, Amazon Data Firehose attende comunque la conferma finché non la riceve o non viene raggiunto il periodo di timeout per la conferma. Se la conferma scade, Amazon Data Firehose determina se è rimasto del tempo nel contatore dei tentativi. Se rimane del tempo, riprova ancora e ripete la logica fino a quando non riceve un riconoscimento o stabilisce che il tempo dei nuovi tentativi è scaduto.
Se non desideri che Amazon Data Firehose tenti di inviare nuovamente i dati, imposta questo valore su 0.
- Parametri: facoltativo
-
Amazon Data Firehose include queste coppie chiave-valore in ogni chiamata. HTTP Questi parametri consentono di identificare e organizzare le destinazioni.
- Suggerimenti per il buffering
-
Amazon Data Firehose memorizza i dati in entrata prima di consegnarli alla destinazione specificata. La dimensione del buffer consigliata per la destinazione Elastic è di 1 MiB.