Condividi tramite


Applicazione client ospitata da Kubernetes con Azure Managed Redis (anteprima)

Connessioni client da più pod

Quando si hanno più pod che si connettono a un server Redis, assicurarsi che le nuove connessioni dai pod vengano create in modo sfalsato. Se più pod iniziano in breve tempo senza sfalsare, causa un picco improvviso nel numero di connessioni client create. Il numero elevato di connessioni comporta un carico elevato nel server Redis e può causare timeout.

Evitare lo stesso scenario quando si arrestano più pod contemporaneamente. Il mancato sfalsare l'arresto potrebbe causare un calo ripido del numero di connessioni che causano una pressione della CPU.

Risorse di pod sufficienti

Assicurarsi che al pod che esegue l'applicazione client vengano fornite risorse di CPU e memoria sufficienti. Se l'applicazione client è in esecuzione vicino ai limiti di risorse, può comportare timeout.

Risorse del nodo sufficienti

Un pod che esegue l'applicazione client può essere interessato da altri pod in esecuzione nello stesso nodo e limitare le connessioni Redis o le operazioni di I/O. Assicurarsi quindi sempre che il nodo in cui vengono eseguiti i pod dell'applicazione client disponga di memoria, CPU e larghezza di banda di rete sufficienti. L'esecuzione insufficiente su una di queste risorse potrebbe causare problemi di connettività.

Applicazioni client ospitate in Linux e impostazioni TCP

Se l'applicazione client Redis gestita di Azure (anteprima) viene eseguita in un contenitore basato su Linux, è consigliabile aggiornare alcune impostazioni TCP. Queste impostazioni sono descritte in dettaglio nelle impostazioni TCP per le applicazioni client ospitate in Linux.