|
Este documento foi traduzido usando tecnologia de tradução automática de máquina. Sempre trabalhamos para apresentar traduções precisas, mas não oferecemos nenhuma garantia em relação à integridade, precisão ou confiabilidade do conteúdo traduzido. Em caso de qualquer discrepância, a versão original em inglês prevalecerá e constituirá o texto official. |
Configure o armazenamento
Padrões de armazenamento
O SUSE Observability não especifica uma classe de armazenamento específica em seus PVCs (reivindicações de volume persistente) por padrão; para provedores de nuvem como EKS e AKS, isso significa que a classe de armazenamento padrão será utilizada.
Os padrões para essas classes de armazenamento geralmente são para excluir o PV (volume persistente) quando o PVC é excluído. No entanto, mesmo ao executar helm delete para remover um release do StackState, os PVCs permanecerão no namespace e serão reutilizados se um helm install for executado no mesmo namespace com o mesmo nome de release.
Para remover os PVCs, você pode removê-los manualmente com kubectl delete pvc ou excluir todo o namespace.
|
O SUSE Observability requer que o armazenamento subjacente seja baseado em memória flash (SSD) ou similar em desempenho. |
|
Para ambientes de produção, o NFS não é recomendado e não é suportado para provisionamento de armazenamento no SUSE Observability devido ao risco potencial de corrupção de dados. |
|
Quando em dúvida, é possível executar o script de desempenho e compará-lo com o desempenho de referência. |
Personalizar o armazenamento
Você pode personalizar as configurações de storageClass e size para diferentes volumes no Helm chart. Esses arquivos de valores de exemplo mostram como alterar a classe de armazenamento ou o tamanho do volume. Esses podem ser mesclados para alterar ambos ao mesmo tempo.
Para o size, fornecemos o exemplo para HA e NonHa, dependendo do perfil de dimensionamento escolhido durante o processo de instalação.
-
Alterando a classe de armazenamento
-
Alterando o tamanho do volume para HA
-
Alterando o tamanho do volume para Non-HA
global:
# The storage class for all of the persistent volumes
storageClass: "standard"
clickhouse:
persistence:
# Size of persistent volume for each clickhouse pod
size: 50Gi
elasticsearch:
volumeClaimTemplate:
resources:
requests:
# size of volume for each Elasticsearch pod
storage: 250Gi
hbase:
hdfs:
datanode:
persistence:
# size of volume for HDFS data nodes
size: 250Gi
namenode:
persistence:
# size of volume for HDFS name nodes
size: 20Gi
kafka:
persistence:
# size of persistent volume for each Kafka pod
size: 100Gi
zookeeper:
persistence:
# size of persistent volume for each Zookeeper pod
size: 8Gi
victoria-metrics-0:
server:
persistentVolume:
size: 250Gi
victoria-metrics-1:
server:
persistentVolume:
size: 250Gi
stackstate:
components:
checks:
tmpToPVC:
volumeSize: 2Gi
healthSync:
tmpToPVC:
volumeSize: 2Gi
state:
tmpToPVC:
volumeSize: 2Gi
sync:
tmpToPVC:
volumeSize: 2Gi
vmagent:
persistence:
size: 10Gi
features:
storeTransactionLogsToPVC:
volumeSize: 600Mi
stackpacks:
pvc:
size: 1Gi
backup:
configuration:
scheduled:
pvc:
size: 1Gi
minio:
persistence:
size: 500Gi
clickhouse:
persistence:
# Size of persistent volume for each clickhouse pod
size: 50Gi
elasticsearch:
volumeClaimTemplate:
resources:
requests:
# size of volume for each Elasticsearch pod
storage: 250Gi
hbase:
stackgraph:
persistence:
# Size of persistent volume for the single stackgraph hbase pod
size: 100Gi
kafka:
persistence:
# size of persistent volume for each Kafka pod
size: 100Gi
zookeeper:
persistence:
# size of persistent volume for each Zookeeper pod
size: 8Gi
victoria-metrics-0:
server:
persistentVolume:
size: 50Gi
stackstate:
components:
checks:
tmpToPVC:
volumeSize: 2Gi
healthSync:
tmpToPVC:
volumeSize: 2Gi
state:
tmpToPVC:
volumeSize: 2Gi
sync:
tmpToPVC:
volumeSize: 2Gi
vmagent:
persistence:
size: 10Gi
features:
storeTransactionLogsToPVC:
volumeSize: 600Mi
stackpacks:
localpvc:
size: 1Gi
pvc:
size: 1Gi
backup:
configuration:
scheduled:
pvc:
size: 1Gi
minio:
persistence:
size: 500Gi
|
O exemplo Non-HA pertence à maior instância Non-HA destinada a observar 100 nós e reter dados por 2 semanas. |