|
この文書は自動機械翻訳技術を使用して翻訳されています。 正確な翻訳を提供するように努めておりますが、翻訳された内容の完全性、正確性、信頼性については一切保証いたしません。 相違がある場合は、元の英語版 英語 が優先され、正式なテキストとなります。 |
ストレージを設定します
ストレージのデフォルト
SUSE Observabilityは、デフォルトでPVC(永続ボリュームクレーム)に特定のストレージクラスを指定しません。EKSやAKSのようなクラウドプロバイダーでは、デフォルトのストレージクラスが使用されます。
これらのストレージクラスのデフォルトは、PVCが削除されるとPV(永続ボリューム)も削除されることが一般的です。ただし、`helm delete`を実行してStackStateリリースを削除しても、PVCはネームスペース内に残り、同じリリース名で同じネームスペースで`helm install`が実行されると再利用されます。
PVCを削除するには、`kubectl delete pvc`を使用して手動で削除するか、ネームスペース全体を削除します。
|
SUSE Observabilityは、基盤となるストレージがフラッシュメモリ(SSD)または同等の性能であることを要求します。 |
|
本番環境では、データの破損のリスクがあるため、NFSはSUSE Observabilityのストレージプロビジョニングには推奨されておらず、サポートされていません。 |
|
疑問がある場合は、パフォーマンススクリプトを実行し、それを参照パフォーマンスと比較することができます。 |
ストレージをカスタマイズします
Helmチャートの異なるボリュームに対して`storageClass`と`size`の設定をカスタマイズできます。これらの例値ファイルは、ストレージクラスやボリュームサイズを変更する方法を示しています。これらは、同時に両方を変更するためにマージできます。 `size`については、インストールプロセス中に選択されたサイズプロファイルに応じて、`HA`と`NonHa`の両方のサンプルを提供します。
-
ストレージクラスを変更します
-
HAのためのボリュームサイズを変更します
-
Non-HAのボリュームサイズを変更します
global:
# The storage class for all of the persistent volumes
storageClass: "standard"
clickhouse:
persistence:
# Size of persistent volume for each clickhouse pod
size: 50Gi
elasticsearch:
volumeClaimTemplate:
resources:
requests:
# size of volume for each Elasticsearch pod
storage: 250Gi
hbase:
hdfs:
datanode:
persistence:
# size of volume for HDFS data nodes
size: 250Gi
namenode:
persistence:
# size of volume for HDFS name nodes
size: 20Gi
kafka:
persistence:
# size of persistent volume for each Kafka pod
size: 100Gi
zookeeper:
persistence:
# size of persistent volume for each Zookeeper pod
size: 8Gi
victoria-metrics-0:
server:
persistentVolume:
size: 250Gi
victoria-metrics-1:
server:
persistentVolume:
size: 250Gi
stackstate:
components:
checks:
tmpToPVC:
volumeSize: 2Gi
healthSync:
tmpToPVC:
volumeSize: 2Gi
state:
tmpToPVC:
volumeSize: 2Gi
sync:
tmpToPVC:
volumeSize: 2Gi
vmagent:
persistence:
size: 10Gi
features:
storeTransactionLogsToPVC:
volumeSize: 600Mi
stackpacks:
pvc:
size: 1Gi
backup:
configuration:
scheduled:
pvc:
size: 1Gi
minio:
persistence:
size: 500Gi
clickhouse:
persistence:
# Size of persistent volume for each clickhouse pod
size: 50Gi
elasticsearch:
volumeClaimTemplate:
resources:
requests:
# size of volume for each Elasticsearch pod
storage: 250Gi
hbase:
stackgraph:
persistence:
# Size of persistent volume for the single stackgraph hbase pod
size: 100Gi
kafka:
persistence:
# size of persistent volume for each Kafka pod
size: 100Gi
zookeeper:
persistence:
# size of persistent volume for each Zookeeper pod
size: 8Gi
victoria-metrics-0:
server:
persistentVolume:
size: 50Gi
stackstate:
components:
checks:
tmpToPVC:
volumeSize: 2Gi
healthSync:
tmpToPVC:
volumeSize: 2Gi
state:
tmpToPVC:
volumeSize: 2Gi
sync:
tmpToPVC:
volumeSize: 2Gi
vmagent:
persistence:
size: 10Gi
features:
storeTransactionLogsToPVC:
volumeSize: 600Mi
stackpacks:
localpvc:
size: 1Gi
pvc:
size: 1Gi
backup:
configuration:
scheduled:
pvc:
size: 1Gi
minio:
persistence:
size: 500Gi
|
Non-HAの例は、100ノードを観察し、2週間データを保持することを目的とした最大のNon-HAインスタンスに属します。 |