OpenShift-on-Wavestack: Unterschied zwischen den Versionen
Bhaug (Diskussion | Beiträge) Keine Bearbeitungszusammenfassung |
Bhaug (Diskussion | Beiträge) Keine Bearbeitungszusammenfassung |
||
Zeile 1: | Zeile 1: | ||
== Kosten == | == Kosten == | ||
* 3 master - min. SCS-4V-16-100s | * Infrastruktur | ||
* 2 worker - min. SCS-4V-16-100/s | ** 3 master - min. SCS-4V-16-100s | ||
* 1 Jumphost - min. SCS-1V-16-50 | ** 2 worker - min. SCS-4V-16-100/s, siehe | ||
** 1 Jumphost - min. SCS-1V-16-50 | |||
** S3 Bucket für Imageregistry, belegter Platz wird abgerechnet FIXME: Standardgröße ermitteln | |||
** Reservierter Platz in Dateisystemen FIXME: Klären ob reserviert oder benutzt und Standardgröße ermitteln | |||
* 1 Openshift Lizenz pro Cluster | * Lizenzen | ||
* 1 Openshift Lizenz pro 4 Worker CPU Kerne | ** 1 Openshift Lizenz pro Cluster | ||
** 1 Openshift Lizenz pro 4 Worker CPU Kerne | |||
* Netzwerktraffic | * Netzwerktraffic | ||
Zeile 16: | Zeile 18: | ||
* falls öffentlich erreichbar, 3 öffentliche IPs | * falls öffentlich erreichbar, 3 öffentliche IPs | ||
* andernfalls VPN und Proxy nach Wavestack Standardproduktkatalog | ** andernfalls VPN und Proxy nach Wavestack Standardproduktkatalog | ||
* noris Arbeitsleistung | * noris Arbeitsleistung | ||
Zeile 30: | Zeile 32: | ||
S3 ist über die jeweiligen Brandabschnitte der Geolokation (z.b. MUC) synchronisiert und gebackuped (FIXME: Wavecon Dokumentation verlinken) | S3 ist über die jeweiligen Brandabschnitte der Geolokation (z.b. MUC) synchronisiert und gebackuped (FIXME: Wavecon Dokumentation verlinken) | ||
Master nodes halten ihr lokales Dateisystem auf lokalen NVME-SSDs ("ephemereal") des Hypervisors. Damit sind diese deutlich schneller, aber dafür flüchtig, das heißt sie können bei einem Update/Defekt des Hypervisors verloren gehen. OpenShift/etcd kümmert sich in diesem Fall um den Rebuild seiner Daten. | |||
Workernodes können |
Version vom 13. Februar 2024, 14:12 Uhr
Kosten
- Infrastruktur
- 3 master - min. SCS-4V-16-100s
- 2 worker - min. SCS-4V-16-100/s, siehe
- 1 Jumphost - min. SCS-1V-16-50
- S3 Bucket für Imageregistry, belegter Platz wird abgerechnet FIXME: Standardgröße ermitteln
- Reservierter Platz in Dateisystemen FIXME: Klären ob reserviert oder benutzt und Standardgröße ermitteln
- Lizenzen
- 1 Openshift Lizenz pro Cluster
- 1 Openshift Lizenz pro 4 Worker CPU Kerne
- Netzwerktraffic
- Installation und Updates von Openshift
- Download von Containerimages von externen Registries
- Nutztraffic
- falls öffentlich erreichbar, 3 öffentliche IPs
- andernfalls VPN und Proxy nach Wavestack Standardproduktkatalog
- noris Arbeitsleistung
Storage
In Wavestack werden S3 Objektspeicher und Cinder RWO (Read-Write-Once) Dateisysteme angeboten.
noris empfiehlt die Benutzung von S3 Objektspeicher in Containern für alle unterstützten Anwendungen.
RWX (Read-Write-Many) Dateisysteme werden nicht angeboten. Wir empfehlen, Anwendungen mit diesem Usecase auf S3 umzustellen.
Cinder ist in jedem Brandabschnitt (z.b. MUC-A, B und D) jeweils getrennt als Cluster vorhanden, wird nicht in andere Brandabschnitte kopiert oder gebackuped.
S3 ist über die jeweiligen Brandabschnitte der Geolokation (z.b. MUC) synchronisiert und gebackuped (FIXME: Wavecon Dokumentation verlinken)
Master nodes halten ihr lokales Dateisystem auf lokalen NVME-SSDs ("ephemereal") des Hypervisors. Damit sind diese deutlich schneller, aber dafür flüchtig, das heißt sie können bei einem Update/Defekt des Hypervisors verloren gehen. OpenShift/etcd kümmert sich in diesem Fall um den Rebuild seiner Daten.
Workernodes können