OpenShift-on-Wavestack: Unterschied zwischen den Versionen

Aus Technische Infos - info.noris.net
Zur Navigation springen Zur Suche springen
Keine Bearbeitungszusammenfassung
Keine Bearbeitungszusammenfassung
Zeile 1: Zeile 1:
== Kosten ==
== Kosten ==


* 3 master - min. SCS-4V-16-100s
* Infrastruktur
* 2 worker - min. SCS-4V-16-100/s
** 3 master - min. SCS-4V-16-100s
* 1 Jumphost - min. SCS-1V-16-50
** 2 worker - min. SCS-4V-16-100/s, siehe
** 1 Jumphost - min. SCS-1V-16-50
** S3 Bucket für Imageregistry, belegter Platz wird abgerechnet FIXME: Standardgröße ermitteln
** Reservierter Platz in Dateisystemen FIXME: Klären ob reserviert oder benutzt und Standardgröße ermitteln


* 1 Openshift Lizenz pro Cluster
* Lizenzen
* 1 Openshift Lizenz pro 4 Worker CPU Kerne
** 1 Openshift Lizenz pro Cluster
 
** 1 Openshift Lizenz pro 4 Worker CPU Kerne
* S3 Bucket für Imageregistry, belegter Platz wird abgerechnet FIXME: Standardgröße ermitteln


* Netzwerktraffic
* Netzwerktraffic
Zeile 16: Zeile 18:


* falls öffentlich erreichbar, 3 öffentliche IPs
* falls öffentlich erreichbar, 3 öffentliche IPs
* andernfalls VPN und Proxy nach Wavestack Standardproduktkatalog
** andernfalls VPN und Proxy nach Wavestack Standardproduktkatalog


* noris Arbeitsleistung
* noris Arbeitsleistung
Zeile 30: Zeile 32:


S3 ist über die jeweiligen Brandabschnitte der Geolokation (z.b. MUC) synchronisiert und gebackuped (FIXME: Wavecon Dokumentation verlinken)
S3 ist über die jeweiligen Brandabschnitte der Geolokation (z.b. MUC) synchronisiert und gebackuped (FIXME: Wavecon Dokumentation verlinken)
Master nodes halten ihr lokales Dateisystem auf lokalen NVME-SSDs ("ephemereal") des Hypervisors. Damit sind diese deutlich schneller, aber dafür flüchtig, das heißt sie können bei einem Update/Defekt des Hypervisors verloren gehen. OpenShift/etcd kümmert sich in diesem Fall um den Rebuild seiner Daten.
Workernodes können

Version vom 13. Februar 2024, 14:12 Uhr

Kosten

  • Infrastruktur
    • 3 master - min. SCS-4V-16-100s
    • 2 worker - min. SCS-4V-16-100/s, siehe
    • 1 Jumphost - min. SCS-1V-16-50
    • S3 Bucket für Imageregistry, belegter Platz wird abgerechnet FIXME: Standardgröße ermitteln
    • Reservierter Platz in Dateisystemen FIXME: Klären ob reserviert oder benutzt und Standardgröße ermitteln
  • Lizenzen
    • 1 Openshift Lizenz pro Cluster
    • 1 Openshift Lizenz pro 4 Worker CPU Kerne
  • Netzwerktraffic
    • Installation und Updates von Openshift
    • Download von Containerimages von externen Registries
    • Nutztraffic
  • falls öffentlich erreichbar, 3 öffentliche IPs
    • andernfalls VPN und Proxy nach Wavestack Standardproduktkatalog
  • noris Arbeitsleistung

Storage

In Wavestack werden S3 Objektspeicher und Cinder RWO (Read-Write-Once) Dateisysteme angeboten.

noris empfiehlt die Benutzung von S3 Objektspeicher in Containern für alle unterstützten Anwendungen.

RWX (Read-Write-Many) Dateisysteme werden nicht angeboten. Wir empfehlen, Anwendungen mit diesem Usecase auf S3 umzustellen.

Cinder ist in jedem Brandabschnitt (z.b. MUC-A, B und D) jeweils getrennt als Cluster vorhanden, wird nicht in andere Brandabschnitte kopiert oder gebackuped.

S3 ist über die jeweiligen Brandabschnitte der Geolokation (z.b. MUC) synchronisiert und gebackuped (FIXME: Wavecon Dokumentation verlinken)

Master nodes halten ihr lokales Dateisystem auf lokalen NVME-SSDs ("ephemereal") des Hypervisors. Damit sind diese deutlich schneller, aber dafür flüchtig, das heißt sie können bei einem Update/Defekt des Hypervisors verloren gehen. OpenShift/etcd kümmert sich in diesem Fall um den Rebuild seiner Daten.

Workernodes können