OpenShift-on-Wavestack: Unterschied zwischen den Versionen

Aus Technische Infos - info.noris.net
Zur Navigation springen Zur Suche springen
Keine Bearbeitungszusammenfassung
(Die Seite wurde geleert.)
Markierung: Geleert
 
(8 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt)
Zeile 1: Zeile 1:
== Kosten ==


* Infrastruktur
** 3 master - min. SCS-4V-16-100s
** 2 worker - min. SCS-4V-16-100/s, siehe
** 1 Jumphost - min. SCS-1V-16-50
** S3 Bucket für Imageregistry, belegter Platz wird abgerechnet FIXME: Standardgröße ermitteln
** Reservierter Platz in Dateisystemen FIXME: Klären ob reserviert oder benutzt und Standardgröße ermitteln
* Lizenzen
** 1 Openshift Lizenz pro Cluster
** 1 Openshift Lizenz pro 4 Worker CPU Kerne
* Netzwerktraffic
** Installation und Updates von Openshift
** Download von Containerimages von externen Registries
** Nutztraffic
* falls öffentlich erreichbar, 3 öffentliche IPs
** andernfalls VPN und Proxy nach Wavestack Standardproduktkatalog
* noris Arbeitsleistung
== Storage ==
In Wavestack werden S3 Objektspeicher und Cinder RWO (Read-Write-Once) Dateisysteme angeboten.
noris empfiehlt die Benutzung von S3 Objektspeicher in Containern für alle unterstützten Anwendungen.
RWX (Read-Write-Many) Dateisysteme werden '''nicht''' angeboten. Wir empfehlen, Anwendungen mit diesem Usecase auf S3 umzustellen.
Cinder ist in jedem Brandabschnitt (z.b. MUC-A, B und D) jeweils getrennt als Cluster vorhanden, wird nicht in andere Brandabschnitte kopiert oder gebackuped.
S3 ist über die jeweiligen Brandabschnitte der Geolokation (z.b. MUC) synchronisiert und gebackuped (FIXME: Wavecon Dokumentation verlinken)
Master nodes halten ihr lokales Dateisystem auf lokalen NVME-SSDs ("ephemereal") des Hypervisors. Damit sind diese deutlich schneller, aber dafür flüchtig, das heißt sie können bei einem Update/Defekt des Hypervisors verloren gehen. OpenShift/etcd kümmert sich in diesem Fall um den Rebuild seiner Daten.
Workernodes können

Aktuelle Version vom 14. Februar 2024, 09:30 Uhr