OpenShift-on-Wavestack: Unterschied zwischen den Versionen

Aus Technische Infos - info.noris.net
Zur Navigation springen Zur Suche springen
Keine Bearbeitungszusammenfassung
(Die Seite wurde geleert.)
Markierung: Geleert
 
(2 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt)
Zeile 1: Zeile 1:
== Kosten ==


* Infrastruktur
** min. 3 master - min. SCS-4V-16-100s
** min. 2 worker - min. SCS-4V-16-100, siehe Storage weiter unten
** 1 Jumphost - min. SCS-1V-4-50
** S3 Bucket für Imageregistry für noris und Kundenimages, belegter Platz wird abgerechnet FIXME: Standardgröße ermitteln
** Reservierter Platz in Dateisystemen FIXME: Klären ob reserviert oder benutzt und Standardgröße ermitteln
** Optional: min 3 infra für Logging - min. SCS-8V-16-100
** Optional: falls aus dem Internet erreichbar - 3 öffentliche IPs
** Optional: VPN und Proxy nach Wavestack Standardproduktkatalog
* Lizenzen
** 1 Openshift Lizenz pro Cluster
** 1 Openshift Lizenz pro 4 Worker CPU Kerne
* Netzwerktraffic
** Installation und Updates von Openshift
** Download von Containerimages von externen Registries für noris und Kundenanwendungen
** Kundentraffic
* noris Arbeitsleistung
== Storage ==
In Wavestack werden S3 Objektspeicher und Cinder RWO (Read-Write-Once) Dateisysteme angeboten.
noris empfiehlt die Benutzung von S3 Objektspeicher in Containern für alle unterstützten Anwendungen.
RWX (Read-Write-Many) Dateisysteme werden '''nicht''' angeboten. Wir empfehlen, Anwendungen mit diesem Usecase auf S3 umzustellen.
Cinder ist in jedem Brandabschnitt (z.b. MUC-A, B und D) jeweils getrennt als Cluster vorhanden, wird nicht in andere Brandabschnitte kopiert oder gebackuped.
S3 ist über die jeweiligen Brandabschnitte der Geolokation (z.b. MUC) synchronisiert und gebackuped (FIXME: Wavecon Dokumentation verlinken und Bild einfügen um das zu visualisieren)
Master nodes halten ihr lokales Dateisystem auf lokalen NVME-SSDs ("ephemereal") des Hypervisors. Damit sind diese deutlich schneller, aber dafür flüchtig, das heißt sie können bei einem Update/Defekt des Hypervisors verloren gehen. OpenShift/etcd kümmert sich in diesem Fall um den Rebuild seiner Daten, es hat allerdings einen Redundanzverlust zur Folge.
Workernodes können alternativ auch ihr Dateisystem in den Netzwerkspeicher Ceph in der jeweiligen Abilityzone ("Brandabschnitt") legen. Damit sind diese Daten nach Reboot/Umzug wieder einbindbar, aber genauso bei Ausfall der jeweiligen Availabilityzone nicht mehr erreichbar. Dieser Storage ist langsamer, dafür günstiger.

Aktuelle Version vom 14. Februar 2024, 09:30 Uhr