Netzwerkanforderungen für Kundenstandort

Lesen Sie die Themen in diesem Abschnitt, um Ihre Netzwerkumgebung vor der Ankunft des Compute Cloud@Customer-Racks vorzubereiten.

Hinweis

Zusätzlich zu den hier aufgeführten Netzwerkanforderungen arbeitet ein Oracle-Mitarbeiter mit Ihnen zusammen, um sicherzustellen, dass Ihre Data-Center-Netzwerkkonfiguration für Compute Cloud@Customer vorbereitet ist, bevor das Rack eintrifft.

Verwenden Sie die Netzwerkinformationen in diesem Abschnitt zusammen mit der Checkliste für die Erstinstallation des Systems, um Ihr Netzwerk vorzubereiten.

Die Oracle Compute Cloud@Customer-Netzwerkarchitektur basiert auf physischer High-Speed-Ethernet-Konnektivität.

Die Netzwerkinfrastruktur in Compute Cloud@Customer ist integraler Bestandteil und darf nicht geändert werden. Das Netzwerk lässt sich nicht in Data-Center-Management- oder Provisioning-Frameworks wie Cisco ACI, Network Director oder dergleichen integrieren.

Achtung

Änderungen an den Netzwerk-Switches im Compute Cloud@Customer-Rack werden nur unterstützt, wenn Sie von einem Oracle Support-Dokument (KM-Hinweis) oder Oracle-Personal dazu aufgefordert werden.

Netzwerküberblick

Hinweis

Weitere Konzepte zur Netzwerkübersicht werden unter Compute Cloud@Customer Network Infrastructure beschrieben.

Die Compute Cloud@Customer-Infrastruktur verwendet diese Netzwerke.

  • Datennetzwerk: Die Datenkonnektivität der Infrastruktur basiert auf redundanten 100-Gbit-Switches in zweischichtigem Design, ähnlich einer Leaf-Spine-Topologie. Eine Infrastruktur enthält zwei Leaf- und zwei Spine Switches. Die Leaf Switches verbinden die Rack-Hardwarekomponenten, während die Spine Switches das Rückgrat des Netzwerks bilden und einen Pfad für externen Datenverkehr bereitstellen.
  • Uplinks: Uplinks sind die Verbindungen zwischen der Infrastruktur und dem Kunden-Data Center. Zur externen Konnektivität sind auf jedem Spine Switch 5 Ports reserviert. Vier Ports stehen zur Verfügung, um die Uplinks zwischen der Infrastruktur und dem Data Center-Netzwerk herzustellen. Ein Port wird verwendet, um das Administrationsnetzwerk vom Datenverkehr zu trennen.
  • Administrationsnetzwerk: Dieses erforderliche Netzwerk ist als physisch getrenntes Netzwerk aus dem Datennetzwerk konfiguriert. Dadurch wird Konfigurations- und Verwaltungsdatenverkehr von der Betriebsaktivität im Datennetzwerk isoliert, indem dedizierte sichere Netzwerkpfade für Administrationsvorgänge bereitgestellt werden. Dieses Netzwerk umfasst alle Komponentenverwaltungsschnittstellen.

    Das Einrichten eines separaten Administrationsnetzwerks umfasst die folgenden Aktionen:

    • Zusätzliche Ethernetverbindungen von den Data-Center-Netzwerkgeräten der nächsten Ebene zu Port 5 auf jedem der Spine-Switches im Rack.
    • Innerhalb des Administrationsnetzwerks müssen die Spine Switches jeweils eine IP-Adresse und eine virtuelle IP aufweisen, die von beiden gemeinsam genutzt wird.
    • Zum Weiterleiten von Traffic ist ein Standardgateway erforderlich, und NTP- und DNS-Services müssen aktiviert sein.
    • Den Verwaltungsknoten müssen Hostnamen und IP-Adressen im Administrationsnetzwerk zugewiesen werden, jeweils eine einzeln und eine gemeinsam von allen drei.

    Ein separates Administrationsnetzwerk kann sowohl mit statischem als auch dynamischem Routing verwendet werden. Die Verwendung eines VLAN wird unterstützt. In Kombination mit statischem Routing muss sich die VLAN-ID jedoch von der für das Datennetz konfigurierten ID unterscheiden.

  • Reservierte Netzwerkressourcen: Für die Infrastruktur sind viele IP-Adressen und mehrere VLANs für den internen Betrieb erforderlich.

Netzwerkkonfigurationsanforderungen

Auf jedem Spine Switch können die Ports 1-4 für Uplinks zum Data Center-Netzwerk verwendet werden. Bei Geschwindigkeiten von 10 Gbit/s oder 25 Gbit/s muss der Spine-Switch-Port über einen 4-Wege-Splitter oder ein Breakout-Kabel aufgeteilt werden. Für höhere Geschwindigkeiten von 40 Gbit/s oder 100 Gbit/s verwendet jeder Switch-Port eine einzige direkte Kabelverbindung.

Die Uplinks werden während der Systeminitialisierung basierend auf den von Ihnen angegebenen Informationen konfiguriert. Nicht verwendete Spine Switch-Uplink-Ports, einschließlich nicht verwendeter Breakout-Ports, werden aus Sicherheitsgründen deaktiviert.

Es ist wichtig, dass beide Spine Switches dieselben Verbindungen zu den Data Center Switches der nächsten Ebene haben. Diese Konfiguration bietet Redundanz und Lastenteilung auf der Ebene der Spine Switches, Ports und Data Center Switches. Diese ausgehende Verkabelung hängt von der bereitgestellten Netzwerktopologie ab. Das Verkabelungsmuster ist für die Fortsetzung des Service während Failover-Szenarios unerlässlich.

  • Vor der Installation müssen Sie Netzwerkkabel von Ihrer vorhandenen Netzwerkinfrastruktur zum Compute Cloud@Customer-Rackinstallationsstandort ausführen.

  • Planen Sie, mindestens 1 High-Speed-Ethernetports an jedem Spine-Switch an Ihr öffentliches Ethernet-Netzwerk des Data Centers anzuschließen.

  • Für die Konfiguration des erforderlichen Administrationsnetzwerks sind 2 weitere Kabelverbindungen (jeweils eine von Port 5 auf den beiden Spine Switches) zu einem Paar Next-Level-Data-Center-Switches erforderlich.

  • Die Uplink-Konnektivität basiert auf Layer 3 des OSI-Modells.

  • Wenn Sicherheits-Policys die Verwendung von Proxys für alle Internetverbindungen erfordern, können Sie einen HTTP-Proxy verwenden. Dies ist ein passiver/unternehmensbezogener Proxy, der für die Verbindung von Compute Cloud@Customer zu Oracle Cloud Infrastructure unterstützt wird. Kunden-HTTPS, Proxychallenge und Trafficüberprüfung werden nicht unterstützt.

  • Ein HTTP-Proxy des Unternehmens zwischen der Compute Cloud@Customer-Infrastruktur und Oracle Cloud Infrastructure wird mit FastConnect nicht empfohlen, da FastConnect bereits ein dediziertes Netzwerk ist. Wenn ein Unternehmensproxy erforderlich ist, muss der Proxy über zusätzliches Routing verfügen, um sicherzustellen, dass der Compute Cloud@Customer-Netzwerktraffic über FastConnect gesendet wird.

DNS-Konfiguration für Rechenzentrum für Compute Cloud@Customer

Prüfen Sie die Compute Cloud@Customer-DNS-Informationen, um die Konfiguration auszuwählen, die am besten zu Ihrer Netzwerkumgebung passt.

Um die Daten der dedizierten DNS-Zone der Infrastruktur in die DNS-Konfiguration des Data Centers zu integrieren, werden zwei Optionen unterstützt:

Wenn Sie die manuelle Konfiguration auswählen, wird empfohlen, Netzwerkhostnamen und IP-Adressen für das Managementnetzwerk, das Clientnetzwerk und weitere öffentliche Netzwerke im Data Center Domain Name System (DNS) vor der Erstkonfiguration zu registrieren. Insbesondere müssen alle öffentlichen Adressen, VIP-Adressen und Endpunkte der Infrastrukturservices vor der Installation im DNS registriert werden.

Alle im DNS registrierten Adressen müssen für die Weiterleitungsauflösung konfiguriert werden. Die Rückwärtsauflösung wird in der Servicezone nicht unterstützt.

Zonendelegierung (bevorzugt)

Damit die Zonendelegierung funktioniert, müssen die rekursiven Caches des Data Centers den TCP/UDP-Port 53 auf der virtuellen IP-Adresse erreichen können, die von den Compute Cloud@Customer-Verwaltungsknoten gemeinsam verwendet wird. Möglicherweise müssen Sie die Firewallkonfiguration ändern.

Konfigurieren Sie den Data-Center-DNS-Server so, dass er als übergeordnete Zone der Compute Cloud@Customer-DNS-Zone ausgeführt wird. Daher werden alle DNS-Anforderungen für die untergeordnete Zone an den internen DNS-Server von Compute Cloud@Customer delegiert. Fügen Sie in der DNS-Konfiguration des Data Centers einen Namensserverdatensatz für die untergeordnete Zone und einen Adressdatensatz für den autoritativen Server dieser Zone hinzu.

Im Beispiel wird davon ausgegangen, dass die Data-Center-DNS-Domain example.com ist, dass das Compute Cloud@Customer-Rack den Namen myccc hat und dass die virtuelle IP-Adresse des Managementknotenclusters 192.0.2.102 lautet. Der Hostname des internen DNS-Servers für Compute Cloud@Customer lautet ns1.

$ORIGIN example.com.
[...]
myccc       IN    NS    ns1.myccc.example.com.
ns1.myccc   IN    A     192.0.2.102

Manuelle Konfiguration

Fügen Sie manuell DNS-Datensätze für alle Labels oder Hostnamen hinzu, die für Compute Cloud@Customer erforderlich sind. Viele der DNS-Einträge sind für die von Oracle ausgeführte Wartung erforderlich.

In den Beispielen lautet die Data-Center-DNS-Domain example.com, dass das Compute Cloud@Customer-Rack den Namen myccc trägt und dass die virtuelle IP-Adresse des Managementknotenclusters 192.0.2.102 lautet.

Hinweis

Für den Objektspeicher müssen Sie das DNS-Label auf die öffentliche IP von Object Storage verweisen. Dies ist die öffentliche IP-Adresse, die diesem Zweck beim Einrichten der öffentlichen IP-Bereiche des Data Centers während des anfänglichen Setups zugewiesen wird.

In den Beispielen wird davon ausgegangen, dass die Data-Center-DNS-Domain example.com ist, dass die Infrastruktur myccc heißt und dass die virtuelle IP-Adresse des Managementknotenclusters im Datennetzwerk 192.0.2.102 und im Administrationsnetzwerk 203.0.113.12 lautet.

Compute Cloud@Customer-Service

Data-Center-DNS-Datensatz

Data-Center-DNS-Datensatz

Networking, Compute, Block Storage, Arbeitsanforderungsservices

iaas.myccc.example.com

iaas
    A  192.0.2.102
iaas
    A  192.0.2.102

Identity and Access Management-Service

identity.myccc.example.com

identity
    A  192.0.2.102
identity
    A  192.0.2.102

DNS-Service

dns.myccc.example.com

dns
    A  192.0.2.102
dns
    A  192.0.2.102

Objektspeicher

objectstorage.myccc.example.com

Hinweis: Verwenden Sie die öffentliche Object Storage-IP aus dem anfänglichen Setup der Appliance.

objectstorage
    A  198.51.100.33
objectstorage
    A  198.51.100.33

Dateispeicher

filestorage.myccc.example.com

filestorage
    A  192.0.2.102
filestorage
    A  192.0.2.102

Alertmanager

alertmanager.myccc.example.com

alertmanager
    A  192.0.2.102
alertmanager
    A  203.0.113.12

API

api.myccc.example.com

api
    A  192.0.2.102
api
    A  203.0.113.12

OKE-Service

containerengine.myccc.example.com

containerengine
    A  192.0.2.102
containerengine
    A  192.0.2.102

Resource-Principal-Service

rps.myccc.example.com

rps
    A  192.0.2.102
rps
    A  203.0.113.12

Compute Cloud@Customer-Konsole

console.myccc.example.com

console
    A  192.0.2.102
console
    A  192.0.2.102

Konfigurationshinweise für Data Center-Switch

Wenn Sie die Data Center Switches so konfigurieren, dass sie eingehende Compute Cloud@Customer-Uplinks (Standard-Uplinks sowie benutzerdefinierte Uplinks, die Sie definieren) akzeptieren, berücksichtigen Sie diese Hinweise.

  • Alle Uplinks (Standard und Kunde) sind für die Verwendung der Linkaggregation (LACP) konfiguriert. Alle Switch-Ports in einer Uplink-Konfiguration müssen zur selben Linkaggregationsgruppe (LAG) gehören. Die Switch-Ports auf der Data-Center-Seite der Uplinks müssen entsprechend konfiguriert werden.

  • Compute Cloud@Customer unterstützt Layer-3-basierte Uplink-Konnektivität zum Kunden-Data Center. Statisches Routing und BGP4-basiertes dynamisches Routing werden in Layer 3 unterstützt.

  • Für Uplink-Ports ist keine automatische Verhandlung verfügbar. Die Übertragungsgeschwindigkeit muss auf Kunden-Switches angegeben werden.

Weitere Informationen finden Sie unter Uplinks und Uplink-Protokolle.