Was sind Cloud-native Netzwerkfunktionen (CNF)?
Cloud-native Konzepte und Technologien haben sich als erfolgreiche Beschleunigungstechnik beim Aufbau und der fortlaufenden Betriebsführung der größten Clouds der Welt erwiesen. Viele Kommunikationsdienstleister (CSPs) und andere Telekommunikationsorganisationen haben sich für diese innovative Technologie entschieden, um Cloud-Native Network Functions (CNFs), die nächste Generation von Virtual Network Functions (VNFs), zu produzieren.
Mehr als fünfzig Prozent der Befragten einer kürzlich durchgeführten CNCF (Cloud Native Computing Foundation) Mikroumfrage gaben an, dass sie zwischen 76 und 100 Prozent ihrer PNF (Physical Network Function) und VNF Infrastruktur auf CNF umstellen würden. Die zweitgrößte Gruppe der Befragten, 23,81%, gab an, dass sie zwischen fünfzig Prozent und fünfundsiebzig Prozent ihrer Infrastruktur zu CNF migrieren würden.
Diese CNFs, die innerhalb einer Telekommunikationsanlage betrieben werden, richten eine private Cloud ein, die dieselben Konzepte wie die öffentliche Cloud verwendet. CNFs umfassen alle Marktsegmente der Dienstanbieter, einschließlich Kabel, Mobilfunk, Video, Sicherheit und Netzwerkinfrastruktur.
Dienstanbieter möchten die Betriebskosten (OpEx) minimieren, indem sie ihre Netzwerkoperationen automatisieren und vereinfachen, was eine schnellere Markteinführung ihrer Dienste ermöglicht und die Bereitstellung in einer Vielzahl von Cloud-Umgebungen erlaubt. Cloud-native Technologien bieten die grundlegenden Bausteine für die Entwicklung dieser Apps.
In diesem Artikel werden wir die folgenden Themen skizzieren:
- Was bedeutet Cloud-native Network Functions (CNF)?
- Was ist der Cloud-Native-Ansatz?
- Warum benötigen Sie Cloud-native Netzwerkfunktionen (CNF)?
- Was sind die Vorteile von Cloud-nativen Netzwerkfunktionen (CNF)?
- Was sind die Herausforderungen von Cloud-nativen Netzwerkfunktionen (CNF)?
- Wie funktioniert CNF?
- Was ist die Bereitstellungsumgebung von CNF?
- Was sind die Anwendungsfälle für cloud-native Netzwerkfunktionen?
- Was sind die Unterschiede zwischen CNF und VNF?
Was bedeutet Cloud-native Network Functions (CNF)?
Eine Cloud-Native Network Function (CNF) ist eine softwarebasierte Implementierung einer netzwerkbezogenen Anwendung oder Funktion, die traditionell auf Hardware wie einem Router, einer Firewall, einem Netzwerkswitch oder einem VPN-Gateway durchgeführt wird. Die Entwicklung der CNF-Technologie wurde durch die heutigen hochmodernen Serversysteme ermöglicht. Früher waren anwendungsspezifische integrierte Schaltkreise, die früher für physische Netzwerkgeräte erforderlich waren, der einzige Weg, um diese Art von Verarbeitungskapazität zu erreichen. Die reichhaltigen und kostengünstigen zentralen Verarbeitungseinheiten und Speicherressourcen moderner Serversysteme ermöglichen es der Software, Netzwerkaufgaben zu verwalten. Da CNFs vollständig softwarebasiert sind, verwenden sie virtuelle Schnittstellen anstelle von physischen. CNF läuft in Linux-Containern, die von Kubernetes orchestriert werden. Heute im Einsatz befindliche CNFs umfassen Router, Firewalls, virtuelle Switches und Gateways für virtuelle private Netzwerke.
Cloud-native Netzwerkfunktionen sind eine Untergruppe der virtualisierten Netzwerkfunktionen (VNFs) in den ETSI NFV-Standards und werden als VNFs orchestriert, d.h. unter Verwendung der ETSI NFV MANO-Architektur und technologie-neutraler Deskriptoren (z.B. TOSCA, YANG). CNFs unterscheiden sich von VNFs (Virtualized Network Functions), einem Bestandteil der Network Function Virtualization (NFV), durch den Orchestrierungsansatz. Die höheren Ebenen der ETSI NFV MANO-Architektur (NFVO (NFV Orchestrator) und VNFM (VNF Manager)) arbeiten mit einer Container Infrastructure Service Management (CISM)-Funktion zusammen, die oft mit cloud-nativen Orchestrierungstechnologien wie Kubernetes aufgebaut ist.
Die folgenden Eigenschaften von Cloud-Native Functions sind:
-
Geringer Leistungsbedarf mit horizontaler Skalierbarkeit.
-
CNFs funktionieren unabhängig vom Gastbetriebssystem, da sie als Container arbeiten.
-
Standardisierte RESTful-APIs ermöglichen es containerisierten Mikrodiensten, miteinander zu interagieren.
-
Ihr Lebenszyklus wird von Kubernetes verwaltet, wobei Container-Image-Registries wie OCI Docker und OS-Container-Laufzeitumgebungen verwendet werden.
Die Cloud Native Computing Foundation (CNCF) zielt darauf ab, die Einführung von CNF zu fördern, indem sie ein Ökosystem von Open-Source-, herstellerneutralen Initiativen fördert und pflegt. Sie demokratisieren zeitgemäßes Design, um diese Durchbrüche für alle zugänglich zu machen.
Was ist der Cloud-Native-Ansatz?
Cloud-native zu sein, ist eine Strategie zur Entwicklung und zum Betrieb von Apps, die die Vorteile der Cloud-Architektur voll ausschöpfen. Eine cloud-native Anwendung verwendet eine Reihe von Technologien, die die Orchestrierung der Bestandteile der Anwendung verwalten und vereinfachen. Diese Dienste, jeder mit seiner eigenen Lebensdauer, werden als Container bereitgestellt und über APIs verbunden. Ein Container-Scheduler regelt, wo und wann ein Container in eine Anwendung bereitgestellt werden soll und ist für das Lifecycle-Management des Containers verantwortlich. Cloud-native Apps sollen in einer Vielzahl von Kontexten einsetzbar sein, einschließlich der öffentlichen, privaten und hybriden Cloud. Continuous Delivery und DevOps sind Methoden, die verwendet werden, um die Erstellung, das Testen und die Bereitstellung von Diensten in ein Produktionsnetzwerk zu automatisieren.
Cloud-native Lösungen ermöglichen es Unternehmen, skalierbare Anwendungen in zeitgemäßen, dynamischen Umgebungen wie öffentlichen, privaten und hybriden Clouds zu erstellen und bereitzustellen. Diese Strategie wird durch Container, Service-Meshes, Microservices, unveränderliche Infrastruktur und deklarative APIs veranschaulicht. Diese Strategien ermöglichen langlebige, beobachtbare und verwaltbare Systeme mit loser Kopplung. In Verbindung mit starker Automatisierung ermöglichen sie Ingenieuren, häufige, vorhersehbare und arbeitsersparende Änderungen mit großer Wirkung vorzunehmen.
Cloud-Native-Architekturen werden im Folgenden erklärt:
-
Container: Container sind eine Art der Virtualisierung, die Virtualisierung auf Betriebssystemebene (OS) verwenden. Eine einzelne OS-Instanz wird dynamisch in mehrere isolierte Container partitioniert, von denen jeder sein eigenes lesbares Dateisystem und eine eigene Ressourcenzuteilung hat. Auf sowohl physischen als auch virtuellen Computern können Container installiert werden. Container, die auf Bare-Metal-Servern implementiert sind, bieten virtuellen Maschinen Leistungsvorteile, indem sie den Hypervisor-Overhead reduzieren. Viele Mikrodienste werden pro Container bereitgestellt, um den Anforderungen an Anwendung und Leistung gerecht zu werden, zum Beispiel wenn die Koloaktion von Diensten die Architektur logisch vereinfacht oder wenn Dienste mehrere Prozesse innerhalb eines Containers aufteilen.
-
Mikroservices: Ein architektonischer Ansatz, der Geschäftsfähigkeiten implementiert, indem eine Anwendung als eine Reihe von lose verbundenen Diensten strukturiert wird. Mikroservices werden oft in Containern bereitgestellt, was eine kontinuierliche Versorgung und Bereitstellung großer, komplexer Systeme ermöglicht. Im Rahmen eines automatisierten Systems wird jeder Mikrodienst unabhängig bereitgestellt, aktualisiert, skaliert und neu gestartet, was häufige Upgrades für Live-Anwendungen ermöglicht, ohne die Endverbraucher zu beeinträchtigen.
-
DevOps: DevOps ist die Anwendung von schlanken und agilen Methoden, um Entwicklung und Betrieb in einen einzigen IT-Wertstrom zu integrieren. Durch die Nutzung von kontinuierlicher Integration und Lieferung hilft DevOps Unternehmen, Software schneller und iterativer zu entwickeln, zu testen und bereitzustellen. Zum Beispiel ermöglicht DevOps die Automatisierung der Installation und Überprüfung einer neuen Softwarefunktion in einer isolierten Produktionsumgebung, die, sobald sie nachgewiesen ist, in die gesamte Produktionsumgebung ausgerollt werden kann. Um DevOps wirklich umzusetzen, müssen Dienstleister cloud-native Ansätze annehmen, automatisierte kontinuierliche Integration bereitstellen und Anbieter-Pipelines anbieten.
-
Continuous Delivery: Bereitet jedes einzelne Anwendungsupdate zur Veröffentlichung vor, ohne auf das Bündeln mit anderen Änderungen in einem Release oder ein Ereignis wie ein Wartungsfenster zu warten. Continuous Delivery macht Releases einfach und zuverlässig, sodass Unternehmen häufig bereitstellen können, mit weniger Risiko und schnellem Endbenutzer-Feedback. Diese Häufigkeit der Softwarenutzung durch Dienstanbieter verändert die Markteinführungszeit. Letztendlich wird die Bereitstellung zu einem intrinsischen Bestandteil des Geschäftsprozesses und der Wettbewerbsfähigkeit von Unternehmen, indem Kanarientests und A/B-Tests in der realen Welt anstelle von Laboren verwendet werden.
Warum benötigen Sie Cloud-native Netzwerkfunktionen (CNF)?
Virtualisierung und VNFs unterstützten Organisationen bei der Einleitung des Übergangs zu cloud-nativen Apps. Bei erfolgreicher Implementierung bot Virtualisierung Softwaremodellen mehr Flexibilität, indem Hardwareabhängigkeiten beseitigt wurden. Es gibt jedoch Nachteile, da die Aktualisierungen von VNFs träge sind, Neustarts lange dauern, die CLI die primäre Schnittstelle bleibt, Software oft eine Lift-and-Shift-Operation war, Hypervisoren wie OpenStack schwer zu implementieren waren, es eine begrenzte Elastizität gab und das Skalieren herausfordernd war. Cloud-native Apps umgehen diese Einschränkungen. Cloud-native Apps weisen oft die folgenden Merkmale auf:
-
Interne Strategien zur Entdeckung von Mikrodiensten
-
Dynamische Flexibilität und Skalierung
-
Mit Mikroservice-Architektur (d.h. 12-Faktoren-Apps) gebaut
-
Orchestriert mit einer Kubernetes-ähnlichen Architektur.
-
Verbesserte Geschwindigkeitsfunktion
-
Resiliente Dienstleistungen
-
Konzepte für kontinuierliche Bereitstellung und Automatisierung
-
Reduzierter Fußabdruck mit einem schnellen Neustart
-
Moderne Gesundheits- und Zustandsüberwachungstelemetrie
-
Konsistentes Lebenszyklusmanagement über Container hinweg
CNFs kapseln Ihre physischen Netzwerkfunktionen (PNF) und virtuellen Netzwerkfunktionen (VNF) in Containern ein. Sie erhalten viele VNF-Vorteile, aber der Software-Overhead von VMs (Virtuelle Maschinen) ist kein Thema mehr. Container benötigen kein Gastbetriebssystem oder Hypervisor, und Container-CNF können nach Bedarf hoch- und heruntergefahren werden.
Was sind die Vorteile von Cloud-nativen Netzwerkfunktionen (CNF)?
Große Unternehmen, die sich über zahlreiche geografische Gebiete erstrecken und umfangreiche Netzwerk-Infrastrukturen benötigen, sind die Hauptnutznießer von CNFs. Diese Arten von Organisationen profitieren am meisten von CNFs.
Die Flexibilität, Skalierbarkeit, Zuverlässigkeit und Portabilität digitaler Dienstanbieter, die eine cloud-native Strategie verfolgen und Anwendungen sowohl an zentralen als auch an verteilten Standorten bereitstellen, werden verbessert. Der Übergang von der Virtualisierung zu einer cloud-nativen Architektur hilft, die Effizienz und Agilität auf ein neues Niveau zu heben, die erforderlich sind, um schnell kreative und einzigartige Angebote zu starten, die Märkte und Verbraucher benötigen.
Container ermöglichen es Benutzern, Software (Anwendungen, Funktionen oder Mikrodienste, zum Beispiel) mit allen erforderlichen Dateien für die Ausführung zu bündeln, während der Zugriff auf das Betriebssystem und andere Serverressourcen geteilt wird. Diese Methode ermöglicht es, die eingeschlossene Komponente einfach zwischen Umgebungen (Entwicklung, Test, Produktion usw.) und sogar zwischen Clouds zu verschieben, während ihre Funktionalität erhalten bleibt.
Diese Containerisierung von Netzwerkarchitekturkomponenten ermöglicht die Ausführung mehrerer Dienste auf demselben Cluster und die einfachere Integration zuvor dekonstruierter Anwendungen, während der Netzwerkverkehr dynamisch an die entsprechenden Pods weitergeleitet wird.
Folglich umfassen die Vorteile von CNFs Folgendes:
-
Agilität: Mit CNFs benötigen Funktionsverbesserungen keinen Hardwareaustausch mehr. Vielmehr beinhaltet die Einführung einer neuen Funktion oft den Aufbau eines neuen Netzwerk-Mikrodienstes und dessen Bereitstellung innerhalb der aktuellen Infrastruktur. Die Lego-Methode der App-Entwicklung verkürzt die Markteinführungszeit und gibt den Kunden die Kontrolle über das Innovationstempo. Dies verkürzt drastisch die Markteinführungszeit und senkt die Kosten für neue Funktionen.
-
Reduzierte Ausgaben: Cloud-native Netzwerk-Infrastruktur erfordert nicht mehr die Verwendung von spezialisierter Hardware. Es funktioniert auf handelsüblichen Servern, die in einem privaten Cluster verbunden sind, sowie auf öffentlichen Cloud-Infrastrukturen wie AWS und Google Cloud. Mit Funktionen wie automatischer Skalierung, nutzungsabhängiger Abrechnung und Pay-per-Use-Modellen können Sie suboptimale physische Hardware-Zuweisungen und die damit verbundenen Kosten für die Wartung physischer Hardware vollständig eliminieren. Wiederverwendbare Dienste über Teams und Geschäftsbereiche hinweg sparen Entwickler- und Kundenbetriebskosten.
-
Fehlertoleranz & Resilienz: Container können praktisch sofort neu gestartet werden, Updates auf Mikroservice-Ebene werden ohne Ausfallzeiten durchgeführt, und automatisierte schnelle Rollbacks sind bei Bedarf möglich.
-
Verbesserte Skalierbarkeit: Eine cloud-native Lösung (CNFs) wächst auf der Ebene einzelner Mikrodienste, die je nach Nachfrage nach ihren Diensten in einem Bruchteil einer Sekunde live gehen und beendet werden können. Die Nutzung öffentlicher Clouds ermöglicht nahezu unbegrenztes Skalieren ohne die Notwendigkeit von Hardware-Upgrades.
-
Erweiterte Sicherheit und Überwachung: Das Vertrauen in die Sicherheit der Lösungen wird durch cloud-native Werkzeuge für Sicherheitsscans und Cloud-Penetrationstests gestärkt. Kleinere CNFs können Abonnenten separat regulieren (die Gefahrenzone begrenzen), im Gegensatz zum Ansatz einer einzigen großen Box. Standardtechnologien wie Prometheus, Kubernetes und Elastic Search geben den Standardzustand und die Gesundheit der Container an.
-
API-Integrationen: Die Microservices-Architektur ermöglicht einfachere Integrationen von Application Programming Interfaces (APIs) mit anderen Plattformen zur Datenerfassung und -analyse.
-
Grüne IT: CNFs bieten kleinere Rechenzentrumsflächen für verbesserte Energieeffizienz.
-
Zentralisierte Verwaltungsebene: CNF-Technologie bietet eine zentralisierte Verwaltung für Netzwerkfunktionen.
Was sind die Herausforderungen von Cloud-nativen Netzwerkfunktionen (CNF)?
CNFs gehen über die bloße Containerisierung von Netzwerkoperationen hinaus. Um die vollen Vorteile der cloud-nativen Prinzipien über die Container-Verpackung hinaus zu nutzen, muss die Software für Netzwerkfunktionen weiter neuarchitektonisiert werden, zum Beispiel durch die Zerlegung in Mikrodienste, die Erlaubnis mehrerer Versionen während Updates und die Nutzung verfügbarer Plattformdienste wie generische Lastenausgleichsmechanismen oder Datenspeicher.
Darüber hinaus müssen CNFs, da cloud-native Umgebungen immer häufiger werden, während des gesamten Übergangs mit traditionellen VNFs koexistieren. Um die wachsende Nachfrage effizient zu bewältigen, Installationen zu beschleunigen und die Komplexität zu minimieren, müssen digitale Dienstanbieter das Design, die Implementierung, die Wartung und den Betrieb ihrer Netzwerke vollständig automatisieren. Standardisierte Prozesse für Konfiguration und Bereitstellung, Technologien, die sich in Open-Source-Communities entwickelt haben, sowie rigorose Tests und Zertifizierungen sind für Dienstanbieter heute wichtiger denn je.
Wie funktioniert CNF?
Ein CNF ist eine Netzwerkfunktionalität, die in Software angeboten wird und cloud-native Entwicklungs- und Bereitstellungsmethoden verwendet. Diese Fähigkeit befindet sich innerhalb der OSI-Modellschichten, die zur Gestaltung des Netzwerk-Stacks verwendet werden. Die unteren Schichten (Schichten 1 und, in bestimmten Situationen, Schicht 2) ermöglichen es den oberen Schichten (2-7), Daten zu übertragen. In dieser Situation dienen diese oberen Schichten als Apps, die auf einem Netzwerk-Payload (Frames, Pakete, Datagramme usw.) arbeiten. Für Upgrades muss ein physisches Layer-1-Netzwerkgerät mit einer vollständigen Ersetzung seiner Artefakte "geflasht" werden. Die Konfiguration der physischen Schicht 1 erfolgt durch die atomare Anwendung einer versionierten Konfigurationsdatei, die die Konfiguration auf dem Gerät vollständig ändert. Virtuelle Schicht 1 (und ein Teil von Schicht 2) wird durch die Verwendung von vorgefertigten Bildern und Bootstrapping verwaltet. Im Gegensatz dazu werden die Schichten 2 bis 7 durch Orchestrierung auf höherer Ebene oder durch einen etablierten Kontrollplan verwaltet (ein Orchestrator, der Konfigurationen pusht, im Gegensatz zu einem Netzwerkprotokoll, das eine Routingtabelle ändert).
Was ist die Bereitstellungsumgebung von CNF?
In einer perfekten Welt wären alle NFs (Netzwerkfunktionen), die wir bereitstellen möchten, cloud-nativ, containerisiert und von Kubernetes koordiniert. In diesem Fall wäre die optimale Cloud-Architektur eine native Container-Umgebung, wie Red Hat OpenShift oder VMware PKS, die auf Bare-Metal-Servern betrieben wird. Für die nahe Zukunft muss jedoch jede Cloud-Infrastruktur, die für die Bereitstellung von NFs geschaffen wurde, sowohl traditionelle VNFs in virtuellen Maschinen als auch CNFs in Containern unterstützen können.
Derzeit wird dies erreicht, indem eine Kubernetes-Container-Umgebung, wie Red Hat OpenShift oder VMware PKS, auf einer hypervisor-basierten Virtualisierungsumgebung, wie OpenStack oder VMware vSphere, bereitgestellt wird. Dazu erstellen Sie einen Pool von virtuellen Maschinen mit OpenStack oder vSphere und setzen dann Ihren Kubernetes-Cluster, der Ihre CNFs unterstützt, in diesen Pool ein. Dieses Stapeln mag ineffizient erscheinen, doch in der Realität funktioniert es einwandfrei. Der Hauptnachteil ist, dass es das Jonglieren mit zwei verschiedenen Anwendungsorchestrierungsebenen erfordert. Kubernetes koordiniert die CNFs, während jede VNF ihren eigenen Lifecycle-Manager hat, oft einen von ETSI definierten spezifischen VNFM.
In der Zukunft könnte Kubevirt, eine faszinierende neue Technologie, eine elegante Antwort auf dieses Problem geben. Kubevirt ermöglicht die Bereitstellung jeder VM-basierten Anwendung innerhalb eines von Kubernetes gesteuerten Containers. Sobald der Großteil unserer NFs cloud-nativ ist, könnte Kubevirt es uns ermöglichen, unsere Cloud-Bereitstellungen zu vereinfachen, indem wir die Hypervisor-Schicht entfernen und gleichzeitig die Fähigkeit behalten, VM-basierte VNFs zu erstellen und zu verwalten. Dann übernimmt Kubernetes die gesamte Orchestrierung.
Was sind die Anwendungsfälle für Cloud-native Netzwerkfunktionen?
Es ist ideal, die grundlegenden Vorteile von CNFs zu nutzen, wenn ein Netzwerk umfangreich und geografisch verteilt ist. Daher sind öffentliche Telekommunikationsanbieter, Internetdienstanbieter und Cloud-Service-Anbieter die Pioniere bei der Nutzung dieser verteilten Netzwerkoperationen. Diese Organisationen ersetzen ihre veralteten physischen oder virtuellen Netzwerkausrüstungen durch containerisierte CNFs, die nur einen Bruchteil der Rechenleistung, des Speichers und des physischen Platzbedarfs benötigen.
Wenn zusätzliche Cloud- oder Telekom-Punkte der Präsenz in Betrieb genommen werden, installieren diese Unternehmen CNFs und andere Container-Dienste auf noch kleineren Plattformen, was den Einsatz von Mini-Rechenzentren für Edge-Computing ermöglicht. Die häufigsten Anwendungsfälle für CNFs im Telekommunikationssektor sind wie folgt:
Die häufigsten Anwendungsfälle für CNFs im Telekommunikationssektor sind wie folgt:
-
Cloud-native Carrier-Grade NAT: Eine cloud-native Carrier-Grade-NAT-Lösung verlagert die Funktion und Konfiguration der Netzwerkadressübersetzung (NAT) in die Cloud-Infrastruktur des Internetdienstanbieters. Diese Lösung reduziert die erforderlichen Hardware- und Softwaremerkmale der CPE-Geräte, vereinfacht die Verwaltung und Einrichtung des NAT-Systems und ermöglicht horizontale Skalierbarkeit, Upgrades und Failovers mit Leichtigkeit.
-
Virtuelles CPE: In diesem Beispiel wird die Funktionalität der Endkundengeräte in die Cloud-Infrastruktur des Dienstanbieters übertragen. Das einzige Netzwerkausrüstungsstück, das am Standort des Kunden installiert werden muss, ist ein kostengünstiger L2 Switch ohne weitere Funktionen, die mit der Cloud-Infrastruktur des ISP verbunden sind. Dies erfordert praktisch keine zusätzliche Wartung, selbst wenn die CPE-Funktionalität in Zukunft aufgerüstet wird. Die CPE-Funktionen sind als eine Reihe von CNFs (Netzwerk-Mikroservices) aufgebaut, die neben der einfachen Verwaltung, Skalierbarkeit und Updates auch die Bereitstellung und Modifikation kundenspezifischer Funktionssets auf Anfrage ermöglichen.
Unternehmen, die hybride und Multi-Cloud-Architekturen nutzen, sind ebenfalls an CNFs interessiert, um Netzwerkdienste in öffentlichen Clouds zu installieren, die die Verwendung physischer Geräte verbieten. In diesen Cloud-Umgebungen vermeiden Unternehmen die Einrichtung vieler virtueller Servernetzwerkausrüstungen, die auf lange Sicht ziemlich teuer sein können. Für diese Unternehmen wird die Einführung von CNFs hauptsächlich durch Flexibilität und Kostensenkungen motiviert.
Was sind die Unterschiede zwischen CNF und VNF?
Das Verlegen von Netzwerkdiensten von Hardware-Appliances in Software ist nicht auf CNFs beschränkt. Virtuelle Netzwerkfunktionen (VNFs) sind eine weitere praktikable Option. Mit einer VNF wird die Software des hardwarebasierten Netzwerkgeräts auf eine virtuelle Maschine (VM) verschoben. Daher besteht der einzige Unterschied darin, dass die Verarbeitung und die Nutzung der Ports durch Software und nicht durch Hardware erfolgen. Dies steht im krassen Gegensatz zu CNFs, die die geeigneten Netzwerkdienste auswählen und sie in einer containerisierten Umgebung wie Kubernetes betreiben, anstatt in einer VM.
Bei CNFs sind Verarbeitung und Speicherzuweisung nur für bestimmte Dienste erforderlich, und die Dienste werden basierend darauf, wo sie benötigt werden, im gesamten Netzwerk verteilt. Daher bieten CNFs im Vergleich zu VNFs Vorteile in Bezug auf Effizienz, Skalierbarkeit und Leistung.