Unternehmen setzen alles daran, KI einzuführen, um die betriebliche Effizienz zu verbessern und Wettbewerbsvorteile zu erzielen. Tatsächlich gaben in einer kürzlich durchgeführten Umfrage 71 % der Befragten an, dass ihre Unternehmen bereits regelmäßig generative KI (GenAI) einsetzen.
Über die Nutzung bestehender GenAI-Dienste hinaus entwickeln viele Unternehmen ihre eigenen KI-gestützten Anwendungen und KI-Agenten, um hochgradig personalisierte Kundenerlebnisse bereitzustellen. Sie erkennen das enorme Potenzial, Apps und Agenten zu entwickeln, die ihrer globalen Kundschaft individuell zugeschnittene Kaufempfehlungen, Produktinformationen und Support bieten.
Dieser Fokus auf Hyperpersonalisierung geht mit einer Verlagerung hin zu einem neuen Modell für die Anwendungsentwicklung einher. Entwickler zerlegen Anwendungen zunehmend in kleinere, funktionsspezifische Komponenten, die als KI-Agenten dienen können. Dieses neue Modell ermöglicht es Entwicklern, schnell neue Agenten zu erstellen und gleichzeitig ihre Performance, Ausfallsicherheit und Sicherheit zu verbessern.
Es gibt nur ein Problem: Entwickler verwenden häufig Hyperscaler, um Apps zu erstellen. Hyperscaler können dieses neue Anwendungsmodell jedoch nicht angemessen unterstützen. Sie sind nicht dafür ausgelegt, personalisierte Apps oder Agenten an Millionen einzelner Benutzer bereitzustellen.
Wir brauchen eine neue Grundlage für diese KI-Ära – eine neue Infrastruktur für die Entwicklung und Bereitstellung von Anwendungen und Agenten der nächsten Generation. Die Grundlage dafür beginnt mit dem Verständnis wichtiger Veränderungen in der Anwendungsentwicklung, der Identifizierung der Einschränkungen von Hyperscalern und der anschließenden Definition wesentlicher Anforderungen. Sobald wir das Fundament geschaffen haben, können wir Anwendungen und Agenten entwickeln, die unsere Geschäftsziele unterstützen und die Erwartungen unserer Kunden erfüllen.
Die Zeiten, in denen große, monolithische Anwendungen entwickelt wurden, die jedem Benutzer die gleiche Erfahrung bieten, neigen sich dem Ende zu. Zwei Schlüsseltrends wirken zusammen, um ein neues Paradigma in der App-Entwicklung zu schaffen: Unternehmen nutzen KI, um hochgradig personalisierte Erlebnisse zu schaffen, und sie setzen ein neues Architekturmodell ein, um Apps zu entwickeln und bereitzustellen.
Teams, die Apps entwickeln, können nicht länger generische, standardisierte Benutzererlebnisse entwickeln, die Benutzer mit überflüssigen Informationen und irrelevanten Angeboten überhäufen. Kunden erwarten heutzutage – sei es im Einzelhandel, bei Finanzdienstleistungen, im Gaming-Bereich oder in anderen Branchen – dass Apps ansprechende Erlebnisse bieten, die ihre individuellen Präferenzen und Interessen widerspiegeln.
KI-Anwendungen und -Agenten helfen, diese hochpersonalisierten Erlebnisse zu schaffen. Und das können sie in großem Umfang tun, ohne dass Teams die manuelle Entwicklungsarbeit erhöhen müssen.
Nehmen wir an, Ihr Unternehmen bietet eine Kalendersoftware an. Vielleicht möchten Sie Ihren Kunden die Möglichkeit geben, bestimmte Arten von Veranstaltungen zu planen, wie z. B. Fußballspiele für Kinder. Jede Einzelperson hätte einen einzigartigen KI-Agenten, der Spielinformationen aus dem Online-Veranstaltungskalender der Liga sammeln und anschließend den benutzerdefinierten, personalisierten Kalender der jeweiligen Person befüllen könnte. Mithilfe von KI-Agenten können Sie diese individualisierten Erlebnisse für Tausende oder Millionen von Kunden bereitstellen.
Das Bestreben, mithilfe von KI-Anwendungen und -Agenten hochgradig personalisierte Erlebnisse zu schaffen, wird durch eine wichtige Veränderung in der Softwareentwicklung unterstützt. Nach dem Übergang von monolithischen Anwendungen zu Microservices setzen Entwickler nun auf ein „Nanoservices“-Modell. Dieses Modell zerlegt App-Funktionen in kleine, in sich geschlossene, zweckgebundene Komponenten – noch kleiner und unabhängiger als Microservices. Wie der Microservices-Ansatz tragen Nanoservices dazu bei, die Entwicklung zu beschleunigen und die Ausfallsicherheit von Apps zu verbessern. Darüber hinaus ermöglichen sie eine Hyperpersonalisierung.
Jede Nanoservice-Komponente arbeitet wie ein Agent, der eine sehr spezifische, hochgradig angepasste Aufgabe ausführt. Anstatt eine einzige Anwendung zu entwickeln, die Millionen von Nutzern bedient, ermöglicht Ihnen diese Architektur, Millionen von einzigartigen, maßgeschneiderten Agenten bereitzustellen.
Die Integration von KI in dieses Architekturmodell ermöglicht Ihnen, Agenten zu nutzen, um personalisierte Erlebnisse in großem Umfang bereitzustellen. Sie können die Eingaben des Nutzers (z. B. einen Prompt, einen Browserverlauf oder eine Chat-Interaktion) an ein Large Language Model (LLM) senden und anschließend eine personalisierte Aufgabe basierend auf der Ausgabe ausführen. Sie können den Prozess einmal ausführen und ihn dann beenden – oder ihn millionenfach verwenden.
Die Verknüpfung von Nanoservices mit KI kann also einen revolutionären Einfluss darauf haben, welche Art von Erfahrungen Sie Ihren Nutzern bieten. Dennoch wird es mit typischen Hyperscaler-Angeboten schwierig sein, das Beste aus Nanoservices und KI zu machen.
Es überrascht nicht, dass Hyperscaler die bevorzugte Wahl für die Entwicklung und Bereitstellung von Anwendungen sind, da sie in der Regel flexibler und kostengünstiger als herkömmliche On-Premise-Umgebungen sind. Dennoch sind sie aufgrund von Einschränkungen bei der Skalierbarkeit, Statusfreiheit, Sicherheitsbeschränkungen und zusätzlichen Kosten nicht die beste Grundlage für KI.
Hyperscaler eignen sich hervorragend für die Skalierung einer einzelnen App: Mit einem Hyperscaler können Sie dieselbe einzelne App für Tausende von Nutzern bereitstellen. Hyperscaler verfügen jedoch nicht über die richtige Anwendungsarchitektur, um Millionen von unabhängigen Apps oder Agenten effizient an Millionen von Einzelpersonen bereitzustellen.
Ihnen fehlen außerdem die automatisierten Prozesse, um diese Anwendungen und Agenten schnell hoch- oder herunterzufahren. Möglicherweise haben Sie Tausende von Nutzern, die zu Saisonbeginn plötzlich einen maßgeschneiderten KI-Agenten zur Planung von Fußballspielen benötigen. Um die Nachfrage zu erfüllen, müssen Sie diese unabhängigen Agenten innerhalb von Millisekunden gleichzeitig aktivieren. Wenn die Saison endet und die Nachfrage nachlässt, müssen Sie diese Apps sofort herunterfahren, um Ressourcen zu sparen.
Bei den meisten Hyperscalern ist die Bereitstellung von Ressourcen für eine einzelne App ein zeitaufwendiger, manueller Prozess. Diese Umgebung ist schlichtweg nicht dafür ausgelegt, zahlreiche individuelle, angepasste Apps zu unterstützen.
Hyperscaler können nicht die Zustandsspeicherung bieten, die Sie für die Ausführung von KI-Agenten benötigen. Ein KI-Agent sollte sich Kontext, Benutzereinstellungen und Benutzerinteraktionen von einer Sitzung zur nächsten merken. Diese Zustandsverwaltung ermöglicht es Nutzern, ihre Aufgabe genau dort fortzusetzen, wo sie unterbrochen wurde, anstatt von vorne beginnen zu müssen – selbst nach längerer Inaktivität.
Hyperscaler priorisieren jedoch Skalierbarkeit und Zuverlässigkeit gegenüber der Zustandsspeicherung. Hyperscaler sind so konzipiert, dass Ressourcen einfach hinzugefügt oder entfernt werden können, um sich ändernden Anforderungen gerecht zu werden, und bei Problemen schnell ausgetauscht werden können. Diese zustandslose Flexibilität geht zulasten der Beibehaltung von Daten im Speicher.
Wenn Sie hochpersonalisierte, KI-gestützte Apps und Agenten erstellen, müssen Sie sicherstellen, dass die Daten einer App/eines Agenten eines Nutzers niemals für einen anderen Nutzer zugänglich sind. Wenn Sie beispielsweise den Fußballspielplan Ihres Kindes mit einem KI-Agenten verfolgen, möchten Sie nicht, dass andere Personen Zugriff auf den Standort Ihres Kindes haben.
Da Hyperscaler keine App-Architekturen anbieten, die für auf Nanoservices basierenden Agenten ausgelegt sind, können sie nicht jeden Agenten angemessen schützen. Wenn Sie KI-Anwendungen und -Agenten entwickeln, müssen Sie sich auch vor der Vielzahl von Bedrohungen schützen, denen KI-Modelle ausgesetzt sind – von Prompt Injection und unsicherer Ausgabeverarbeitung bis hin zu Datenvergiftung und Schwachstellen in der Lieferkette. Nicht alle Hyperscaler verfügen über ausreichende integrierte Sicherheitsfunktionen, um diese und andere Bedrohungen zu bewältigen.
Und wenn Ihre Entwickler einen Hyperscaler und dessen KI-Modell für „Vibe Coding“ verwenden, wobei ein LLM beim Schreiben des Codes assistiert, müssen Sie sicherstellen, dass das Modell nicht unbeabsichtigt Sicherheitslücken verursacht.
Die Kosten für den Betrieb einer KI-gestützten App auf einem Hyperscaler summieren sich schnell. Sie berechnen Ihnen jeden Input zu und Output von einem KI-Modell. Andere berechnen Ihnen die Zeit, in der Ressourcen zugewiesen sind, selbst wenn diese Ressourcen keine Anfragen bearbeiten. Nehmen wir an, der KI-Agent, der Fußballtermine verfolgt, überprüft wiederholt den Onlinekalender der Liga auf Aktualisierungen von Spielzeiten oder -orten. Das Unternehmen, das die App bereitstellt, wird vom Cloud-Anbieter für die gesamte Zeit in Rechnung gestellt, in der Ressourcen reserviert sind, selbst wenn Ihr Code nur auf Benutzereingaben oder eine Antwort von einer externen Quelle (wie dem Online-Kalender der Liga) wartet.
Unter Umständen fallen auch hohe Egress-Gebühren an. Hyperscaler erheben diese Gebühren, wenn sie Daten an einen Nutzer über eine App eines anderen Cloudanbieters liefern oder Daten von ihrer Cloud in eine andere übertragen. Werden Daten innerhalb einer Cloud übertragen, können weiterhin regionale Gebühren für ausgehenden Traffic anfallen.
Bei der Auswahl einer cloudbasierten Plattform zum Erstellen und Ausführen von KI-gestützten Anwendungen gibt es vier wesentliche Anforderungen.
Erstens muss die Plattform eine Anwendungsschicht bereitstellen, die zur Unterstützung der Nanoservices entwickelt wurde, welche hochpersonalisierte KI-Anwendungen und -Agenten ermöglichen. Sie müssen problemlos Millionen präzise zugeschnittener Apps und Agenten erstellen, die alle gleichzeitig ausgeführt werden – und alle in der Nähe der Benutzer, am Edge, bereitgestellt werden. Und Sie sollten diese Apps automatisch und in Millisekunden aktivieren oder deaktivieren können.
Die Plattform sollte es Ihnen ermöglichen, zustandsbehaftete Agenten zu erstellen, die den Kontext für Minuten, Stunden, Tage oder Wochen im Speicher behalten. Anders als bei traditionellen zustandslosen serverlosen Architekturen ermöglicht eine Plattform mit Zustandsspeicherung es Agenten, Interaktionen nach längerer Zeit wiederaufzunehmen und komplexe, langwierige Aufgaben auszuführen.
Die beste Plattform für KI-Entwicklung ermöglicht es Ihnen, auf einfache Weise Sicherheit in Apps und Agenten zu integrieren. Damit können Sie sichere und diskrete Nanoservices erstellen, die sensible Daten schützen. Gleichzeitig werden Tools bereitgestellt, mit denen Entwickler mit Zuversicht programmieren können, um Datenlecks, Prompt-Injection-Angriffe und andere Bedrohungen zu verhindern, die bei der Integration von KI-Modellen in Apps auftreten können.
Eine grundlegende KI-Plattform muss verschiedene Möglichkeiten bieten, um die Kosten für den Betrieb von KI-Anwendungen zu minimieren. Zum Beispiel kann die Zwischenspeicherung von KI-Modellantworten die Token-Gebühren senken. Wenn Nutzer wiederholt dieselben Eingaben machen, zahlen Sie nicht für zahlreiche Aufrufe des KI-Modells.
Die Plattform sollte es Ihnen auch ermöglichen, die Gebühren für „Wall Time“ zu vermeiden, wenn Apps und Agenten auf Eingaben oder Antworten warten. Ihnen sollten nur dann Kosten entstehen, wenn Ihre Apps tatsächlich aktiv sind. Da Sie möglicherweise Daten von einer Speicherumgebung in eine andere verschieben müssen, muss die Plattform Daten-Egress-Gebühren eliminieren.
Cloudflare bietet eine skalierbare, sichere und kostengünstige Grundlage für die Entwicklung, den Betrieb und die Absicherung von KI-gestützten Anwendungen und Agenten. Cloudflare bietet ein breites Portfolio an Diensten, um die Entwicklung von KI-Anwendungen und KI-Agentenentwicklung zu optimieren – einschließlich einer Plattform zur Beschleunigung der KI-Entwicklung, eines SDKs zur Erstellung von KI-gestützten Agenten, Sicherheitsdiensten zum Schutz von KI-Anwendungen und Objektspeicher zur Speicherung schnell wachsender Datensätze ohne Egress-Gebühren.
Wichtig ist, dass die Cloudflare-Plattform so konzipiert ist, dass sie das Nanoservices-Modell unterstützt, mit dem sich Millionen hyperpersonalisierten Apps und Agenten entwickeln und skalieren lassen. Es bietet auch die Zustandsbehaftung, die erforderlich ist, um den Kontext zwischen Sitzungen zu erhalten. Und während Hyperscaler Sie dazu zwingen, mehrere unterschiedliche Dienste zu verketten, um Anwendungen zu erstellen, zu sichern und bereitzustellen, bietet Cloudflare alle Funktionen in einer einzigen, einheitlichen Connectivity Cloud Plattform. Das globale Netzwerk von Cloudflare ermöglicht es Ihnen, diese Anwendungen und Agenten in der Nähe einzelner Benutzer auszuführen und so reaktionsschnelle Erlebnisse mit geringer Latenzzeit zu bieten.
Die Nutzung von Cloudflare als KI-Fundament kann Ihnen helfen, innovative, hochpersonalisierte Anwendungen und Agenten schnell, sicher und kostengünstig zu entwickeln und bereitzustellen. Auf dieser Grundlage können Sie anschließend daran arbeiten, den ROI von KI für Ihr Unternehmen weiter zu maximieren und gleichzeitig das Risiko zu reduzieren.
Dieser Beitrag ist Teil einer Serie zu den neuesten Trends und Themen, die für Entscheidungsträgerinnen und -träger aus der Tech-Branche heute von Bedeutung sind.
Erfahren Sie in Sicherer Umgang mit KI: Ein Leitfaden zur Entwicklung einer skalierbaren KI-Strategie für CISO, wie Sie KI-Initiativen im Unternehmen unterstützen und gleichzeitig die Sicherheit verbessern können.
Folgende Informationen werden in diesem Artikel vermittelt:
Wie KI und Nanoservices die App-Entwicklung transformieren
Weshalb Hyperscaler den Anforderungen von KI-Apps nicht gerecht werden
3 Anforderungen an KI-App-Entwicklungsplattformen