KI-native Personaleinsatzplanung mit BubbleGPT
- herbertwagger
- 26. Juni
- 10 Min. Lesezeit
Aktualisiert: 1. Juli
Angesichts des von Microsoft-CEO Satya Nadella beschriebenen Paradigmenwechsels – „Traditionelle Business-Anwendungen werden sich grundlegend verändern. Ihre Logik wandert in KI-Agenten“ – skizziert dieser Abschnitt eine alternative KI-first Architektur für Personaleinsatzplanung. Kernidee ist ein System, das nicht aus starren Modulen besteht, sondern aus intelligenten AI-Agenten, die flexibel zusammenwirken. Diese BubbleGPT-basierte Plattform nutzt die Leistungsfähigkeit großer Sprachmodelle (LLMs) in Kombination mit direkten Datenbankzugriffen und Wissensgraphen, um klassische Software-Stacks zu ersetzen. Im Folgenden werden die Hauptkomponenten und Vorteile dieses Konzepts strukturiert beschrieben.

KI-Agenten statt klassischer Komponenten
In einem KI-nativen System übernehmen AI-Agenten viele Aufgaben, die bisher separate Softwarekomponenten erforderten. Ein AI-Agent lässt sich dabei als virtueller Benutzer verstehen, der eigenständig Informationen sammeln und Aktionen ausführen kann. Anstelle fester UI-, Logik- und Datenbank-Schichten tritt eine Schicht von KI-Modellen mit Tool-Einbindungen. Konkret könnten folgende traditionelle Komponenten durch KI-Agenten abgelöst oder unterstützt werden:

Benutzeroberfläche & Interaktion: Anstelle einer festen UI mit Formulareingaben kommuniziert der Nutzer mit einem Conversational Agent. Dieser versteht natürliche Sprache und kann komplexe Wünsche interpretieren („Plane die Schichten für nächste Woche unter Berücksichtigung der Urlaubswünsche und Qualifikationen“). Der Agent agiert als persönlicher Assistent für Planer und Mitarbeiter. Er ersetzt Menüs durch Dialog – via Chatbot, Sprachassistent oder in eine Collaboration-Plattform integriert. Wichtig: Nicht alles erfolgt nur in freier Sprache; der Agent kann bei Bedarf auch eine grafische Darstellung erzeugen (z.B. einen Dienstplan visualisieren), aber die Interaktion wird von der KI geführt.
Geschäftslogik & Regel-Engine: Klassische Systeme codieren Arbeitszeitgesetze, Tarifregeln, Qualifikationsanforderungen etc. in hart programmierten Regeln oder Konfigurationsmasken. In der KI-nativen Lösung wird diese Regellogik von Agenten ausgeführt. Ein KI-Modell wie GPT kann durch Prompting und eingebettetes Fachwissen Entscheidungen im Rahmen der Regeln treffen. Beispielsweise prüft der Agent eine geplante Schichtfolge gegen die hinterlegten Ruhezeitvorschriften, ohne dass dies als separate Code-Komponente implementiert sein muss – die KI „versteht“ die Regeltexte semantisch und kann sie anwenden. So könnten viele IF-THEN-Regeln wegfallen, da der Agent selbstständig beurteilt, ob ein Dienstplan regelkonform und fair ist. Dieser Planungsagent ersetzt also weite Teile der klassischen Business-Logik.
Optimierungskomponente: Statt eines fest verdrahteten Optimierungsalgorithmus kann ein KI-Agent verschiedene Strategien ausprobieren und bewerten. Etwa könnte ein Scheduling-Agent mittels Reinforcement Learning oder Heuristiken eigenständig Dienstpläne vorschlagen und dabei zielorientiert (Minimierung von Überstunden, Maximierung der Präferenzen-Erfüllung etc.) vorgehen. Denkbar ist auch eine Hybridlösung: Der KI-Agent nutzt zur Lösungsfindung klassische Optimierer als Werkzeug (z.B. Aufruf eines LP-Solvers) und interpretiert die Ergebnisse, ähnlich wie ein Planer mit einem Tool interagiert. Der Unterschied ist, dass der Agent diesen Prozess autonom durchführt. Damit wird die Optimierungslogik dynamischer und kann sich an veränderte Ziele anpassen (z.B. Schwerpunkt mal Kosten, mal Mitarbeiterzufriedenheit), ohne Neuprogrammierung.
Benachrichtigung & Workflow: Auch Komponenten wie Alarmierungssysteme oder Genehmigungsworkflows können von KI-Agenten übernommen werden. Ein Agent könnte z.B. proaktiv erkennen, dass eine Schicht unbesetzt bleiben wird, und automatisch andere Mitarbeiter anfragen oder vorschlagen, eine Springer-Schicht einzuplanen. Ebenso könnte ein Compliance-Agent kontinuierlich überwachen, ob alle gesetzlichen Vorgaben eingehalten werden, und bei Abweichungen eingreifen, anstatt dass dies im Nachhinein manuell geprüft wird.
Unterm Strich fungiert die KI-Schicht als “Betriebssystem” für die Anwendung: Sämtliche traditionellen Softwarefunktionen – Dateneingabe, Verarbeitung, Ausgabe – werden durch KI-gesteuerte Dialoge und Aktionen ersetzt oder gesteuert. Für die Endnutzer bedeutet das weit weniger direkte Bedienung komplexer Software. Stattdessen äußern sie Ziele oder Fragen, AI-Agenten erledigen die Routinearbeiten im Hintergrund. Dies folgt Nadellas Vision, dass Unternehmen künftig eigene AI-Assistenten für Kunden und Mitarbeiter bereitstellen, anstelle zig verschiedener Apps.
Architektur mit direktem Datenzugriff

Ein disruptives BubbleGPT-Modell setzt auf eine Architektur, in der KI-Agenten nahtlos mit Datenquellen verbunden sind – ohne zwischengeschaltete, starre Applikationsschichten. Der Aufbau könnte so aussehen:
Zentrale KI-Orchestrierung (BubbleGPT Core): Eine Komponente übernimmt das Orchestrieren der verschiedenen Agenten und Tools. Die BubbleGPT-Plattform dient hier als Workflow-Engine, die AI-Modelle, Datenbanken und Dienste verbindet. Sie ermöglicht es, dass eine Anfrage (“Plane Schichten…”) eine Sequenz von Aktionen triggert: Abfrage der Datenbank, Einholen relevanter Vorschriften aus dem Wissensspeicher, Berechnung eines Planvorschlags, usw. Diese Orchestrierung ist hochgradig anpassbar (No-Code/Low-Code), sodass neue Abläufe schnell definiert werden können, ohne tiefe Programmierung.
Direkte Datenbankschnittstellen: Anstatt über Applikationsserver geht der KI-Agent via sichere Daten-Connectoren direkt auf die benötigten Daten zu. Beispielsweise ein SQL-Tool: Der Agent kann SQL-Queries formulieren, um aktuelle Mitarbeiterdaten, Urlaubskalender oder Schichtpläne aus einer relationalen Personaldatenbank abzurufen. Moderne KI-Frameworks (OpenAI Functions, Anthropic MCP, LangChain-Tools) erlauben es, LLMs mit solchen Fähigkeiten auszustatten. Genauso kann ein NoSQL-Connector genutzt werden, um z.B. unstrukturierte Daten (E-Mails, Notizen) abzufragen, oder ein CSV/Excel-Parser, um Daten aus Uploads zu lesen. Wichtig ist die Echtzeitfähigkeit: Der Agent fragt zum Planungszeitpunkt die aktuellsten Daten ab, statt wie früher auf replizierte Datensilos zu setzen. Damit wird Single Source of Truth gewährleistet.
Vektor-Datenbank und semantischer Speicher: Ein zentraler Baustein ist ein semantischer Wissensspeicher (meist als Vektor-DB implementiert). Hier werden alle relevanten Texte und Dokumente (Gesetzestexte, Tarifverträge, Betriebsvereinbarungen, Qualifikationsprofile, historische Pläne, etc.) als Vektoren abgelegt. Der KI-Agent kann darüber per Embedding-Suche kontextrelevante Informationen abrufen. Beispiel: Der Agent soll einen neuen Dienstplan erstellen und prüft dazu die Ruhezeitregelungen – anstatt starrer Programmierung durchsucht er semantisch die hinterlegten Vorschriften und findet die passenden Paragraphen. Diese werden dann in den Kontext des Sprachmodells geladen, sodass es die Planung im Einklang mit den Regeln durchführt. Technologien wie FAISS oder Qdrant ermöglichen solch hochskalierbare semantische Suchen in Millisekunden. Das heißt, die Architektur sieht einen direkt angebundenen Vector Store vor, der von den AI-Agenten wie eine Wissensdatenbank genutzt wird.
Externe KI-Tools und Module: Die Architektur erlaubt es auch, externe Dienste einzubinden – etwa Optimierungs-APIs, Kartendienste (für Fahrzeiten berechnen, falls relevant), oder interne APIs (z.B. SAP-HCM-Schnittstelle zum Buchen der Arbeitszeiten). Die KI-Agenten können diese Funktionen orchestriert nutzen. Beispiel: Ein Routenplanungs-Agent könnte automatisch Google Maps API ansprechen, um die Fahrzeit eines Mitarbeiters zum Einsatzort zu berücksichtigen, wenn er Schichten zuteilt. In BubbleGPT lassen sich solche Tools orchestrieren, da die Plattform auf Workflows mit KI und API-Calls ausgelegt ist.
Sicherheit und Zugriffskontrolle: Obwohl Agenten viel Autonomie haben, muss die Architektur sichere Kontrollmechanismen bieten. Rollen- und Rechte werden weiterhin benötigt, z.B. darf ein Agent, der für Mitarbeiter interagiert, keine Administratorfunktionen ausführen. BubbleGPT unterstützt hier z.B. Integration mit LDAP/AD und Logging, damit jeder Datenbankzugriff und jede KI-Aktion nachvollziehbar bleibt. Die Plattform kann on-premise betrieben werden, um Datenschutzanforderungen zu genügen. Somit wird direkter Datenzugriff ermöglicht, ohne Sicherheit zu kompromittieren.
Das Ergebnis dieser Architektur: Echtzeit-Daten und KI-Denken greifen ineinander. Der AI-Agent arbeitet gewissermaßen auf den Live-Daten und zieht das benötigte Wissen situativ hinzu, anstatt in vorab programmierten Bahnen zu laufen. Dies erlaubt eine bislang unerreichte Flexibilität. Wenn sich die Datenlage ändert (z.B. neue Mitarbeiter, geänderte Vorschrift), lernt das System sofort mit – entweder durch aktualisierte Vektoreinträge oder durch direkten Datenbankbezug. Der klassische Software-Stack mit verschiedenen Schichten wird verschlankt zu einer Ebene von AI-Services über den Datenquellen, was die Komplexität reduziert.
Semantische Nutzung von Kompetenz- und Regeldaten
Eine besondere Stärke des KI-nativen Ansatzes ist der Umgang mit Wissen, das in Textform oder komplexen Daten vorliegt. Klassische Systeme verlangen oft die manuelle Übersetzung von Vorschriften und Qualifikationslogik in Parametereinstellungen. Mit KI-Agenten kann man diese Informationen direkt nutzbar machen:
Kompetenzdaten semantisch abfragen: Die Qualifikationen der Mitarbeiter (z.B. Führerscheine, Streckenkenntnisse, Sprachen, Gesundheitszeugnisse) werden nicht nur als starre Filter hinterlegt, sondern in beschreibender Form gespeichert. Ein Kompetenzprofil könnte z.B. als Textvektor abgelegt sein: “Mitarbeiter X: Lokführer, Baureihe 185, berechtigt für Gefahrgut, Streckenkunde: Alpenstrecke, Nachtschichttauglich”. Fragt der Planungs-Agent nun nach einem passenden Mitarbeiter für einen Nachtschicht-Güterzug über die Alpen, kann er semantisch suchen und findet automatisch diejenigen Profile, die all diese Anforderungen erfüllen – selbst wenn die Anfrage nicht 1:1 den hinterlegten Begriffen entspricht. Diese Ähnlichkeitssuche in Vektorraumspeichern macht die Planung robuster und schneller, da nicht jede Abfrage exakt vorkonfiguriert sein muss. Die BubbleGPT-Technologie unterstützt solche kontextuellen Suchen, indem sie Wissensgraphen mit semantischer Suche kombiniert.
Vorschriften und Regeln als Wissen: Gesetzestexte oder Tarifverträge werden in das System hochgeladen (z.B. als PDFs oder Text) und per KI vorverarbeitet. Sie stehen dann als kontextuelle Information bereit. Soll der KI-Agent z.B. einen Wochenenddienstplan erstellen, der mit dem Tarifvertrag konform ist, so zieht er automatisch relevante Passagen (etwa Zuschlagsregelungen für Wochenendarbeit) heran, ohne dass ein Entwickler diese Regel je explizit codieren musste. Die KI versteht die Sprache der Vorschrift und kann sie anwenden. Dabei hilft die Kombination aus Vektorsearch und RAG (Retrieval-Augmented Generation): Passende Ausschnitte werden ins Prompt des Modells geladen, damit es die Planung unter diesen Bedingungen erstellt. Änderungen an Vorschriften (neue GDL-Tarife, EU-Arbeitszeitrichtlinien etc.) müssen nicht mehr aufwendig in Softwareupdates gegossen werden – man speist das neue Dokument ein, und die KI berücksichtigt es fortan bei ihren Entscheidungen. Dieses lebende Regelwerk ist immer up-to-date.
Einsatzparameter und Echtzeitdaten: Neben statischem Wissen nutzt die KI semantisch auch Echtzeitinformationen. Zum Beispiel könnten aktuelle Betriebszustände (Zugverspätungen, Personalausfälle wegen Krankheit, etc.) in einem NoSQL-Store erfasst sein. Ein Disposition-Agent kann in natürlicher Sprache diese Situation bewerten: “Zug 4711 fällt aus, was bedeutet das für die Schicht von Lokführer Y?”. Die KI greift dazu auf die verknüpften Daten (Zugfahrplan, Umlaufplan, Schichtplan von Y) zu und schließt logisch, dass z.B. Lokführer Y nun Reserve ist oder für einen anderen Zug disponiert werden könnte. Die semantische Verknüpfung erlaubt es dem Agenten, Folgen abzuleiten, anstatt nur vorab definierte Reaktionsmuster zu befolgen.
Lernen aus historischen Daten: Über Machine Learning kann die Plattform in den semantischen Daten auch Muster erkennen – z.B. typische Engpässe zu Stoßzeiten, beliebte Tauschmuster bei Mitarbeitern etc. Diese Erkenntnisse fließen wiederum in zukünftige Planungen ein (z.B. “Im letzten Jahr gab es im Dezember immer 15% Mehrarbeit im Lager – plane dieses Jahr proaktiv mehr Personal ein”). Kompetenzprofile könnten automatisch um Auslastungsgrade ergänzt werden, Vorschriften um typische Auslegungen. Dieses lernende Element macht die semantische Schicht immer wertvoller, je länger das System im Einsatz ist.
Zusammengefasst werden Know-how, Regeln und Parameter nicht mehr in Code gegossen, sondern in natürlicher Form gespeichert und von der KI on-demand verstanden. Das System wird so wissensgetrieben: Was früher fest verdrahtet war, ist nun flexibel abrufbares Wissen. Dies ermöglicht eine nie dagewesene Anpassungsfähigkeit bei Änderungen – genau das, was in volatilen Umfeldern (Logistik-Peaks, Personalengpässe, neue Gesetze) benötigt wird.
Vorteile und USPs gegenüber klassischen Lösungen
Ein KI-natives, auf BubbleGPT basierendes System hat gegenüber herkömmlichen PEP-Lösungen mehrere Alleinstellungsmerkmale (USPs):

Adaptive Intelligenz statt starrer Abläufe: Klassische Software folgt vordefinierten Workflows. Die KI-Agenten hingegen denken mit. Sie reagieren flexibel auf ungewöhnliche Situationen und lernen aus jedem Planungszyklus. Dadurch können sie z.B. kreative Lösungen vorschlagen, an die ein fest programmiertes System nicht gedacht hätte. Das System passt sich dynamisch an Nutzerpräferenzen und Unternehmensziele an – laut Entwicklern der BubbleGPT-Plattform erlaubt die Kombination aus Datenintegration und GPT-Intelligenz “kontextbezogene, tiefe Einblicke in Echtzeit”, wobei sich die KI kontinuierlich an die Bedürfnisse der Nutzer anpasst. Dieses Maß an Selbstanpassung und Kontext-Verständnis ist einzigartig.
Natürliche Interaktion und geringere Schulungsaufwände: Die Bedienung erfolgt über natürliche Sprache und intuitive Interaktionen, nicht über komplexe GUIs. Das senkt die Hürde für Anwender enorm. Ein neuer Disponent könnte dem System Fragen stellen wie einem erfahrenen Kollegen („Welche Optionen habe ich, um die Frühschicht am Freitag zu besetzen?“). Die KI antwortet erklärend und führt die gewünschten Aktionen aus. Dies verkürzt Einarbeitungszeiten und verringert Fehler durch Fehlbedienung. Die Software fühlt sich eher wie ein dialogfähiger Kollege an. Damit wird die User Experience revolutioniert – ein echter Wettbewerbsvorteil in einer Zeit, in der Fachkräfte knapp sind und Usability zählt.
Enorme Zeiteinsparung und Entscheidungsunterstützung: Durch Automatisierung und KI-Optimierung können Planungsprozesse, die früher Stunden oder Tage dauerten, in Minuten erledigt werden. Wie das Beispiel der KI-gestützten Planung bei ZEDAS zeigte, lässt sich der Aufwand um über 90% reduzieren. Planer erhalten Vorschläge statt bei Null anzufangen. Routineaufgaben (Schichten tauschen, Dienstwünsche prüfen, Überstunden berechnen) laufen im Hintergrund automatisch. Menschen können sich auf Qualitätsprüfung und Sonderfälle konzentrieren. Gleichzeitig liefert die KI begründete Empfehlungen („Wenn du Option A wählst, entstehen 5 Überstunden, Option B verursacht eine Qualifikationsabweichung“). Diese Transparenz und Geschwindigkeit verschafft Unternehmen einen Produktivitätsvorsprung.
Direkte Wissensintegration und weniger Pflegeaufwand: In klassischen Systemen erfordert jede neue Vorschrift oder Firmenregel aufwendige Parametrisierung durch IT oder Berater. Im KI-Modell hingegen pflegt sich das System selbst, indem es einfach neue Dokumente übernimmt. Die Wissensbasis ist somit immer aktuell, ohne lange Release-Zyklen. Das ist ein USP insbesondere in stark regulierten Branchen (Bahnverkehr, Arbeitszeitgesetzgebung), wo Änderungen häufig auftreten. Außerdem bleibt das implizite Wissen der erfahrenen Planer im Unternehmen: Wenn die KI mit den Planern interagiert, lernt sie aus deren Entscheidungen. Dieses Wissen geht nicht verloren, wenn ein Mitarbeiter ausscheidet, sondern steht weiter bereit – ein kollektives Gedächtnis der Organisation.
Disruptive Kosteneffizienz: Ein KI-getriebenes System könnte mittelfristig kostengünstiger sein. Zwar fallen anfangs Investitionen für die KI-Modelle und Trainings an, aber laufend reduzieren sich z.B. Beratertage für Softwareanpassungen, weil das System viel selbst erledigt. Auch die IT-Infrastruktur kann schlanker sein: Es wird kein schwergewichtiger Applikationsserver mit komplexer Middleware benötigt – eine skalierbare Cloud-Umgebung für die KI-Dienste und Datenbanken reicht. Wartung konzentriert sich auf die KI-Plattform (Modell-Updates, Prompt Engineering) statt auf zig Module. Für Unternehmen bedeutet das geringere Total Cost of Ownership (TCO) über die Zeit. Zudem eröffnet die Einbindung generativer KI neue Möglichkeiten, Mehrwert zu schaffen, etwa durch automatische Berichte, Simulationen („Was-wäre-wenn“-Analysen per Sprachbefehl) oder sogar autonome Verhandlungen bei Personalengpässen (Agenten handeln z.B. zwischen Abteilungen die Zuteilung von Springerkräften aus).
Zukunftssicherheit durch AI-First-Ansatz: Angesichts des rasanten Fortschritts in der KI (neue Modelle, steigende Leistung) ist ein System, das von vornherein auf AI-Agenten setzt, zukunftsfähiger. Updates könnten einfach das Austausch oder Fine-Tuning des KI-Modells bedeuten, ohne komplette Neuentwicklung der Applikation. Satya Nadella prognostiziert, dass jedes Unternehmen künftig einen eigenen AI-Agenten haben wird – dieses Konzept greift genau das auf und würde einem Logistik- oder Bahnunternehmen erlauben, seinen spezifischen KI-Agenten zu entwickeln, der exakt auf die internen Prozesse trainiert ist. Das ist ein USP gegenüber generischen Standardsoftwares: Die KI-Lösung wird mit der Zeit immer unternehmensspezifischer und damit schwer imitierbar für Wettbewerber.
Anwendungslogik:
Zum Abschluss sei ein typischer Ablauf skizziert, wie die BubbleGPT-Lösung im Alltag funktioniert:
Beispiel: Ein Disponent sagt per Sprachbefehl: „Plane den Schichtplan für nächste Woche für das Lokführer-Team in Österreich, berücksichtige dabei die Urlaubsliste und dass keiner mehr als 50 Stunden kommt.“ Daraufhin:
Verständnis: Der Sprach-KI-Agent interpretiert die Anfrage und zerlegt die Aufgabe.
Datenzugriff: Ein Daten-Agent zieht die Stammdaten der Lokführer aus der SQL-Datenbank (inkl. Verfügbarkeiten, Urlaub), lädt aus dem Vektor-Store die relevanten Arbeitszeitregeln (z.B. max. 50 Stunden Woche) und die Urlaubslisten.
Planung: Der Scheduling-Agent entwirft anhand dieser Infos einen Schichtplan. Er nutzt dabei ggf. einen Optimierungsalgorithmus im Hintergrund, um Fahrten und Personal optimal zu matchen, und überprüft mittels der eingebundenen Regeltexte die Einhaltung aller Limits.
Rückfrage & Feinschliff: Der Agent stellt fest, dass zwei Mitarbeiter eine seltene Qualifikation haben, die am Dienstag gebraucht wird, beide aber Urlaub wollten. Er fragt den Disponent (oder direkt die Mitarbeiter via Mitarbeiter-Chatbot), wie zu verfahren ist – z.B. „Soll ich Herrn A trotz Urlaubswunsch einteilen, da sonst die Qualifikation fehlt, oder eine ungeplante Überstunde von Herrn B ansetzen?“.
Finalisierung: Nach Klärung passt die KI den Plan an, finalisiert ihn und präsentiert dem Disponenten den fertigen Wochenplan – grafisch und als erklärende Zusammenfassung. Gleichzeitig erhalten die Mitarbeiter ihre Schichtbenachrichtigungen via App/Chat.
Lernen: Das System speichert die Entscheidung (Urlaub von A trotz Wunsch gestrichen) als neues Lerndatum. Künftig wird es versuchen, solche Konflikte proaktiver zu erkennen oder andere Lösungen vorzuschlagen (vielleicht mehr Mitarbeiter mit dieser Qualifikation einplanen).
In diesem Beispiel sieht man, wie nahtlos die KI versteht, plant, kommuniziert und lernt. BubbleGPT stellt hierfür die Plattform bereit, um all diese Schritte orchestriert ablaufen zu lassen, vom LLM im Hintergrund bis zur Integration in vorhandene Kommunikationskanäle.
Fazit: Das vorgeschlagene KI-native Konzept würde einen radikalen Bruch mit bisherigen PEP-Lösungen bedeuten. Statt monolithischer Software hätte man einen agilen Schwarm von AI-Agenten, der sich um die Personaleinsatzplanung kümmert. Durch direkten Datenzugriff, semantische Intelligenz und selbstlernende Algorithmen können Unternehmen im Bahn- und Logistiksektor nicht nur effizienter planen, sondern auch flexibler auf Änderungen reagieren. Die klassischen Software-Stacks würden dadurch in vielen Bereichen überflüssig – getreu Nadellas Aussage, dass AI-Agenten traditionelle Software ersetzen werden. Diese BubbleGPT-basierte Lösung wäre disruptiv, weil sie Technologie, Fachwissen und Benutzer auf völlig neue Weise zusammenbringt, und könnte der Personalplanung in Bahnverkehr und Logistik einen entscheidenden Innovationsschub verleihen.

Comments