Volkswagen feiert Weltpremiere des neuen ID. Polo bei IAA Mobility; 454 km Reichweite, 24 Minuten Laden

Volkswagen feiert Weltpremiere des neuen ID. Polo bei IAA Mobility; 454 km Reichweite, 24 Minuten Laden Volkswagen feiert Weltpremiere des neuen ID. Polo | IAA MOBILITY Volkswagen feiert Weltpremiere des neuen ID. Polo Volkswagen hat die Weltpremiere des neuen ID. Polo gefeiert, der mit einem neuen effizienten Frontantrieb und in drei Leistungsstufen mit 85 kW (116 PS), 99 kW (135 PS) und 155 kW (211 PS) auf den Markt kommen soll. Die 85-kW- und 99-kW-Versionen werden dabei serienmäßig mit einer 37 kWh großen LFP-Version der neuen Hochvolt-Batterie starten. Diese Batterie kann an DC-Schnellladesäulen in ca. 23 Minuten von 10 auf 80 % geladen werden und soll eine Reichweite von bis zu 329 km haben. Der 155-kW-Antrieb wird von einer NMC-Variante mit Strom versorgt, bietet einen Energiegehalt von 52 kWh, soll Reichweiten von bis zu 454 km ermöglichen und an DC-Säulen in ca. 24 Minuten von 10 auf 80 % geladen werden können. ...

April 30, 2026

Deutsche Bahn Digitaler Zwilling stärkt Dialog beim Zweigleisiger Ausbau Anckelmannsplatz–Rothenburgsort, Hamburg; mehr Fernzüge und Regionalzüge flexibel eingesetzt

Deutsche Bahn Digitaler Zwilling stärkt Dialog beim Zweigleisiger Ausbau Anckelmannsplatz–Rothenburgsort, Hamburg; mehr Fernzüge und Regionalzüge flexibel eingesetzt Digitaler Zwilling stärkt bei Bauprojekt Dialog mit Bürgerinnen und Bürgern Artikel:Digitaler Zwilling stärkt bei Bauprojekt Dialog mit Bürgerinnen und Bürgern Die Deutsche Bahn (DB) geht im Projekt „Zweigleisiger AusbauAnckelmannsplatz– Rothenburgsort“ in Hamburg neue Wege – im Mittelpunkt steht dabei eine innovative Bau-Webseite. Mithilfe eines sogenannten digitalen Zwillings soll der Dialog mit Bürgerinnen und Bürgern und damit die Beteiligung der Öffentlichkeit deutlich gestärkt werden. Der Anlass: Auf dem rund drei Kilometer langen Teilstück zwischenAnckelmannsplatzund Rothenburgsort steht dem Fern- und Regionalverkehr bislang nur ein Gleis zur Verfügung, während die S-Bahn nebenan bereits zweigleisig fährt. Dieser Engpass macht die Strecke störanfällig: Züge können sich nicht überholen, Verspätungen lassen sich nur schwer ausgleichen, der Fahrplan bleibt unflexibel. Ein weiteres Gleis soll Abhilfe schaffen. ...

April 30, 2026

Deutsche Rentenversicherung Bund sucht UX/UI Designer*in Berlin; End-to-End Digitalisierung der Privatkundenservices.

Deutsche Rentenversicherung Bund sucht UX/UI Designer*in Berlin; End-to-End Digitalisierung der Privatkundenservices. Stellenangebote | UX/UI Designer*in | Deutsche Rentenversicherung Bund Die Deutsche Rentenversicherung Bund sucht am Standort Berlin zum nächstmöglichen Zeitpunkt eine*n UX UI Designer*in zur Besetzung einer unbefristeten Vollzeitstelle. Teilzeit ist grundsätzlich möglich. Die Online-Agentur verantwortet die Online-Services für Privatkunden und verfolgt das Ziel, die Kernleistungen für diese Zielgruppe zu digitalisieren. Das machen wir „Ende-zu-Ende“, in trägerübergreifenden Teams, nutzerzentriert und auf Basis moderner Technologien. Um diesem Auftrag erfolgreich nachzukommen, sind wir auf der Suche nach neuen Talenten, die unsere Leidenschaft für die digitale Verwaltung, Gov-Tech, Nutzerzentrierung, agiles Arbeiten und die Digitalisierung von Prozessen teilen. Gemeinsam gelingt es uns, einfache, nutzerfreundliche und relevante Online-Services für unsere Kund*innen anzubieten und zum Beispiel das „Kundenportal“ oder den „Rentenantrag online“ zum „neuen Normal“ zu etablieren. ...

April 30, 2026

SIEVERS SNC Computer & Software GmbH & Co. KG veröffentlicht SLA für SIEVERS QM for ELO Baden-Württemberg; P1-Reaktionszeit 4 Stunden

SIEVERS SNC Computer & Software GmbH & Co. KG veröffentlicht SLA für SIEVERS QM for ELO Baden-Württemberg; P1-Reaktionszeit 4 Stunden Service Level Agreement (SLA) für die Software SIEVERS QM for ELO Jetzt anmelden! Themen­übergreifend SIEVERS-WORLD Summer Edition 2026 24. - 25.06.2026 Dümmer See Jetzt anmelden! Enterprise Content Management Coffee & ELO Insights am Morgen mit Bennet: ELO Cloud 12.05.2026 SLA Version 1.0 – Stand 2026 1. Geltungsbereich Dieses Service Level Agreement (SLA) regelt die Support‑, Wartungs‑ und Serviceleistungen der SIEVERS SNC Computer & Software GmbH & Co. KG für die Software „SIEVERS QM for ELO“. Diese SLA gilt ausschließlich für Kunden mit einer gültigen Lizenz sowie einer aktiven Subscription der Software. Leistungsbestandteile dieses SLA sind insbesondere: - Technischer Support - Fehleranalyse und Fehlerbehebung - Bereitstellung von Softwareupdates - Bereitstellung von Hotfixes bei kritischen Fehlern Nicht Bestandteil dieser SLA sind: - individuelle Beratung oder Consulting - Schulungen - Individualentwicklungen - kundenspezifische Anpassungen der Software 2. Vertragspartei und Anbieter SIEVERS SNC Computer & Software GmbH & Co. KG – nachfolgend „SIEVERS SNC“ – 3. Supportkanäle Supportanfragen können über folgende Kanäle gestellt werden: - E‑Mail: support@sievers-group.com - Telefon: +49 541 9493-111 Zur effizienten Bearbeitung und lückenlosen Nachverfolgung wird die Nutzung des Ticketsystems empfohlen. 4. Supportzeiten Die regulären Supportzeiten sind: Montag bis Freitag 08:00 – 17:00 Uhr (MEZ) Ausgenommen sind gesetzliche Feiertage im Bundesland Baden‑Württemberg. Supportanfragen außerhalb dieser Zeiten werden am nächsten Supportarbeitstag bearbeitet. 5. Prioritätsklassen P1 – Kritisch Kompletter Ausfall der Software oder eines zentralen Systems, kein verfügbarer Workaround. P2 – Hoch Wesentliche Funktionen sind nicht verfügbar oder erheblich eingeschränkt. P3 – Mittel Funktionale Einschränkungen bei weiterhin möglicher Nutzung. P4 – Niedrig Allgemeine Fragen, kosmetische Fehler oder Verbesserungsvorschläge. 6. Reaktionszeiten - P1 – Kritisch: 4 Stunden - P2 – Hoch: 8 Stunden - P3 – Mittel: 1 Werktag - P4 – Niedrig: 2 Werktage Die Reaktionszeit beschreibt den Zeitraum bis zur ersten qualifizierten Rückmeldung. 7. Zielzeiten für Fehlerbehebung SIEVERS SNC strebt folgende Zielzeiten an: - P1 – Kritisch: Workaround oder Lösung innerhalb eines Arbeitstages - P2 – Hoch: Lösung innerhalb von drei Arbeitstagen - P3 – Mittel: Lösung im nächsten geplanten Softwareupdate - P4 – Niedrig: Berücksichtigung in zukünftigen Releases 8. Softwarewartung und Updates Im Rahmen einer aktiven Subscription stellt SIEVERS SNC für SIEVERS QM for ELO folgende Updates bereit: - Major Releases: ca. einmal jährlich - Minor Releases: ein‑ bis zweimal jährlich - Hotfixes: bei Bedarf 9. Drittsoftware Die SIEVERS QM for ELO basieren auf der ELO Plattform. Diese SLA gilt ausschließlich für Softwarekomponenten der SIEVERS SNC Computer & Software GmbH & Co. KG. Einschränkungen der ELO Plattform oder sonstiger Drittsoftware sind nicht Bestandteil dieser SLA.

April 30, 2026

DFL Stiftung entwickelt Ganztags-Chatbot in Deutschland; 24/7 Unterstützung für Vereine

DFL Stiftung entwickelt Ganztags-Chatbot in Deutschland; 24/7 Unterstützung für Vereine Neuer Chatbot unterstützt Vereine im Ganztag - DFL Stiftung WAS UNS BEWEGTGesundes und aktives AufwachsenGesellschaftliches MiteinanderSpitzensport WAS WIR TUNUnsere ProjekteFördermöglichkeitenNetzwerk und Austausch Neuer Chatbot unterstützt Vereine im Ganztag Der Ausbau von Ganztagsangeboten stellt Sportvereine in Deutschland vor eine zentrale Zukunftsfrage: Wie können Bewegung, Spiel und Sport nachhaltig im Alltag von Kindern verankert werden? Genau hier setzt ein neuer Chatbot an, den wir gemeinsam mit gemeinsam mit derDeutschen Turnjugend, derDeutschen Sportjugend (dsj)und der Deutschen Kinderturn-Stiftung entwickelt haben. ...

April 30, 2026

Dr. Olaf Radant (Eraneos) erklärt KI-Transformation im EU-Transport- und Logistikbereich; 426’000 unbesetzte Lkw-Stellen

Dr. Olaf Radant (Eraneos) erklärt KI-Transformation im EU-Transport- und Logistikbereich; 426’000 unbesetzte Lkw-Stellen Im Transport- und Logistikbereich ist eine KI-Transformation nötig. | Eraneos Im Transport- und Logistikbereich ist eine KI-Transformation nötig. Führungskräfte im Transport- und Logistikbereich stehen konstant vor der Herausforderung, Effizienz und Sicherheit zu optimieren, während die Betriebsabläufe immer komplexer werden und die Regulierung zunimmt. Zugleich bleibt das Frachtvolumen hoch, und die Erwartungen der Kunden steigen weiter. Gemäss Eurostat erreichten der Strassengüterverkehr in der EU im Jahr2024 ein Volumen von 1’869 Mrd. Tonnenkilometerund der Schienengüterverkehr375 Mrd. Tonnenkilometer. Die Branche ist abhängig von riesigen, miteinander verbundenen Netzwerken, deren Erfolg auf präziser und effektiver Planung und entsprechenden Abläufen beruht. ...

April 30, 2026

Säntis Consulting GmbH Umbenennung in Mercurio Consult GmbH Gossau (SG); Neue Firma Mercurio Consult GmbH

Säntis Consulting GmbH Umbenennung in Mercurio Consult GmbH Gossau (SG); Neue Firma Mercurio Consult GmbH Mutation Säntis Consulting GmbH, Gossau (SG), neu Mercurio Consult GmbH Was ändert sich mit der KI-Suche? Die klassische Suchfunktion der Publikationsplattform wird durch eine künstliche Intelligenz (KI) unterstützt. Im Gegensatz zur herkömmlichen Stichwortsuche verwendet die KI eine semantische Suche, bei der nicht nur exakt übereinstimmende Wörter einen Treffer ergeben, sondern auch der inhaltliche Sinn und Bedeutungszusammenhang der Suchanfrage verstanden werden. Dadurch werden bessere und relevantere Ergebnisse ermöglicht. Klassische Suchoperatoren und die herkömmliche Volltextsuche über die Suchleisten der einzelnen Bereiche funktionieren weiterhin wie gewohnt. Prompting-Tipps Im Suchfeld ist in eigenen Worten zu beschreiben, wonach im Dokumentinhalt gesucht wird – unabhängig davon, ob sich der Begriff im Titel oder an anderer Stelle im Dokument befindet. Es können Schlüsselwörter, Phrasen oder ganze Sätze verwendet werden. Stellen Sie der KI-Suche jedoch keine Fragen und formulieren Sie auch keine Anweisungen. Suchoperatoren sind in der Regel nicht notwendig. Wenn ein bestimmtes Wort zwingend enthalten sein soll, kann ein Pluszeichen direkt davor gesetzt werden (z. B. +Uzwil). Müssen mehrere Wörter in einer bestimmten Reihenfolge erscheinen, setzen Sie sie in Anführungszeichen (z.B. +Gemeinde Uzwil). Um bestimmte Wörter auszuschliessen, wird ein Minuszeichen verwendet (z. B. -Uzwil oder -Gemeinde Uzwil). Datenschutz Die KI-Suche greift auf sämtliche amtliche Publikationen des Kantons St.Gallen sowie der St.Galler Gemeinden zu. Bitte geben Sie keine persönlichen oder sonst vertraulichen Daten in der Suchfunktion ein. Die KI-Suche verarbeitet alle Anfragen automatisiert, ohne individuelle Prüfung oder Schutzmechanismen für Personendaten. Es gilt die Datenschutzerklärung von sg.ch. Die intelligente Suchfunktion basiert auf einer LLM-Technologie (Large Language Model) in Kombination mit einer Retrieval Augmented Generation (RAG) des Schweizer Unternehmens DeepJudge. Die Cloud wird bei Microsoft Azure in der Schweiz gehosted. Testphase Die Anwendung des KI-Systems befindet sich in einer Testphase. Wir freuen uns über Ihr Feedback, um den Service weiter zu verbessern. Kontakt Sie können sich bei Fragen an die Abteilung IT-Recht und Datenschutz der Staatskanzlei wenden: – per E-Mail an IT-Recht@sg.ch oder – per Post an: Kanton St.Gallen, Staatskanzlei, IT-Recht und Datenschutz, Regierungsgebäude, 9001 St.Gallen Mutation Säntis Consulting GmbH, Gossau (SG), neu Mercurio Consult GmbH Säntis Consulting GmbH, in Gossau (SG), CHE-147.661.238, Gesellschaft mit beschränkter Haftung (SHAB Nr. 125 vom 01.07.2020, Publ. 1004925504). Statutenänderung: 22.04.2026. Firma neu: Mercurio Consult GmbH.

April 30, 2026

Swiss Equestrian führt Tack App in der Schweiz ein; Pilotprojekt Springen – Ausweitung ab nächstem Jahr

Swiss Equestrian führt Tack App in der Schweiz ein; Pilotprojekt Springen – Ausweitung ab nächstem Jahr Neue Tack App: ein Tool für die einheitliche Anwendung der Reglemente In Anlehnung an die FEI-Tack-App – „Tack“ bedeutet im Englischen Pferdeausrüstung Reitzubehör – bietet die Tack App einen einfachen, schnellen und übersichtlichen Zugang zu allen Informationen rund um das am Turnier verwendete Material: Ausrüstung des Pferdes (welche Trensen, Gamaschen, etc. sind erlaubt), der Reiterin oder des Reiters, Zubehör sowie weitere wichtige Elemente. Auf einen Blick erkennen Sie den Status jedes Artikels je nach Disziplin. ...

April 30, 2026

Dynamiq und IBM watsonx Orchestrate entwickeln einen kostenbewussten Workflow für juristische Recherche bei einem europäischen Versicherungskunden; Vertragsprüfung halbiert, Klauselidentifikation 2 Minuten

Dynamiq und IBM watsonx Orchestrate entwickeln einen kostenbewussten Workflow für juristische Recherche bei einem europäischen Versicherungskunden; Vertragsprüfung halbiert, Klauselidentifikation 2 Minuten Wie Dynamiq mit IBM watsonx einen kostenbewussten Workflow für die juristische Recherche aufgebaut hat IBM watsonx Orchestrate hat einen eigenständigen Multi-Agent-Workflow zu einer unternehmensweiten Funktion ausgebaut und dazu beigetragen, die Zeit für die Prüfung von Rechtsverträgen um die Hälfte zu verkürzen. Von Rechtsabteilungen wird erwartet, dass sie zeitnah fundierte Antworten zu Verträgen, Richtlinien und Compliance-Fragen liefern. Das Dokumentenvolumen nimmt jedoch stetig zu, während das Unternehmen zunehmend fast sofortige Reaktionszeiten erwartet. Dies war das Hauptproblem eines europäischen Versicherungskunden, der mit dem IBM-Partner Dynamiq zusammenarbeitete. Um diese Herausforderung zu bewältigen, nutzte der IBM-Partner Dynamiq IBM watsonx, um eine technische Lösung für ein Problem zu bieten, das durch zahlreiche unstrukturierte Informationen, Übergaben und einen hohen manuellen Aufwand bei der Überprüfung entstanden war. Dynamiq implementierte ein System zur Unterstützung der Zusammenfassung mehrerer Vertragsdokumente, von Fragen und Antworten zu Richtlinien, Wettbewerbsanalysen und Compliance-Prüfungen über verschiedene Rechtsordnungen hinweg. Die daraus resultierende Architektur verband Koordinierung, kostengünstige Anfrageklassifizierung und eingehende Recherche, wodurch die Zeit für die Vertragsprüfung von 90 Minuten auf 45 Minuten und die Bearbeitungszeit für geschäftliche Anfragen von zwei Tagen auf eine Stunde verkürzt werden konnte. Darüber hinaus beschleunigte sie die Klauselidentifizierung – also den Prozess des Auffindens und Extrahierens spezifischer Bestimmungen, Verpflichtungen oder Bedingungen, die in langwierigen Verträgen verborgen sind – von 20 Minuten auf zwei Minuten. Im Rechtswesen kommt es auf diese Schnelligkeit an. Das ist wichtig, weil schon eine einzige übersehene Klausel Auswirkungen auf die Haftung, Zahlungsbedingungen oder Compliance-Verpflichtungen haben kann und Anwälte häufig unter hohem Zeitdruck Dutzende von Klauseln in verschiedenen Verträgen vergleichen müssen. Der Kunde benötigte einen einzigen Workflow für juristische Aufgaben, die sich normalerweise über verschiedene, voneinander getrennte Tools und manuelle Überprüfungen erstrecken. Dieser musste mehrere Verträge zusammenfassen, Fragen zur Richtlinienkonformität anhand interner Vereinbarungen beantworten, interne Vertragstexte mit externen Quellen vergleichen und Compliance-Prüfungen über mehrere Rechtsordnungen hinweg durchführen. Das Ziel war klar: Rechtsabteilungen dabei zu unterstützen, dem Unternehmen schneller fundiertere Entscheidungen zu liefern, ohne die Kosten zu erhöhen. Was die Herausforderung zusätzlich erschwerte, waren strenge funktionale Anforderungen. Das System musste streng kostenoptimiert bleiben. Es musste die Aufgaben über einen agentenbasierten, aber teilweise deterministischen Ablauf leiten, wobei der Klassifizierungsagent alle Anfragen kategorisieren musste (siehe Diagramm) und die vollständige Rückverfolgbarkeit über jeden Schlussfolgerungs- und Tool-Schritt hinweg gewährleistet sein musste. Zudem musste es in die bestehende Such- und Dokumenteninfrastruktur integriert werden und die Ausführung von Anfragen in weniger als vier Minuten abschließen. Das System musste zudem mit proprietären Repositorien für Rechtsdokumente, externen Rechtsrecherchen über EXA sowie Zugriffskontrollen, die den SOC-2-Anforderungen entsprechen, kompatibel sein. Die Kombination dieser Einschränkungen macht aus einer Demo eine Herausforderung für den Produktiveinsatz. Für die Endnutzer zeigte sich der Nutzen der Lösung von Dynamiq sofort. Anwälte können nun von der manuellen Suche nach Klauseln und dem Vergleich mehrerer Dokumente zu strukturierten, mit Quellenangaben versehenen Ergebnissen übergehen. Die Stakeholder in den Unternehmen erhielten schneller Antworten. Aus Sicht der Gesamtbetriebskosten (TCO) besteht die wesentliche Veränderung darin, dass aufwendige Schlussfolgerungen nur noch für die Fragen reserviert sind, die dies erfordern, anstatt einheitlich auf jede Anfrage angewendet zu werden. Im Mittelpunkt des Konzepts steht ein dreiteiliges System: ein Orchestrator, ein kostengünstiger Agent zur Klassifizierung juristischer Anfragen und ein fortschrittlicher Agent für die juristische Recherche. Jede Komponente hat eine eigene Rolle und ein eigenes Kostenprofil, wodurch der gesamte Workflow sowohl praxisnah als auch skalierbar bleibt. Der Orchestrator trägt dazu bei, dass die kostengünstigste Wahl des Agenten getroffen wird. Der Klassifizierer bietet eine schnelle und kosteneffiziente Triage, empfohlene Weiterleitung und Beantwortung einfacher Anfragen. Der Forschungsagent konzentriert sich auf fortgeschrittene juristische Recherchen, jedoch nur, wenn dies vom Klassifizierungs-Agenten empfohlen wird. Dynamiq hat einen Orchestrierungsagenten entwickelt, der eine Route festlegt, Muster bestimmt und synthetisiert. Er leitet jede Anfrage an den Klassifikator weiter, bevor er direkt antwortet, und entscheidet dann, ob der kostengünstigere Pfad ausreicht oder ob die Anfrage eskaliert werden sollte. Außerdem überwacht er den Token-Verbrauch während des gesamten Laufs und wendet Budgetkontrollen auf zwei Arten an. Zunächst fordert er den Forschungsagent auf, Annahmen zu bestätigen, wenn der Klassifikator eine Inferenzanfrage mit geringer Konfidenz und hohen Kosten erkennt. Anschließend wird die Anzahl der Forschungstoken pro Schritt streng begrenzt, sobald die Kosten stark ansteigen, wobei bei Bedarf eine eingeschränkte Zusammenfassung und eine Kontrollabfrage („Weiter?“) ausgegeben werden. Der Orchestrator leitet Phrasen wie „unsere Bedingungen“, „meine Verträge“ und „interne Richtlinien“ standardmäßig an interne Abfragen weiter. Bei der Ermittlung des besten Modells für den Orchestrator stellte das Team fest, dass Claude 4 Sonnet und GPT-5 zwar relativ leistungsfähig, jedoch auch langsamer und mit relativ hohen Inferenzkosten verbunden waren. Das Team entschied sich für Grok-4-fast, da dieses Modell im Vergleich zu kostspieligeren Optionen das erforderliche Gleichgewicht zwischen Geschwindigkeit, Kosten und Qualität bot. Der Klassifizierungsagent für Rechtsanfragen (in der Abbildung als „Agent 1“ bezeichnet) ist für eine schnelle und kostengünstige Vorab-Einstufung konzipiert. Er nutzt IBM Granite 4 Small als erste Anlaufstelle für jede Anfrage und liefert strukturierte Ergebnisse in sechs Bereichen: Komplexität, Datenquellen, Aufgabentyp, Begründung, Empfehlung und Konfidenz. Diese Ausgabe bestimmt, ob das System lokal bleibt, an den Forschungsagenten weitergeleitet wird oder einen hybriden Weg einschlägt. Sie bestimmt auch, ob externe Aufrufe zulässig sind. Wenn der Klassifikator eine Anfrage als „INTERNAL_ONLY“ kennzeichnet, wird der Zugriff auf EXA deaktiviert. Das deterministische Routing bietet Teams eine vorhersehbare Möglichkeit, kostengünstige Aufgaben von aufwendigeren Aufgaben zu trennen, bevor der Workflow weitere Token verbraucht. Einfache Abfragen umfassen rechtliche Definitionen, unkomplizierte Fragen zu Richtlinien und Statusabfragen. Mäßig komplexe Anfragen erfordern unter Umständen den Einsatz des Recherche-Agenten für Erläuterungen zu Vertragsbedingungen, die Analyse einzelner Dokumente und grundlegende Compliance-Prüfungen. Komplexe Anfragen erfordern eine Eskalation für vergleichende Dokumentenanalysen, Compliance-Bewertungen auf Klauseleebene, Rechtsrecherchen aus mehreren Quellen und aufwendigere juristische Argumentationsaufgaben. Tatsächlich fungiert der Klassifikator sowohl als Routing-Ebene als auch als Ebene zur Kostenkontrolle. Granite 4 Small bot ein etwa dreimal besseres Preis-Leistungs-Verhältnis und eine etwa dreimal höhere Kosteneffizienz als das Grok-4-fast-Modell, das an anderer Stelle im System verwendet wurde. Der erweiterte Rechtsrechercheagent (im vorstehenden Diagramm als „Agent 2“ bezeichnet) übernimmt die komplexeren semantischen Aufgaben und wird nur dann aktiviert, wenn der Klassifikator einen EXTERNAL_ONLY- oder HYBRID-Pfad empfiehlt. Der auf Grok basierende Forschungsagent übernimmt die Suche mit mehreren Tools und anspruchsvollere Schlussfolgerungen. Er ist mit einem auf Milvus aufbauenden RAG-Subsystem (Retrieval-Augmented Generation) für die firmeneigenen Rechtsdokumente des Kunden verbunden. Für den Kontext in Bezug auf öffentliches Recht und Rechtsprechung ist der Subagent mit EXA verbunden. Der Forschungsagent liefert vier wesentliche Ergebnisse: Jede Antwort umfasst eine Zusammenfassung, eine detaillierte Analyse, Empfehlungen, Quellenangaben sowie eine Risikobewertung, die Unklarheiten, Widersprüche, veraltete Verweise und Lücken in der Abdeckung aufzeigen kann. Wenn das System widersprüchliche Fakten erkennt, macht es den Widerspruch durch nebeneinander angeordnete Zitate deutlich. Wenn die ersten Suchergebnisse in Milvus und EXA unzureichend sind, greift der Agent auf allgemeinere Einbettungen oder kuratierte Suchanfragen zurück und protokolliert ein „coverage_gap“-Flag. Um den Anforderungen des Kunden hinsichtlich vollständiger Rückverfolgbarkeit gerecht zu werden, nutzt die Laufzeitumgebung einen auf XML basierenden ReAct-Inferenzmodus, um den Regel-, Aktions- und Beobachtungszyklus einheitlich und für das Debugging zugänglich zu halten. Diese Struktur erstellt detaillierte Schrittprotokolle – detaillierte, mit Zeitstempeln versehene Aufzeichnungen jeder Regelentscheidung, jedes Tool-Aufrufs und jeder Modellantwort, die während eines einzelnen Workflow-Durchlaufs auftreten. Zudem ermöglicht sie klarere Nachanalysen über den Manager, die Agenten, die Tools und die Foundation Models hinweg. Außerdem gewährleistet sie Transparenz darüber, wie das Multi-Agenten-System Prompts und Antworten mit watsonx Orchestrate austauscht, wenn der Workflow über die API ausgelöst wird. Zur Nachvollziehbarkeit werden Modell- und Einbettungsversionen zusammen mit jedem Trace gespeichert. Bei der Erstellung des Multi-Agenten-Systems importierte Dynamiq dieses über die API als externen Agenten in IBM watsonx Orchestrate, wobei ein Bearer-Token und eine von der Dynamiq-Plattform generierte Service-Instanz-URL verwendet wurden. Das Team entschied sich für watsonx Orchestrate, da es einen eigenständigen Multi-Agent-Workflow in eine unternehmensweite Funktion verwandelt. Anstatt den Zugriff auf eine einzige Schnittstelle zu beschränken, ermöglicht Orchestrate jedem autorisierten Benutzer, den Forschungsagenten über den Chat aufzurufen. Darüber hinaus können Benutzer diesen Agenten gemeinsam mit Agenten koordinieren, die mit Systemen wie SAP, Salesforce und ServiceNow verbunden sind. Darüber hinaus bietet es einen regulierten Katalog, in dem der Agent als vollwertiges Tool erscheint, sodass IT- und Compliance-Teams weiterhin den Überblick behalten. Die Teams können sehen, welche Anwendungen ausgeführt werden, wer sie nutzt und wie sie mit dem übrigen Unternehmens-Stack verbunden sind – ohne dass Dynamiq die Integrationslogik neu erstellen muss. Die Lösung geht auf drei zentrale Herausforderungen bei der Wartung und Skalierung von KI-Agenten ein. Erstens optimiert das Multi-Agenten-System die Kosten mithilfe von IBM Granite 4 Small. Routinemäßige juristische Triage beansprucht keine kostenintensiven Ressourcen für die Schlussfolgerungsfindung. Zweitens kann das Rechtsteam im gesamten Unternehmen das Agentensystem mithilfe von IBM watsonx Orchestrate mit einer Benutzeroberfläche seiner Wahl nutzen. Schließlich bietet die Gesamtarchitektur des Agentensystems die Flexibilität, bei der Umstellung auf den Produktivbetrieb sowohl in der Cloud als auch vor Ort bereitgestellt zu werden. Bei diesem Anwendungsfall geht es nicht nur darum, rechtliche Fragen schneller zu beantworten. Es geht darum, diese Antworten vertrauenswürdiger zu machen und ihre Bereitstellung in großem Maßstab kostengünstiger zu gestalten. Der Workflow bewahrt die Zitationsgrenzen zwischen internen und externen Quellen, protokolliert

April 30, 2026

IBM Bob wechselt von KI-Codierung zu KI-Bereitstellung bei IBM; 45% Produktivitätssteigerung in komplexen Workflows

IBM Bob wechselt von KI-Codierung zu KI-Bereitstellung bei IBM; 45% Produktivitätssteigerung in komplexen Workflows Wechsel von KI-gestützter Codierung zu KI-gestützter Bereitstellung mit IBM Bob Letzten Monat stellten wir IBM Bob vor. Seitdem haben Unternehmen Bob in ihren Entwicklungsumgebungen eingesetzt, nicht nur, um Code schneller zu schreiben, sondern auch, um zu überdenken, wie Software im Unternehmensmaßstab entwickelt wird. KI hat die Codegenerierung beschleunigt, aber Engpässe beschränkten sich nie nur um das Schreiben von Code. Sie beruhen auf dem Verständnis komplexer Systeme, der teamübergreifenden Koordinierung von Veränderungen und dem Risikomanagement über den gesamten Softwareentwicklungslebenszyklus (SDLC). Wenn Systeme wachsen, geht es bei der Entwicklung immer weniger um einzelne Aufgaben, sondern mehr um die Koordinierung von Veränderungen zwischen vernetzten Systemen. Dieser Wandel erfordert ein neues Modell, bei dem die Arbeit den gesamten Lebenszyklus umfasst, anstatt in isolierten Schritten zu erfolgen. Um dieser Veränderung zu begegnen, hat IBM Bob als Antwort auf die Bedürfnisse von Unternehmensteams entwickelt. Unternehmen fordern nicht nur eine Steigerung der reinen Produktivität. Sie brauchen Systeme, die widerspiegeln, wie Ergebnisse in komplexen Umgebungen geliefert werden. Bestehende Tools lösen Teile dieses Problems, erfordern jedoch weiterhin, dass die Teams ihre eigenen Systeme aus Modellen und Tools zusammenstellen. Bob wurde anders konzipiert: als aktiver SDLC-Partner, der Koordination, Ausführung und Steuerung direkt in den Entwicklungsprozess integriert und Teams dabei unterstützt, den Übergang von isolierten Tools zu einer koordinierten Bereitstellung zu vollziehen. Bob wurde entwickelt, um Qualität, Kosten und Leistung zu optimieren und Entwicklern gleichzeitig eine zuverlässige Arbeitsumgebung zu bieten. Dieser Ansatz hat sich bereits in der Praxis bewährt. Bei IBM wird Bob von über 80.000 Anwendern genutzt, wobei Teams bei komplexen, mehrstufigen Workflows Produktivitätssteigerungen von durchschnittlich 45 % verzeichnen.1 Bob ist so konzipiert, dass es sich an die tatsächliche Arbeitsweise von Teams anpasst.Integrierte und benutzerdefinierte Modi ermöglichen es Entwicklern, nahtlos zwischen Planung, Codierung und Überprüfung zu wechseln, während die MCP-Integration Bob mit den Tools und Systemen verbindet, auf die sich Teams bereits verlassen. Da die Entwicklung immer dezentraler wird, bleibt die Aufrechterhaltung des systemübergreifenden Kontextes eine der größten Herausforderungen. Durch wiederverwendbare Arbeitsabläufe, gemeinsame Regeln und ein tieferes Systembewusstsein hilft Bob den Teams, Änderungen effektiver zu koordinieren, ohne dabei an Flexibilität einzubüßen. Bob automatisiert das Alltägliche und erweitert das Komplizierte. In der Praxis kann Bob wie ein Junior-Entwickler für einen erfahrenen Architekten agieren, um die Ausführung zu beschleunigen, oder wie ein leitender Architekturleitfaden für einen Junior-Entwickler, um Struktur, Selbstvertrauen und klare Anweisungen zu geben. Mit zunehmender Verbreitung von KI sehen sich Unternehmen mit einer wachsenden Zahl von Zielkonflikten in Bezug auf Kosten, Leistung und Vertrauen konfrontiert. Die Herausforderung besteht nicht nur darin, welches Modell man verwenden soll, sondern auch darin, wie man in einem sich rasch wandelnden Umfeld stets die besten Ergebnisse erzielt. Anstatt von den Teams zu verlangen, sich auf Versuch und Irrtum zu verlassen, um die richtige Mischung aus Modellen und Einstellungen zu finden, verwendet Bob eine Multi-Modell-Orchestrierungsschicht, die jede Aufgabe dynamisch an das am besten geeignete Modell weiterleitet, basierend auf Genauigkeit, Leistung und Kosten. Dadurch können sich Teams auf die Ergebnisse konzentrieren, anstatt die Modellauswahl zu verwalten, und gleichzeitig einen modellunabhängigen Ansatz beibehalten, der sich an die Weiterentwicklung der Modelle anpasst. Durch transparente Preisgestaltung und Einblick in Nutzung und Budgets können Unternehmen ihre Ausgaben an den tatsächlichen Ergebnissen ausrichten. KI führt neue Kategorien von Risiko ein, für die herkömmliche Kontrollen nicht ausgelegt sind, von der Prompt-Injektion bis zur unbeabsichtigten Datenexposition. Um dieses Problem zu lösen, bettet Bob die Sicherheit direkt in die Entwicklungs-Workflows ein. Die Prompt-Normalisierung verhindert unsichere Anweisungen, während die Überprüfung auf sensible Daten und die intelligente Erkennung vertraulicher Informationen Risiken bereits während der Code-Erstellung aufdecken. Die Durchsetzung der Richtlinien erfolgt kontinuierlich, wodurch sichergestellt wird, dass die Governance von der Entwicklung bis zur Bereitstellung gewährleistet ist. Die Modernisierung von Unternehmenssystemen erforderte traditionell das Zusammensetzen von Änderungen aus verschiedenen Repositories, das schrittweise Neuschreiben von Code und das Validieren der Auswirkungen durch Versuch und Irrtum. Selbst kleine Updates können sich unvorhersehbar auf die Services auswirken. Bob verändert diese Erfahrung. Bob unterstützt Teams dabei, sich im Vorfeld ein Verständnis für Systemabhängigkeiten zu verschaffen, und führt anschließend im Rahmen eines strukturierten Prozesses koordinierte Änderungen an Code, Tests und Pipelines durch. Dadurch können Teams von reaktiven Aktualisierungen zu einer gezielten, systemweiten Modernisierung übergehen, selbst in Legacy-Umgebungen wie Java, COBOL, IBM i und IBM Z. Ein Beispiel für verbesserte Effizienz ist die RevTech-Plattform von IBM, ein entscheidendes System, das unseren globalen Vertrieb und die Kundenbindung in stark regulierten Märkten unterstützt. Aufgrund der komplexen Architekturen und der strengen Leistungsanforderungen waren die Tests und Validierungen sehr anspruchsvoll und ressourcenaufwändig. Bob wurde eingeführt, um Teams dabei zu unterstützen, ihre Leistungs- und Sicherheitstests zu verbessern und gleichzeitig mehr Fehler und Schwachstellen aufzudecken. Dies führte zu messbaren Verbesserungen in Geschwindigkeit, Umfang und Effizienz und demonstrierte, wie KI sowohl die Qualität als auch die Zuverlässigkeit unternehmenskritischer Systeme verbessern kann: Diese Vorteile beschränken sich nicht auf unsere internen Teams. Blue Pearl nutzte Bob, um die Auslieferung über seine hochvolumige BlueApp-Plattform zu beschleunigen. Was normalerweise Wochen an Engineering-Aufwand erforderte, wurde in nur drei Tagen erledigt, da Bob die Analyse, das Refactoring und die Validierung innerhalb der bestehenden Workflows rationalisieren konnte. Dadurch konnten die Teams schneller arbeiten und gleichzeitig die Qualität beibehalten. Dies zeigt, wie KI die tägliche Arbeit ohne zusätzlichen Overhead verbessern kann. Das führte zu messbaren Verbesserungen hinsichtlich der Liefergeschwindigkeit und der technischen Effizienz: In anderen Umgebungen nimmt der Einfluss eine andere Form an. APIS IT nutzte Bob zur Modernisierung geschäftskritischer Regierungssysteme, die über Jahrzehnte hinweg technische Schulden angehäuft hatten, darunter Mainframe- und .NET-Umgebungen. Mit begrenzter Dokumentation und komplexen Abhängigkeiten ermöglichte Bob ein schnelles Systemverständnis, eine automatisierte Dokumentation und ein koordiniertes Refactoring. Die Ergebnisse zeigen eine deutliche Verbesserung der Modernisierung: Bob kann die Stärke des IBM-Portfolios nutzen, um bessere Ergebnisse und höhere Raffinesse zu erzielen. Wir sehen bereits, wie IBM und Kundenteams Bob nutzen, um den Wert von IBM-Lösungen zu maximieren, von der Optimierung der Agenten in Watsonx Orchestrate bis hin zur Modernisierung von Anwendungen auf IBM Z- und IBM i-Plattformen. Später in diesem Jahr werden wir Premium-Pakete einführen, um Bob um plattformspezifische Funktionen zu erweitern, darunter vorgefertigte Workflows, Domänenexpertise und nahtlose Integrationen über IBM-Plattformen hinweg. Die nächste Phase der Softwarebereitstellung wird durch KI-orchestrierte Systeme definiert, nicht durch isolierte Beschleunigung. Bob wurde entwickelt, um diesen Wandel zu unterstützen. Es arbeitet mit den Teams zusammen, um Planung, Ausführung und Validierung über den gesamten Entwicklungszyklus hinweg zu verbinden. Erfahren Sie, wie Ihre Teams KI in jeder Phase des Lebenszyklus der Softwareentwicklung einsetzen können. Testen Sie IBM Bob noch heute kostenlos 1 IBM Interne Daten

April 30, 2026