Ein reguliertes Umfeld wie die Medizintechnik stellt besondere Herausforderungen an die Testautomatisierung. Wer hier Maschinen entwickelt, braucht Systeme und Prozesse, die nachvollziehbar bleiben und Innovation möglich machen.
Podcast Episode: KI‑generierte Testfälle im regulierten Umfeld
In dieser Episode spreche ich mit Alexander Frenzel über KI-gestützte Testfallerzeugung im streng regulierten Umfeld. Klingt nach Widerspruch. Ist es nicht. Alex zeigt, wie ein Assistenzsystem mit One-Click-Generator, modularen Modellen und einem RAG-System Tests aus Requirements ableitet. Statt Fragen zu stellen, nutzt er das Hyde-Prinzip: Behauptung aufstellen, Belege aus der eigenen Dokumentation finden. So bleiben Nachvollziehbarkeit, Logging und der Human in the Loop erhalten.
"Du musst erstmal schauen können, was sind denn deine einzelnen Prozessschritte? Ich muss überall eingreifen können. Ich brauche eine Nachvollziehbarkeit." - Alexander Frenzel
Alexander Frenzel ist seit 2019 bei Fresenius Medical Care Deutschland GmbH als Expert for Test Management, Global Verification & Validation Lead für mehrere Produktreihen tätig und zudem seit 2025 Director Test Management.Er ist Mitglied des Programm-Committee des QS-Tags und Board Member des German Testing Boards.
Highlights der Episode
- KI generiert Testfälle aus Anforderungen im regulierten Medizinumfeld
- Hyde-Prinzip sichert Nachvollziehbarkeit mit Belegen aus interner Dokumentation
- Der Aufwand sinkt, Rückverfolgbarkeit verbessert sich und Wissenstransfer steigt
- Physikalische Abhängigkeiten bleiben eine Grenze, Software profitiert stark
- Integration in ALM und Pipeline ist der nächste Schritt
KI-generierte Testfälle im regulierten Umfeld: Einblicke aus der Medizintechnik
Softwaretests mit Künstlicher Intelligenz? In vielen Branchen klingt das nach Zukunftsmusik. In der Medizintechnik geht es aber nicht nur um Fortschritt, sondern vor allem um Sicherheit und Verantwortung. Im Podcast Software Testing berichtet Alexander Frenzel von Fresenius, wie sein Team genau diese Herausforderung angegangen ist.
Ein herausforderndes Umfeld: Testen in der Medizintechnik
Stell dir vor, du entwickelst Systeme, an denen Menschenleben hängen. Genau das tun die Teams von Fresenius Medical Care. Sie bauen Dialysemaschinen. Dort fließt das Blut von Patienten durch Systeme aus Software, Elektronik und Hardware. Das funktioniert nicht halbherzig – es muss sicher, zuverlässig und nachprüfbar sein. Das alles steuern strenge Regeln und Vorgaben. Innovationsprojekte wie KI beim Testen stoßen in so einem Umfeld schnell an Grenzen.
Alexander Frenzel beschreibt, wie das große Ziel ihres Proof of Concept entstand: Sie wollten ihre Testerinnen und Tester wirksam entlasten, indem sie einen KI-basierten Assistenten entwickeln. Die Idee: Testfälle für Software module automatisch generieren lassen. Doch wie löst man das, wenn jeder Schritt dokumentiert, begründet und geprüft sein muss?
Unterstützung statt Ersatz: KI als Assistenzsystem
KI sollte im Team von Fresenius keinen Menschen ersetzen, sondern helfen. Besonders aufwendig sei die Testfallgenerierung bei komplexen Maschinen und alten Systemen, erklärt Alexander Frenzel. Dokumente fehlen oft digital, Daten liegen verteilt auf verschiedenen Systemen, Anforderungen ändern sich über viele Jahre. "Wir wollen die Zeit von fünf Tagen pro Testfall auf ein vernünftiges Maß bringen."
Wie funktioniert das? Fresenius setzte auf ein Agenten-Prinzip: Ein KI-System erstellt nicht nur Testfälle, sondern baut zuerst die passenden Prompts selbst. Ein Subsystem generiert Anweisungen für die eigentliche KI, die dann den Testfall zusammenstellt. Das Ziel: Mit einem Klick vom Requirement zum Testfall gelangen.
Architektur für Nachvollziehbarkeit: Kein Platz für Halluzinationen
Sicherheit ist das A und O. Im Projekt war klar: Keine künstliche Halluzination, keine gefährlichen Fantasien. Darum bekam die Architektur eine Besonderheit: Die KI durfte keine neuen Fakten ausdenken, sondern musste alles sauber nachvollziehbar aus vorhandener Dokumentation ziehen. Alle Anforderungen, Abhängigkeiten und Daten kamen aus einem zentralen Dokumentensystem ("Rack System"). Statt Fragen an die KI zu stellen, formulierte das System Hypothesen, die es dann mit echten Dokumenten belegte.
So blieb alles prüfbar. Das Wissen der Experten floss ebenso ein wie die Erfahrung der Tester und Systemarchitekten.
Ergebnisse und Erfahrungen aus dem Proof of Concept
Was kam heraus? Zunächst viel Euphorie. Im internen Test half das System, auch versteckte Dokumente sichtbar zu machen. Plötzlich fanden Tester Informationen, die sie sonst nie entdeckt hätten. Das unterstützte nicht nur bei einzelnen Tests, sondern verbesserte auch den Wissenstransfer im Team.
Die größte Erleichterung: Statt von Null zu starten, lag nun ein brauchbarer Testfall-Draft vor, den erfahrene Tester nur noch anpassen mussten. Das sparte Zeit – und brachte Qualität. "Es muss zwar immer noch jemand prüfen und freigeben, aber die Basis ist viel schneller da", sagt Alexander Frenzel.
Schnell zeigten sich aber auch Grenzen. Für rein physikalische oder dynamische Prozesse, etwa den genauen Druck in Schläuchen und Pumpen, reichte die KI noch nicht. Hier braucht es weiter Modelle und Expertenwissen.
Regulierung und Validierung: KI sicher im Alltag nutzen
Gerade im regulierten Umfeld stellen sich neue Fragen. Wie validiert man ein System, das kreative Vorschläge macht? Alexander Frenzel erklärt: Der Schlüssel ist, dass die KI nur Vorschläge liefert, nie eigenständig freigibt. Jeder Schritt bleibt prüfbar, protokolliert, nachvollziehbar. Die Ergebnisse bleiben ein "Draft". Erst nach menschlichem Review geschieht die Freigabe – mit Unterschrift.
Deshalb wurde eine klassische Tool-Validierung gar nicht erst nötig. Das System ist ein intelligentes Werkzeug, kein Ersatz für menschliche Entscheidung und Verantwortung.
Blick nach vorn: Nächste Schritte und Ausblick
Der Proof of Concept bleibt kein Experiment. Das Team plant, den Assistenten direkt in Systeme einzubauen, die jeder Tester täglich nutzt. Und der nächste logische Schritt: Warum nicht gleich automatisierte Testskripte generieren? So könnte das System noch schneller werden. Trotz aller Technik bleibt klar: "The man in the middle" bleibt unerlässlich.
KI im Testen von Hochrisiko-Systemen wie Dialysemaschinen ist möglich – wenn Technik, Expertise und Verantwortung zusammenarbeiten. Die Mischung aus strukturiertem Vorgehen und cleverem Einsatz moderner Technik kann Vorbild sein. Für Innovation – und Sicherheit.


