Qualität aus Architektursicht
Podcast Episode: Qualität aus Architektursicht Sind Qualitätsanforderungen das gleiche wie nicht-funktionale Anforderungen? Und was sind funktionale...
Ein Cent lässt einen Preis kippen, ein Formular stürzt ab, wenn ein Zeichen links eingefügt wird. Solche Fundstücke zeigen, wie wertvoll natürliche Intelligenz im Testen bleibt. Automatisierung prüft fleißig, doch sie checkt vor allem Bekanntes. Testen entdeckt Unerwartetes, stellt Hypothesen auf, gräbt in Systemen, bis Muster und Ursachen sichtbar werden. Entscheidend ist die Unterscheidung von Testing, Checking und dem gezielten Digging in Daten und Verhalten. KI unterstützt bei Generierung, Priorisierung und Wiederholung, doch Neugier, Kontextwissen und Urteilskraft schaffen die Qualität. Wer Software als sozio-technisches System versteht, wählt Werkzeuge klug und hält den Menschen in der Verantwortung.
In dieser Episode spreche ich mit Christian Brandes und Jonas Poller über Testen mit natürlicher Intelligenz. Wir starten mit zwei Fundstücken aus der Praxis: der Brutto-Netto-Flick-Flack, bei dem ein Preis durch wildes Umschalten um einen Cent steigt, und ein Crash, der nur durch Einfügen ganz links im Feld passiert. Daraus wachsen größere Fragen: Wie kreativ ist KI wirklich? Was ist Testing, was Checking und was nennen wir Digging, wenn Modelle nur in Daten wühlen?
"Ich habe irgendeine Zahl eingegeben, habe mehrmals hin und her geswitcht und auf einmal hat sich diese Zahl, in diesem Fall ein Preis, um einen Cent erhöht, ohne dass er das eigentlich hätte tun sollen." - Jonas Poller, Christian Brandes
Dr. Christian Brandes arbeitet als Head of Test & QA für die isento GmbH. Er unterstützt Projekt-Teams seit vielen Jahren als Coach und Berater zu den Themen Softwaretest und Qualitätssicherung, Requirements Engineering sowie agilen Entwicklungsprozessen. Der ISTQB®-zertifizierte Testspezialist (u.a. Full Advanced Level und AI Tester) war in verschiedenen IT-Projekten als Testmanager, Testarchitekt, Testdesigner und Testautomatisierer tätig. Sein besonderes Interesse gilt der Testprozessverbesserung, der Testbarkeit von Anforderungen sowie der Sicherstellung von „Quality from the Beginning“. Außerdem ist er als Trainer und Hochschuldozent tätig und tritt regelmäßig auf Fachkonferenzen als Speaker auf. Publikationen in Fachmagazinen und Büchern sowie die Produktion von Podcasts und Videos runden sein Portfolio ab.
Nach einer abwechslungsreichen beruflichen Laufbahn in der IT hat Jonas Poller seine wahre Bestimmung in der Qualitätssicherung von Software gefunden. Seit erfolgreichem Abschluss des Tester-Trainee-Programms bei isento widmet er sich in Kundenprojekten den Herausforderungen des Softwaretestens, insbesondere im Bereich der Testautomatisierung und der explorativen Tests. Mit seiner Begeisterung für das Thema QA bringt er sowohl traditionelle Ansätze als auch kreative Lösungen in den Testprozess ein. Trotz seiner noch jungen Karriere als Tester überzeugt er bereits durch seine Expertise, seine Neugier und sein Engagement. Sein erklärtes Ziel ist es, in die Welt der Qualitätssicherung vollständig einzutauchen und einen echten Unterschied in der Produktqualität zu erreichen.
Wenn Tester von natürlicher Intelligenz sprechen, meinen sie nicht nur den Unterschied zwischen Mensch und Maschine. Es geht vielmehr um die Fähigkeit, als Tester neugierig zu bleiben, querzudenken und Fehler zu entdecken, auf die ein Programm – egal wie gut trainiert – nicht von selbst kommen würde. Jonas Poller und Christian Brandes beschreiben im Podcast, wie sie Fehler gefunden haben, die keine KI allein entdecken könnte. Einmal klickt sich Jonas scheinbar planlos durch das System, wechselt Zustände, spielt mit Parametern – und plötzlich erhöht sich ein Preis um einen Cent. Solche Bugs entstehen oft durch komplexe Abläufe oder seltene Kombinationen, die nur durch Forschergeist ans Licht kommen.
Im Gespräch wird schnell klar: Viele typische Fehler findet man nur, wenn man testet wie ein Mensch und Erwartungen hinterfragt. Jonas berichtet von einem Eingabefeld, das sicher wirken sollte. Die Entwickler hatten scheinbar alle Fehlerquellen abgefangen. Doch durch einen ungeplanten Kopiervorgang und eine seltsame Cursorposition kann er doch eine Zahl einfügen, die zum Absturz führt. Hier hilft keine Checkliste, kein klassischer "Pfad". Erst das Austesten, das kreative Ausprobieren und eine Portion Zufall führen zum Ziel.
Christian erzählt von seinen Schulungen mit Kinderlern-Laptops. Ein Teilnehmer kommt darauf, den Laptop wie ein echtes Kind im Auto ohne Maus auszuprobieren – prompt tauchen ganz neue Fehler auf. Das ist ein gutes Beispiel für den Wert von Kontext und Erfahrungswissen, den keine KI von alleine entwickelt.
Brandes und Poller unterscheiden zwischen "Checking" und "Testing". Checking sind mechanische Abläufe: Skripte abarbeiten, automatisierte Prüfungen. Testing ist das, was viele menschliche Tester besonders gut können: Intuitiv neue Wege finden, Hypothesen bilden, nach Überraschungen suchen. Doch mit KI kommt nun eine neue Kategorie dazu, das "Digging". Damit meinen sie das Wühlen in riesigen Datenmengen, das Zusammenpuzzeln von Testfällen aus Trainingsdaten, ohne wirkliches Verständnis. Eine KI kann Trends erkennen, Vorschläge machen – aber sie weiß nicht, warum bestimmte Tests besonders wichtig sind.
Die Podcastgäste fordern auf: Menschliches Testen nicht streichen, sondern als wertvolles Element für Softwarequalität bewahren. Exploratives Testen wird wichtiger – gerade weil viele Unternehmen immer stärker auf Automatisierung und KI setzen. Doch diese Systeme erzeugen meist nur Oberflächenqualität. Echte, überraschende Fehler erkennen und bewerten? Das geht nur mit Erfahrung, Intuition und einem kritischen Blick.
Das Gespräch landet bei einem Verein: KI kann viele Aufgaben übernehmen, aber nie alle. Es fehlt ihr an Bauchgefühl, Verständnis für Zusammenhänge und Verantwortung für das Ergebnis. In einem Markt, wo immer mehr Tests automatisiert werden, müssen Entwickler wie Tester kritisch hinterfragen: Verstehen wir, was und wie wir testen? Oder verlassen wir uns blind auf Tools und Modelle? Christian warnt davor, Unit-Tests nur noch von KI schreiben zu lassen – sonst geht das Verständnis für Qualität verloren.
Deshalb ist Ausbildung und Neugier so wichtig. Wer nie von Hand getestet oder programmiert hat, weiß später auch nicht, ob die automatischen Ergebnisse sinnvoll sind. Menschliche Intelligenz bleibt das Rückgrat solider Softwaretests.
KI unterstützt, sammelt Daten, automatisiert Fleißaufgaben. Aber der Mensch bleibt im Zentrum des Softwaretestens. Kritisches Denken, Kreativität und die Fähigkeit, auch mal querzudenken, sind nicht ersetzbar. Teststrategien sollten weiter auf einen Mix aus Automatisierung, KI-gestützten Methoden und motiviertem menschlichem Tüfteln setzen. Nur so schaffen wir Software, die nicht nur funktioniert – sondern wirklich hält, was sie verspricht.
Podcast Episode: Qualität aus Architektursicht Sind Qualitätsanforderungen das gleiche wie nicht-funktionale Anforderungen? Und was sind funktionale...
Podcast Episode: Cyber Resilience Act (CRA) In dieser Podcast-Episode sprechen wir über den Cyber Resilience Act. Wir besprechen, wie Unternehmen die...
Podcast Episode: Nachhaltigkeit Full Flamingo ist eine innovative Plattform, die das Bewusstsein für Nachhaltigkeit beim Einkaufen schärft und es...