Thema: Testing
- Montag
03.02. - Dienstag
04.02. - Mittwoch
05.02. - Donnerstag
06.02.
Good testing is full of challenges that need to be addressed to bridge the gaps and to improve. This interactive tutorial is about real-world examples of testing challenges from different areas (e.g., test mission, TDD, review and test design, design for testability, built-in quality) and how to overcome them in practice.
Attend this tutorial to
- get familiar with specific testing challenges based on real-world examples
- learn how these testing challenges have been solved
- share experiences on how to bridge the gap in testing
- be enabled to apply the discussed strategies, tactics, and practices to improve your test approaches in the future!
Maximum number of participants: 50
Target Audience: Test Architects, Test Managers, Test and Quality Engineers, Software Architects, Developers
Prerequisites: Basic knowledge about testing and quality engineering
Level: Advanced
Peter Zimmerer is a Principal Key Expert Engineer at Siemens AG, Technology, in Garching, Germany. For more than 30 years he has been working in the field of software testing and quality engineering. He performs consulting, coaching, and training on test management and test engineering practices in real-world projects and drives research and innovation in this area. As ISTQB® Certified Tester Full Advanced Level he is a member of the German Testing Board (GTB). Peter has authored several journal and conference contributions and is a frequent speaker at international conferences.
Vortrag Teilen
How can we contribute to improving the delivery of valuable software?
Not everyone working in IT has deep experience as a software developer. And not every developer has had the opportunity to experience a fast-paced development process using effective TDD in a mobbing session.
- > still, we're expected to deliver ever more complex solutions in ever more connected systems.
This session allows you to deeply experience the development process without needing development skills. We'll be working in a tool that everyone in IT knows: a spreadsheet :)
After a short intro we'll create a complex formula in an iterative way, including the tests to guarantee that each step we take is a reliable one. You'll be able to actively participate in the mob. Or witness the interactions via the fishbowl format.
As a manager or team-member using excel, you might learn a thing or 2 about formulas. And as a developer, you might learn a thing or 2 about TDD and mobbing. But you'll also notice that each member of the mob has specific knowledge that the others can learn from you.
After this session you have gained insight in how to further professionalize a software development team. Both as team member (coding or non-coding) and as leader (Product Owner, Scrum Master, Manager, (Agile) coach, ...).
Maximum number of participants: 40
Target Audience: Leaders, Coaches, Analysis, Testers and Developers
Prerequisites: None
Level: Basic
Olivier Costa is a Belgian IT leadership & Technical Excellence coach and a true pioneer in agile, with over 20 years of experience, both as coach and teacher and as a software developer. His first talk on an agile conference was in 2005 at XP Days, after which he helped organize this conference until 2017. ‘To teach is to learn’ is what his aikido teacher kept telling, so he created numerous workshops and presentations as part of his work and at meetups and conferences.
Edwin Burgers started his career as a software developer in the Netherlands at the Dutch Railways. After shifting to leadership roles, he moved to agile coaching in 2009. Since then he helps teams and organization to apply agile principles and practices to increase their effectiveness, both in governance and (international) commercial organizations.
Vortrag Teilen
"The application has to be accessible — have we done accessibility testing?" How many of you have heard this question and found yourselves stumped on where to even begin? Hands up if you've wondered what tools to use, how to integrate them into your existing codebase, or how to even get started! Well, you’re in for a fun and hands-on experience, because this 90-minute session is about to change your whole perspective on accessibility testing!
Accessibility testing isn’t just a checkbox — it's an essential part of creating user-friendly, inclusive applications. With 1 in 5 people in the UK living with a long-term illness, impairment, or disability, and many others experiencing temporary disabilities, making your application accessible is both a legal requirement and a moral obligation. But where do you start? That’s what this session is all about!
Together, we’ll dive into the world of accessibility testing, from exploring must-have tools to understanding the latest EU 2025 legislation (Yes, it's shiny and new, and I promise it’s not as scary as it sounds!). I’ll show you how to make accessibility testing part of your day-to-day workflow in a way that's not only efficient but also fun.
We’ll break down what accessibility means for your user-facing applications and learn practical strategies for embedding it into your non-functional testing. You’ll leave with:
- A toolset ready for action
- A skillset to help your team shine
- Confidence to shift left and bring accessibility testing into your projects early and often!
And don’t worry, if you’re thinking, “Wait, EU 2025? What’s that?” — you’re not alone! We’ve got plenty of time to explore the legislation together and make sure you’re ahead of the curve. By the end of this session, you’ll be ready to tackle accessibility testing head-on, and make a real difference in your product’s inclusivity and usability.
This isn’t just another testing tutorial — it’s a chance to make your products more accessible to everyone and to learn in a way that's engaging, insightful, and a lot of fun. So, buckle up — this is going to be a ride you won't want to miss!
Target Audience: Anyone involved with a back end and front end facing product – ALL welcome
Prerequisites: Participants need to bring their laptops! I will give you a crash course as a introduction
Level: Advanced
Laveena Ramchandani is a dedicated and experienced Test Manager with over 10 years of experience in the field. She is deeply passionate about continuous learning and sharing knowledge within the testing community. As a leader in data science testing and testing in general, Laveena has significantly contributed to enhancing the skillsets of individuals within the industry, particularly through her impactful presence on digital platforms.
In 2022, Laveena was recognized as a finalist for the prestigious Digital Star Award at the everywoman in Technology Awards. In addition to her recognition, she has been featured on several podcasts and blogs, serves as a trainer for new testers with The Coders Guild, and is a sought-after international speaker. Her commitment to the community continues to inspire and shape the next generation of testers.
Vortrag Teilen
What is the difference of a test architect to a commonly known software architect? And why do I need one? What do they have in common and where do they differ? Is there a gap where we need a bridge (Spoiler: yes)? What are the different expectations of other roles on a test architect?
Questions over questions which will be covered in this talk. With examples where it did go well because there was a test architect and examples where things got haywire maybe because a test architect was missing.
And you will also not be left alone with these questions:
- How can I become such a person which is able to be a test architect.
- How can I establish that role in my organization.
You will get input how we did this at Siemens and build up a living network of test architects.
Target Audience: Testers, Developers, Architects, Project Leads, Test Managers, Team Leads
Prerequisites: Architecture knowledge, challenges in software projects, basic testing knowledge
Level: Advanced
Marco Achtziger is Test Architect working for Siemens Healthineers in Forchheim. In this role he supports teams working in an agile environment in implementing and executing tests in the preventive test phase in a large project. He has several qualifications from iSTQB and iSQI and is a certified Software Architect by Siemens AG and Siemens Senior Key Expert in the area of Testing and Continuous Delivery.
The objective of visual test automation is replace flaky and hard to read selectors with images. Many software packages offer the possibility of using images as selectors, but it rarely works reliably. Appium has the function "findElementByImage," Playwright has functions like "toHaveScreenshot." Code and no-code tools alike provide a number of options to tweak the sensitivity, where both, too low and to high values, produce their own set of artefacts. What makes this so difficult? Doesn't AI provide the solution to reliably compare two images? Wouldn't source code be much more readable if it showed the image of the item, rather than just a file name or its xpath?
Target Audience: Experienced test automators in code and no-code
Prerequisites: Images, test automation, CNN, AI
Level: Expert
Stefan Dirnstorfer is CTO and Cofounder at testup.io, a no-code platform for image based test automation. He is a digital native who started programming in primary school and studied computer science in Munich. His latest interest in test automation and image analysis combines his passion for practical software development and intelligent data analysis.
Vortrag Teilen
Vortrag Teilen
Nachdem lange Jahre zunächst Selenium und dann Cypress den Markt der Web-Testwerkzeuge beherrscht haben, kommen inzwischen neue Player auf das Spielfeld. Mit Playwright und WebdriverIO bekommt insbesondere Cypress eine starke Konkurrenz. Beide stellen sich nicht nur im Bereich der End2End-Tests auf, sondern besetzen auch das Feld der Komponententests. Auch in anderer Hinsicht sind sie Cypress ebenbürtig.
Der Webentwickler hat erneut die Qual der Wahl. Welches Werkzeug passt am besten zur eigenen Arbeitsweise, zum Projekt und zum Softwareprodukt? Wo liegen die Stärken und Schwächen der Gegenspieler? Und lassen sich bestehende Testsuiten einfach auf ein anderes Werkzeug migrieren? Wir werfen einen vergleichenden Blick auf die drei Kontrahenten und demonstrieren ihre Fähigkeiten in Aktion.
Zielpublikum: Tester, Testmanager, Testautomatisierer, Web-Entwickler
Voraussetzungen: Grundlegende Kenntnisse von Web-Entwicklung, TypeScript, Testautomatisierung
Schwierigkeitsgrad: Advanced
Dr.-Ing. Dehla Sokenou promovierte 2005 an der TU Berlin über UML-basiertes Testen. Sie fühlt sich in allen Phasen der Softwareentwicklung zu Hause, einen besonderen Schwerpunkt bilden allerdings auch weiterhin alle Themen rund um Qualitätssicherung und Testen. Bei der WPS ist sie als Test- und Qualitätsmanagerin sowie Softwarearchitektin tätig. Daneben ist sie Sprecherin der GI-Fachgruppe Test, Analyse und Verifikation von Software (TAV).
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/dehla-sokenou/
Nach Vorfreude auf den AI-Coding-Assistant kam Ernüchterung: Viele Vorschläge waren unbrauchbar, es wurde zu viel „halluziniert“. Wir fragten uns, ob es der richtigen Technik bedarf. Wir experimentierten mit Techniken (Chat-Assistant, Auto-Completion, Comment-driven) und Vorgehensweisen (Chat-first, Code-first, Test-first, TDD).
Dieser Vortrag konzentriert sich auf TDD mit AI-Coding-Assistants. Wir erläutern die Vorgehensweise von AI-Coding-Assistants, erklären Begrifflichkeiten, Einschränkungen, Ansätze und demonstrieren das Vorgehen mit Live-Coding. Wir versuchen, Grenzen der AI-Assistants auszuloten: Verbesserte Code-Completion oder Pair-Programming-Partner.
Zielpublikum: Entwickler:innen
Voraussetzungen: Grundkenntnisse in Programmierung
Schwierigkeitsgrad: Basic
Rouven Röhrig verfügt über 15 Jahren Erfahrung als Software-Engineer mit Expertise in Technical Agile Coaching, Extreme Programming und DevOps. Er ist kundenorientiert und erfolgreich in der Produktentwicklung.
Seit 8 Jahren ist Gregor Wicklein Agile Software-Engineer bei andrena objects. Hier liegt sein Fokus auf Agilen Methoden und Extreme-Programming-Techniken wie test-driven development (TDD) und Pair-Programming.
Vortrag Teilen
Bei langlebiger Software lauern die meisten Fehler in dem Code, der kürzlich verändert wurde. Das zeigen empirische Forschungsarbeiten seit Langem und unser Bauchgefühl sagt uns das vermutlich noch viel länger.
Viele Teams setzen daher die sogenannte Test-Gap-Analyse ein, die Test-Gaps (ungetestete Änderungen) automatisiert aufdeckt. Unsere Erfahrung zeigt jedoch, dass oft mehr Test-Gaps gefunden werden, als (rechtzeitig) getestet werden können.
Im Vortrag stellen wir einen risikobasierten Ansatz zur Priorisierung von Test-Gaps vor, in den mehrere Dimensionen der Code-Änderung einfließen (u.a. Zentralität im Abhängigkeitsgraph, Komplexität der Änderung, Findings-Churn). Wir haben den Ansatz empirisch validiert und stellen die Ergebnisse für acht Systeme der Munich Re und der LV 1871 vor.
Zielpublikum: Tester, Test-Manager, Testautomatisierer, Entwickler, Architekten
Voraussetzungen: Interesse an Software-Qualität und Testen
Schwierigkeitsgrad: Basic
Dr. Elmar Juergens hat über statische Codeanalyse promoviert und für seine Doktorarbeit den Software-Engineering-Preis der Ernst Denert-Stiftung erhalten. Er ist Mitgründer der CQSE GmbH und begleitet seit zehn Jahren Teams bei der Verbesserung ihrer Qualitätssicherungs- und Testprozesse. Juergens spricht regelmäßig auf Forschungs- und Industriekonferenzen und wurde für seine Vorträge mehrfach ausgezeichnet. Elmar Jürgens wurde 2015 zum Junior Fellow der Gesellschaft für Informatik ernannt.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/elmar-juergens/
Roman Haas promoviert zur Verbesserung von Testprozessen an der Universität des Saarlandes als externer Doktorand der CQSE GmbH. Dort arbeitet er seit acht Jahren als Consultant für Softwarequalität.
Es gibt eine große Zahl an Werkzeugen, die Qualitätsprobleme in Bestandscode mittels statischer Analyse erkennen und sichtbar machen. Die automatische Behebung dieser Probleme war bisher aber nur in vergleichsweise einfachen Fällen möglich. Die derzeitigen Entwicklungen in der künstlichen Intelligenz, speziell die Large Language Models (LLMs), verschieben die Grenzen des Möglichen jedoch deutlich.
In diesem Vortrag möchte ich auf Basis eines hierfür erstellten Benchmarks aufzeigen, wie weit sich Qualitätsprobleme heutzutage durch KI beheben lassen. Neben Erfahrungen aus unserer internen Entwicklung möchte ich auch beleuchten, welchen Einfluss die Wahl des Basismodells hat, welche Informationen die LLMs dabei als Input benötigen und an welchen Problemen die KI heute noch scheitert.
Zielpublikum: Architekten, Entwickler, Projektleiter
Voraussetzungen: Interesse an Software-Qualität und KI
Schwierigkeitsgrad: Basic
Dr. Benjamin Hummel hat im Bereich Software Engineering promoviert und zu den Themen Softwarequalität und -wartbarkeit geforscht und publiziert. Seit über 20 Jahren entwickelt er aktiv Methoden und Werkzeuge für die Qualitätsverbesserung von großen Softwaresystemem. Als Mitgründer und CTO der CQSE GmbH verantwortet er seit über 10 Jahren die Entwicklung und den Betrieb der Software-Intelligence-Plattform Teamscale.
Es gibt viele Tools, die AI nutzen, um uns in der Softwareentwicklung zu assistieren. Einige generieren Code oder Testfälle, andere schlagen Code-Verbesserungen vor oder selektieren Tests auf Basis von Code-Änderungen uvm.
Leider wissen wir wenig darüber, welche Fehler diese AI-Assistenten sporadisch oder häufig machen. Allerdings müssen wir uns vermutlich darauf einstellen, dass sie in allen Phasen der Softwareentwicklung Einzug halten werden, alleine schon deshalb, weil sie bequem sind.
In diesem Vortrag möchte ich darüber sprechen, wie wir dieser Herausforderungen aus Sicht der Qualitätssicherung begegnen können und welche automatisierten Analysen ergänzend oder begleitend zu AI-Tools eingesetzt werden können, um dem Risiko ihres Einsatzes zu begegnen.
Zielpublikum: Entwickler, Architekten, Manager
Voraussetzungen: Interesse an Qualitätssicherung, Code-Analysen und AI-Assistenten
Schwierigkeitsgrad: Basic
Dr. Elmar Juergens hat über statische Codeanalyse promoviert und für seine Doktorarbeit den Software-Engineering-Preis der Ernst Denert-Stiftung erhalten. Er ist Mitgründer der CQSE GmbH und begleitet seit zehn Jahren Teams bei der Verbesserung ihrer Qualitätssicherungs- und Testprozesse. Juergens spricht regelmäßig auf Forschungs- und Industriekonferenzen und wurde für seine Vorträge mehrfach ausgezeichnet. Elmar Jürgens wurde 2015 zum Junior Fellow der Gesellschaft für Informatik ernannt.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/elmar-juergens/
Vortrag Teilen
Vortrag Teilen
BDD is not new, but is very useful. If you have never used it before, or have tried and it didn't work, this session will give a good grounding to using BDD successfully. We'll cover the basics, working through some examples and discuss how to succeed.
We will focus on the process, learning how to write scenarios and have a brief glimpse at what happens under the hood. We'll also think about helping everyone engage with testing.
If you want more people to get involved in testing and need ideas, come along. I'll tell you about my experiences and what has and hasn't worked. You can share your experience too, so we can all go away ready to test, think and communicate better.
Target Audience: Developers, testers, business or product owners
Prerequisites: An awareness of automatic testing
Level: Advanced
Frances Buontempo is currently editor of the ACCU’s Overload magazine and has written two books, one on Genetic Algorithms and Machine Learning and the other on Learning C++ for those who got left behind since C++11. She has worked as a programmer at various companies, mostly in London with a focus on finance. She enjoys testing and deleting code and tries to keep on learning.
Vortrag Teilen
Ab Juni 2025 müssen in der EU viele digitale Produkte barrierefrei sein. Eines der großen Probleme bei der Umsetzung: der Testaufwand. Viele Dinge müssen von Hand überprüft werden, denn die automatischen Prüftools haben nur eine geringe Abdeckung. Wir Entwickler haben aber gerne ein Sicherheitsnetz von automatisierten Tests in der Pipeline. Wie können wir das für Barrierefreiheit erreichen?
In diesem Vortrag gebe ich euch das Handwerkszeug, um euch in Hinblick auf Barrierefreiheit besser abzusichern. Dabei lernen wir zunächst automatische Tools und ihre Möglichkeiten und Grenzen kennen. Danach schauen wir auf Strategien zum Schreiben eigener Tests mit gängigen Testframeworks. Abschließend schauen wir uns an, was AI in dieser Hinsicht für uns leisten kann.
Zielpublikum: Entwickler
Voraussetzungen: Grundkenntnisse in Webentwicklung
Schwierigkeitsgrad: Advanced
Anna Maier kommt ursprünglich aus der Java-Welt, fühlt sich aber mittlerweile im Frontend auch sehr wohl. Seit 2021 arbeitet sie als IT-Consultant für codecentric. Ihre Leidenschaft seit vielen Jahren ist das Thema Barrierefreiheit. Außerdem setzt sie sich für Frauen in der IT ein.
Am Anfang eines Projekts ist die Produktivität hoch. Architektur, Bausteine und Abhängigkeiten sind klar definiert. Doch mit der Zeit wird der Code immer umfangreicher und die Anforderungen werden komplexer. Es schleichen sich ungewollte Abhängigkeiten ein. Code und Architekturdiagramme passen nicht mehr zusammen.
Architekturtests wirken dem entgegen. Sie funktionieren wie Unit Tests, testen aber Anforderungen an die Architektur. Sie laufen automatisiert im Continuous Build und verhindern dadurch, dass sich Verstöße gegen die anfangs aufgestellten Architekturregeln einschleichen.
Der Vortrag gibt einen Überblick über die Möglichkeiten von Architekturtests und demonstriert anhand einer Beispielarchitektur, wie sich verschiedene Aspekte der Architektur testen lassen. Der praktische Anteil des Vortrags ist sehr hoch. Die Teilnehmer sind nach dem Vortrag in der Lage, das neu erworbene Wissen umgehend in eigenen Projekten praktisch anzuwenden.
Zielpublikum: Architekten und Entwickler
Voraussetzungen: Softwarearchitekturgrundlagen, Grundkenntnisse in .NET
Schwierigkeitsgrad: Advanced
Andreas Lausen ist Software Architect bei der MEDIFOX DAN GmbH. Der Schwerpunkt seiner Tätigkeit liegt auf der Konzeption und Umsetzung von langfristig wart- und erweiterbaren Softwaresystemen. Als Technologien setzt er hauptsächlich .NET und die iOS und Android SDKs ein.
Vortrag Teilen
Generative AI is a powerful asset if you know how to tame it. As this technology rapidly transforms the software landscape, one of the key challenges lies in effectively testing and validating GenAI applications. Traditional testing methodologies fall short in addressing the unique complexities posed by these systems, especially in enterprise environments.
Drawing from real-world experiences and hard-earned insights, we'll explore how to adapt established software engineering principles to the world of GenAI, and where entirely new approaches are necessary. Key topics include:
- Strategies for testing non-deterministic outputs
- Which metrics to choose and how to cope with conflicting metrics
- Unit-Tests vs End-To-End-Tests in the World of GenAI
- How to evaluate the evaluators: Aligning automatic evaluation with human evaluation
- Techniques for evaluating model hallucinations and biases
- Approaches to performance and scalability testing for GenAI systems
- Methods for ensuring data privacy and security in AI-driven applications
- Practical tools and frameworks for continuous testing in GenAI pipelines
Attendees will gain actionable knowledge on implementing robust testing practices for GenAI applications, bridging the gap between traditional QA and the demands of modern AI systems. This session is essential for developers, QA engineers, and technical leaders navigating the complexities of deploying GenAI in production environments.
Target Audience: AI engineers, software engineers, architects, and stakeholders working with GenAI applications
Prerequisites: Attendees should have a foundational understanding of AI
Level: Advanced
Steve Haupt, ein agiler Softwareentwickler bei andrena objects, betrachtet Softwareentwicklung als ein qualitätsorientiertes Handwerk. Aus Begeisterung für Künstliche Intelligenz erforscht er deren Auswirkungen auf das Softwarehandwerk, arbeitet an KI-Projekten und entwickelt dabei Best Practices. Er spricht regelmäßig über Künstliche Intelligenz und entwickelt Schulungen, um dieses Wissen zu verbreiten.
Mehr Inhalte dieses Speakers? Schaut doch mal bei SIGS.de vorbei: https://www.sigs.de/experten/steve-haupt/
Vortrag Teilen