Thema: AI
- Montag
03.02. - Dienstag
04.02. - Mittwoch
05.02. - Donnerstag
06.02. - Freitag
07.02.
In dieser Sitzung erhaltet ihr aktuelles praktisches Wissen über die Bewertung von Softwarearchitekturen mit Schwerpunkt auf KI-basierter Software, im Hinblick auf Sicherheits- und Datenschutzanforderungen und darüber, wie man eine unsichere Architektur mit Hilfe von Schutzmaßnahmen und Best Practices verbessern kann, die aus dem OWASP AI Security and Privacy Guide und den aktuellen Top 10 der Sicherheitsprobleme von maschinellen Lernsystemen (OWASP Machine Learning Security Top 10) abgeleitet sind.
Wir werden Schwachstellen von maschinellen Lernsystemen betrachten, wie: Input Manipulation Attack, Data Poisoning Attack, Model Inversion Attack, Membership Inference Attack, Model Theft, AI Supply Chain Attacks, Transfer Learning Attack, Model Skewing, Output Integrity Attack, und Model Poisoning
... und Sicherheits- und Datenschutzziele und -techniken, wie: Nutzungsbeschränkung und Zweckbestimmung, Fairness, Datenminimierung und Speicherbegrenzung, Transparenz, Datengenauigkeit, Zustimmung.
In Breakout-Gruppen werden praktische Übungen mit Open-Source-Tools zur Sicherheitsanalyse von Architekturen und deren Implementierungen durchgeführt, darunter SonarQube und das Threat Dragon Tool. Ihr schlüpft in die Rolle des Angreifers und greift die (bewusst unsicher entwickelte) Webanwendung „Google Gruyere“ an. Auf diese Weise erwerbt ihr konzeptionelle und praktische Kenntnisse der IT-Sicherheit auf Architekturebene und im Kontext der Softwareentwicklung.
Als Werkzeug zum praktischen Einsatz in der Sicherheitsanalyse von Web-basierten Architekturen dient u. a. die Penetration-Testing-Infrastruktur Kali Linux.
Das Tutorial besteht zu ca. 50 Prozent aus praktischen Aktivitäten, die ihr in Kleingruppen unter Anleitung des Dozenten durchführt. Durch das praktische und interaktive Konzept könnt ihr Softwaresicherheit aus eigener Anschauung erleben.
Maximale Teilnehmendenzahl: 20
Zielpublikum: Architekten, Entwickler, QA-Manager, Projektleiter
Voraussetzungen: Grundlegendes Verständnis von Softwaresicherheit
Schwierigkeitsgrad: Basic
Jan has worked on secure software architectures for more than 20 years. His first book on the topic in 2005 was also translated to Chinese. Previous positions include: Professor for Software Engineering (TU Dortmund), Senior Member/Research Fellow (Robinson College, Uni Cambridge), Royal Society Industrial Fellow (Microsoft Research Cambridge), Postdoc (TU Munich), PhD Computer Science (Uni Oxford) in Software Security, Master in Mathematics (Uni Bremen).
Vortrag Teilen
Unsere Welt verändert sich rasant, wird immer weniger vorhersagbar, komplexer und widersprüchlicher. Der Einsatz von KI im Unternehmen erhöht die Komplexität noch zusätzlich. Und mit dieser Veränderung geht auch ein Wandel der traditionellen Rolle der Führungskraft einher. Auch in der Mitarbeiterführung können KI-Methoden zur Anwendung kommen. Bisher funktionierende Führungsmethoden, erfolgreiche Verhaltensweisen und ein bewährter Führungsstil stoßen nun an ihre Grenzen. Es verändert sich etwas im Gefüge zwischen Führungskräften und Mitarbeitenden. Organisationen und Menschen verlangen nach einem neuen, anderen Führungsverhalten. Eine Antwort darauf kann Lean-Agile Leadership sein. Die erfordert ein neues Rollenbild und Selbstverständnis von Führung. Doch was bedeutet das?
Wir starten in unseren Workshop mit einem Blick auf das Führungs-Mindset und wollen gemeinsam darüber diskutieren, welchen Einfluss künstliche Intelligenz schon heute auf die Mitarbeiterführung hat. Wir teilen unsere Erfahrungen zu ethischen und datenschutzrechtlichen Risiken und Herausforderungen und liefern Ideen, wie man KI-Technologien verantwortungsbewusst und transparent einsetzen kann.
Danach geben wir Einblicke in 6 wichtige Elemente von Lean-Agile Leadership, die gerade in Technologie-Unternehmen, die den Einsatz von KI vorantreiben, eine ganz neue Relevanz bekommen. Diese klingen in der Theorie zwar ganz einfach, können dann aber in der Umsetzung eher schwierig werden. Aus „Ist eh klar.“ wird dann schnell ein „Aber wie kann ich das gut umsetzen?“.
Wir geben euch Inspiration, Beispiele aus unserer Beratungspraxis und üben und diskutieren mit euch. Die Elemente zu agiler Führung, die wir im Workshop beleuchten und im Kontext KI diskutieren wollen, sind:
- Psychologische Sicherheit
- Selbstorganisation
- Konfliktfähigkeit
- Lernkultur
- Freiräume geben
- Achtsamkeit
Nach einem schnellen Überblick zu jedem der 6 Themen gehen wir im Sinne eines Lean-Coffee-Formats so vor, dass die Teilnehmenden selber entscheiden werden, wo sie Schwerpunkte setzen wollen. Nach dem Voting durch die Teilnehmenden gehen wir (time-boxed mit 10 bis 15 Min. pro Thema) auf die 3 höchstpriorisierten Themen ein, besprechen Beispiele, geben Übungen und Reflexionsfragen mit und tauschen Erfahrungen aus.
Ziel dieses kurzen Workshops ist es nicht, die theoretischen Grundlagen zu Lean-Agile Leadership oder die genannten Aspekte in der Tiefe zu behandeln. Dafür sind 90 Minuten nicht ausreichend. Wir wollen den Teilnehmenden neue Perspektiven aus der Praxis auf das Thema Lean-Agile Leadership geben sowie sie inspirieren, neue Dinge im Arbeitsalltag auszuprobieren und über ihr eigenes Führungsverhalten zu reflektieren. Zusätzlich erhalten Interessierte jede Menge Tipps zu Literatur, Studien, Vorträgen und anderen wertvollen Quellen zu den Themen.
Kurze Agenda:
- Intro
- Lean-agile Führung: Was ist das und wie funktioniert es?
- Haltung als lean-agile Führungskraft: Wie das Mindset die Umsetzung beeinflusst
- Einsatz von KI in der Mitarbeiterführung – Chancen und Risiken
- Die 6 Elemente der agilen Führung im Überblick
- Deep-Dive in 3 von den Teilnehmenden ausgewählte Themen: Psychologische Sicherheit, Selbstorganisation, Konfliktfähigkeit, Lernkultur, Freiräume geben und Achtsamkeit
- Wrap-up und Q&A
Was nehmen die Teilnehmenden aus den 90 Minuten mit?
- Lean-Agile Leadership ist eine hilfreiche Antwort auf komplexe Herausforderungen, gerade in technologie-zentrierten Unternehmen.
- Lean-Agile Leadership und der Einsatz von KI-Tools kann helfen, Komplexitätskompetenz aufzubauen und mit komplexen Situationen besser umzugehen.
- Es reicht nicht, Methoden nach Lehrbuch einzusetzen, Lean-Agile Leadership wird nur mit einem passenden Mindset wirksam.
- Ideen für kleine Schritte in der Praxis: Fokus auf die wirksame Umsetzung von nur einem oder zwei der vorgestellten Elemente wird die agile Arbeit deutlich verbessern!
Zielpublikum: Manager, Führungskräfte, Teamleiter, Entscheider, Product Owner, Scrum Master
Voraussetzungen: Agile Grundlagen, Interesse an Leadership-Themen
Schwierigkeitsgrad: Basic
Peter Schnell ist Dipl.-Informatiker und seit 1994 in der IT-Branche tätig. Sein beruflicher Werdegang führte ihn von der IT-Projektleitung einer Versicherung über das Beratungs- und Trainingsgeschäft in die Leitung eines IT-Bereiches. Seine Schwerpunkte sind das agile Coaching, agile Transitionen, Management von klassischen und agilen Projekten im Banken- und Versicherungsbereich, Interims-und Personalmanagement. Er hat seine langjährige Erfahrung in eine Vielzahl von Vorträgen und Publikationen eingebracht. Seit 2020 ist Peter Partner der KEGON AG, seit 2024 Vorstand von KEGON.
Susanne Bauer unterstützt Unternehmen durch lösungsfokussierte Beratung, Coaching und Training, Zukunftskompetenzen aufzubauen, sowohl individuell als auch auf Team-Ebene. Sie ist seit 2021 freiberuflich als Management-Beraterin, Trainerin und Business Coach tätig. Nach ihrem Studium Internationale Wirtschaftsbeziehungen sammelte sie langjährige Erfahrung als Führungskraft im Marketing. Sie absolvierte zudem fundierte Ausbildungen im Systemischen Business Coaching, Lebens- und Sozialberatung, Business-Training und Change-Begleitung. Beruflicher Schwerpunkt seit 2015 ist der Weiterbildungs- und Business-Coaching-Bereich im agilen Führungs- und Teamkontext.
Vortrag Teilen
"KI ist gekommen, um zu bleiben", ist von vielen Seiten zu hören. Das stimmt. KI ist nicht mehr wegzudenken. Millionenfach finden wir KI in Anwendungen und Funktionalitäten wieder. Die Entwicklung ist rasant und viele wollen noch "auf den Zug aufspringen". Darunter sind auch Lösungen, die ohne KI auskommen und sogar effizienter wären. Umso wichtiger ist es, bei der Planung zu erkennen, wann ein Problem auch ohne KI gelöst werden kann. In dieser Session lernen wir ein paar komplexe Beispiele aus der realen Welt kennen und zeigen auf, wo KI nützlich ist und vor allem wo nicht.
Zielpublikum: Projektleiter, Produktmanager, Anfänger in der Entwicklung
Voraussetzungen: Keine
Schwierigkeitsgrad: Advanced
Carlos Fernandez ist leidenschaftlicher Softwareentwickler bei DATEV eG mit mehr als 25 Jahren Praxiserfahrung. Er ist Experte für C#-Entwicklung und Performance-Optimierungen. Seine Expertise in der Leistungsoptimierung bringt er in das Thema Nachhaltigkeit ein. Auch aus diesem Grund ist er in der Green-CoP (Community of Practice) aktiv. Darüber hinaus ist Carlos als Referent und Berater unterwegs.
Matthias Seiller ist seit 2021 agiler Lerncoach bei DATEV eG und studierte Medieninformatik. Er fokussiert sich auf die Anwendung generativer KI-Technologien zur Optimierung von Lernprozessen und teilt seine Ergebnisse an der Schnittstelle von KI und beruflicher Bildung.
Generative AI is the talk of the town. Anyone who spends just five minutes thinking about AI can surely come up with several useful business use cases. However, all too often, we find ourselves facing the following dilemma: we want to quickly launch our chatbots and assistant systems and bring our ideas to market readiness. Yet at the same time, important, complex, cross-functional aspects such as data protection, compliance, operational readiness, or model fine-tuning often slow down rapid development and deployment.
Furthermore, enterprise scale AI projects often involve many different stakeholders: data engineers, AI specialists, software engineers, operational experts, and business departments. Too much talking and no progress at all are the result.
AI platforms to the rescue! We believe that established platform engineering approaches and technologies, combined with LLM Ops practices, can tackle this dilemma. Only a robust, scalable, and flexible platform enables our teams to efficiently develop, operate, and manage their data, models, and applications. The platform hides the inherent technical complexity, while allowing users to fully focus on the use case and the creation of value and innovation.
We will explore what a corporate AI platform can look like and the components and services it requires. We discuss how a company-wide platform strategy not only simplifies technical implementation but also creates an ecosystem for innovation, fosters collaboration, increases reusability, and ultimately drastically shortens the time to market.
Target Audience: Developers, Architects, Data Scientists, Decision Makers, Platform Engineers
Prerequisites: Basic knowledge in AI
Level: Advanced
Mario-Leander Reimer ist passionierter Entwickler, stolzer Vater und #CloudNativeNerd. Er ist CTO bei der QAware GmbH und beschäftigt sich intensiv mit den Innovationen und Technologien rund um den Cloud-Native-Stack und deren Einsatzmöglichkeiten im
Unternehmensumfeld. Außerdem unterrichtet er Software-Qualitätssicherung an der TH Rosenheim.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/mario-leander-reimer/
Sonja Wegner ist Lead Software Architect, Business Unit Director und Mitglied der Unternehmensleitung von QAware. Ihre Schwerpunkte liegen im Design und in der Implementierung komplexer Systeme und Software-Architekturen.
Aktuell beschäftigt sie sich besonders mit dem Einsatz von generativer KI im Enterprise-Kontext und der Integration von AI-Bausteinen in komplexe Systeme. Sie teilt ihre Erfahrungen gerne und regelmäßig auf verschiedenen Konferenzen.
Vortrag Teilen
Vortrag Teilen
Vergleichen Sie KI mit Fahrzeugen. Ein Familienauto für die Ausflüge Kindern. Ein Fahrzeug für den Weg zur Arbeit. Ein Fahrrad für die kurzen Wege im Dorf oder in der Stadt. Für das Wochenende ein Motorrad oder Sportwagen und für die Urlaube ein Wohnmobil.
Der Vergleich mit verschiedenen Fahrzeugen im Alltag verdeutlicht, dass es nicht die eine KI gibt, sondern vielfältige, auf unterschiedliche Anwendungsfälle spezialisierte KI-Lösungen.
Es werden praxisnahe Beispiele vorgestellt, die zeigen, wie diese KIs datenschutzkonform in Unternehmen integriert und an spezifische Unternehmensbedürfnisse angepasst werden können. Dies kann ein ChatBot für ihre Webseite sein, ein kleiner Helfer zum Verfassen von Texten oder Analysieren von großen Daten. Die Möglichkeiten sind schier unendlich und einige davon werden vorgestellt.
Ziel des Vortrags ist es, den Teilnehmern ein klares Verständnis darüber zu vermitteln, wie und in welcher Form KI gewinnbringend in ihrem Unternehmen eingesetzt werden kann.
Zielpublikum: Projektleiter, Manager
Voraussetzungen: Keine
Schwierigkeitsgrad: Basic
Oliver Kolar gründete 2019 gemeinsam mit seinem Geschäftspartner Tom Müller das cloud-native Unternehmen ARES Consulting. ARES Consulting ist auf die Optimierung von IT-Infrastrukturen durch moderne Cloud-Lösungen, Strategieberatung und den Einsatz von Generative AI (GenAI) spezialisiert, um die digitale Transformation seiner Kunden erfolgreich zu begleiten und IT-Infrastrukturen zukunftssicher zu gestalten.
Vor der Gründung von ARES Consulting studierte Oliver Informatik an der TU München und sammelte wertvolle Erfahrungen in verschiedenen IT-Unternehmen und Konzernen. Dank seiner umfassenden Expertise treibt er technologische Innovationen voran und wird regelmäßig als Experte zu Themen wie künstlicher Intelligenz eingeladen.
The EU AI Act was established to promote trustworthy AI. This legislative framework outlines comprehensive and rigorous requirements for AI systems, sorting them into four risk groups: prohibited, high-risk, limited-risk, and minimal-risk AI systems. With a grace period of 6 to 24 months from the regulation's publication, it is recommended for companies using AI to start preparing for the upcoming requirements. To ensure technical readiness for compliance with the AI Act, it is crucial to integrate established data governance, AI governance, and MLOps techniques throughout the life cycle of an ML/AI system.
My talk is intended to provide practitioners with a thorough understanding of the EU AI Act's requirements. They also offer practical guidance on implementing MLOps, observability, and data governance processes that align with the regulation. While exploring the legislation to identify the requirements for AI systems and general-purpose AI applications, our discussions will provide an engineering perspective on the proactive implementation of the provisions of the EU AI Act.
Target Audience: Architects, Developers, ML Engineers
Prerequisites: MLOps
Level: Advanced
Larysa hat einen Doktortitel in Computerwissenschaften. Beruflich ist sie als Head of Data und AI bei INNOQ tätig. Larysa ist auch die Gründerin von ml-ops.org und Mitbegründerin von datamesh-architecture.com. Sie ist die Gründerin des Women+ in Data and AI Festivals in Berlin.
Vortrag Teilen
GenAI services have been rapidly integrated into various digital business models, but what if your data holds better answers? How can this technology be combined with an organization's knowledge and data?
This talk explores Large Language Models (LLMs) and their augmentation with custom data via Retrieval-Augmented Generation (RAG). Discover Statista's pioneering journey from rich search results to concise, informed answers with their LLM-based application, ResearchAI. We'll discuss challenges such as building a skilled team, the impact of exclusive data on answer quality, high costs, query latency, and LLM hallucinations despite accurate data. This session provides a realistic look at the hurdles and strategies for optimizing RAG applications in the real world.
Target Audience: Data Scientists, Data Engineers, Developers, Decision Makers
Prerequisites: Basic knowledge of GenAI
Level: Expert
Leidenschaftlicher Softwarearchitekt, Full-Stack-Entwickler und Speaker mit Begeisterung für Technologie, Architektur und Organisation. Entwickelt und betreibt Software, datengetrieben mit Fokus auf Kundenmehrwert. Bildet sich und andere gern aus und weiter. Stolzes Gründungsmitglied der Hacker-School.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/benedikt-stemmildt/
Matthias Lau is developer and founder of the technology studio and freelancer community Heureka Labs with a passion for software development and innovative digital products. He loves coding, awesome internet concepts, federated learning, Docker, the Apple Multi-Touch Trackpad, Bouldering, Wikipedia and Espresso.
Vortrag Teilen
Nach Vorfreude auf den AI-Coding-Assistant kam Ernüchterung: Viele Vorschläge waren unbrauchbar, es wurde zu viel „halluziniert“. Wir fragten uns, ob es der richtigen Technik bedarf. Wir experimentierten mit Techniken (Chat-Assistant, Auto-Completion, Comment-driven) und Vorgehensweisen (Chat-first, Code-first, Test-first, TDD).
Dieser Vortrag konzentriert sich auf TDD mit AI-Coding-Assistants. Wir erläutern die Vorgehensweise von AI-Coding-Assistants, erklären Begrifflichkeiten, Einschränkungen, Ansätze und demonstrieren das Vorgehen mit Live-Coding. Wir versuchen, Grenzen der AI-Assistants auszuloten: Verbesserte Code-Completion oder Pair-Programming-Partner.
Zielpublikum: Entwickler:innen
Voraussetzungen: Grundkenntnisse in Programmierung
Schwierigkeitsgrad: Basic
Rouven Röhrig verfügt über 15 Jahren Erfahrung als Software-Engineer mit Expertise in Technical Agile Coaching, Extreme Programming und DevOps. Er ist kundenorientiert und erfolgreich in der Produktentwicklung.
Seit 8 Jahren ist Gregor Wicklein Agile Software-Engineer bei andrena objects. Hier liegt sein Fokus auf Agilen Methoden und Extreme-Programming-Techniken wie test-driven development (TDD) und Pair-Programming.
Vortrag Teilen
Disclosure - this is a talk about people - not about AI. This is a talk about how we will continue to apply our humans strenghts in a world enhanced by AI.
One of the LLM engines I work with seems to think it can take over my job as an architect. I say with some confidence that for the next few decades, my job will be heavily influenced by AI, but not replaced by AI. For example I am presenting and OOP and *it* is not.
Software architects and system architects will not be replaced anytime soon by Generative AI or LLMs. They will be replaced by software architects that know how to leverage Generative AI and LLMs, and just as importantly, know how NOT to use Gen AI. For the last two years, Avraham has been on a journey exploring the use of AI to augment the way he does architecture and makes architecture decisions as well as assimilate the architectural understanding within the organization.
Along the way, Avraham has learned so much both about generative AI's abilities and limitations, and even more about himself as an architect and as a person. For example, Avraham has learned that AIs can propose tradeoffs along with convincing suppporting arguments, but only a human Architect can be held accountable. An AI might be able to create a drawing and talk you through it, but only a human architect will appriciate the look of confusion on your face and emphasize that one dotted line that makes everything clearer.
In the talk, Avraham invites you to join him on his journey. This talk will equip you with the knowledge and very practical tools to start on your own adventure to leverage the power of GAI, elevate your architectural practice, and hopefully stay ahead of the curve.
Target Audience: Software Architects, Developers, Decision Makers
Prerequisites: Basic Curiosity about AI and machine learning
Level: Advanced
Avraham Poupko is the head of Product Security for Forescout. He learns and teaches about how people join to create software.
As a systems architect, Avraham Poupko has spent the last 25 years analysing, modeling and designing software as well as teaching systems thinking and system design. Avraham experience varies from working with small startups that have one product, to large enterprises that create very complex domains and systems. Avraham is currently leading a multi disciplined team that is designing the next generation data center.
Avraham is currently studying, writing and teaching about the varied and complex relationships between the organizations that create software and the software they create.
Vortrag Teilen
In den letzten Jahren haben generative KI-Tools, insbesondere im Bereich des Designs, erheblich an Bedeutung gewonnen. Die meisten Diskussionen konzentrieren sich jedoch auf die Bildgenerierung und vernachlässigen das breitere Spektrum an Aufgaben im Designprozess, insbesondere im Kontext des User-Centered Design (UCD). Das UCD-Framework betont das Verständnis der Benutzerbedürfnisse, die Generierung von Ideen und Anforderungen, das Prototyping konkreter Lösungen und die Einbeziehung von Benutzerfeedback in verschiedenen Phasen. Dieser umfassende Ansatz erfordert eine sorgfältige Integration generativer KI und wirft die Frage auf, inwieweit KI-Tools der UCD-Prozess unterstützen können.
In diesem Vortrag wird eine theoretische Perspektive auf den Designprozess präsentiert, wobei kognitive Prozesse und die wesentlichen Kompetenzen von Entwicklungsteams berücksichtigt werden. Basierend auf einem Anwendungsfall werden Bereiche vorgestellt, in denen KI den Designprozess verbessern oder behindern kann. Es wird aufgezeigt, wie KI-Tools in verschiedenen Phasen des UCD eingesetzt wurden und welche Vor- und Nachteile dabei festgestellt wurden. Der Vortrag zeigt sowohl das Potenzial als auch die Grenzen von generativen KI-Werkzeugen im Designprozess auf.
Zielpublikum: Projektleiter:innen, Product Owner, UX-Designer:innen, Anforderungsingenieur:innen
Voraussetzungen: Projekterfahrung, User-Centered Design, User Experience
Schwierigkeitsgrad: Basic
Prof. Claudia Nass Bauer ist in Design geboren und Softwareengineering aufgewachsen. Seit 2006 arbeitet sie in interdisziplinären Teams an digitalen Lösungen und setzt sich dafür ein, diese Bereiche in Forschung und Lehre an der HS Mainz zu verbinden. Sie vertritt Themen wie strategische Entwicklung und Umsetzung innovativer Lösungen, Design- und Innovationsprozesse. Zudem arbeitet sie am Fraunhofer IESE, wo sie Industrieprojekte im Bereich Kreativitätsworkshops und User-Centered Design berät.
Wie verändert unsere Sprache die KI und die KI unser Denken?
Der Einsatz von LLMs hat rasant zugenommen, ohne KI kommen wir gefühlt kaum noch aus. Gleichzeitig wissen wir, dass die Modelle Biases beinhalten, die zu ethisch fragwürdigen oder nach menschlichem Ermessen unfairen Ergebnissen führen können, und dass die KI diese Vorurteile von uns gelernt hat! Wenn nun aber die KI von uns lernt und wir von der KI, wo setzen wir dann an, um uns gemeinsam zu verbessern?
In diesem Talk greife ich alte und neue Beispiele zu inklusivem Design und Diversität in der Softwareentwicklung auf und zeige, wie ich diese Beispiele beim Bau eines Custom GPT im Prompting genutzt habe, um einen Diversity Bias in Dokumenten oder auf Webseiten aufzuspüren, und welche Erfahrungen ich daraus mitgenommen habe.
Zielpublikum: Business-Analyst:innen, UX-Designer:innen, Product Owner, Entwickler:innen, Menschen
Voraussetzungen: Keine
Schwierigkeitsgrad: Basic
Katrin Rabow hat rund 15 Jahre lang als selbstständige Beraterin kleine Unternehmen in ihrem betriebswirtschaftlichen Alltag mit Schulungen und Support unterstützt, bevor sie 2015 ein Studium der Wirtschaftsinformatik an der Technischen Universität Darmstadt begann, das sie mit dem Masterabschluss beendete. Seitdem ist sie als Business-Analystin und Qualitätsmanagerin in verschiedenen Projekten unterwegs und gibt Trainings zu Themen wie Behaviour Driven Development.
Es gibt eine große Zahl an Werkzeugen, die Qualitätsprobleme in Bestandscode mittels statischer Analyse erkennen und sichtbar machen. Die automatische Behebung dieser Probleme war bisher aber nur in vergleichsweise einfachen Fällen möglich. Die derzeitigen Entwicklungen in der künstlichen Intelligenz, speziell die Large Language Models (LLMs), verschieben die Grenzen des Möglichen jedoch deutlich.
In diesem Vortrag möchte ich auf Basis eines hierfür erstellten Benchmarks aufzeigen, wie weit sich Qualitätsprobleme heutzutage durch KI beheben lassen. Neben Erfahrungen aus unserer internen Entwicklung möchte ich auch beleuchten, welchen Einfluss die Wahl des Basismodells hat, welche Informationen die LLMs dabei als Input benötigen und an welchen Problemen die KI heute noch scheitert.
Zielpublikum: Architekten, Entwickler, Projektleiter
Voraussetzungen: Interesse an Software-Qualität und KI
Schwierigkeitsgrad: Basic
Dr. Benjamin Hummel hat im Bereich Software Engineering promoviert und zu den Themen Softwarequalität und -wartbarkeit geforscht und publiziert. Seit über 20 Jahren entwickelt er aktiv Methoden und Werkzeuge für die Qualitätsverbesserung von großen Softwaresystemem. Als Mitgründer und CTO der CQSE GmbH verantwortet er seit über 10 Jahren die Entwicklung und den Betrieb der Software-Intelligence-Plattform Teamscale.
Es gibt viele Tools, die AI nutzen, um uns in der Softwareentwicklung zu assistieren. Einige generieren Code oder Testfälle, andere schlagen Code-Verbesserungen vor oder selektieren Tests auf Basis von Code-Änderungen uvm.
Leider wissen wir wenig darüber, welche Fehler diese AI-Assistenten sporadisch oder häufig machen. Allerdings müssen wir uns vermutlich darauf einstellen, dass sie in allen Phasen der Softwareentwicklung Einzug halten werden, alleine schon deshalb, weil sie bequem sind.
In diesem Vortrag möchte ich darüber sprechen, wie wir dieser Herausforderungen aus Sicht der Qualitätssicherung begegnen können und welche automatisierten Analysen ergänzend oder begleitend zu AI-Tools eingesetzt werden können, um dem Risiko ihres Einsatzes zu begegnen.
Zielpublikum: Entwickler, Architekten, Manager
Voraussetzungen: Interesse an Qualitätssicherung, Code-Analysen und AI-Assistenten
Schwierigkeitsgrad: Basic
Dr. Elmar Juergens hat über statische Codeanalyse promoviert und für seine Doktorarbeit den Software-Engineering-Preis der Ernst Denert-Stiftung erhalten. Er ist Mitgründer der CQSE GmbH und begleitet seit zehn Jahren Teams bei der Verbesserung ihrer Qualitätssicherungs- und Testprozesse. Juergens spricht regelmäßig auf Forschungs- und Industriekonferenzen und wurde für seine Vorträge mehrfach ausgezeichnet. Elmar Jürgens wurde 2015 zum Junior Fellow der Gesellschaft für Informatik ernannt.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/elmar-juergens/
Vortrag Teilen
Vortrag Teilen
AI for testing to generate test code or AI for coding (see Copilot) to suggest good code examples; this is almost "state-of-the-art". But isn't something missing? Aren't we largely dealing with brownfield software that needs to be transformed in order to be cloud-ready and scalable? Couldn't AI help here too?
In the presentation, we will look at what AI-based methods could do to simulate architecture restructuring (based on data that goes beyond code to evaluate feature/temporal coupling, Conway’s law or a mix of all), check their feasibility and efforts. We also provide an outlook on what support AI could provide with respect to architecture quality analysis. Finally, we will talk about challenges in relation to knowledge management in projects and how to get assistance based on AI.
Target Audience: Project Leaders, Architects, Key Developers, Managers, Decision Makers
Prerequisites: Architecture Knowledge
Level: Advanced
Egon Wuchner worked more than 18 years at Siemens Corporate Technology and founded Cape of Good Code. He has worked as software engineer, software architect and project manager dealing with software architecture issues like software code and architecture quality attributes. He does consulting in the fields of software architecture analysis and improvement based on tools like the DETANGLE® Suite from Cape of Good Code.
M.Sc. Enes Alatas is a seasoned software engineer with over 5 years of dedicated experience in developing software solutions. He has actively contributed to developing innovative software solutions for several engineering companies across different domains, such as data analytics, machine learning, and satellite image analysis. Enes joined Cape of Good Code to assist in developing the automated software analysis tool DETANGLE®.
Vortrag Teilen
Daten sind elementarer Bestandteil jeder Software – und doch kommen sie bei der Betrachtung der Architektur oft zur kurz, insbesondere im Hinblick auf die analytische Nutzung. Ideen wie Data Mesh haben dafür gesorgt, dass „analytische Daten“ auch in der Softwarearchitektur wieder populärer wurden. Schließlich sind sie die Grundlage für GenAI, ML und Data Analytics.
Ich gehe auf typische Vorgehen in der Vergangenheit und auf neue Wege in modernen Softwarearchitekturen ein. Wie schaffe ich es, frühzeitig im Entwicklungsprozess die analytische Nutzung zu berücksichtigen? Welche Methoden und Techniken gibt es, um die Lücke zwischen Softwareengineering und Data Teams zu überbrücken? Außerdem gibt es einen Überblick über die mögliche Implementierung einer solchen Data Aware Architecture.
Zielpublikum: Architekten, Entwickler, Entscheider, sowohl auf der Anwendungs- als auch der Data-Seite
Voraussetzungen: Erfahrung mit der Nutzung oder Bereitstellung von Daten für analytische Zwecke
Schwierigkeitsgrad: Advanced
Matthias Niehoff arbeitet als Head of Data und Data Architect für die codecentric AG und unterstützt Kunden bei der Konzeption und Umsetzung von Datenarchitekturen. Sein Fokus liegt dabei weniger auf dem ML-Modell, sondern vielmehr auf der notwendigen Infrastruktur und Organisation, um Data-Science-Projekte zum Erfolg zu führen.
Vortrag Teilen
The development and deployment of AI and Generative AI systems in a way that promotes environmental, social, and economic well-being for current and future generations is referred to as sustainable AI. To do this, AI must be built with energy-efficient algorithms and run on renewable energy sources to reduce carbon footprints. Ethical considerations are crucial, ensuring that AI respects human rights and diversity while avoiding increasing disparities. Data management must uphold the ideals of fairness, accountability, and transparency, while also protecting privacy. The overarching goal is to develop AI that not only innovates but also protects and enriches our environment. We will discuss some examples from our experience at Amazon.
Target Audience: All
Prerequisites: None
Level: Basic
Currently a Principal AI Strategist with Amazon, Zorina Alliata works with global customers to find solutions that speed up operations and enhance processes using Artificial Intelligence and Machine Learning. Zorina is also an Adjunct Professor at Georgetown University SCS and OPIT, as a creator and instructor for AI courses.
Zorina is involved in AI for Good initiatives and working with non-profit organizations to address major social and environmental challenges using AI/ML. She also volunteers with the Zonta organization and as the Chair of the Artificial Intelligence Committee at AnitaB.org, to support women in tech.
You can find Zorina on LinkedIn:
https://www.linkedin.com/in/zorinaalliata/
Hara Gavriliadi is a Senior CX Strategist at AWS Professional Services helping customers reimaging and transforming their customer experience using data, analytics, and machine learning. Hara has 13 years of experience in supporting organisations to be more data-driven, and turning analytics and insights into commercial advice to enable growth and innovation. Hara is passionate about ID&E and she is an AWS GetIT Ambassador inspiring young students to consider a future in STEAM.
Vortrag Teilen
Generative AI jenseits des Buzzword-Bingos. In diesem Vortrag präsentiert Christian Weyer konkrete Patterns und Lösungen für die Integration von Large Language Models (LLMs) in eigene Softwarearchitekturen. Wichtige Themen wie Semantic Routing, Tool Calling, Guarding oder Observability werden mit Code-Beispielen illustriert. Es erwartet Entwickler und Architekten ein pragmatischer Einblick zur Umsetzung in eigenen Projekten.
Zielpublikum: Entwickler, Architekten, Entscheider für KI-Lösungen
Voraussetzungen: Interesse an Generative AI, Architekturverständnis, ggf. Python lesen können ;-)
Schwierigkeitsgrad: Basic
Christian Weyer ist Mitgründer und CTO der Thinktecture AG. Als Microsoft MVP, Microsoft RD und Google GDE ist er leidenschaftlicher Speaker auf verschiedenen Softwarekonferenzen und -veranstaltungen weltweit. Seit mehr als 25 Jahren liegt sein Herz immer bei den neuesten Technologien und wie man sie sinnvoll für moderne Softwarelösungen einsetzen kann. Sein aktueller Schwerpunkt liegt auf der Umsetzung von Generative-AI-Technologien für ISV- und Unternehmensentwickler.
Vortrag Teilen
The pace of innovation in generative AI offers immense opportunities while also introducing new security challenges. As organizations seek to leverage generative AI for innovation, security leaders must take concrete steps to enable rapid experimentation without compromising security.
We will then discuss key strategies for securing generative AI applications, including threat modeling, guardrails, observability, and evaluation of effectiveness of security measures. Through case studies and practical examples, we will show how to apply these strategies in real-world scenarios. Attendees will learn how to identify and mitigate potential risks, and how to evaluate the effectiveness of their security measures.
Target Audience: Security leaders, developers, practitioners, decision makers, software architects, CTOs
Prerequisites: Interest to learn about new technology
Level: Advanced
Manuel Heinkel is a Solutions Architect at AWS, working with software companies in Germany to build innovative and secure applications in the cloud. He supports customers in solving business challenges and achieving success with AWS. Manuel has a track record of diving deep into security and SaaS topics. Outside of work, he enjoys spending time with his family and exploring the mountains.
Puria Izady is a Solutions Architect at AWS, helping software companies in Germany build innovative SaaS solutions. With a background in machine learning and generative AI, he brings technical expertise and business acumen to design AI/ML driven applications at scale. Puria collaborates closely with customers, understanding their needs and tailoring solutions to meet their specific goals. Before joining AWS, Puria worked in a global bank where he modernized a monolithic stack to a scalable and agile architecture while ensuring security and compliance. Outside of work, Puria enjoys exploring new countries and fine-tuning his secret pizza recipe.
Vortrag Teilen
Obwohl moderne Entwicklungstools das Risiko unbeabsichtigter Sicherheitslücken verringern, bleibt das Thema Sicherheit in Unternehmen hochaktuell. Der Einsatz leistungsstarker KI-Systeme bietet neue Wege, Sicherheitsprozesse zu optimieren und zu automatisieren.
In dieser Session zeigen wir, wie traditionelle Scan-Tools (SAST, SCA) mit den Fähigkeiten von Large-Language-Modellen (LLM) kombiniert werden können, um:
- False- sowie Negative-Positives zu reduzieren,
- den Fokus auf kritische Sicherheitsbefunde zu legen,
- die Analyse und Bewertung von Befunden zu verbessern,
- spezialisierte Tools in größerer Anzahl effektiv einzusetzen.
Wir vergleichen Tausende manuell und per LLM analysierte Befunde und beleuchten die Unterschiede zwischen freien und proprietären Modellen.
Zielpublikum: Entwickler, Architekten, Sicherheitsverantwortliche
Voraussetzungen: Grundlegendes Verständnis für gängige Schwachstellen im Code werden vorausgesetzt
Schwierigkeitsgrad: Advanced
Mirko Richter ist Software-Security-Berater, Sourcecode-Analyse-Spezialist und Schulungsleiter für Grundlagenschulungen bis hin zu Advanced-Coding- und Secure-SDLC-Trainings. Er beschäftigt sich seit Mitte der 90er-Jahre mit Softwareentwicklung, -architektur und -sicherheit. Er ist Sprecher auf Konferenzen und Autor mehrerer Fachartikel.
Dieser Vortrag führt Sie mit Fokus auf Text to Image und Text to Video in die Welt der generativen KI ein. Wir erklären, wie neuronale Netze mittels Diffusionsmodellen und Transformer-Architekturen aus kurzen Texteingaben verschiedene Ausgabeformate erzeugen.
Latent-Diffusion-Modelle ermöglichen es, Bilder und Videos zu generieren und zu bearbeiten, indem sie Textverständnis und Transformer durch Entrauschungsprozesse verbinden. Eine detaillierte Betrachtung des Generierungsprozesses zeigt, wie visuelle Daten komprimiert und rekonstruiert werden.
Am Ende dieses Vortrags werden Sie ein grundlegendes Verständnis für Diffusionsmodelle und Werkzeuge zur Bild- und Videogenerierung besitzen. Praktische Beispiele und Demos runden den Vortrag ab.
Zielpublikum: Entwickler, Projektleiter, Manager, Entscheider
Voraussetzungen: Affinität zu technischen Themen und/oder künstlicher Intelligenz
Schwierigkeitsgrad: Basic
Informatiker Martin Förtsch ist ein IT-Berater, Oracle JavaOne Rockstar und Intel Black Belt der TNG Technology Consulting GmbH. Seine Arbeitsschwerpunkte sind Agile Development u.a. in Java, Suchmaschinentechnologien, Information Retrieval und Datenbanken. Er ist darüber hinaus an der Entwicklung von innovativen Showcases im Innovation-Hacking-Team tätig, insbesondere im Bereich der 3D-Kameratechnologien, IoT, künstliche Intelligenz, Augmented Reality uvm.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/martin-foertsch/
Thomas Endres arbeitet in der Rolle eines Managing Partners als IT-Consultant für TNG Technology Consulting in München. Mit dem TNG-Innovation-Hacking-Team entwickelt er verschiedene Prototypen – darunter verschiedene KI-Prototypen und AR/VR-Showcases. Als Intel Software Innovator und Black Belt präsentiert er weltweit neue Technologien wie KI, AR/VR und Robotik. Dafür erhielt er unter anderem einen JavaOne Rockstar-Award und mehrere Best Speaker Awards.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/thomas-endres/
Alle reden von GenAI-Chatbots: Aber wie gestaltet sich deren Entwicklung tatsächlich? Was muss ich in einem KI-Projekt als Product Owner oder Business Analyst beachten und welche Fragen sollte ich mir unbedingt stellen?
Generative KI als Use Case eines Projektes - was soll da schon anders sein?
Dieser Talk beleuchtet die neuen Anforderungen und Herausforderungen, die auf Product Owner, Business Analysts und Entwickler:innen zukommen. Wir erläutern, wie sich Aufgaben, User Stories und Umsetzung in diesem speziellen Kontext ändern (müssen!) und welche zusätzlichen Fähigkeiten und Kenntnisse notwendig sind. Zudem werfen wir einen Blick darauf, wie man das Testen der Use Cases überhaupt gestaltet, wenn die Ergebnisse auf einmal nicht mehr deterministisch sind.
Bekannte Fragen müssen plötzlich ganz neu beantwortet werden: wann gilt ein Feature als umgesetzt.
Und vor allem: Wann ist es gut genug umgesetzt? Wer entscheidet das überhaupt?
Mit praktischen Beispielen und Erfahrungsberichten aus einem echten KI-Projekt zeigen wir, wie sich der gesamte Entwicklungsprozess anpassen muss.
Ihr bekommt wertvolle Einblicke in die spezifischen Herausforderungen bei der Entwicklung und lernt, wie ihr diese erfolgreich meistern könnt.
Zielpublikum: Product Owner, Business-Analysten, Tester
Voraussetzungen: Keine
Schwierigkeitsgrad: Advanced
Tessa Pfattheicher, erfahrene Softwarearchitektin im CTO-Team, begeistert mit kreativen Lösungen für komplexe Probleme. Ihre Skills umfassen Architektur, SW-Entwicklung, KI und Business-Analyse.
Lars Orta ist Senior IT-Architekt, anerkannter Referent, Trainer und Workshopleiter bei iteratec. Er interessiert sich für alle Phasen der Softwareentwicklung sowie GenAI und Business-Analyse.
Vortrag Teilen
INITIAL SITUATION
When modernizing enterprise applications that were developed many years ago and adapted over decades, you are often faced with several challenges.
- What does the current architecture actually look like?
- Which technologies have all been utilized?
- Which and how much technical debt, i.e. things that would have to be changed anyway, are hidden in the source code?
Normally, various developers have "immortalized" themselves in the code and the architecture. And a uniform and up-to-date documentation is nowhere to be found.
OPTIONS
In addition to manual analysis, static and dynamic code analysis can also be used. However, the information derived from this is no substitute for comprehensive software documentation. And despite the use of frameworks and libraries, the creation of new source code is usually purely manual work.
Couldn't the silver bullet AI do this for us?
KEY MESSAGE
AI can support software architects and software engineers both in analyzing applications and in redesigning them.
But how exactly? What steps are necessary? And where are the pitfalls and limitations?
I will answer precisely these questions in my presentation, based on a real project whose source code is more than 20 years old.
KNOWLEDGE CONVEYED
- Steps for a successful modernization of applications and their architectures with the help of LLMs available today.
- Limits of AI.
Target Audience: Architects, Developers, Project Leader, Manager, Decision Makers
Prerequisites: Basic knowledge in software development and application architecture
Level: Advanced
Thomas Kashofer has been professionally active in software projects for more than 20 years. Whether in large-scale projects for Fortune 500 companies or in individual specialist applications for Swabian small and medium-sized companies, his focus is always on high technical quality and the best possible customer benefit from the solution. As a long-time OpenSource advocate, he is currently working at CGI and responsible for the further development of the modernization portfolio. He works as a trainer for internal modernization teams and supports customers in the development & transformation of applications. He is particularly keen to share his experience with colleagues and to drive software engineering forward together.
Vortrag Teilen
Generative KI-Systeme wie ChatGPT und Midjourney werden oft als Game-Changer für die digitale Barrierefreiheit postuliert. Doch was können diese Systeme bereits jetzt für uns tun und was bringt uns die Zukunft? Es ist Zeit für einen unverfälschten „Reality Check“ und einen authentischen Blick in den Alltag von Menschen mit Behinderung.
Die Integration von KI in den Alltag behinderter Menschen bringt nicht nur Vorteile. Trotz neuer Fähigkeiten kommen Herausforderungen hinzu. Zum Beispiel reproduzierter Ableismus, unsichtbare Barrieren und der zunehmende gesellschaftliche Unwille, Barrierefreiheit und somit echte Inklusion zu schaffen, wenn Hilfsmittel immer besser werden. Im Vortrag werfe ich einen detaillierten Blick auf alle diese Punkte, ordne ein und diskutiere, was dafür notwendig ist.
Casey Kreer ist Softwareentwicklerin und arbeitet freiberuflich als Consultant für digitale Barrierefreiheit. Sie ist Aktivistin für die Rechte von Menschen mit Behinderung, insbesondere bei der Verwaltungsdigitalisierung, und eine der bedeutendsten jungen Stimmen in ihrer Branche. Casey engagiert sich für einen selbstbestimmten Zugang zu staatlichen Informationen und einen reflektierten Einsatz von künstlicher Intelligenz.
This talk presents an experience report on utilising Artificial Intelligence (AI) as an intelligent assistant for a team of DevOps Engineers responsible for operating a critical customer system 24/7. Given the complexity and criticality of the supported system, the DevOps team has built a comprehensive library of how-to guides, documenting specific incident cases and their solutions.
However, accessing and following the appropriate guidelines requires diligent analysis, experience, and a high level of concentration from the on-duty personnel. To address this challenge, we have developed an AI-based assistant using a Large Language Model (LLM), which takes the incident description as input and guides the DevOps Engineer through the necessary steps to resolve the incident.
The AI assistant performs the following functions:
- Suggests the appropriate incident resolution process by matching the error description with the how-to library.
- Parameterises necessary database or log queries specific to the incident case.
- Generates intermediate steps required for documentation purposes.
During this talk, we will present the system setup, the AI-based services employed, and the challenges encountered in providing context information to the LLM. Additionally, we will discuss our learnings and solutions regarding the selection of suitable prompts for the LLM.
The insights shared in this experience report shed light on the practical implementation of AI as an intelligent assistant for 24/7 incident resolution. By leveraging AI technologies, organisations can enhance their incident resolution processes, improve efficiency, and reduce the reliance on human expertise.
Target Audience: Developers, Project Leader, Decision Makers
Prerequisites: None
Level: Basic
Bastian de Groot has a diverse background spanning system administration, cloud engineering, and AI initiatives. Throughout his career, he has adapted to and actively shaped fundamental changes in IT systems operations, from building operating systems for measuring devices to migrating enterprises to the cloud. Currently, as part of the AI4U initiative at MaibornWolff, he is focused on integrating generative AI into everyday business operations.
Tim Chen is a Software Engineer at MaibornWolff, specializing in AI-driven solutions. He has contributed to the development of AI-assisted tools, leveraging his expertise in natural language processing and large language models. With a strong foundation in software engineering, Tim has significant experience in full-stack development and AI integration through his involvement in various projects.
Vortrag Teilen
Generative AI is a powerful asset if you know how to tame it. As this technology rapidly transforms the software landscape, one of the key challenges lies in effectively testing and validating GenAI applications. Traditional testing methodologies fall short in addressing the unique complexities posed by these systems, especially in enterprise environments.
Drawing from real-world experiences and hard-earned insights, we'll explore how to adapt established software engineering principles to the world of GenAI, and where entirely new approaches are necessary. Key topics include:
- Strategies for testing non-deterministic outputs
- Which metrics to choose and how to cope with conflicting metrics
- Unit-Tests vs End-To-End-Tests in the World of GenAI
- How to evaluate the evaluators: Aligning automatic evaluation with human evaluation
- Techniques for evaluating model hallucinations and biases
- Approaches to performance and scalability testing for GenAI systems
- Methods for ensuring data privacy and security in AI-driven applications
- Practical tools and frameworks for continuous testing in GenAI pipelines
Attendees will gain actionable knowledge on implementing robust testing practices for GenAI applications, bridging the gap between traditional QA and the demands of modern AI systems. This session is essential for developers, QA engineers, and technical leaders navigating the complexities of deploying GenAI in production environments.
Target Audience: AI engineers, software engineers, architects, and stakeholders working with GenAI applications
Prerequisites: Attendees should have a foundational understanding of AI
Level: Advanced
Steve Haupt, ein agiler Softwareentwickler bei andrena objects, betrachtet Softwareentwicklung als ein qualitätsorientiertes Handwerk. Aus Begeisterung für Künstliche Intelligenz erforscht er deren Auswirkungen auf das Softwarehandwerk, arbeitet an KI-Projekten und entwickelt dabei Best Practices. Er spricht regelmäßig über Künstliche Intelligenz und entwickelt Schulungen, um dieses Wissen zu verbreiten.
Mehr Inhalte dieses Speakers? Schaut doch mal bei SIGS.de vorbei: https://www.sigs.de/experten/steve-haupt/
Vortrag Teilen
Hast du es satt, Audiodateien manuell zu transkribieren? Wir entwickeln eine Pipeline zur Audio-Transkription und Sprechertrennung, sodass du nie wieder manuell transkribieren musst. Danach führen wir dich Schritt für Schritt durch den Aufbau eines Multi-Agent-Kollaborationssystems mit einem lokalen Large Language Model (LLM). Dieses fortschrittliche System ermöglicht es dir, auf völlig neue Weise mit deinen Audiodateien zu interagieren:
- Abfragen: Wer sagte was und wann?
- Zusammenfassung: Prägnante Audio-Zusammenfassungen.
- Faktencheck: Internetrecherchen zur Überprüfung von Aussagen.
Nutze diese Gelegenheit, um deine KI- und Automatisierungsfähigkeiten zu verbessern, oder wenn du nur mal sehen wolltest, wie du dein eigenes ChatGPT auf deinem Rechner aufsetzt.
Maximale Teilnehmendenzahl: 25
Zielpublikum: Entwickler, Entscheider, Projektleiter, Leute, die Lust auf ein lokales ChatGPT haben
Voraussetzungen: Python- und Docker-Kenntnisse, Laptop/Computer (mit oder ohne Grafikkarte), VSCode
Schwierigkeitsgrad: Advanced
Tim Lauer hat Medizinische Informatik mit dem Schwerpunkt Data Science. Zwei Jahre bei hiqs GmbH als AI-Engineer verantwortlich für die Forschung und Entwicklung.
Wolfgang Kraus hat langjährige Erfahrung in der Software- und Produktentwicklung als Entwickler, Enterprise-Architekt und Agile Coach. #DerWolfgang ist Tech-Enthusiast mit agilem Mantra.
Vortrag Teilen