Java User Group Stuttgart eV Java User Group Stuttgart eV Java User Group Stuttgart eV Java User Group Stuttgart eV
JUGS RSS-FeedJUGS XING GruppeJUGS @ twitterJUGS bei Google+JUGS bei MeetupiJUG MemberJava User Group Stuttgart eVMember of java.net Java User Group Stuttgart e.V.
Java User Group Stuttgart eV Java User Group Stuttgart eV Java User Group Stuttgart eV Java User Group Stuttgart e.V.
Java User Group Stuttgart eV Java User Group Stuttgart eV
Home
Profil
Mitgliedschaft
Info-Abonnement
Veranstaltungen und Vortragsfolien
Sponsoren und Partner
jugs.board
Dokumente
Kontakt
 
Java Forum Stuttgart
Mobile Forum Stuttgart
JUGS Special Interest Groups
 
Impressum
Java User Group Stuttgart eV

Stuttgarter Test-Tage am 27. & 28. April 2017

#StTT2017

Übersicht  |   Programm  |   Abstracts  |   Kosten/Leistungen  |   Anmeldung  |   Termine  |   Sponsoring

Veranstaltungsort, Kontakt & Sonstiges

Abstracts

 

 

Willkommen zu den Stuttgarter Test-Tagen 2017
Begrüßung und Organisatorisches

Oliver Böhm

 

 

Testing IoT

Yves Schubert, iteratec GmbH

27. April 2017
09:30 - 10:15 Uhr

Iot-Geräte erfreuen sich heutzutage großer Beliebtheit. IoT Geräte befinden sich meistens in sehr indifferenten Umgebungen z.B. mit Netzwerkabbrüchen oder Ausfällen einzelner Geräte im Netzwerk. Hohe Anforderungen an die Robustheit, Fehlertoleranz und Zuverlässigkeit insbesondere im Zusammenspiel mit anderen Systemen erfordern daher, dass das gründliche Testen der Geräte fester Bestandteil des Entwicklungsprozesses ist. Herausfordernd ist hier, dass es oft zu aufwändig ist, komplette Systemumgebungen aufzusetzen und in der Regel die Umgebung auch gar nicht bekannt ist, in der das System später verwendet wird. Fragen nach Verantwortlichkeiten bei Fehlverhalten machen es umso wichtiger, nachweisen zu können, dass sich das eigene System entsprechend korrekt verhält. Der Vortrag soll einen kurzen Überblick geben über Verfahren zum Testen von verteilten IoT-Systemen. In der Übung soll dann ein kleines MQTT Netzwerk erstellt und ein IoT Gerät auf Herz und Nieren getestet werden.

Yves Schubert Über den Referenten

Schon lange vor dem Studium der Softwaretechnik an der Universität Stuttgart, beruflich und auch privat in einigen Softwareprojekten in unterschiedlichsten Technologiebereichen maßgeblich beteiligt. Ich verfolge dabei immer das Ziel, möglichst viel von dieser schnelllebigen Softwarewelt mitzunehmen und aber auch die neuesten Trends auf Ihre Nachhaltigkeit hin abzuklopfen. Beim Entwickeln von Software versuche ich stets die Gedanken des Softwarecraftmanship zu beherzigen.

 

 

Testing - Selenium? Rich-Clients? Containers?

Tobias Schneck, ConSol Software GmbH

27. April 2017
10:15 - 11:00 Uhr

Das Entwickeln und Gestalten von einer UI ist für sich allein genommen bereits eine große Herausforderung. Ganz zu schweigen von der Aufgabe die UI-Tests zu automatisieren. Wurde beides erfolgreich gemeistert, kommen allerdings die nächsten Fragen:

* Sollen wir auch die PDF-Auftragsbestätigung im Test validieren?
> Natürlich sollten wir!

* Ist der Rich-Client auch zu testen?
> Ja, wieso denn auch nicht!

* Wo sollen die Tests ausgeführt werden?
> Natürlich im Docker-Container und im Kubernetes-Cluster!

* Können wir die Tests auf ein anderes Framework migrieren?
> Was bringt uns das? Wir wollen die bestehenden Tests doch weiterverwenden!

Diese Fragen sind den Einen oder Anderen bestimmt nicht neu, aber was tun? Es wurde bereits viel Aufwand und Mühe in die Pflege der umfangreichen Selenium-Testsuiten gesteckt! Daher möchte man diese nur ungern verwerfen, nur um neue Anforderungen umzusetzen. Der Talk zeigt hierfür eine Lösung auf, die mit geringen Aufwand die bestehenden Selenium-Tests einfach erweitert. Die Open-Source-Erweiterung "Sakuli Se" bietet eine umfangreiche API, die es ermöglicht Rich-Clients, PDF-Inhalte oder auch Flash-Anwendungen ebenso leicht wie ein HTML-Button im selben Ausführungskontext zu testen. An Praxisbeispielen wird ebenso demonstriert wie durch vorgefertigte Dockerimages die Testausführung skalierbar bis in Cloud-Umgebung, wie Kubernetes oder OpenShift, aufgebaut werden kann.

Tobias Schneck Über den Referenten

Tobias Schneck sammelte seit 10 Jahren umfassende Erfahrungen von der ITAdministration bis hin zur Entwicklung von IT-Speziallösungen. Er startete das OpenSource-TestFramework "Sakuli" und ist als Java-Entwickler mit Schwerpunkt Testautomatisierung tätig. Als Konferenz-Speaker und Organisator des "Agile Testing @Munich Meetups" interessiert er sich stets für innovative Technologien.

 

 

Agiles Testen in der Praxis

Jan Juraschek, adesso AG

27. April 2017
11:30 - 12:15 Uhr

Agile Projekte erfordern auch für das Testen ein anderes Vorgehen, als bei klassischen SW-Projekten. Abgeleitet aus den Erfahrungen mehrerer agil durchgeführter SW-Projekte werden die wesentlichen Elemente für ein erfolgreiches Agiles Testvorgehen vorgestellt.

Jan Juraschek Über den Referenten

Jan Juraschek verfügt über mehr als fünfzehn Jahre Erfahrung in der IT-Beratung. Bei namhaften Kunden in unterschiedlichen Branchen war er in Software Engineering- und Beratungsprojekten in Deutschland sowie im europäischen Ausland tätig. Er hat von der fachlichen Konzeption und technischen Implementierung als Requirements Engineer und PMO über die Qualitätssicherung als Testmanager bis hin zur Projektleitung verschiedene Rollen in klassischen und agilen Softwareprojekten wahrgenommen.

 

 

BPMN meets IoT - Was wir mit Lego über das Testen in IoT-Projekten lernen konnten

Oliver Hock, Videa Project Services GmbH, und Stefanie Reinicke, iteratec GmbH

27. April 2017
12:15 - 13:00 Uhr

Das Internet of Things (IoT) arbeitet mit statischen Modellen, die logisch über Software betrieben werden. Diese Logik haben wir im Projekt "BPMN meets IoT" mit Geschäftsprozessen abgebildet, über die Business Process Modeling and Notation (BPMN) ausgeführt und damit zwei Lego Mindstorms Roboter interagieren lassen.

Soweit klingt das Vorgehen nahezu identisch wie bei einer üblichen Webanwendung, die entworfen, entwickelt und getestet wird. Wir stellten jedoch fest, dass das Testen bei IoT wesentlich mehr Zeit kostet, da es zu einem größeren Teil manuell erfolgt. Selbst kleine Änderungen erzwingen erneute Tests der Kommunikation zwischen Software und Hardware. Dadurch entsteht eine enge Kopplung beider Komponenten, wodurch die Simulationsmöglichkeit und der Automatisierungsgrad der Testabdeckung sinken.

In diesem Vortrag geht es um das Vorgehen des Testens bei IoT-Projekten und um das Wechselspiel zwischen Physik und Software. Es wird herausgestellt, an welcher Stelle bewährte Testmethoden aus rein softwarebasierten Anwendungen an ihre Grenzen stoßen und welche Möglichkeiten wir sehen, das Verhalten zu adaptieren.

Im Rahmen einer Übung können die Teilnehmer zwei Lego-Roboter programmieren, die miteinander "Hunt the Wumpus" spielen. Die Aufgabe wird sein, einen Software- und einen Hardwarefehler mit Tests zu identifizieren und zu beheben.

Über die Referenten

Oliver Hock Oliver Hock ist seit Ende der 90er Jahre Softwareentwickler im Java-Umfeld und heute als selbständiger Projekt- und Teamleiter unterwegs. Modularisierungsprojekte heterogener Systeme mit Web-Services und BPMN im Bankensektor gehören ebenso zum Repertoire wie Routen- und Kapazitätsberechnungen für eine weltweite Transportlogistik.
Im Norden Deutschlands leitet er mit anderen die Java User Group Hamburg und organisiert als treibende Kraft Computerworkshops für Kinder im Rahmen von Kids4IT, Devoxx4Kids und Co., wo es um die Heranführung der Mädchen und Jungen an die Programmierung geht.

Stefanie Reinicke Stefanie ist Software-Ingenieurin und Expertin für innovative Methoden wie Design Thinking. In ihren agilen Projekten bei iteratec liebt sie es, verschiedene Rollen vom Anforderungsmanagement über Test und Entwicklung bis hin zum Anwendungsbetrieb einzunehmen. So hilft es, mit dem Tester-Hut auf die Anforderungen zu schauen, oder auch mit dem Nutzerblick auf das Ergebnis. Ob Augmented-Reality-App oder normale Business-Webanwendung, sie findet, einfach loszulegen und die Ideen schnell für andere greifbar zu machen, bringt am Ende die besten Ergebnisse.

 

 

inspectIT - die offene Alternative für Application Performance Management

Matthias Huber, NovaTec Consulting GmbH

28. April 2017
09:00 - 09:45 Uhr

Häufig entscheidet eben nicht die Funktionalität, sondern die Anwendungsperformance über Erfolg und Misserfolg von Software beim Nutzer. Flüssige Anwendungen laden Benutzer zum Verweilen ein, fördern die Produktivität und machen Besucher zu Kunden. Lange Wartezeiten und niedrige Verfügbarkeit erzeugen hingegen Frustration und führen dazu sich nach Alternativen umzusehen. Application Performance Management (APM) Werkzeuge erlauben es die Anwendungslandschaft aus Benutzer-/Kundensicht zu überwachen und bei Funktions-, Leistungs- oder Zuverlässigkeitsprobleme direkt zu analysieren.

Oftmals handelt es sich bei diesen Werkzeugen um kommerzielle Lösungen, die häufig mit hohen Lizenzkosten und unflexiblen Lizenzstrukturen verbunden sind. Die geschlossene Natur der Produkte führt zu einer Abhängigkeit vom Hersteller. Im schlimmsten Fall entwickelt der Hersteller eine Lösung nicht mehr weiter und ein kosten- und aufwandsintensiver Wechsel ist notwendig.

inspectIT ist die Open Source Alternative für APM. Lizenzkosten und komplizierte Lizenzstrukturen entfallen. Der quelloffene Ansatz minimiert die Abhängigkeit vom Werkzeughersteller und ermöglicht passgenaue Integration in die bestehende Infrastruktur und Organisation. Dieser Vortrag wird das Open Source Projekt inspectIT vorstellen und aufzeigen wie eine umfassende Anwendungsüberwachung und Anwendungsanalyse mit Open Source möglich ist. Das Potenzial in inspectIT wird durch reges Interesse von Unternehmen weltweit, einer Förderung durch das Bundesministerium für Bildung und Forschung (BMBF) und die Unterstützung der DevOps Performance Arbeitsgruppe der Standard Performance Evaluation Corporation (SPEC) bestätigt.

Matthias Huber Über den Referenten

Matthias Huber ist seit 5 Jahren im Beratungsgeschäft für die NovaTec Consulting GmbH tätig. Seine Schwerpunkte liegen in der Überwachung von Applikationen, der Analyse von Performance Problemen sowie dem Lasttesten von Anwendungen. Diese Kenntnisse hat Herr Huber bei langjährigen Kunden im Bereich der Containerschifffahrt sowie der Automobilindustrie eingesetzt. Herrn Huber ist es dabei wichtig, zusammen mit seinen Kunden eine Lösung zu entwickeln, die dem Endkunden die bestmögliche Performance bietet.

 

 

Die 10 goldenen Regeln für schlechte Tests

Peter Fichtner, Fiducia & GAD IT AG, und Tilmann Glaser, it-economics GmbH

28. April 2017
09:45 - 10:30 Uhr

Es ist eine schöne Illusion: Mühsam hat man sich eine ganze Suite an automatisierten Unit-, Komponenten- und Integrationstests aufgebaut. Man hat sich ein Sicherheitsnetz aufgebaut. Das gibt ein gutes Gefühl. Zumindest so lange alle Tests "grün" sind. Leider holt uns die Realität häufg bald auf verschiedene Arten wieder ein:

  • Ein Test wird rot und niemand weiß warum. Selbst bei intensiver Betrachtung ist noch nicht einmal klar, was der Test eigentlich sicherstellen sollte.
  • Ein kleines Refactoring macht auf einen Schlag mehrere hundert Tests unbrauchbar
  • Tests schlagen nicht an, obwohl die Funktionalität, die sie absichern sollten bricht
  • Tests bestehen aus Mocks, die Mocks aufrufen, die Mocks konfigurieren und am Ende steht eine Assertion, die eigentlich nur prüft, ob wir unseren Mock richtig konfiguriert haben
  • Usw.

Oft steht man dann vor der Entscheidung: Intensiv forschen, Test wegwerfen, oder hoffen, dass er sich von selbst wieder löst. Dabei haben wir es doch nur gut gemeint, als wir die Tests geschrieben haben.

Bei unserer täglichen Arbeit in Softwareprojekten und bei unserer Tätigkeit als Coaches für Agiles Software Engineering haben wir immer wieder schmerzhaft erfahren, dass "gut gemeint" das Gegenteil von "gut" ist. Dass man sich im Sicherheitsnetz schmerzhaft verfangen kann und das Netz zerschneiden muss. Wir haben unsere Schlüsse daraus gezogen.

Im Vortrag wollen wir die unserer Meinung nach wesentlichsten Antipatterns für automatisierte Tests vorstellen. Außerdem zeigen wir Wege auf, wie man in den meisten Fällen mit ganz einfachen Mitteln stabile, aussagekräftige Tests schreiben kann, die nachhaltig unsere Produkte schützen.

Über die Referenten

Peter Fichtner Peter Fichtner ist seit 1995 in der Fiducia & GAD IT AG in Karlsruhe tätig. Nach über zehn Jahren als Java-Anwendungsentwickler wechselte er dort 2009 in die Architektur und greift mittlerweile auf fast zwei Jahrzehnte Erfahrung als Architekt, Designer und Entwickler für verschiedenste Themen im Java-Umfeld zurück. Aktuell fokussiert er die Themen Test-Driven-Development (TDD), Continuous Integration (CI), Clean Code (CC) sowie agile Entwicklungsmethoden. In seiner Rolle als Coach für agiles Softwareengineering (ASE) unterstützt Peter Fichtner seit drei Jahren agile und nicht-agile Teams in der Fiducia & GAD mit Schulungen und Coachings.

Tilmann Glaser Tilmann Glaser arbeitet seit 2011 für die it-economics GmbH. Als iSAQB zertifizierter Software Architekt betreut Entwicklungsprojekte und unterstützt Teams als Coach für agile Softwareengineering Methoden (ASE). An der Dualen Hochschule bringt er Studenten Java Entwicklung und neue Konzepte der IT näher. Seine Kernthemen sind agile Transition, Architektur in agilen und klassischen Umfeldern, Clean Code, Test-Driven-Development (TDD) und Project Recovery.

 

 

Kontinuierliche Performance-Evaluation mit Open-Source-Werkzeugen

Dr. Andreas Brunnert und Markus Dlugi, RETIT GmbH

28. April 2017
11:00 - 11:45 Uhr

Um die Releasefrequenz von Software zu erhöhen, haben Continuous-Integration (CI) Systeme in den letzten Jahren eine sehr große Verbreitung erfahren. Während funktionale Aspekte in den Deployment-Pipelines vieler CI-Systeme bereits standardmäßig für jede Softwareversion überprüft werden, ist dies für nicht-funktionale Anforderungen wie Performance (im Sinne von Antwortzeit, Durchsatz und Ressourcenauslastung) oft nicht der Fall. Moderne Application Performance Management (APM) Werkzeuge besitzen bereits oft Funktionen um die Performance für jeden Build zu prüfen, sind jedoch in den meisten Fällen sehr teuer. Um solch hohe Investitionen zu vermeiden, stellen wir in dem Vortrag vor, wie eine Deployment-Pipeline um kontinuierliche Performance-Evaluationen erweitertet werden kann, und das nur mit Open Source Software! Insbesondere werden wir dabei auf Best-Practices und Erfahrungen aus verschiedenen Kundenprojekten eingehen und den generellen Ablauf in einer Demo präsentieren.

Über die Referenten

Dr. Andreas Brunnert Dr. Andreas Brunnert ist geschäftsführender Gesellschafter der RETIT GmbH. RETIT bietet Softwarelösungen und Beratungsleistungen rund um das Thema Software Performance an. Vor seiner Zeit bei RETIT war Dr. Andreas Brunnert bei einem An-Institut der Technischen Universität München (TUM) als Teamleiter einer Forschungsgruppe zum Thema Software Performance und bei der IBM Deutschland Research & Development GmbH als Technical Lead und Advisory IT Specialist tätig. Er hat an der TUM in Informatik promoviert sowie Informatik an der FH Brandenburg und Wirtschaftsinformatik an der Universität Bamberg studiert. Dr. Andreas Brunnert beschäftigt sich seit über zehn Jahren mit dem Thema der Performance-Evaluation von Softwaresystemen, in den letzten Jahren fokussiert durch die Integration von mess- und modellbasierten Performance-Evaluationsansätzen.

Markus Dlugi Markus Dlugi
tba
 
 
 
 
 

 

 

5 Dinge, die Sie über Regressionstests wissen sollten

Dr. Jeremias Rößler, ReTest

28. April 2017
11:45 - 12:30 Uhr

In diesem Vortrag erfahren Sie:

  1. 1) warum Regressionstesten eigentlich kein Testen ist
  2. 2) welches Paradigma Regressionstesten statt dessen eigentlich ist
  3. 3) wie damit plötzlich robuste automatische Tests mit wenig Aufwand erstellt und gepflegt werden können
  4. 4) wie dieser Ansatz mit KI kombiniert werden kann um noch mehr zu automatisieren
  5. 5) was dann für Sie als Mensch noch zu tun bleibt

Dr. Jeremias Rößler Über den Referenten

Dr. Jeremias Rößler hat mehr als 10 Jahre Berufserfahrung als Entwickler und ist Gründer von ReTest. Er ist erfahrener Speaker auf internationalen Konferenzen für Wissenschaft und Praxis und seine Vorträge sind visionär, spannend und unterhaltsam.

 

 

 

Die Test-Tage werden freundlicherweise unterstützt von
NovaTec - make IT happen!
Premium-Sponsor
adesso AG ConSol Consulting & Solutions Software GmbH
Sponsor Sponsor für die
Abendveranstaltung
iteratec GmbH dpunkt.verlag GmbH
Raum-Sponsor Buch-Sponsor

 

Java User Group Stuttgart eV Java User Group Stuttgart eV
Java User Group Stuttgart eV

zurück zum Seitenanfang