Programm

Donnerstag, 13. September 2018

08:30 Uhr
Registrierung und Eröffnung der Fachausstellung
09:15 Uhr
Begrüßung der Teilnehmer
09:20 Uhr
Einstiegs-Keynote
Industrial Usability in neuen Dimensionen
Was HoloLens & Co. leisten können
Referent: Andreas Erben | CTO Industrial Holographics, CEO Americas daenet, Microsoft MVP

CTO Industrial Holographics, CEO Americas daenet, Microsoft MVP

10:00 Uhr
Aus der Praxis für die Praxis I
Durchgehende User Experience & Nachhaltiges Design beim Maschinenbauer DMG Mori
Referent: Philipp Kriener | DMG MORI

Geboren (14. Mai 1987) und aufgewachsen im Raum Gütersloh.
Studium
09/2007-09/2011: Hochschule für Angewandte Wissenschaften Hamburg (HAW Hamburg)
Studium Fahrzeugbau mit Schwerpunkt Kraoseriekonstruktion
Abschluss: Bachelor of Engineering
Berufliche Laufbahn
11/2011-07/2016: Dr. Ing. h.c. F. Porsche AG, Entwicklungszentrum Weissach
Konzeptkonstrukteur im Bereich Gesamtfahrzeug - Package/Konzepte/Vorentwicklung als Schnittstelle zwischen Design und Konstruktion
08/2016: Einstieg bei DMG MORI als Manager Corporate Design
seit 01/2018: Head of Design, verantwortlich für das Produktdesign im DMG MORI Konzern

10:30 Uhr
Spotlight-Session
10:45 Uhr
Kommunikations- und Kaffeepause
11:15 Uhr
Aus der Praxis für die Praxis II
FORM folgt FUNKTION
Zufriedenheit des Benutzers als Design-Vorgabe
Referent: Martin Rathgeb | SHW Werkzeugmaschinen GmbH

Session 1

11:45 Uhr

Management & Strategie
Industrie im Wandel
Erfolgreiche Geschäftsmodelle durch UX
Referent: Franz Koller | Interface Design GmbH & Mitglied des Vorstands VDMA-Fachverband Software und Digitalisierung

Franz Koller gründete 1998 die User Interface Design GmbH (UID) gemeinsam mit Dr. Claus Görner und ist Managing Director von UID. Für Unternehmen aus den Bereichen Automotive, Consumer, Enterprise, Industry, Medical & Pharma und Web entwickelt UID im Bereich User Interface ganzheitliche Lösungen, die Nutzer begeistern und User Experience spürbar machen. Franz Koller war von 1997 bis 1998 stellvertretender Leiter der deutschen Niederlassung der schwedischen User Interface Design AB. Zuvor leitete der Diplom-Informatiker das Marktstrategieteam „Interaktive Produkte“ am Fraunhofer-Institut für Arbeitswissenschaft und Organisation IAO und war wissenschaftlicher Mitarbeiter und Projektleiter an der Universität Stuttgart. Franz Koller ist Mitglied im Industriebeirat des Studiengangs „Informationsdesign“ an der Hochschule der Medien (HdM) in Stuttgart und Lehrbeauftragter der artop GmbH - Institut an der Humboldt-Universität Berlin. Er war Mitinitiator und Editor der DIN EN ISO 14915: „Software-Ergonomie für Multimedia-Benutzungsschnittstellen“.

Augmented Reality = Augmented Usability?
Eine Nutzerstudie zum Einsatz von AR in der Industrie mehr
Augmented Reality ist eine aufstrebende Technologie, die vielfältige Einsatzmöglichkeiten in den verschiedensten Bereichen der Smart Factory verspricht. Von der Planung über die Herstellung bis hin zu Service und Reparatur können Arbeiter von virtuellen Einblendungen, die sie bei ihren alltäglichen Aufgaben unterstützen, profitieren. Der Vortrag zeigt anhand einer Usability-Studie, wie Nutzer in naher Zukunft in einer Augmented Reality Anwendung auf natürliche und intuitive Weise interagieren können.

Die Studie wurde im Rahmen des Projektes "DeepSight" durchgeführt, bei dem Anwender bei der Überwachung einer Maschinenhalle unterstützt werden sollten. Da es sich um eine Studie mit Blick auf eine zukünftige, ausgereifte Augmented Reality Hardware handelt, wurde für die Testdurchführung ein Demonstrator entwickelt, der eine fortschrittliche AR-Anwendung mithilfe einer VR-Brille simuliert. Der so entstandene Demonstrator erlaubt es, mithilfe dieser Brille in die Rolle eines Schichtführers zu schlüpfen, der auf eine Maschinenhalle hinabblickt. Richtet der Nutzer seinen Blick auf eine der Maschinen, so öffnet sich ein Fenster, in dem die aktuellen Auftragsdaten angezeigt werden. Mithilfe eines Controllers kann er außerdem detailliertere Informationen aufrufen sowie einfache Fehler, die an den Maschinen auftreten, schnell beheben.

Auf diese Art und Weise wird es möglich, die Arbeit der Maschinen von einem Standpunkt aus zu überwachen, ohne Kontrollgänge durch weitläufige Maschinenhallen zu unternehmen. Alle notwendigen Informationen werden direkt innerhalb der Brille angezeigt. Dabei werden die Daten mithilfe von Webservices an die Anwendung übermittelt, um die Anzeige stets aktuell zu halten.

Um die Usability der Anwendung zu testen, wurden 33 Teilnehmer zu einer Nutzerstudie eingeladen und darum gebeten, die auftretenden Fehler zu beheben. Dabei wurden jedoch keinerlei Hinweise gegeben, wie die Probanden mit dem System interagieren sollten. Trotz der fehlenden Einführung gelang es 29 der 33 Testpersonen, alle Fehler innerhalb der vorgegebenen Zeit zu beheben. Bei der anschließenden Befragung mit dem SUS-Fragebogen ergab sich ein SUS-Score von 86,4.

Das Projekt "DeepSight" zeigt somit, wie Augmented Reality die Überwachung größerer Maschinenanlagen grundlegend neugestalten und maßgeblich erleichtern könnte.
Referent: Ronja Scherz | Centigrade GmbH

Ronja Scherz arbeitet seit September 2013 als 3D Design Engineer bei der Centigrade GmbH. Schon während ihres Studiums der Medieninformatik an der Hochschule Trier, Standort Umwelt-Campus Birkenfeld, lagen ihre Schwerpunkte in den Bereichen Human Computer lnteraction, 3D-Modellierung und Animation. Zudem beschäftigte sie sich intensiv mit der Evaluation von Virtual Reality Interaktionen. Bei Centigrade zählen zu ihren Hauptaufgaben als 3D Design Engineer die Entwicklung von intuitiv bedienbaren 3D Anwendungen mit Unity3D, schwerpunktmäßig in den Bereichen Virtual Reality und Augmented Reality, sowie die Gestaltung von ansprechenden 3D User Interfaces.

Erfolgsfaktoren und Best Practices für die optimale Zusammenarbeit zwischen UX-Agenturen und Mittelstand mehr
Wir als Agentur entwickeln seit über 10 Jahren intuitive, digitale Produkte für und mit dem industriellen Mittelstand in Deutschland. Damit bewegen wir uns in zwei ganz unterschiedlichen Welten, die mitunter ordentlich aufeinanderprallen können.

Begriffe wie Digitalisierung, Usability, User Experience oder Service Design existieren in einer Welt, die sich schnell verändert und agil denkt. Die Werkzeuge, mit denen heute konzipiert, designt und entwickelt wird, wandeln sich teilweise im Monatsakt. Frameworks und Tools kommen und gehen. Designer und Entwickler arbeiten dafür Hand in Hand in interdisziplinären Teams, holen sich Unterstützung aus dem Marketing oder dem Produktmanagement.

Diese Welt trifft nun auf mittelständische Industriebetriebe. Ein Umfeld, in dem es Jahrzehntelang darauf ankam, dem Konkurrenten funktional eine Nasenlänge voraus zu sein. Die eigenen Maschinen mussten "einfach" schneller, genauer oder flexibler sein, als der Wettbewerb. Dazu tüftelten die eigenen Experten über Monate oder Jahre hinter verschlossenen Türen. Das Ergebnis war eine neue Produktgeneration, die eine Lebensdauer von vielleicht 10 oder 15 Jahren beim Kunden vor sich hatte und dafür entsprechend gerüstet sein musste.

Aber nicht nur in der Arbeitsweise gibt es Unterschiede. Auch der Aufbau von UX-Agenturen unterscheidet sich extrem vom Organigramm eines mittelständischen Industriebetriebes. Flache Hierarchien und eigenverantwortliche Projektteams treffen auf eine Welt, in der Verantwortlichkeiten vergleichsweise streng entlang einer mehrstufigen Hierarchie geregelt sind.

Um nun Produkte zu entwickeln, die sich langfristig erfolgreich am Markt platzieren, müssen sich beide Welten die Hände reichen. Die forschreitende Digitalisierung der letzten Jahre wirkt an der Stelle als Katalysator und erhöht diese wechselseitige Abhängigkeit noch.

Dass das aber nicht reibungslos funktioneren kann, liegt auf einer Hand.

Basierend auf unserer Erfahrung wollen wir unser - teilweise schmerzhaft gelerntes Wissen - weitergeben. Dabei betrachten wir Kooperationsprojekte zwischen UX-Agenturen und dem Mittelstand ganzheitlich. Wir stellen Erfolgsfaktoren für gelungene Projekte vor und illustrieren diese an Hand von Best Practices und konkreten Tipps für Werkzeuge und Vorgehensweisen.


Referent: Nadine Kempe | UCDplus GmbH

Dipl.-Ingenieur der Computervisualistik
Jahrgang 1985
Seit 2013: Projektleitung bei der UX-Design- und Usability Agentur UCDplus (www.ucdplus.com)
Akquise, Planung und Durchführung von Design- und Usability-Projekten (Maschinensteuerungen, Business Software, mobile B2B Applikationen)
Zusammenarbeit mit Kunden aus dem Maschinen- und Anlagenbau, der Automobilindustrie und der Informationstechnologie
2011-2013: Wissenschaftliche Mitarbeiterin am Institut für Simulation und Graphik an der Otto-von-Guericke-Universität Magdeburg
2007-2012: Freie Mitarbeiterin bei der Zephram GbR (www.zephram.com)
Projektmanagement und Workshopleitung für internationale Innovationsprojekte
2004-2010: Studium der Computercvisualistik an der Otto-von-Guericke-Universität Magdeburg

Session 2

11:45 Uhr

Methodische Aspekte & Tools (Teil I)
Sehen, was Nutzer denken?
Eyetracking-Prozess in einer interaktiven Session mehr
Holmes vs Eye-Tracker

Sehen, was Nutzer denken? Das würde selbst Sherlock Holmes zu einem noch besseren Detektiv machen. Die Mysterien der Mensch-Maschinen-Interaktionen sind längst kein Mysterium mehr. Fixationsdauer, Blickbewegungen, ein sprachloser suchender Blick, der zwischen dem Bedienpanel und der Maschine hin- und her schweift ... Daraus können nun weitaus mehr Informationen gezogen werden, als Watson vielleicht angenommen hätte. Diese detailgenaue und prozessuale Beobachtung lässt Schlussfolgerungen nach Holmes zu.

Wir zeigen in einer interaktiven Session den Eye-Tracking Prozess am (hoffentlich lebendigen) Beispiel. Ebenso zeigen wir aus bereits bestrittenen Fällen im Bereich Industrie 4.0 Beispiele für Optimierungen der Mensch-Maschine-Interaktion oder Arbeitsplatzgestaltung auf. Die Nutzung des Open-Source Eye-Trackers war eine kleine Herausforderung - insbesondere im industriellen Umfeld. Daher können wir auch Hinweise auf unsere observierten Dos and Don’ts geben – zwischenmenschliche und natürlich technische.

Stichwörter: Deduktion, Induktion, Holmes, Watson, Eyetracking, Open-Source, Analyse, Usability
Referent: Angie Eck | Akquinet

Angie Eck ist zertifizierte Usability Professional bei der akquinet AG. Sie leitet Eye-Tracking Projekte beim Kunden vor Ort im Industrie- und Verwaltungsbereich und im Testlabor.

Referent: Nicole Charlier | Akquinet

Nicole Charlier ist Competence Center Leiterin für User Experience bei der akquinet AG in Berlin. Sie ist als Beraterin tätig und leitet Inhouse Usability Projekte. Ein weiterer Schwerpunkt ihrer Arbeit sind Eye-Tracking Studien. Sie ist Mitglied der German UPA.

Hey Siri! Wie wechsle ich den Betriebsmodus?
Was HMIS von Consumer-Technik lernen können mehr
Im Alltag sind wir an technische Produkte gewöhnt, die sich kinderleicht bedienen lassen. Wir verwenden Laptops, Tablets und Smartphones nahezu intuitiv und müssen deren Benutzung nicht erst langwierig studieren. Produktionsmitarbeiter hingegen werden bei der Bedienung von Industriemaschinen häufig in die digitale Steinzeit zurückgeworfen und müssen sich in Bedienungsabläufe hineindenken, die nicht selten komplizierter sind als der zugrundeliegende Produktionsprozess. Es entsteht ein Nutzungserlebnis, das Nerven, Zeit und schlussendlich auch Geld kostet.

Um Innovation und Einfachheit in der Bedienung auch auf HMIs im Industriekontext zu übertragen, muss das Rad nicht neu erfunden werden. Denn viele Technologien des Consumer-Marktes haben längst Kinderkrankheiten überwunden, wurden vielfach erprobt und iterativ verbessert. Wir schlagen daher vor, sich im Zuge einer anwenderzentrierten Gestaltung von HMIs an erfolgreichen Entwicklungen des Consumer-Marktes zu orientieren und diese für den Industriekontext nutzbar zu machen.

Im Vortrag gehen wir auf mehrere Beispiele ein und zeigen mögliche Anwendungsszenarien im Industriekontext auf. Dabei werden sowohl Umsetzung und Anwenderfreundlichkeit, als auch spezifische Vor- und Nachteile der Technologien thematisiert. Mit unserem Vortrag möchten wir dazu anregen, in zukünftigen Entwicklungsprojekten innovativer zu denken und vertraute Interaktionsmuster aus dem Alltag auch an den Arbeitsplatz zu übertragen. Dabei stehen Sicherheit, Effizienz und eine zufriedenstellende Bedienung an oberster Stelle.
Referent: Jeremias Kuge | fünfpunktnull GmbH

Praktische Erfahrung
seit September 2017: fünfpunktnull GmbH, Co-Founder & Geschäftsführer
November 2016 - September 2017: CaderaDesign GmbH, Usability Engineering
Februar 2016 - Oktober 2017: Universität Würzburg, Wissenschaftsliche Hilfskraft im Projekt 3D-GUIde
Bildungsweg
Seit Oktober 2017: M. Sc. Human Computer Interaction, Julius-Maximilians-Universität Würzburg
2013-2017: B. Sc. Mensch-Computer-Systeme, Julius-Maximilians-Universität Würzburg
2005-2013: Abitur, Gymnasium Osterholz-Scharmbeck

Referent: Jonas Kraft | fünfpunktnull GmbH

Praktische Erfahrung
seit September 2017: fünfpunktnull GmbH, Co-Founder & Conceptual Designer
Mai 2016 - September 2017: CaderaDesign GmbH, Usability Engineering
Bildungsweg
Seit Oktober 2017: M. Sc. Human Computer Interaction, Julius-Maximilians-Universität Würzburg
2013-2017: B. Sc. Mensch-Computer-Systeme, Julius-Maximilians-Universität Würzburg
2005-2013: Abitur, Gymnasium Osterholz-Scharmbeck

HMI im App-Style mehr
Für Nordson Engineering GmbH aus Lüneburg, einem weltweit agierenden Hersteller von Präzisionsanlagen zum Auftrag von Klebstoffen, erstellte die GTI-control aus Marktheidenfeld die neue Benutzeroberfläche für die Erneuerung von VersaBlue ®, dem Hauptprodukt von Nordson.

Dabei wurde in enger Abstimmung mit dem Kunden eine innovative und streng anwendungsorientierte Lösung umgesetzt, die die zusätzliche Anforderungen bezüglich Industrie 4.0 mit abgedeckt. Das neue System beinhaltet ein Netzwerkkonzept und unterstützt durch seine HTML5-basierte Umsetzung die Nutzung von Mobilgeräten und Web-Panels.

Der Vortrag stellt die enge Zusammenarbeit bei der Umsetzung dar, um die besonderen Herausforderungen eines solchen Systems abzudecken und Lösungen aufzuzeigen.
Referent: Andreas Ehlers | Nordson

Andreas Ehlers ist Gruppenleiter der Produktentwicklung - Steuerungstechnik bei der Fa. Nordson Engineering GmbH in Lüneburg.
Seit seinem Studium der Technischen Informatik an der privat gemeinnützigen Fachhochschule Wedel Mitte der 90'er konnte er in unterschiedlichen Unternehmen der Maschinenbaubranche als Entwicklungsingenieur sehr viel Fachwissen erlangen. Seit nunmehr 17 Jahren erfolgreich bei der Fa. Nordson Engineering GmbH steht er in technischer, seit 3 Jahren auch in disziplinarischer Verantwortung für die Umsetzung interner als auch externer Hard- und Softwareprojekte für Maschinensteuerungen im "Adhesive Dispensing Systems"-Segment durch sein Team. Diese erfolgen in umfangreichem Maße in internationaler Zusammenarbeit mit der Muttergesellschaft, der Nordson Corporation.

Referent: Hauke Thorenz  | GTI-control

Hauke Thorenz (28) hat es für das Human-Computer Interaction (M.Sc.) Studium aus dem Bremer Umland an die Uni Würzburg verschlagen. Sein solides UX und Usability Fachwissen aus dem Studium ergänzt er als Mitglied in der German UPA regelmäßig auf Konferenzen und Veranstaltungen. Sein Interesse für Physical Computing und Software-Engineering erlaubt es ihm, Kundenanwendungen bis ins Detail zu durchschauen. Zusammen mit seiner Erfahrung aus dem Web (UX und Entwicklung) ist dies die Grundlage für benutzerfreundliche HMI-Konzepte. Mit dieser Kompetenz-Kombination bereichert er die GTI seit 2016 als Usability-Engineer und Entwickler.

13:15 Uhr
Kommunikations- und Mittagspause

Session 3

14:15 Uhr

Neue Technologien & innovative Anwendungen
"Was kann ich dich fragen?"
Die User Experience von Conversational Interfaces mehr
Conversational Interfaces gelten als die neuen Helden der Mensch-Maschine- Interaktion. Intelligente Assistenten wie Alexa von Amazon und Google Home gibt es in immer mehr Haushalten und kaum eine Branche experimentiert nicht mit Chatbots. Auch im Arbeitsalltag halten sie nach und nach Einzug.

Aber können sich Menschen und Maschine wirklich verstehen? Wir wollten wissen, ob solche Conversational Interfaces so einfach zu verwenden sind, wie behauptet wird. Dazu haben wir viele Chatbots und andere Conversational Interfaces innerhalb eines Jahres untersucht, viele Menschen (Einzelpersonen und Gruppen), beobachtet, während sie mit solchen Schnittstellen interagieren, und auch selbst Chatbots gebaut.

Um die entwickelten Hypothesen zu untermauern, haben wir in einer explorativen Studie mit 16 Nutzern die User Experience und Akzeptanz von Sprachassistenten und Chatbots getestet. In Tiefeninterviews haben wir gesehen, dass Think Big in Ordnung ist, aber klein anfangen ist der Weg zum Erfolg.

In dem Vortrag zeigen wir, was wir in der Nutzerforschung gelernt haben:
  • Was sind die Hürden in der Kommunikation zwischen Mensch und Maschine?
  • Für welche Aufgaben eignet sich ein Conversational Interface? 
  • Wann ist es nützlich?
  • Wann sollte der Chatbot eher an einen menschlichen Mitarbeiter übergeben?
  • Wie gestalte ich ein Gespräch so, dass es sich für den Nutzer natürlich und sinnvoll anfühlt?
Wir stützen unsere Nutzerforschung zu Conversational Interfaces auch auf 17 Jahre Beobachtung von Nutzerverhalten mit allen Arten von Geräten in Usability-Tests. Wir diskutieren verschiedene Beispiele, um das Potenzial und die Vor- und Nachteile von Conversational Interfaces aufzuzeigen.
Referent: Dr. Sybille Peuker | Zeix AG

Dr. Sibylle Peuker ist Partner bei Zeix, einer Agentur für User-Centered Design in Zürich. Sie studierte Mathematik, promovierte in Informatik und leitet seit vielen Jahren Projekte mit den Usern im Fokus.
Sibylle ist davon überzeugt, dass man mit User-Centered Design die Menschen glücklicher und gesünder machen und sogar Leben retten kann. Ihre Einsichten gibt sie gern und regelmässig als Dozentin weiter, derzeit unter anderem als Dozentin an der Berner Fachhochschule und der Technischen Hochschule Rapperswil.
Sibylle begeistert sich schnell für innovative Ideen und probiert gerne neue Gadgets oder Services im Selbsttest. Sie hat bereits über 100 Chatbots und Conversational Interfaces ausprobiert und einige konzipiert und zum Leben erweckt.

Mit Data Analytics in der Produktion zu besserer Usability
Optimale Maschineneinstellungen durch Data Analytics Methoden mehr
Die Anforderungen an die Produktion steigen kontinuierlich an. Kleinere Losgrößen und damit häufigere Produktwechsel und Umrüstungen der Fertigungsanlagen stellen Unternehmen vor wachsende Herausforderungen. Gleichzeitig muss die Produktqualität bei steigendem Kostendruck gewährleistet bleiben. In Folge entstehen höhere Komplexität durch flexiblere Maschinen und steigende Anforderungen bei der Konfiguration und dem Betrieb von automatisierten Produktionsanlagen. Dabei ist es für den Unternehmenserfolg unerlässlich, die Bediener und deren Expertise in den Fertigungsprozess voll einzubinden. Durch die fortschreitende Digitalisierung und Konnektivität ergeben sich neue Möglichkeiten, um diese Anforderung umzusetzen: Dabei werden durch Data Analytics Methoden optimale Maschineneinstellungen unter Rückgriff auf das Wissen der Bediener ermittelt und direkt angewandt. Wesentlich ist dabei, auf den jeweiligen Nutzer und dessen Zielstellungen individuell angepasste Mensch-Maschine-Schnittstellen zu schaffen. Solche Art von spezifischer Usability ist der Schlüssel zu verkürzten Einlernzeiten, verringerten Fehlerraten und letztlich zu erhöhter Gesamtanlageneffizienz. Am Beispiel eines Bohrprozesses wird dieses Optimierungspotential praxisnah veranschaulicht, und es werden die daraus entstehenden Vorteile für Unternehmen verdeutlicht.
Referent: Tobias Layer | Assystem Germany GmbH
Software war gestern
Warum der Hallenboden App-Ökosysteme braucht mehr
Ohne Software geht bei Industrie 4.0 nichts. Mit Software wird alles möglich, aber oft zum Preis von Komplexität. Das vom BMBF geförderte Verbundprojekt ScaleIT schafft hier Abhilfe, indem pragmatische Lösungskonzepte für die Produktion mit niedrigen Einstiegshürden für KMUs entwickelt und erprobt werden. Zielsetzung dabei ist der einfache Umgang und eine leichte Bedienbarkeit mit Fokus auf den Hallenboden.

In ScaleIT wurde dabei auf die App-Metapher, wie sie aus dem Consumer-Umfeld bekannt ist, zurückgegriffen. Ähnlich wie bei den etablierten Apps konzentrieren sich ScaleIT-Apps auf einen begrenzten Aufgabenbereich und sind ähnlich intuitiv bedienbar. Im Gegensatz zu existierenden App-Ökosystemen wurde bei ScaleIT konsequent auf zeitgemäße Web-Technologien gesetzt. So lassen sich mit HTML5 Apps realisieren, die sich überall betreiben lassen, wo ein entsprechender Web-Browser läuft, vom maschinenintegrierten HMI-Display bis zum Support-Tablet.

Die App-Metapher musste um verschiedene Elemente erweitert werden, die im produktionsnahen Umfeld unabdingbar sind. Hierzu zählen Robustheit, Offline-Fähigkeit, die einfache Installation und Verwaltung, rollenbasierter Zugriff, Inter-App-Kommunikation, Sicherheit oder Hallenboden-Semantik. Auch die Funktionspflicht ohne Internet-Zugriff ist auf dem Hallenboden nicht untypisch. Für App- Hersteller und App-Nutzer wurden transparente Regeln geschaffen, wie Apps erstellt, vertrieben, eingesetzt und gewartet werden können.

Das Ergebnis ist die ScaleIT-EDGE-Plattform für den Hallenboden, auf der bereits eine Vielzahl von Apps entwickelt und angeboten werden, die auf dem Hallenboden alleine eingesetzt oder zu einem Gesamtsystem kombiniert werden können. Im Gegensatz zu aufwändigen monolithischen Systemen können damit auch kleine Unternehmen individuelle Lösungen für eigene Produktionsprozesse schaffen und Wettbewerbsvorteile durch Industrie 4.0 Ansätze im eigenen Unternehmen erzielen. Mit einer Flankierung durch Open Source Bausteine, den universellen Einsatzmöglichkeiten und dem zugrundeliegenden Geschäftsmodell wurde das erste faire App-Ökosystem für den Hallenboden geschaffen.

Die Bezeichnung „Plattform“ macht deutlich, dass hier eine webbasierte Gesamtlösung erarbeitet wurde, die aus folgenden Komponenten besteht:
  • Schaltschrank-fähige EDGE Hardware
  • ScaleIT-Softwareinfrastruktur zum Betrieb von Apps
  • App-Store zur Distribution der Apps
  • Unterschiedliche Sichten in Apps, um ein einfaches Mapping der physischen Welt (Dokumente, Sensoren, Maschinen, usw.) zur digitalen Repräsentation (Apps) zu ermöglichen
  • Lösung zur Erstellung von Web-Apps ohne HTML und JavaScript- Knowhow
Im Rahmen des ScaleIT-Projekts wird zudem die Entwicklung der Web-Apps für den Hallenboden vereinfacht. Ziel ist eine Engineering Umgebung, welche einerseits alle Merkmale klassischer HMI-Systeme besitzt und andererseits die Vorteile der Web- und App-Technologie erschließt. Dazu gehören beispielsweise das automatische Anpassen der Web-HMI an verschiedene Endgeräte sowie die einfache Erweiterbarkeit durch eigene Entwicklungen oder Web-Lösungen Dritter.

Am Beispiel eines Industrial Gateways wird gezeigt, wie mit der ScaleIT Plattform unter Einsatz von Virtualisierung, Microservices, App- und Web-Technologien der nächste Level von Industrie 4.0 Umgebunden erreichen lassen.
Referent: Wolfgang Clauss | Ondics GmbH

Session 4

14:15 Uhr

Methodische Aspekte & Tools (Teil II)
Akzeptiere Mensch-Roboter-Kollaboration in der Produktion
Fallstricke und Optimierungsansätze für eine erfolgreiche MRK-Implementierung mehr
Immer mehr Unternehmen setzen in der Produktion auf die Zusammenarbeit zwischen Mensch und Roboter. Für eine erfolgreiche Implementierung von Mensch-Roboter- Kollaborationssystemen (MRK) bedarf es neben der Betrachtung wirtschaftlicher, sicherheitsrelevanter und rechtlicher Faktoren ebenso der Betrachtung der menschlichen Komponente – denn die Akzeptanz der Mitarbeitenden in den Unternehmen stellt ebenso einen entscheidenden Einflussfaktor für eine erfolgreiche Implementierung von MRKSystemen dar.

Ziel des BMBF-geförderten Projekts SafeMate (Einführung sicherer und akzeptierter Kollaboration von Mensch und Maschine in der Montage) ist es, mit kollaborativen und wandlungsfähigen Montagelösungen insbesondere klein- und mittelständische Unternehmen Kosten- und Effizienzvorteile zu ermöglichen und die Innovationsführerschaft deutscher Montageanlagenhersteller langfristig zu sichern. In diesem Projekt hat die YOUSE GmbH die Akzeptanz der Mitarbeitenden in den fünf teilnehmenden Unternehmen (Lenze, Lufthansa Sky Chefs, Miele, Sennheiser und Weidmüller) erforscht. Anhand 50 qualitativer Interviews konnte ein theoretisches Akzeptanzmodell aus Sicht der Mitarbeitenden entwickelt werden. Dieses Modell unterstreicht die Bedeutung der Akzeptanz der Mitarbeitenden für eine erfolgreiche Implementierung von MRK-Anwendungen in der Montage und bietet Unternehmen praktische Implikationen und konkrete Handlungsanweisungen.
Referent: Antonia Meißner | YOUSE GmbH
Intuitive Steuerung in der Industrie
Intuitives, zielorientiertes Steuerungskonzept für eine einfache Mensch-Maschine-Schnittstelle zum Lasthandling mehr
Forschungsprojekt „Entwicklung eines intuitiven Steuerungskonzepts für Lasthebemaschinen“

Ausgangssituation
Krane sind unverzichtbare Hilfsmittel in zahlreichen industriellen Bereichen. Abhängig von der Anwendung kann es sich dabei beispielsweise um ortsfeste Krane (Brückenkrane, Portalkrane, Turmdrehkrane), Fahrzeugkrane (Mobil- und Raupenkrane), Lade- und Entlademittel (LKW-Ladekrane) oder Lastmanipulatoren (Land- und Forstwirtschaft, Hafenumschlag) handeln. Das Bewegen der Last erfolgt üblicherweise durch das direkte Ansteuern einzelner Antriebe wie Drehwerke, Fahrwerke und Hydraulikzylinder über Stellhebel oder Druckknöpfe. Die Gesamtbewegung der Last ergibt sich als Summe der Bewegungen der Einzelantriebe.

Problemstellung
Die Bestimmung der erforderliche Betätigungsrichtung der Bedienelemente für die gewünschte Lastbewegung erfordert vom Bediener eine gedankliche Umrechnung der Wunsch-Hakenbewegung auf die einzelnen Freiheitsgrade des Hebemittels. Neben der aktuellen Stellung des Hebemittels und der Gerätekinematik muss er bei der Verwendung einer Funksteuerung zusätzlich seine eigene Ausrichtung relativ zum Gerät berücksichtigen. Die damit verbundene Mehrfachbelastung erschwert die Manipulation der Last und ist für den Bediener nicht intuitiv.

Lösungsansatz
Im Rahmen des Forschungsvorhabens wird ein intuitives, zielorientiertes Steuerungskonzept für eine einfache Mensch-Maschine-Schnittstelle zum Lasthandling mit Hilfe einer tragbaren Funksteuerung entwickelt, welches automatisch die Positionen von Last, Maschine und Bediener berücksichtigt. So gibt der Bediener durch die Betätigung eines einzigen Bedienelements die gewünschte Bewegungsrichtung des Hakens aus seiner Perspektive vor. Er bewegt den Stellhebel nur von der aktuellen Haken- in Richtung der Zielposition. Das System ermittelt durch die integrierte Sensorik die Ausrichtung des Nutzers und steuert die Antriebe des Hebemittels durch Verwendung einer Rückwärtskinematik so an, dass die Bewegungsrichtung des Hakens der tatsächlich vom Bediener vorgegebenen Richtung des Bedienelements entspricht.
Eine erste Studie im Rahmen des Forschungsprojektes zeigt, dass die Verwendung eines intuitiven Steuerungskonzeptes, bei dem der Benutzer die gewünschte Bewegung der Last direkt aus seinem Blickwinkel steuert, die Komplexität des Bedienvorgangs und wesentlich reduziert und somit Fehlerwahrscheinlichkeit und Ermüdung minimiert.
Ein speziell für die Anwendung entwickeltes Ortungssystem ermöglicht die genaue und robuste Messung der Bedienerausrichtung im industriellen Umfeld nahezu unabhängig von äußeren Störeinflüssen (Magnetfeldern etc.).

Fazit, Ausblick
Durch diesen intuitiven Ansatz muss der Bediener nicht mehr gedanklich die Sollbewegung des Hakens auf die einzelnen Antriebe des Hebemittels umrechnen und entsprechend ansteuern, sondern kann sich ganz auf seine Transport- und Ladeaufgaben konzentrieren. Die Sicherheit steigt durch die erhöhte Konzentration auf Kollisionsvermeidung sowie auf die Detektion von Personen im Gefahrenbereich. Gleichzeitig sinkt die Umschlagszeit.
Lasttransporte werden einfacher, schneller und sicherer. Insbesondere für Gelegenheitsbediener oder ungeübte Anwender, wie sie in vielen kleinen und mittelständischen Unternehmen anzutreffen sind, steigt die Usability erheblich.
In einem nächsten Schritt wird die Steuerung demonstratorisch ein einem hydraulischen Ladekran umgesetzt. Im Rahmen einer Probandenstudie wird anschließend die neu entwickelte intuitive Laststeuerung gegenüber bisher vorhandenen Steuerungslösungen evaluiert.
Referent: Felix Top | Technische Universität München (TUM)

Technische Universität München (TUM)

Referent: Dr. Jochen Antes | HBC-radiomatic GmbH
So optimieren Sie die Mensch-Maschine-Interaktion im Produktionsumfeld
Modernen Konzepte für Bediensysteme verschlanken
Arbeitsprozesse, sparen Zeit und reduzieren Fehlerpotenziale mehr
Seit einigen Jahren lässt sich eine stetige Zunahme der Steuerungskomplexität im Produktionsumfeld verzeichnen. Klassische Bedienkonzepte folgen der Komplexität durch eine Vielzahl an Interaktionselementen und Steuerungsebenen. Die Navigation durch die Menüführung von Maschinenbedienungen, um die entsprechenden Befehle zu erteilen oder aus der Flut der erhobenen Daten die richtigen Informationen herauszulesen, erfordert von erfahrenen Anwendern immer mehr Zeit. Für neue Anwender bedeutet das lange Einarbeitungszeiten, eine hohe Frustrationsgefahr und Unsicherheit im Umgang mit der Anlage. Es besteht im industriellen Umfeld ein Bedarf nach intuitiveren Bediensystemen, wie sie im Consumer-Markt bereits eingesetzt werden, und nach einer stärkeren Ausrichtung an den Bedürfnissen des Nutzers.

In einer vom Fraunhofer IAO veröffentlichten Studie zur Produktionsarbeit der Zukunft wurden 661 Unternehmen zu aktuellen Themen befragt: Darin sehen 73 % aller befragten Unternehmen großes Potenzial im Einsatz mobiler Endgeräte und 47 % glauben, dass sich der Dokumentationsaufwand mit mobilen Endgeräten drastisch reduzieren lässt. In naher Zukunft ist davon auszugehen, dass die Interaktion zwischen Mensch und Maschine signifikant zunehmen und damit eine effiziente Schnittstelle zwischen Maschine und Mensch stetig an Bedeutung gewinnen wird. Mit einer Vielzahl von Sensoren wird sich der Kontext zudem zunehmend besser in die Informationsbearbeitung einbeziehen lassen.

Im Fokus: Anwendungsnahe Gestaltung, rollenbasiertes Konzept

Die Entwicklung einer gebrauchstauglichen Mensch-Maschine-Schnittstelle ist ein iterativer Prozess. Zu Beginn sollte eine detaillierte Beschreibung der durchzuführenden Aktivitäten und der zuständigen Nutzergruppen stehen. Im zweiten Schritt wird der Informationsbedarf für jede Nutzergruppe im jeweiligen Arbeitskontext beschrieben: Wer nutzt die Schnittstelle in welcher Situation für was? In Schritt drei werden die Hardwarekomponenten und Softwaretools definiert, die der Nutzer verwendet, um auf Informationen zuzugreifen und Bedienschritte auszuführen. Im vierten Schritt wird die Gesamtlösung implementiert, so dass jeder Nutzer im jeweiligen Arbeitsschritt nur genau die Informationen und Bedienoptionen zur Verfügung hat, die für den jeweiligen Arbeitsschritt notwendig sind.

Aus den Produktionsmitteln und dem Produktionsprozess lassen sich große Datenmengen erheben. Soweit diese nicht automatisiert weiterverarbeitet werden, müssen sie gefiltert und kanalisiert werden. Schließlich hat der Benutzer einen deutlich geringeren Informationsbedarf für seinen Arbeitsvorgang, als die Datenerhebung generiert. Im Idealfall stehen dem Benutzer alle Informationen zur Verfügung, die er zur Erledigung der Arbeitsaufgabe benötigt, ohne dass ihn überflüssige Informationen irritieren. Bei der Aufbereitung der Daten gilt es also, den Nutzungskontext und damit den Informationsbedarf vollumfänglich zu umfassen.

Dazu wird jeder individuelle Nutzer einer Nutzergruppe, der sogenannten Rolle, zugeordnet. Nach Erstellung eines rollenbasierten Profils, das alle rollenspezifischen Arbeitsaufgaben (Tasks) beinhaltet, kann jedem Task ein rollenspezifischer Informationsbedarf zugeordnet werden.

Mit Hilfe einer zusätzlichen Kontextebene, dem Interaktionsort (Position), lässt sich der Informationsbedarf weiter begrenzen. Das System (die Maschine, die Anlage) kann nun in Kenntnis der Rolle, des Tasks und der Position den Nutzer aktiv und individuell entsprechend seinem aktuellen Informationsbedarf unterstützen.

Zur umfassenden Kontextbeschreibung sollten daher drei Aspekte einbezogen werden:
 • die aktuelle Arbeitsaufgabe des Nutzers (zur Unterstützung handlungsorientierter Dialoge)
 • die Rolle des Nutzers (zur Ableitung von Berechtigung/Sichten)
 • der Aufenthaltsort des Nutzers.

Alle Nutzer profitieren: Handlungsorientierte Dialogdarstellung

Eine Arbeitsaufgabe besteht häufig aus mehreren, teils sequentiellen Arbeitsschritten, die der Benutzer in der richtigen Reihenfolge abarbeiten muss. Bei häufig wiederkehrenden, standardisierbaren Prozessen können die einzelnen Schritte im Bediensystem abgebildet werden, sodass sich eine handlungsorientierte Dialoggestaltung in Form aufgabenspezifischer Workflows ergibt. Auf diese Weise können auch unerfahrene Nutzer ohne großen Einarbeitungsaufwand komplizierte Arbeitsschritte in der richtigen Reihenfolge abarbeiten, ohne entsprechende Funktionen erst suchen zu müssen. Auch erfahrene Nutzer können von einer handlungsorientierten Dialoggestaltung profitieren. Zum Beispiel werden im Produktionsbetrieb eingefahrene Prozesse häufig durch einen Maschinenbediener überwacht, der sich zwecks Vorbereitung weiterer Tätigkeiten regelmäßig von der Maschine entfernt. Mit Hilfe einer Smartwatch kann er auch bei Abwesenheit den Status der Maschine überwachen und wird über anstehende Arbeitsschritte automatisch benachrichtigt.

Die Eaton Visualisierungssoftware Galileo bietet viele Möglichkeiten, um Bedien- und Visualisierungsdialoge zu konfigurieren, die nur für bestimmte Rollen verfügbar sind. So ist es möglich, sensible Teilbereiche der Nutzeroberfläche für den Webzugang zu sperren. Zudem kann ein Web-Nutzer unter anderem eine andere Startseite erhalten als ein Nutzer, der sich lokal am System anmeldet.

Die Bedeutung der Position des Nutzers für den Nutzungskontext

Zur vollständigen Beschreibung des Nutzungskontexts können Ortsinformationen eine hilfreiche Ergänzung sein. Diese erlauben den automatischen Aufruf von Dialogen beim Betreten bestimmter Bereiche. So könnte ein Servicetechniker auf einem mobilen Anzeigegerät eine entsprechende Fehlermeldung angezeigt bekommen, wenn er sich einer Werkzeugmaschine nähert, bei der eine Störung vorliegt. Bei Bedarf kann er sich daraufhin direkt die passenden Daten wie das Fehlerprotokoll auf seinem Smart Device anzeigen lassen und entsprechend reagieren. Eine weitere Anwendung ist die ortsspezifische Konfiguration von Meldungen und Bedienoptionen. Durch die Definition von Zonen lassen sich bestimmte Meldungen oder Bedienelemente auf dem Smart Device aktivieren bzw. deaktivieren. Typische Smart Devices wie Mobiltelefone und Tablets sind nicht unbedingt für den industriellen Einsatz gestaltet. Stürze aus normaler Arbeitshöhe können bereits erhebliche Schäden nach sich ziehen. Außerdem braucht man zu ihrer Bedienung normalerweise beide Hände, was die Handhabbarkeit zusätzlich einschränkt. Smart Watches könnten daher zukünftig eine interessante Alternative darstellen. Als Lokalisierungstechnologie eignet sich zum Beispiel der Einsatz von iBeacons, die auf dem weit verbreiteten Standard Bluetooth Low Energy (BLE) aufsetzen.

Die zunehmende Komplexität der Anlagensteuerung und die immer größere werdende Datenflut machen eine Erweiterung der klassischen Eingabesysteme dringend nötig. Anwendernahe, benutzerfreundliche und intuitiv zu bedienende Mensch-Maschine-Schnittstellen ermöglichen nicht nur Zeitersparnis im Arbeitsprozess, sondern können auch die Fehleranfälligkeit in der Bedienung reduzieren. Dafür müssen allerdings strukturelle Herausforderungen, wie die Definition der Nutzerrollen und -profile, und technologische Herausforderungen, wie ein Filtern von Daten gemäß Definition und tatsächlichem Bedarf, intuitive Menüführung, anpassbare Steuerung oder mobile Schnittstellen, gemeistert werden, für die Entwickler und Anwender eng zusammenarbeiten sollten.
Referent: Stefan Selke | Eaton Industries GmbH
15:45 Uhr
Kommunikations- und Kaffeepause
16:15 Uhr
Raum für Diskussion & Austausch
16:45 Uhr
Modulare Konzepte für Usability im Sondermaschinenbau
Projektierkosten sparen durch modulare Maschinenbilder und flexible Produktions-Screens mehr
Viele Maschinenbauer stehen vor der Herausforderung für jeden Kunden eine „kundenspezifische“ Maschine zu fertigen. Aufgaben wie Produktion, Inbetriebnahme oder Umrüsten einer Maschine müssen auf diese Individualisierungen eingehen, um eine optimale User Experience für die unterschiedlichen Nutzergruppen zu erzielen. So spiegeln sich diese Sonderanfertigungen auch in der Maschinensteuerung (HMI) wieder. Ein modularer Ansatz führt dabei zur erforderlichen Flexibilität.
Anhand von Praxisbeispielen werden geeignete innovative UX-Patterns vorgestellt und diskutiert. Es werden Lösungswege aufgezeigt, wie man den Herausforderungen der Sondermaschinen-HMIs begegnen kann, um diese modular und damit einfach, schnell und flexibel handhabbar zu machen. Die Patterns sind auch auf andere Bereiche übertragbar, in denen eine Anwendung kundenspezifische Lösungen bedienen muss.
Referent: Dipl.-Des. Florian Fuchs | CaderaDesign GmbH

Florian Fuchs ist Diplom-Kommunikations-Designer (FH) und zertifizierter Usability Engineer (Fraunhofer FIT). Er arbeitet seit 2009 als User Interface Designer, Usability und User Experience Engineer bei CaderaDesign GmbH. Unter seiner Projektleitung entstanden seitdem viele Kunden-Projekte aus dem Bereich Maschinenbau, Industrie, Automation und Medizintechnik, von denen einige Projekte mit Design Awards ausgezeichnet wurden (u.A. iF Design Award – Gold, Red Dot Award, German Design Award).

Referent: Dipl.-Des. Tom Cadera | CaderaDesign GmbH

Tom Cadera studierte Industrial Design an der HBK Braunschweig und gründete nach seinem Studium 1992 CaderaDesign als Büro für Industrial Design. Seit 1993 ist CaderaDesign auch auf User Interface Design, die Konzeption und Gestaltung von anwenderfreundlichen Mensch-Maschine-Schnittstellen, spezialisiert. Dabei reicht die Bandbreite von Kleingeräten über umfassende Windows-Applikationen bis hin zu komplexen Maschinensteuerungen für ganze Maschinenfamilien. Als User Interface- und Industrial Designer beschäftigt er sich außerdem mit den Vorteilen, die sich aus der Kombination dieser beiden Disziplinen, dem Intermedialen Design, in der Gesamtwirkung ergeben.

17:15 Uhr
Veranstaltungsende

Aussteller 2018