backgroundpic

HEURISTIC EVALUATION

Methodenbeschreibung:

Die Heuristische Evaluation ist eine von mehreren – im besten Fall 5 – Experten durchgeführte Analyse des interaktiven Systems. Hierfür werden vorgeschriebenen, empirisch belegte Heuristiken verwendet, diese stellen die beste Praktiken für die Usability des Systems dar. So kann überprüft werden ob relevante Systemeigenschaften erfüllt werden. Die Heuristiken sind Guidelines und helfen den Experten so Usability Probleme schnell zu identifizieren und zu kategorisieren.

Ablauf:

Zunächst müssen Experten ausgewählt werden, die die heuristische Evaluation durchführen. Hierbei gilt die Faustregel, dass 5 Experten bereits 80 % der Verstöße gegen die aufgestellten Guidelines finden. Ebenso muss bestimmt werden welcher Teil des interaktiven Systems mit welchen Heuristiken untersucht werden soll. Im ersten Schritt der Evaluation untersuchen die Experten den festgelegten Systembereich auf Verstöße gegen die Heuristiken. Diese dokumentieren sie schriftlich und mittels Screenshots der Anwendungsverstöße. Die Ergebnisse der Experten werden von diesen in einem gemeinsamen Repository hochgeladen und können nach der individuellen Evaluation gemeinsam mit den anderen Experten besprochen werden. Hierfür verwendet man im besten Fall Audio- oder Videokommunikation, allerdings ist es auch möglich sich nur mit Hilfe der Dokumentation im gemeinsamen Repository auszutauschen (z.B. durch Annotation Tools). Die resultierenden Erkenntnisse werden dann mit dem Projektteam besprochen und es wird über mögliche Anpassungen diskutiert.

Ergebnisse:

Die Heuristische Evaluation liefert am Ende ein Dokument mit den identifizierten Usability Verstößen, jedoch ist es nicht immer notwendig jeden einzelnen Verstoß zu überarbeiten. Nur die identifizierten Verstöße, welche einen Nachteil für das System darstellen, werden verbessert. Andere Verstöße können gegebenenfalls ignoriert werden.

Methodeneigenschaften:

Synchron/Asynchron Synchron
Moderiert/Automatisiert Automatisiert
Art der Kommunikation Minimum: textuelle Kommunikation, Gemeinsames Repository (Dateien teilen) Besser: Audio-/Videokommunikation, Annotation Tools (Shared Whiteboard for Inspection Annotation)
Zeitaufwand Hoch
Ressourcen Gering
Anzahl der Teilnehmer 4-5 Personen
Art der Teilnehmer Experte
Tools Zoom, UserZoom, GoogleDrive, GitHub
Phase der Entwickung Konzept
Art der Ergebnisse Qualitativ

Quellen:

Ber Hanington, B., & Martin, B. (2012). Universal methods of design: 100 ways to research complex problems, develop innovative ideas, and design effective solutions. Rockport Publishers. pp. 98.

Berliner Kompetenzzentrum für Usability Maßnahmen (2019). pp. 37. http://projekt.kke.tu-berlin.de/methodenkarten-im-download/

Fidas, C., Katsanos, C., Papachristos, E., Nikolaos, T., & Avouris, N. (2007). Remote usability evaluation methods and tools: A survey. In Panhellenic Conference on HumanComputer Interaction PCHCI (No. 2002, pp. 151-163).

GERMAN UPA, Usability Professionals’ Association. Usability Quartett.