Beim Performance Measurement werden Informationen in Bezug auf die Performance identifiziert und gemessen. Performance bezieht sich hierbei auf quantitativ messbare Werte, die während der Interaktion mit dem System gemessen werden können, wie z.B. Mausklicks, Nutzung der Tastatur, … So werden Informationen zur Effizienz und Effektivität des Systems gesammelt und ausgewertet.
Um quantitative Daten von Nutzern zu erhalten, legt man sich zunächst auf bestimmte Variablen fest, welche durch Data Logging gespeichert werden. Der Nutzer bekommt hierfür bestimmte Tasks, die er während der Nutzung des interaktiven Systems erledigen soll. Dabei können alle Interaktionen mit dem UI wie beispielsweise Mausklicks, Nutzung der Tastatur, oder auch die benötigte Zeit die Aufgabe gespeichert und im Nachhinein analysiert werden. Um die Daten nicht zu verfälschen sollte es während dem Test keine bzw. nur minimale Kommunikation zwischen Forschungsleiter und Proband geben.
Sollte die Studie automatisiert stattfinden müssen die zu erledigenden Tasks zu Beginn ausführlich beschrieben und dem Teilnehmer dann zur Verfügung gestellt werden. Bei einer moderierten Studie wird dem Teilnehmer zu Beginn des Tests erklärt was zu tun ist. Es muss sich auf eine Art des Data Logging festgelegt werden, um jegliche Interaktionen festhalten zu können. Das kann über geeignete Software geschehen oder mit bestimmter Hardware, die dafür geeigneten Sensoren enthält.
Die erhaltenen Daten geben Aufschluss über die Bearbeitungsart und -weise der Teilnehmer und können in der Analyse mit Benchmarkwerten verglichen werden.
Synchron/Asynchron | Synchron/Asynchron |
Moderiert/Automatisiert | Moderiert /Automatisiert |
Art der Kommunikation | Data Gathering (UI events Logging) |
Zeitaufwand | Mittel |
Ressourcen | Mittel |
Anzahl der Teilnehmer | 24 Personen |
Art der Teilnehmer | Nutzer |
Tools | TeamViewer, Zoom, Skype, Data Logging Tool (z. B. Graylog) |
Phase der Entwickung | Nach der Umsetzung |
Art der Ergebnisse | Quantitativ |
Fidas, C., Katsanos, C., Papachristos, E., Nikolaos, T., & Avouris, N. (2007). Remote usability evaluation methods and tools: A survey. In Panhellenic Conference on HumanComputer Interaction PCHCI (No. 2002, pp. 151-163).