Article – User experience: A concept without consensus?

Pour les plus anglophones d’entre vous, voici l’article présentant les résultats complets de l’enquête UX menée en 2012 auprès de 758 professionnels de l’UX dans pas moins de 35 pays !

« User experience: A concept without consensus? Exploring practitioners’ perspectives through an international survey ». Computers in Human Behavior, 43, 35-48.

Les moins anglophones trouveront une version très résumée des résultats dans l’article français présenté lors de la conférence EPIQUE 2013 à Bruxelles.

Slides – UX Design et Engagement au World Usability Day 2014

Voici les slides de ma présentation « Concevoir des expériences positives et engageantes L’UX Design de la théorie à la pratique » lors du World Usability Day 2014 à Bruxelles (organisé par le Café Numérique).

ReMind : découvrez l’esthétique de la friction

La procrastination est un sujet tendance, mais c’est surtout une fâcheuse tendance qui touche la majorité des gens. Qui ne reporte pas régulièrement actions à faire et bonnes résolutions au lendemain ? S’il existe de nombreuses applications de calendrier, rappels ou To-Do list, l’objet que je vais vous présenter aujourd’hui a pour avantage l’omniprésence et ce petit côté poétique qui créé une expérience utilisateur particulière.

« Ne jamais remettre au lendemain ce que l’on peut faire le jour même » : plus facile à dire qu’à faire ! Bien que nous soyons tous conscients des bienfaits de cette expression, nous n’agissons pas toujours de la sorte. Nous repoussons tout un tas de choses et d’actions que nous devons réaliser, souvent jusqu’à ce qu’une deadline ou une situation inconfortable nous mette la pression. Ce phénomène bien répandu est appelé procrastination. La procrastination peut être définie par le fait de reporter délibérément le commencement ou l’achèvement d’une action prévue. Le côté « planifié » de l’action est important : il s’agit bien de quelque chose que la personne a l’intention de faire. La procrastination est par ailleurs éloignée de tout raisonnement stratégique puisque la personne concernée sait qu’elle ferait mieux de réaliser la tâche pour avoir l’esprit tranquille. Les causes avancées sont multiples : le côté déplaisant de la tâche, le bénéfice abstrait ou lointain qui en sera retiré, ainsi que des différences individuelles (anxiété, estime de soi, besoin d’organisation).

ReMind: un « Pleasurable Troublemaker »

Décrit par ses concepteurs Jan Brechmann et Matthias Lashke comme un « Pleasurable Troublemaker » (i.e. un agréable fauteur de troubles), ReMind a pour but de provoquer une réflexion sur la procrastination et d’aider à l’éviter, en confrontant continuellement ses utilisateurs avec les objectifs personnels qu’ils se sont fixés.

ReMind a la forme d'un calendrier mural circulaire
ReMind a la forme d’un calendrier mural circulaire

L’objet se présente sous forme d’un calendrier circulaire de bois, fixé au mur (environ 65 cm de diamètre). Le cercle de bois est divisé en 31 sections, où son notés les jours du mois. Un mécanisme entraîne un mouvement rotatif qui change la date chaque jour. L’objet comprend aussi 10 aimants, remplis de post-its, sur lesquels il est possible d’écrire. Chaque aimant représente un objectif personnel. Le haut du cercle est une barrière qui piège les buts non réalisés. Quand deux aimants s’accumulent à cet endroit, le premier est éjecté et tombe sur le sol. ReMind lance donc littéralement les buts non réalisés aux pieds de l’utilisateur. Ramasser un aimant sur le sol revient à ramasser un but. Cela créé un moment de choix : l’utilisateur peut réaliser la tâche, la reporter à une date ultérieure en repositionnant l’aimant sur le calendrier ou l’abandonner en le « cachant sous le tapis ». Par ce choix tangible, ReMind créé un moment de « friction » qui incite l’utilisateur à la réflexion et à l’action.

L’une des principales recommandations anti-procrastination est de se fixer un nombre réaliste de buts, c’est pourquoi le nombre d’aimants est délibérément limité à 10. De plus, cela force une réflexion plus profonde sur le choix des objectifs à réaliser. De la même manière, il n’est possible de fixer qu’un seul aimant par jour. A noter que ReMind est plutôt adapté aux objectifs personnels à atteindre et moins aux tâches professionnelles.

remind aimant
Et les place sur une date choisie sur le calendrier
L'utilisateur écrit ses buts sur les aimants
L’utilisateur écrit ses buts sur les aimants
Quand la deadline est atteinte, l'aimant est éjecté et tombe au sol
Quand la deadline est atteinte, l’aimant est éjecté et tombe au sol, forçant l’utilisateur à un choix

Etude du prototype de ReMind pendant 15 jours

L’étude décrite dans l’article de Lashke et al. (2013) est basée sur l’analyse interprétative phénoménologique. C’est une démarche de recherche qualitative qui se focalise sur l’examination détaillée des expériences humaines (Smith, Flowers, & Larkin, 2009) et étudie des cas singuliers en profondeur. Cette approche est pertinente dans la recherche en design, où l’attention du détail est importante.

remind after 2 days
ReMind après 2 jours d’installation chez Linda

Durant 15 jours, ReMind a été installé dans l’appartement de Linda, 40 ans. Plusieurs entretiens ont été menés (dont un avant l’installation et un après le retrait de l’objet) pour comprendre les comportements de Linda et son expérience utilisateur avec ReMind. Lors de l’entretien initial, les chercheurs ont exploré les tendances à la procrastination de Linda, ses justifications, ses strategies pour l’éviter, et les objectifs personnels qu’elle souhaiterait se fixer.

Après l’installation, Linda a d’abord été sceptique sur la capacité de ReMind de la soutenir dans le changement de ses mauvaises habitudes : « Allez, ce n’est qu’un objet sur le mur. Les concepteurs pensent-ils vraiment que ça peut me faire changer ?« . Mais le scepticisme initial a rapidement disparu « J’ai dû réviser mon opinion initiale sur l’objet. J’étais sceptique, et je pensais qu’il n’avait pas le pouvoir de changer mon comportement. Mais il l’a eu !« . Deux jours après l’installation, Linda avait déjà réalisé tous les buts et les avait replacé du côté droit du calendrier (voir photo). Elle explique l’importance du placement des aimants et la reflexion que cela apporte sur ses objectifs. Elle est également fière des objectifs réalisés et raconte que c’est une source de satisfaction : « Hey super ! Tout ce que j’ai mis sur les aimants je l’ai accompli rapidement, j’ai fait pleins de choses en peu de temps !« .

Linda explique que la force de ReMind vient de sa présence : « J’ai les objectifs devant les yeux, je ne peux pas les cacher au fond de ma mémoire. Chaque matin je regarde le calendrier et je me dis « ah oui c’est vrai, je voulais faire ça cette semaine« . De plus, une tâche qui s’approche de sa deadline devient une vraie préoccupation.  L’autre avantage vient du fait qu’on peut encore voir quels objectifs on a déjà atteint (ceux que l’on remet à droite) et cela renforce le sentiment d’auto-efficacité : « Souvent on a l’impression de ne pas avancer et de ne rien avoir fait, mais en fait si, on fait beaucoup de choses et c’est bien de voir ce qu’on a déjà réalisé« . Finalement, Linda décrit sa relation à l’objet comme une coopération et non une soumission.

Elle évoque la possibilité de tricher et dit y avoir pensé au début, mais finalement elle a renoncé en se disant qu’elle ne pouvait pas se mentir à elle-même : « c’est facile de tricher et personne ne l’aurait su, il suffisait de déplacer un aimant… mais finalement ça n’était pas me rendre service à moi-même, à quoi bon se fixer des objectifs pour les repousser, non ce n’est pas la manière dont je veux que les choses soient !« . Finalement la possibilité de tricher si facilement donne l’effet inverse. Durant l’expérience, Linda explique qu’elle ne pense pas « que l’objet va lui manquer [à la fin de l’expérience], mais qui sait ? Je pourrais reprendre mes mauvaises habitudes« . Elle espère qu’elle saura garder les bonnes habitudes acquises et atteindre les objectifs qu’elle s’était fixée sur ReMind.

Alors que Linda était confrontée à sa tendance à procrastiner – une conséquence de la friction créée par Remind – cela n’a pas été accompagné de forts sentiments négatifs. Au lieu de cela, Linda et ReMind ont coopéré. Ils sont devenus des partenaires dans la lutte contre la procrastination de Linda, ReMind apportant une aide concrète (par exemple, par la représentation continue et physique de buts) et beaucoup de matière à réflexion. Linda a réalisé ses objectifs pendant la période de l’étude et espère qu’elle pourra prolonger les bienfaits de l’objet car elle a internalisé certaines bonnes habitudes.

Concevoir pour le changement à travers l’interactivité : ReMind, quels enseignements pour la conception des systèmes interactifs ?

Science-based Design : le design « éclairé »

ReMind est une bonne illustration d’un objet qui fait le lien entre recherche et pratique. En effet, ReMind incorpore du savoir sur la procrastination, le changement de comportement, et une certaine esthétique du changement. Avant la création de l’objet, ses concepteurs ont fait des recherches approfondies sur les raisons de la procrastination et les recommandations émises pour l’éviter. Ces stratégies anti-procrastination constituent la base du fonctionnement de ReMind.

Par exemple, la stratégie la plus connue est de lister ses objectifs et de leur assigner une deadline. Le nombre d’objectifs doit être réaliste en termes d’intérêt, de temps et de ressources personnelles. C’est pourquoi ReMind ne comprend que 10 aimants et ne permet pas de mettre plus d’un objectif par jour. Contrairement aux Applis qui permettent de créer des To-do lists illimitées qui deviennent vite ingérables, ReMind force l’utilisateur à se fixer des objectifs réalistes, et de ce fait à mieux réfléchir aux objectifs qu’il désire vraiment atteindre.

Une autre recommandation dérivant de la première est que les objectifs abstraits que l’on se fixe mentalement doivent être implémentés de manière plus concrète. Par exemple le but « faire plus d’exercice » devient plus facile à atteindre quand il est transformé en « aller courir 30 minutes chaque lundi ». Pour ReMind, les aimants doivent représenter des actions concrètes à réaliser et non un objectif abstrait, sans quoi vous ne pourriez jamais ôter un aimant d calendrier.

Enfin, on sait que dans la procrastination, les actions sont des actions intentionnelles de l’utilisateur. Il a donc une certaine envie de les faire, mais ne trouve pas la motivation ou les ressources pour s’y mettre. Ici c’est la matérialité de l’objet et son omniprésence (au milieu de votre salon ^^) qui va contribuer à déclencher un comportement. Quand un objectif atteint sa deadline, et qu’il est poussé par l’objectif suivant, il tombe littéralement au sol. En le forçant à ramasser l’aimant qui représente l’objectif, l’objet met l’utilisateur devant un choix concret : remettre l’aimant à une autre date et s’avouer vaincu, ou bien prendre son courage à deux mains et effectuer l’action. De temps en temps l’utilisateur repoussera sûrement l’aimant, mais souvent, il se peut que l’objet lui donne ce petit coup de pouce de motivation dont il avait besoin !

L’esthétique de la friction

Si vous avez été formé à concevoir des produits « ergonomiques » (tout comme moi) alors vous avez été formé pour créer des produits simples, faciles à utiliser, confortables. Mais, comme le souligne Hassenzahl, dans cette « esthétique de la commodité » vous n’insufflerez jamais le changement ! Ce dont vous avez besoin pour insuffler un changement des comportements chez les utilisateurs est plutôt une « esthétique de la friction« .

Des objets comme ReMind, qui relèvent de cette esthétique de la friction, ont plusieurs caractéristiques. Tout d’abord, ce sont des objets qui prennent position. Ils ne sont pas simplement des moniteurs neutres, qui se préoccupent peu du fait que vous réalisiez une tâche ou que vous procrastiniez encore un peu. Ces objets qu’on appelle transformationnels incorporent une vision du changement. ReMind n’est pas qu’une To-Do list, c’est un objet qui vous met devant un choix, qui vous pousse à une réflexion et à l’action.

D’autre part, ce sont des objets qui causent un certain trouble. ReMind « lance » les aimants au sol pour vous indiquer que les objectifs ne sont pas réalisés. Mais ce « trouble » est intentionnel, ce ne sont pas des objets confortables qui font les choses pour vous, mais plutôt des objets qui vous incitent par le trouble qu’ils causent à réaliser les actions par vous-même.

Enfin, si la « friction » est nécessaire pour instiller un changement, elle doit cependant être conçue avec précaution. Les « troublemakers » (objets fauteurs de troubles) sont une bonne chose mais ils doivent être conçus pour être sympathiques et ludiques, sans quoi ils ne seraient pas adoptés et utilisés, et pourraient même créer de la résistance au changement. Hassenzahl et Lashke décrivent 3 stratégies pour rendre l’objet attachant malgré la friction qu’il provoque : naiveté, compréhension et ironie/ambiguité.

  • Naiveté : ReMind n’est pas un objet particulièrement intelligent. Il ne comprend pas d’algorithmes super élaborés qui peuvent résoudre le problème de la procrastination. C’est une to-do list et la seule capacité quelle possède pour agir sur son utilisateur c’est de rejeter, presque pathétiquement, les aimants sur le sol quand les objectifs ne sont pas atteints. L’objet semble se moquer un peu de l’utilisateur en disant « je suis un objet tout simple et pourtant je sais ce qui est bon pour toi, alors pourquoi ne le fais tu pas ? ».
  • Compréhension : En outre, ReMind ne crée pas un choix qui exige des pouvoirs surhumains pour se comporter idéalement. Il comprend la procrastination et en joue de manière espiègle. De plus, ReMind permet délibérément la triche. Il est si facile de déplacer un but par dessus la barrière et de le retarder pendant 31 jours; ou de balayer l’aimant par terre sous le tapis, hors de vue, hors de l’esprit. D’une certaine manière, ReMind incorpore également la procrastination puisqu’il comprend 31 jours et que l’utilisateur peut placer un but loin dans le futur, stratégie typique des procrastinateurs ! En permettant les transgressions qu’il veut aider à surmonter, il montre une certaine compréhension de la complexité du problème. Il comprend que le but n’est pas la réussite à 100% et qu’on peut parfois échouer. Il devient « l’associé du crime », le miroir du Soi.
  • Ironie / ambiguité : Mais la naiveté et la compréhension ne nuisent pas à l’efficacité de l’objet à insuffler du changement. Car tôt ou tard les buts placés loin dans le mois vont se rapprocher du moment présent, signifiant la futilité du report. Reprendre un aimant et le repousser encore dans le temps est toujours autorisé, mais chacun de ces actes délibérés va inévitablement créer un moment de réflexion. Il est facile de tromper ReMind, mais beaucoup moins de se tromper soi-même 😉

En conclusion, les objets transformationnels matérialisent des intentions. Ils incarnent des stratégies bénéfiques pour atteindre des objectifs personnels. Contrairement aux objectifs abstraits que l’on a tendance à se fixer, les objets transformationnels précisent « quand », « où » et « comment » et ont le pouvoir de façonner la manière dont nous interagissons avec le monde. Par leur présence, ils peuvent briser les routines des comportements non désirables et les remplacer par des comportements désirables. Cependant, pour faire effet, une telle intervention doit être accompagnée par un effet de friction. Or nous n’avons pas l’habitude de créer de la friction, nous avons l’habitude de créer des choses confortables et de répondre à tous les besoins et désirs de nos utilisateurs. Malgré tout, pour leur bien, apprenons à concevoir de la « bonne friction » !

A travers leur forme, leur fonction, leur matière – tout simplement leur interaction – les objets façonnent le comportement. Si c’est fait de manière intentionnelle, alors les objets deviennent « transformationnels ».

Références

  • Blog Pleasurable Troublemakers by Matthias Laschke : http://www.pleasurabletroublemakers.com/
  • Laschke, M., Hassenzahl, M., Brechmann, J., Lenz, E., and Digel, M. Overcoming procrastination with ReMind. Proceedings of the 6th International Conference on Designing Pleasurable Products and Interfaces, (2013), ACM Press, New York, NY, 77–85.
  • Hassenzahl, M. and Laschke, M. Pleasurable Troublemakers. In S. Walz and S. Deterding, eds., The Gameful World. MIT Press, Cambridge, MA, (in press).
  • Hassenzahl, M. Towards an Aesthetic of Friction, 8. November 2011. 2011.
  • Smith, J., Flowers, P., and Larkin, M. (2009). Interpretative phenomenological analysis: Theory, Method and Research. London, UK: SAGE.
  • Steel, P. The nature of procrastination: a meta-analytic and theoretical review of quintessential self-regulatory failure. Psychological bulletin 133, 1 (2007), 65–94.

10 heuristiques pour une UX optimale de Colombo et Pasch

Parmi les méthodes d’évaluation en IHM, les méthodes d’inspection consistent en l’inspection de l’interface par un ou plusieurs évaluateurs. Développées dans les 1990’s par Jakob Nielsen en tant que méthodes de « discount usability », les méthodes d’inspection sont décrites comme peu coûteuses, rapides et simple à mettre en œuvre. L’évaluation heuristique est l’une des méthodes d’inspection les plus connues et utilisées depuis plus de 30 ans. Pour réaliser une évaluation heuristique, un petit groupe d’évaluateurs examine l’interface et juge de sa compliance avec des principes d’utilisabilité connus, appelés les « heuristiques d’utilisabilité ». Les heuristiques d’utilisabilité les plus connues sont les 10 heuristiques de Jakob Nielsen au niveau international et les critères ergonomiques de Bastien & Scapin au niveau francophone.

De nombreuses limites de l’évaluation heuristique ont été soulignées. Ainsi, les résultats souffrent de variabilité liée aux experts qui réalisent l’évaluation (différents évaluateurs vont trouver différents problèmes pour la même interface) ou de la surestimation fréquente du nombre de problèmes réels, appelés « fausses alertes ». L’évaluation heuristique a été vivement critiquée pour sa faible validité et sa fiabilité limitée, il est donc recommandé de l’utiliser en combinaison avec d’autres méthodes centrées-utilisateur, tels que les tests utilisateurs.

Il est intéressant de noter que des recherches ont montré qu’un nombre considérable de problèmes identifiés par un évaluateur expert sont en fait basés sur son expertise et son jugement personnel plutôt que sur l’ensemble d’heuristiques utilisés pour évaluer le système. Le terme d’évaluation « experte » serait donc à préférer à celui d’évaluation « heuristique ». L’évaluation experte désigne une évaluation moins formelle où un expert base son rapport non uniquement sur des heuristiques, mais plutôt sur sa connaissance des tâches utilisateur, de guidelines et standards en IHM et sur son expérience personnelle.

L’évaluation heuristique au-delà de l’utilisabilité

Suivant les évolutions du champ des IHM, plusieurs ensembles d’heuristiques ont été développés pour évaluer des dimensions spécifiques de l’interaction allant au-delà de l’utilisabilité. Nous pouvons mentionner des heuristiques pour les interactions humain-environnement dans les mondes virtuels (Bach, 2004), des heuristiques de l’expérience d’apprentissage ou de l’activité sociale (Malinen & Ojala, 2011) ou encore des heuristiques spécifiques aux jeux vidéos (Korhonen & Koivisto, 2006).

Concernant l’expérience utilisateur, peu d’heuristiques UX existent à l’heure actuelle. La raison est sûrement à rechercher dans la subjectivité et la complexité de l’UX, qui peine à se résumer en 10 ou 15 principes de base à respecter ! Prenons l’exemple des heuristiques UX de Väänänen-Vainio-Mattila & Wäljas développées en 2009 pour évaluer les services Web 2.0.  Leur set initial était composé de 7 heuristiques avec dès le départ une seule heuristique liée aux aspects subjectifs ou hédoniques de l’UX. Cette unique heuristique ayant été supprimée dans la version révisée de leur set, le champ de l’évaluation via cet outil reste ainsi restreint à des problèmes principalement pragmatiques, et s’éloigne donc de la nature de l’UX.

En ce qui concerne les heuristiques UX « génériques », au niveau de la recherche seuls Arhippainen (2013) et Colombo & Pasch (2012) se sont essayés à l’exercice. Dans les deux cas, les heuristiques ont été publiées sous forme d’article court dans des conférences et n’ont pas fait l’objet d’études de validation : il faut donc rester prudent sur la validité de ces outils. Colombo & Pasch soulignent dans leur article les limites de la méthode d’évaluation heuristique, mais ils justifient leur approche par les avantages apportés par cette méthode discount dans des contextes où les ressources ne permettent pas d’impliquer les utilisateurs.

Notre motivation à proposer des heuristiques UX vient de notre expérience. Nous avons tous les deux travaillé dans de petites sociétés de design et avons souvent vu à quel point le prérequis d’impliquer des utilisateurs était négligé, et ce pour un certain nombre de raisons, souvent par contrainte de temps ou de budget. C’est pourquoi nous pensons que la revendication de « discount usability » a tout de même du mérite : bien que l’évaluation heuristique ne soit pas la meilleure méthodologie d’utilisabilité à utiliser, c’est toujours mieux que de n’en utiliser aucune. Notre liste d’heuristiques est conçue comme un moyen économe en ressources pour garantir la bonne UX d’un produit quand le temps et l’argent sont rares. – Colombo & Pasch (2012)

A noter qu’à part l’évaluation heuristique, les méthodes d’évaluation de l’UX basées uniquement sur un savoir expert sont rares. Sur les 96 méthodes d’évaluation UX collectées par Vermeeren et al (http://allaboutux.com), seules 7 méthodes sont des méthodes purement « expertes ».

Les 10 heuristiques pour une UX optimale de Colombo & Pasch

Les 10 heuristiques de Colombo & Pasch (2012) (Université de la Suisse Italienne, Lugano) sont dérivées de la théorie du flow, appliquée aux Interactions Homme-Machine. La théorie du flow est une théorie psychologique développée par Mihaly Csikszentmihaly, qui ne concerne pas initialement le domaine des IHM. Le flow est décrit comme une expérience optimale.

L’article d’origine est en anglais (sous le titre Ten Heuristics for an optimal User Experience), je vous propose donc une traduction libre des heuristiques. Selon les auteurs, cette liste d’heuristiques UX peut être utilisée pour la conception ou l’évaluation de systèmes interactifs. Les 9 premières heuristiques renvoient directement aux 9 composantes du flow, tandis que la dernière (innovation conservative) provient d’une autre observation de Csikszentmihaly.

  1. Objectifs clairs
  2. Feedback approprié
  3. Attention focalisée
  4. Transparence ergonomique
  5. Appropriation technologique
  6. Equilibre entre challenges et compétence
  7. Contrôle potentiel
  8. Suivre le rythme
  9. Connaître les motivations des utilisateurs
  10. Innovation conservatrice

1 – Objectifs clairs (Clear objectives)

L’objectif du système doit être clair. Le système doit satisfaire, ou même mieux dépasser, les attentes des utilisateurs.

  • 1a) Le système doit être conçu avec les bonnes affordances afin d’informer explicitement les utilisateurs de son ou ses usages
  • 1b) Le système doit être fonctionnel, c’est-à-dire qu’il doit remplir les objectifs mis en avant par les affordances et répondre aux attentes des utilisateurs
  • 1c) Des fonctionnalités supplémentaires (autres que celles de base) sont les bienvenues, encore mieux si elles prévoient des utilisations alternatives du système: dépasser les attentes des utilisateurs est souvent un facteur prédictif d’une bonne expérience utilisateur

2 – Feedback approprié (Appropriate feedback)

L’interaction entre l’utilisateur et le système doit être maintenue à travers un feedback régulier (pour maintenir l’interaction), rapide (pour augmenter la conscience) et non intrusif (pour ne pas interférer avec l’expérience).

  • 2a) Le système doit fournir un feedback régulier et rapide
  • 2b) Le feedback doit être le moins importun possible
  • 2c) Le caractère « envahissant » du feedback doit être proportionnel au niveau de priorité de l’information donnée (pour établir une sorte de hiérarchie).

3 – Attention focalisée (Focused concentration)

Le système doit être simple et intuitif à utiliser. Il doit faciliter la concentration de l’utilisateur sur la tâche en cours en lui donnant du feedback significatif et en évitant les distractions non pertinentes.

  • 3a) Le système doit être utilisable
  • 3b) Le système doit fournir du feedback pertinent et significatif pour la tâche à accomplir
  • 3c) Le système doit éviter les distractions, c’est-à-dire les stimuli non pertinents pour la tâche à accomplir.

4 – Transparence ergonomique (Ergonomical transparency)

Le système doit pratiquement disparaître, être transparent pendant l’usage afin de permettre aux utilisateurs de se focaliser sur l’activité et d’être engagés dans l’expérience.

  • 4a) Le système doit être ergonomique, il doit être adapté aux compétences des utilisateurs et à leurs buts
  • 4b) Le comportement du système doit être cohérent et prévisible
  • 4c) Le système doit être conçu avec une intégrité esthétique, il doit être visuellement attrayant et les principes communs de design doivent être suivis; il doit également fournir un flux gracieux, c’est-à-dire que l’interaction entre les utilisateurs et le système doit être fluide.

5 – Appropriation technologique (Technology appropriation)

Les utilisateurs doivent pouvoir personnaliser et manipuler le système selon leurs particularités et leurs préférences. Ils doivent se sentir familiers avec le système, comme si ce dernier avait été conçu spécifiquement pour eux.

  • 5a) Le système doit être, dans une certaine mesure, personnalisable et manipulable par les utilisateurs à la fois dans son apparence et ses fonctionnalités;
  • 5b) Le processus de personnalisation doit être facilement accessible, et avoir un résultat prévisible
  • 5c) Fournir aux utilisateurs des choix multiples pour interagir avec le système (faire la même activité de différentes façons)

6 – Equilibre entre challenges et compétence (Challenges/skills balance)

Le système doit s’adapter à l’utilisateur dans le sens où il doit être conçu pour fournir, de manière dynamique, des challenges adéquats à la fois pour les utilisateurs novices, moyens et expérimentés.

  • 6a) Le système doit avoir une courbe d’apprentissage raide pour aider les utilisateurs novices
  • 6b) Le système doit encourager les utilisateurs à explorer et à découvrir toutes les caractéristiques et possibilités d’interaction
  • 6c) Le système doit fournir des fonctionnalités avancées ou des fonctions supplémentaires (par exemple, des accélérateurs, macros, réglages avancés, etc) et les rendre accessibles pour les utilisateurs intermédiaires / avancés.

7 – Contrôle potentiel (Potential control)

Le système doit donner le sentiment aux utilisateurs d’être libres de toutes contraintes, et, en même temps, d’être en contrôle de l’expérience.

  • 7a) Le système doit aider les utilisateurs à améliorer leurs compétences et à réduire la marge d’erreur dans la réalisation de leur activité
  • 7b) Le système ne doit pas donner l’impression aux utilisateurs d’être piégés. Éviter (autant que possible) de contraindre les actions des utilisateurs, leur fournir des stratégies de repli et rendre les actions facilement réversibles
  • 7c) Les utilisateurs doivent toujours être autorisés à activer ou désactiver les processus automatiques ou aides du système.

8 – Suivre le rythme (Follow the rhythm)

Le rythme du système doit s’adapter à l’utilisateur et au rythme de l’expérience.

  • 8a) Le rythme du système doit être adapté à l’activité pour laquelle il a été conçu;
  • 8b) L’expérience ne doit pas être interrompu par le système, mais les utilisateurs doivent être autorisés à suspendre l’interaction et à la redémarrer à partir de leur dernière action;
  • 8c) Les utilisateurs doivent avoir la possibilité d’accélérer ou ralentir le rythme de l’interaction.

9 – Connaître les motivations des utilisateurs (Know the user’s motivations)

Le système doit aider les utilisateurs à satisfaire leurs motivations au-delà de son usage, et à satisfaire leurs besoins psychologiques fondamentaux.

  • 9a) Le système doit être conçu en observant les utilisateurs finaux et l’activité qu’ils cherchent à accomplir, ce qui signifie que vous devez connaître vos utilisateurs d’abord
  • 9b) Cependant, connaître tous les types d’utilisateurs et d’activités possibles est impossible, c’est pourquoi le système doit être flexible et s’adapter à des utilisateurs variés, des activités variées et dans des contextes divers
  • 9c) Quand c’est possible, le système doit aider les utilisateurs à satisfaire les trois besoins psychologiques fondamentaux (au sens large) : le besoin de compétence, le besoin d’autonomie et le besoin de relationnel.

10 – Innovation conservatrice (Conservative innovation)

Le système doit être innovant (et conservateur à la fois).

  • 10a) Le système doit fournir un certain degré de nouveauté et de variété aux utilisateurs;
  • 10b) Le système doit être le résultat d’un compromis entre innovation et tradition, où la tradition désigne la compatibilité avec les systèmes connus et la conformité aux normes et standards;
  • 10c) Le système doit assurer l’interopérabilité pour s’intégrer facilement au contexte existant.

Avantages des heuristiques UX de Colombo & Pasch

  • Méthode discount en temps et en argent
  • Méthode basée sur une théorie psychologique (flow) solide
  • Les heuristiques peuvent être utilisées à la fois comme support de conception et d’évaluation

Inconvénients

  • Non exhaustivité des dimensions couvertes par ces heuristiques
  • Les heuristiques sont formulées de manière plutôt vague, elles ne donnent pas de recommandations précises
  • Les auteurs ne fournissent aucune grille d’évaluation ni critères d’évaluation. L’article d’origine donne un exemple pour chaque heuristique mais celui-ci n’est pas toujours très parlant.

Conseils pratiques

  • Dans la mesure du possible, toujours impliquer les utilisateurs dans la conception et l’évaluation ! Dans ce cas, les heuristiques peuvent être utilisées comme support de conception ou comme une étape d’évaluation préliminaire avant des tests utilisateurs.
  • Se servir des heuristiques uniquement comme d’un support d’évaluation, tout en reconnaissant qu’elles ne sont pas exhaustives
  • Préférer une évaluation experte (basée sur plusieurs ensemble d’heuristiques et sur votre expertise) à une évaluation heuristique à proprement parler
  • Combiner ces heuristiques UX avec d’autres heuristiques, critères ou guidelines (nous verrons prochainement 10 autres heuristiques proposées par Arhippainen).

Références

  • Colombo, L. and Pasch, M. (2012). 10 Heuristics for an Optimal User Experience. Proceedings of the CHI’2012 Altchi. ACM Press.
  • Csikszentmihalyi, M. (1990). Flow – The Psychology of Optimal Experience. Steps Toward Enhancing the Quality of Life. New York, Harper Perennial.
  • Cockton, G. and Woolrych, A.(2001). Understanding inspection methods: lessons from an assessment of heuristic evaluation. In: A. Blandford, J. Vanderdonckt, and P.D. Gray, eds. Proceedings of people and computers XV: joint proceedings of HCI 2001 and IHM 2001. Berlin: Springer-Verlag, 171–192.
  • Nielsen, J. (1993). Usability Engineering. New York: AP Professional.

Sentence Completion : une méthode UX vraiment ______ !

La complétion de phrase ou sentence completion est une méthode qualitative d’évaluation de l’UX et/ou d’exploration des besoins et valeurs des utilisateurs. Après avoir utilisé un système ou un produit, on donne au participant des débuts de phrases, qu’il doit compléter. Ces débuts de phrases doivent aider l’utilisateur à penser aux aspects expérientiels liés à l’usage du système. On lui proposera des phrases telles que : « Quand j’utilise ce produit, je me sens _________ » ou encore « L’apparence du produit est _________« . La méthode combine donc questionnaire et technique projective.

Cette méthode produit des données qualitatives semi-structurées sur le point de vue des utilisateurs et leur ressenti. Les résultats sont moins fastidieux à analyser que ceux obtenus à partir d’entretiens. Ils sont évidemment plus longs à analyser que les résultats d’un questionnaire UX tel que l’AttrakDiff, mais ils permettent d’obtenir une information plus détaillée, notamment sur les émotions négatives. La complétion de phrase n’est pas un instrument de mesure strict mais plutôt une technique pragmatique pour récoler du feedback utilisateur durant le développement d’un produit.

Développement de la méthode

La méthode de la complétion de phrases a été développée par Sari Kujala et son équipe des Universités de Aalto et de Tampere en Finlande. Elle permet de dépasser les limites de certaines méthodes d’évaluation de l’UX ou de les compléter.

Une évaluation indirecte (projective) de l’UX qui dépasse les biais du questionnement direct : L’évaluation de l’UX est un challenge car les utilisateurs ont du mal à exprimer leur expérience quand on leur demande de le faire. Ainsi, le biais de désirabilité sociale, qui veut que chacun souhaite montrer une image positive de soi, peut fausser les réponses à un entretien. Le questionnement direct apporte souvent des informations générales sur les attitudes ou réactions des utilisateurs mais ne parvient pas toujours à détecter les raisons profondes de ces attitudes. Les méthodes projectives comme la complétion de phrases sont une manière indirecte d’évaluation de l’état émotionnel et du fonctionnement mental d’un sujet. Dans les méthodes projectives (voir aussi la méthode UX AXE), un stimulus au sens généralement ambigu est proposé au participant. Le stimulus ayant peu de sens en lui-même, on fait l’hypothèse que les participants l’interprètent selon leur propre vécu / ressenti / point de vue.

Une évaluation qualitative et ouverte qui dépasse la rigidité des évaluations quantitatives : Les questionnaires d’évaluation de l’UX tels que l’AttrakDiff ont pour inconvénient de proposer aux utilisateurs une évaluation basée sur des propriétés (items) prédéfinies. Or, comme l’UX est subjective et complexe, il est difficile de déterminer si les utilisateurs trouvent les items de l’AttrakDiff essentiels et significatifs pour refléter leur propre expérience. De même, les résultats quantitatifs ne permettent pas de connaître les raisons d’une expérience évaluée comme positive ou négative : ils ne renseignent donc pas les concepteurs sur la manière d’améliorer le système. Pour palier à ces manques, des méthodes d’évaluation plus qualitatives et plus ouvertes comme la complétion de phrases sont parfois nécessaires.

Format

Cette méthode se présente sous forme de phrases à compléter par les participants. On donne au participant des débuts de phrase tels que « La chose la plus importante pour moi est __________ » et on lui demande de les compléter spontanément.

Il n’y a pas de nombre prédéfini de phrases et c’est donc à chacun de décider du nombre de phrases qu’il souhaite inclure dans son étude. Ce choix va se faire en fonction du nombre de dimensions à explorer, du temps et des ressources disponibles ainsi que des autres méthodes qui seront déployées dans une même session. A titre indicatif, les concepteurs ont utilisé de 12 à 24 phrases dans les cas d’études qu’ils ont réalisé lors de la création de cette technique.

De même, le contenu des phrases est également libre et adaptable. Il est possible d’utiliser (donc de traduire) les phrases des concepteurs pour servir de base à l’étude. On peut également créer ses propres phrases en faisant toutefois attention à la qualité de leur formulation. Globalement, il faut éviter les débuts de phrases en un seul mot ou au contraire trop longs car ces derniers ne stimulent pas assez les réponses des participants. On peut proposer des phrases très génériques sur l’expérience du produit (« quand j’utilise ce produit, je me sens ______ ») ou être plus précis en ajoutant un mot clé relatif si on veut investiguer une dimension particulière (« L’apparence du produit est _______ »). Il est nécessaire de développer de nouvelles phrases de manière itérative, en les prétestant sur un petit échantillon avant de les utiliser pour une étude réelle.

Exemple de phrases à compléter – Etude sur un smartphone (phrases extraites et traduites sur base de Kujala et al., 2013)

  1. Utiliser mon smartphone est __________
  2. Les fonctionnalités de mon smartphone sont __________
  3. Mon smartphone est le meilleur pour ___________
  4. Mon smartphone n’est pas adapté pour ___________
  5. Je pense que l’apparence de mon smartphone est __________
  6. Mon smartphone a l’air __________
  7. Quand j’utilise mon smartphone, je me sens ___________
  8. Je suis content de mon smartphone parce que ___________
  9. Le problème avec mon smartphone c’est __________
  10. C’est irritant que mon smartphone ___________
  11. Si d’autres personnes ont fait attention à mon smartphone, elles __________
  12. Le propriétaire d’un smartphone est généralement __________
  13. Dans ma culture, mon smartphone __________
  14. Par rapport aux autres smartphones, mon smartphone est __________

Passation

On demande aux utilisateurs de répondre rapidement et sans réfléchir de trop, en précisant qu’il n’y a pas de bonne ou mauvaise réponse. On précise également qu’il n’y a pas de catégories de réponses attendues, l’utilisateur est libre de compléter chaque phrase comme il le souhaite.

Exemple de consigne : Merci de compléter les phrases ci-dessous afin qu’elles décrivent votre expérience avec le produit A. Il n’y a pas de bonne ou mauvaise réponse, essayez plutôt de répondre spontanément et sans trop réfléchir. Vous pouvez laisser des phrases sans réponse si vous avez l’impression qu’elles ne correspondent pas bien à votre situation. 

Il est possible de faire des passations directes ou à distance, online. On peut utiliser la méthode en complément d’autres évaluations de l’UX, notamment pendant un test utilisateur ou en complément du questionnaire AttrakDiff. Niveau temporalité, la méthode peut être utilisée à tous les stades de la conception. Elle peut servir pour évaluer des concepts, des prototypes ou des produits finis. Utilisée sur des concepts, elle peut alors évaluer l’UX anticipée. Sur des prototypes ou produits plus aboutis, elle va généralement évaluer l’UX épisodique ou cumulative (voir à ce sujet l’article sur la temporalité de l’UX).

Enfin, les concepteurs de cette méthode ont montré que la qualité et la richesse des réponses produites sont variables. Ainsi, quand les utilisateurs décrivent un produit qu’il ont possédé ou utilisé pendant une longue période, ils vont produire des réponses plus riches que celles produites après un court test d’utilisabilité. De même, les réponses sont plus détaillées lorsque les phrases à compléter sont dans la langue natale des participants.

Analyse des résultats

Les concepteurs n’ont pas développé de cadre d’analyse ou de catégorisation car la technique de sentence completion n’a pas été développée pour être un outil de diagnostic quantitatif. Les résultats (sous forme de phrases complétées) peuvent : (1) être utilisés directement comme source d’information ou d’inspiration ou (2) être catégorisés en fonction de leur fréquence afin de donner des données quantitatives.

Le plus facile est de grouper les données par dimension étudiée et par valence (c’est à dire négatif vs. positif). Vous pouvez ensuite regrouper ensemble les réponses similaires et nommer chaque catégorie par la réponse la plus fréquente qu’elle contient. Il est possible de représenter les mots sur un diagramme pour distinguer visuellement les idées négatives et positives.

Avantages

  • Les participants peuvent s’exprimer librement. Les données récoltées sont donc plus fiables que pour les questionnaires UX traditionnels (qui ne proposent pas toujours les options de réponse appropriées pour chaque participant)
  • Méthode facile à appliquer et plutôt fun pour les participants et les experts qui l’administrent
  • Les données sont recueillies sous forme écrite (en direct ou en ligne)
  • Peut être utilisée pour évaluer les motivations ou les attitudes
  • Moins de biais culturels que les questionnaires standardisés (qui ont par définition des items prédéfinis)
  • Comparé à l’AttrakDiff, cette technique permet un meilleur recueil du feedback négatif des utilisateurs, nécessaire à l’amélioration du produit

Limites

  • Analyse de données qualitatives qui prend du temps car il faut catégoriser et synthétiser les résultats
  • Les phrases initiales sont longues à créer. Ensuite on peut réutiliser ou adapter les phrases à d’autres contextes ou produits
  • Il faut créer de nouvelles phrases ou les réadapter en fonction du type de produit, du contexte ou du type de facteurs que l’on étudie
  • Comme les utilisateurs analysent leur UX en se basant sur leurs souvenirs d’expériences momentanées, il se peut qu’ils ne se souviennent pas des détails : la technique de la complétion de phrases ne se prête pas bien aux analyses détaillées

Conseils pratiques

  • Insister sur la spontanéité dans la réponse des utilisateurs
  • Pour créer de nouvelles phrases, veiller à la formulation et prétester les phrases sur des échantillons tests
  • Utiliser plusieurs phrases pour évaluer un même concept ou aspect de l’expérience, car cela renforce la validité des réponses
  • Faire les passations dans la langue natale des utilisateurs, car il a été montré que les réponses sont ainsi plus claires et plus détaillées
  • Si vous souhaitez évaluer l’image du produit, demandez aux participants de décrire les caractéristiques de l’utilisateur typique

Sources

 

Allez, un petit test de cette technique 🙂 Complétez ces trois phrases dans les commentaires de l’article : 

  1. « Le blog UX Mind est ___________ »
  2. « Je suis content du blog UX Mind parce que __________ »
  3. « Le problème avec le blog UX Mind c’est __________ »

L’UX est dynamique ! Comprendre la temporalité de l’UX

Vous connaissez les 3 facteurs classiques de l’UX que sont le système, l’utilisateur et le contexte ? Ajoutez dès aujourd’hui la temporalité à votre liste de priorités ! En effet, s’il est possible de l’inclure dans la dimension « contexte temporel », le temps mérite sans aucun doute de constituer « la 4e dimension » de l’UX.

L’expérience utilisateur est extrêmement dynamique – elle change constamment durant l’interaction avec un produit

Notre enquête UX (Lallemand, Gronier, Koenig, 2013) auprès de 750 experts à travers le monde montre que les professionnels sont bien conscients du caractère dynamique de l’UX. En revanche, ils semblent peu outillés dans la pratique pour concevoir et évaluer l’UX à travers le temps. Pour cela, il est utile de catégoriser les différentes phases temporelles de l’UX et de connaître les modèles de l’évolution de l’UX à travers le temps.

Les différentes phases temporelles de l’UX

L’expérience momentanée de l’usage est généralement considérée comme le coeur de l’UX, mais les préoccupations UX s’étendent bien avant et après ce moment. On va distinguer plusieurs phases temporelles de l’UX. Comme rien n’est jamais simpliste avec l’UX, ces phases ne sont pas fixes et vont se superposer ou s’intercaler. Malgré tout, il est utile de les schématiser pour mieux en tenir compte.

Phases temporelle UX
Les différentes phases temporelles de l’expérience utilisateur (traduit et adapté de UX White Paper, 2010)

Avant même d’interagir avec un système ou un produit, les utilisateurs vont imaginer leur expérience (UX anticipée) et former des attentes en fonction des autres technologies existantes, des produits qu’ils possèdent déjà, des publicités et du marketing, ou encore de l’opinion des autres. Cette UX anticipée va agir sur l’expérience momentanée, celle qui est ressentie durant l’interaction avec le produit. L’UX momentanée renvoie aux impressions et sensations immédiates, aux réponses émotionnelles de l’utilisateur pendant l’usage. Peu après l’usage, les processus cognitifs et mémoriels transforment l’expérience. Les détails de l’expérience vécue s’atténuent et le souvenir de cette expérience (UX épisodique) diffère de l’expérience « réelle », influencé entre autres par les pics d’expérience positifs ou négatifs. Enfin, après avoir utilisé un système pendant un certain temps, les utilisateurs vont « cumuler » des périodes d’usage et former une vision globale de l’UX (UX cumulative).

Naturellement, on utilisera différentes méthodes d’évaluation UX en fonction de la phase temporelle que l’on souhaite étudier. La méthode AXE par exemple va évaluer l’UX anticipée, tandis que le questionnaire AttrakDiff analysera plutôt l’UX épisodique. Les mesures psychophysiologiques sont quant à elles typiquement des évaluations de l’UX momentanée.

Le modèle de Karapanos : de l’anticipation à l’attachement émotionnel

Certains chercheurs ont modélisé l’UX à travers le temps. Le cadre d’analyse d’Evangelos Karapanos offre une vision de l’UX de la phase initiale d’anticipation jusqu’à l’attachement émotionnel. Les systèmes et produits étant de plus en plus intégrés sous forme de service, il ne s’agit plus simplement pour les concepteurs de favoriser l’acceptance initiale (qui déclenche l’achat) mais bien de maintenir un usage prolongé et de fidéliser les utilisateurs !

temporalité UX_modèle Karapanos
L’UX à travers le temps : un cadre d’analyse initial (Karapanos, 2009)

Le modèle de Karapanos distingue 3 phases dans l’adoption d’un produit : l’orientation, l’incorporation et l’identification. Trois forces vont motiver la transition entre ces 3 phases (familiarité, dépendance fonctionnelle et attachement émotionnel), et diverses qualités du système sont appréciées à chaque phase.

La phase d’orientation est une phase de découverte du produit, caractérisée par la stimulation de la nouveauté et par la nécessité d’apprendre à l’utiliser (ambivalence excitation et frustration). La familiarité progressive avec le produit va permettre de passer de l’orientation à la phase d’incorporation. Ici, le produit devient important au quotidien et les principales qualités appréciées sont son utilité et son utilisabilité à long terme (au-delà de l’apprenabilité de la phase d’orientation). La dépendance fonctionnelle va entraîner une évolution vers la phase d’attachement émotionnel. Ici, le produit fait réellement parti du quotidien et de l’identité de la personne. Les qualités appréciées sont celles qui permettent à la fois de communiquer l’identité et de participer aux interactions sociales.

Côté conception, il est finalement important d’être conscient de cette temporalité et de soigner les qualités du système qui vont permettre le passage d’une phase à une autre. Il faut réellement penser le produit dans le temps. Pas uniquement un produit utilisé, mais aussi un produit qu’on achète (avant usage), qu’on utilise (usage), qu’on aime et qu’on adopte et même qu’on transmet ou qu’on recycle (après usage).

Au niveau de l’évaluation, les méthodes d’évaluation longitudinales (comme par exemple les journaux de bord UX) ou retrospectives permettent d’étudier ces évolutions temporelles de l’UX.

Sources

  • Karapanos E., Zimmerman J., Forlizzi J., Martens J.-B. User Experience Over Time: An Initial Framework, In Proceedings of the 27th international Conference on Human Factors in Computing Systems (Boston, MA, USA, April 04 – 09, 2009). CHI’09. ACM, New York, NY, 729-738.
  • Roto, V., Law, E., Vermeeren, A., & Hoonhout, J. (2011) User Experience White Paper: Bringing clarity to the concept of user experience. Result from Dagstuhl Seminar on Demarcating User Experience, Finland
  • Lallemand, C., Gronier, G., & Koenig, V.  (2013) L’expérience utilisateur : un concept sans consensus ? Enquête sur le point de vue des professionnels, EPIQUE 2013, Bruxelles, Belgique.

AXE : une méthode d’évaluation UX au stade conceptuel

AXE (Anticipated eXperience Evaluation) est une méthode qualitative qui donne un point de vue initial sur l’UX d’un produit ou service. Cette méthode permet une évaluation très tôt dans le cycle de conception, dès le stade conceptuel. Dans une situation d’entretien avec un utilisateur, on va utiliser des stimuli visuels pour permettre aux utilisateurs d’imaginer une situation d’usage. Leurs réponses vont révéler leurs pratiques, attitudes et valeurs. On étudie avec AXE l’UX anticipée.

AXE est à la fois une méthode d’évaluation et une méthode de collecte de suggestions d’amélioration. Les résultats mettent en relation les attributs perçus du produit avec différentes dimensions de l’UX.

Elle a été développée par Lutz Gegner et Mikael Runonen de l’université de Aalto (Finlande).

Développement de la méthode : modèle théorique et motivations

La méthode AXE est basée sur le même modèle théorique que le questionnaire AttrakDiff, dont elle s’inspire grandement (Hassenzahl, 2003). Elle évalue donc les qualités pragmatiques et hédoniques des systèmes interactifs.

Plusieurs constats ont motivé la création de cette méthode :

  • Malgré une abondance de méthodes pour étudier l’UX des produits, rares sont celles qui s’intéressent à une évaluation de l’UX dès la phase conceptuelle
  • La plupart des évaluations de concepts sont faites par des experts
  • Il y a un manque de méthodes d’évaluation UX impliquant des utilisateurs et qui soient applicables de manière universelle
  • Transférer des données utilisateurs en recommandations de conception est un challenge

AXE s’inspire également des méthodes projectives (l’une des plus connue en psychologie étant le test du Rorschach – celui avec les tâches d’encres !) en utilisant des stimuli ambigus pour aider les participants à exprimer leurs attitudes, opinions et croyances envers un concept de produit. Les tests projectifs suggèrent qu’un individu structure une situation ambiguë en mettant en valeur ses propres besoins conscients et inconscients.

« Décrire des expériences avec des mots est une tâche difficile en soi, et demander à un utilisateur d’imaginer une expérience fictive la rend encore plus difficile. » (Gegner & Runonen)

Format

AXE se présente sous la forme de 12 paires d’images (+ 2 paires d’images vierge pouvant être utilisées pour couvrir des dimensions non prises en compte par le modèle théorique de AXE). Ces images ont été choisies comme étant des représentations visuelles de certains items du questionnaire AttrakDiff, qui sont des paires de mots contrastés (ex. simple vs. compliqué) (voir l’article Méthode consacrée à l’AttrakDiff). De la même manière, les images de AXE sont ainsi présentées deux par deux, et représentent visuellement des notions opposées.

AXE methode_paires images
Paires d’images et échelles présentées aux participants (1- clair vs confus / 2-peu exigeant vs challenging)

Une ligne relie les deux images et on demande à l’utilisateur de faire une croix sur ce continuum, à l’endroit correspondant à son ressenti par rapport au concept de produit présenté. Cette ligne représente en fait une échelle de mesure, mais n’est pas graduée afin de laisser le participant s’exprimer librement et ne pas brider son imaginaire.

Passation

L’approche AXE peut être divisée en 3 étapes principales : le briefing sur le concept, l’évaluation du concept et l’analyse des données.

méthode AXE

Avant l’évaluation, l’équipe de conception doit définir des objectifs de conception, auxquels les résultats seront comparés. La mise en place de ces objectifs donne à l’équipe une compréhension partagée des buts durant la conception et la capacité d’évaluer si les perceptions des utilisateurs sont conformes aux objectifs.

Concept Briefing

Au début de la session, le concept est présenté aux participants (toujours de la même manière pour garantir des résultats comparables). La description du concept est lue à voix haute par l’expérimentateur et une copie papier est fournie au participant. Des scénarios d’usage (sous forme de narrations) sont présentés de la même manière. Afin de rendre la narration plus engagée et personnelle, on utilise les pronoms « tu » ou « vous », ce qui évite aux participants de spéculer sur les expériences de personnages fictifs à la place des leurs. Si les narrations sont accompagnées de matériel autre que du texte (ex. illustrations ou prototypes basse fidélité), on distribue ce matériel au participant pour qu’il puisse le consulter tout au long de la session.


AXE methode_evaluation formatEvaluation du Concept

L’élément principal de la méthode AXE est un formulaire de réponse comprenant des paires d’images et des échelles. Le but du formulaire est de donner à chaque entretien une structure similaire, et aussi d’aider les participants à évoquer des aspects expérientiels qu’ils perçoivent. Le formulaire est composé de 3 parties : les consignes pour guider le participant, un exercice d’entraînement facile pour vérifier qu’il a bien compris la procédure et le mettre à l’aise, et enfin les 12 paires d’images à évaluer. Les paires d’images ont été sélectionnées selon une méthode, brièvement décrite dans l’article original.

Durant la session d’évaluation, on demande aux participants laquelle des images de chaque paire il associe le plus fortement au concept du produit. Les choix réalisés servent de base pour débuter une conversation sur le concept « pourquoi associez-vous plutôt le concept avec l’image A qu’avec l’image B ? ». L’idée est de découvrir quelle paire de mots le participant utilise implicitement pour prendre sa décision. L’expérimentateur continue de creuser au fur et à mesure les choix du participant. Si le participant dit qu’il associe plus fortement le concept à l’image A mais qu’il préfèrerait l’image B, alors on peut demander les raisons de cette préférence et acquérir ainsi une meilleure compréhension des attentes du participant envers le concept. On peut également sonder quels changements dans le concept seraient appréciés et recueillir des suggestions d’amélioration.

Analyse des données

Après l’entretien, les données sont retranscrites et analysées. La transcription doit être faite mot à mot pour préserver le plus d’information possible. Ensuite, le texte doit être partitionné en petits segments plus faciles gérables, chaque morceau contenant une seule observation / idée.

Exemple : « Cette image me rappelle le calme. Je ne pense pas que ce concept est très calme. S’il n’y avait pas ces couleurs flashy ou s’il n’y avait pas d’animations, il serait plus calme. »

Partition :

  1. cette image me rappelle le calme
  2. je ne pense pas que ce concept est très calme
  3. s’il n’y avait pas ces couleurs flashy, ce serait plus calme
  4. s’il n’y avait pas d’animations, ce serait plus calme

Catégorisation : chaque segment extrait est codé dans une catégorie selon l’information qu’il contient. Les catégories sont :

  1. les caractéristiques perçues du produit : caractéristiques générales, contenu, fonctionnalités, interactions, présentation
  2. les attributs associés : attributs pragmatiques (utilité, utilisabilité), stimulation, identification, évocation
  3. les conséquences anticipées : attractivité perçue, changement comportemental
  4. les informations pour améliorer le concept : suggestions, les choses non désirables, les informations méta (qui ne sont pas directement liées au concept mais peuvent aider à comprendre l’utilisateur)

Après le codage des résultats, les segments sont triés afin que l’équipe de conception puisse identifier rapidement les forces et faiblesses du concept global et de ses caractéristiques précises.

Avantages et limites

  • permet d’évaluer la nature abstraite des concepts
  • échelle non verbale, basée sur une méthode projective (stimuli visuels) pour stimuler l’expression libre des participants
  • ne convient pas facilement à des études longitudinales
  • coûteux en temps

Conseils pratiques

  • Prévoir de distribuer aux participants les documents (description du concept, scénarios, consignes)
  • Durant l’entretien, ne pas utiliser d’adjectifs qui n’ont pas été utilisés par le participant afin de ne pas biaiser les réponses
  • Vous pouvez ajouter 2 paires d’images si vous avez besoin d’évaluer des dimensions supplémentaires (ex. confiance, sécurité, etc).

Sources

Tout le matériel nécessaire pour utiliser la méthode AXE est disponible gratuitement en ligne (comprend un manuel + le guide d’entretien avec les photographies) : http://www.axe-hub.com/

Gegner, L. and Runonen, M. For What it is Worth: Anticipated eXperience Evaluation. 8th International Conference on Design and Emotion, Central Saint Martins University of the Arts London with the Design and Emotion Society (2012).

Hassenzahl, M. The thing and I: understanding the relationship between user and product. In M.A. Blythe, K. Overbeeke, A.F. Monk and P.C. Wright, eds., Funology: from usability to enjoyment. Kluwer Academic Publishers, 2003, 31–42.!

http://www.allaboutux.org/axe-anticipated-experience-evaluation

http://fr.slideshare.net/ajovalasit/anticipated-experiences-early-product-concept-evaluation-lutz-gegner-at-hcdi-presentationjune-2013#

Journaux de bord UX : une méthode d’évaluation longitudinale

J’insiste souvent dans mes présentations sur la dynamique temporelle de l’UX, qui est trop souvent négligée. Or, prendre en compte cette temporalité de l’UX nécessite des méthodes d’évaluation et de conception adaptées. Les journaux de bord UX permettent cette évaluation de l’UX à travers le temps.

Certaines parts de ce post sont traduites de mon article « Dear Diary: Using Diaries to Study User Experience« , que vous trouverez dans la section Ressources.

Les méthodes d’évaluation longitudinales

Les méthodes d’évaluation dites longitudinales permettent d’évaluer l’UX à travers le temps, de la manière la plus riche possible. Elles consistent en une évaluation répétée de l’UX auprès même groupe d’utilisateurs sur une longue période de temps. Elles permettent ainsi d’évaluer les changements de l’UX à travers le temps. Selon la méthode utilisée, elles permettent de recueillir des données qualitatives et/ou quantitatives. Elles ont pour avantage de donner des résultats très riches et précis. La contrepartie est que les méthodes longitudinales demandent un important investissement de temps et de ressources, c’est pourquoi on leur préfère souvent des méthodes moins contraignantes (telles que les méthodes retrospectives). De même, il faut veiller à garder la motivation des participants élevée durant la période de l’étude.

Les journaux de bord UX

Tenir un journal n’est pas qu’un passe-temps d’adolescents essayant de donner un sens à la vie et à l’amour. Dans le domaine des Interactions Homme-Machine (IHM), les journaux de bord sont une méthode qualitative de collecte de données sur ce que les utilisateurs ont fait ou ont ressenti. Tout comme un journal de voyage contient des descriptions des expériences du voyageur, un journal UX va recueillir des descriptions des expériences d’un utilisateur avec un produit ou un système.

Sur quoi un journal de bord UX peut-il nous renseigner ? Selon le type de journal de bord que vous concevez, vous pourrez recueillir de l’information sur l’impression globale d’un système, la fréquence d’usage de fonctionnalités, l’acceptation technologique, les émotions associées à la réalisation d’une tâche, ou encore la facilité d’apprentissage d’une application. Bien sûr, vous pourriez aussi recueillir ce type d’information avec un questionnaire, un entretien ou un test utilisateurs. Mais seules les méthodes longitudinales vous donneront accès à une information temporelle collectée dans un contexte d’interaction naturel.

Avantages

Etudier la dynamique temporelle de l’UX : avec un journal de bord vous pouvez collecter des données sur les différentes périodes de l’UX. Ainsi, la première saisie du journal peut-être remplie avant l’usage pour évaluer « l’UX anticipée » (celle que l’on imagine). Puis, l’utilisateur va remplir chaque jour le journal, donnant ainsi des informations sur « l’UX momentanée » (celle que l’on vit). A la fin de la période d’étude, la dernière évaluation permet d’évaluer « l’UX épisodique » (celle dont on se souvient), voire « l’UX cumulée » (dont on se souvient après de multiples périodes d’usage).

mobile UX contexte
Evaluation en contexte naturel

Collecter des évènements et expériences en contexte naturel : le contexte d’usage est l’un des facteurs impactant l’UX d’un système ou d’un produit. Ainsi, lors d’un test utilisateur ou d’un entretien, la présence de l’expérimentateur peut biaiser les résultats. Qui n’a jamais vu un utilisateur évaluer un produit comme très positif alors qu’il a échoué à réaliser la plupart des scénarios de test ? En tant que professionnels, nous voulons capturer l’UX « réelle » et non celle qui est influencée par un environnement contrôlé. La diffusion des technologies mobiles accentue encore ce phénomène. C’est là l’un des avantages des journaux de bord car ils se focalisent sur la description d’évènements et expériences dans leur contexte naturel.

Déterminer les antécédents, corrélats et conséquences des expériences quotidiennes : comme nous l’avons déjà souligné, il y a plusieurs périodes d’UX, qui s’influencent mutuellement. Ainsi, l’UX momentanée va être influencée par l’UX anticipée (qui crée des attentes à satisfaire). Puis, l’UX momentanée va être « déformée » par le filtre des processus cognitifs (notamment la mémoire) pour devenir l’UX épisodique et cumulative. Les attentes de l’utilisateur, son humeur ou encore le contexte d’usage sont autant de dimensions qui peuvent influencer l’UX au quotidien. Un journal de bord capture ces influences, en éclairant sur la façon dont l’UX s’est formée et à évoluer à un moment donné. Il vous permettra ainsi de détecter si la mauvaise humeur de l’utilisateur ou la critique de la marque à la télé ont impacté son évaluation de l’interface. Vous pourrez également découvrir que le jeu que vous évaluez produit des émotions bien plus positives lorsque l’utilisateur interagit avec des amis, alors même que cette fonction avait été négligée dans la conception.

Limites

Rien n’est parfait ! Comme pour toute méthode, vous devrez considérer les avantages et inconvénients des journaux de bord UX avant de vous lancer dans une telle étude. Les principaux inconvénients de cette méthode sont le temps et le coût liés :

  • au recrutement des participants : la qualité des résultats dépend beaucoup des participants, puisque le journal de bord est limité à la capacité d’expression des utilisateurs. C’est particulièrement vrai dans les études comprenant de nombreuses questions ouvertes. Vous devrez atteindre un niveau d’engagement élevé de vos participants pour obtenir des données suffisantes et fiables.
  • aux sessions de briefing : une étude par journal de bord nécessite souvent des séances de briefing détaillé pour s’assurer que les participants comprennent bien ce qui doit être rapporté, comment et quand.
  • à l’analyse des données : analyser des données longitudinales prend du temps, et encore plus dans le cas d’un journal de bord en version papier.

Concevoir un journal de bord UX


Choisir un protocole et un rythme d’évaluation
: Il existe 3 types de protocoles pour un journal de bord, basés sur la façon dont on sollicite l’utilisateur.

  • par intervalle : les utilisateurs doivent évaluer leur expérience à des intervalles réguliers et prédéterminés (par exemple toutes les 2h ou tous les 2 jours). Cette option est répandue mais les utilisateurs peuvent oublier de compléter le journal, ce qui crée des données manquantes.
  • par signal : on utilise ici un appareil qui signale aux utilisateurs à quel moment il doivent évaluer leur UX en complétant une entrée de journal. Ici, pas de souci d’oubli, mais un coté intrusif de la méthode dans le quotidien.
  • par évènement : les participants doivent évaluer leur UX à chaque fois qu’un évènement particulier survient. Ce protocole est particulièrement utile si vous êtes intéressé par l’analyse d’une expérience induite par certains évènements, tels qu’une erreur système ou une notification.

Le rythme des évaluations doit être déterminé en fonction des besoins de votre recherche. Ne soyez pas trop exigeant sinon votre journal UX deviendra un fardeau pour vos utilisateurs : 2 ou 3 entrées par jour au maximum sur une durée généralement de 2 semaines (si le journal est à remplir chaque jour, ou plus si les entrées sont plus espacées).

Impliquer vos participants : L’un des principaux défis d’une étude par journal de bord est le maintien de l’engagement des participants à un niveau élevé pour garantir la complétion du journal. Vous devez vous assurer que les participants comprennent le type de description et le niveau de détail requis. Au cours de l’étude, vous pouvez rappeler aux participants l’importance de compléter le journal. Une récompense en cash ou un cadeau (ex : possibilité de garder le produit évalué) peuvent être utiles. Attention cependant à ne pas baser la récompense sur la quantité de données recueillies au risque d’être submergé de données non pertinentes !

paper-vs-ipad
Version papier ou électronique ?

Version papier ou version électronique ? Parce que les études UX sont souvent liés à l’utilisation de systèmes interactifs, le choix d’un journal électronique est souvent judicieux. Il simplifie l’analyse des données et permet de combiner des entrées de journal et des logs (ex. date, heure, tâche en cours). Les journaux électroniques permettent aussi plus de créativité : imaginez une étude par messagerie vocale, textos, vidéos ou photos ! Toutefois, essayez d’adapter la méthode aux utilisateurs cibles. Si vous menez une étude avec des personnes âgées, une version papier sera sûrement plus appropriée pour mettre vos participants à l’aise.

Structure du journal : les journaux peuvent avoir un format ouvert (les utilisateurs rapportent leurs expériences avec leurs propres mots) ou au contraire très structuré (avec des questions fermées ou à choix multiples). Pour faire votre choix : avez-vous besoin d’informations précises ou souhaitez-vous encourager une réflexion libre ? On adopte souvent une approche mixte pour combiner données qualitatives et quantitatives. N’oubliez pas d’insérer dans votre journal des consignes claires et de souligner l’importance de rapporter les évènements aussitôt qu’ils surviennent.

data-analysis-340x260
Collecter et analyser les données

Collecter et analyser les données : une fois votre journal conçu, n’oubliez pas de le pré-tester pour être sûr de sa qualité avant de lancer votre étude ! Comme l’engagement des gens diminue rapidement, les participants gardent le journal 2 semaines maximum. Si le journal est électronique, vous pouvez surveiller sa complétion au fur et à mesure. N’hésitez pas à communiquer avec les participants au cours de l’étude pour s’assurer que tout va bien.

A la fin de l’étude, réalisez des entretiens de debriefing avec les participants. C’est l’occasion de leur demander d’expliquer certaines de leurs évaluations. Une bonne compréhension des réponses qualitatives est nécessaire pour interpréter correctement les données. L’analyse des données dépend de la façon dont le journal est structuré. Les données quantitatives peuvent être analysées en utilisant un logiciel d’analyse statistique. Traiter les données qualitatives est plus difficile, mais cela en vaut la peine car cela vous fournira des informations précieuses sur l’expérience subjective !

Workshop Evaluation UX – Journée Thématique FLUPA 2014

Vendredi 20 juin, j’ai animé un atelier Evaluation UX lors de la Journée Thématique FLUPA spéciale Ateliers.

Au programme, un panorama rapide des méthodes UX, un focus sur le questionnaire AttrakDiff, sur les méthodes d’évaluation rétrospectives de l’UX à long terme et enfin un débat sur l’évaluation experte de l’UX. La journée a été un grand succès et j’ai été ravie de voir que les professionnels présents ont appris des choses nouvelles, qu’ils pourront mettre à profit rapidement dans leurs projets !

Résumé de l’Atelier

L’expérience utilisateur (UX) est devenu un facteur concurrentiel crucial sur le marché des produits et systèmes interactifs. Améliorer l’expérience utilisateur durant le cycle de développement d’un produit nécessite notamment de savoir l’évaluer. Or, les méthodes traditionnelles d’évaluation de l’utilisabilité ne sont pas adaptées à l’évaluation de l’UX. Parfois méconnues des professionnels en IHM, plusieurs méthodes existent pour évaluer l’UX.

Dans cet atelier, je vous proposerai tout d’abord une vue globale des méthodes d’évaluation de l’UX, catégorisées en fonction :
a) du type de méthode (études de terrain, recherches en laboratoire, études online ou enfin outils auto-administrés,
b) de la phase de développement du produit dans laquelle chaque méthode intervient (phase conceptuelle, prototypes préliminaires, prototypes fonctionnels ou produits sur le marché),
c) de la période d’expérience évaluée (avant, durant ou après l’usage),
d) de la principale source d’information (experts, utilisateurs, groupes d’utilisateurs).

Nous nous centrerons ensuite sur trois outils principaux :

1) une échelle d’évaluation quantitative de l’UX, basée sur un modèle scientifique. Simple et rapide à utiliser, vous découvrirez de manière pragmatique comment l’utiliser pour l’évaluation des systèmes interactifs.

2) des outils d’évaluation retrospective de l’UX à long terme. Généralement présentés sous forme de courbe, vous apprendrez à faire dessiner à vos utilisateurs les principaux changements de leur UX à travers le temps

3) un débat sur l’évaluation experte de l’UX grâce à des heuristiques ou outils plus génériques

Contenu de la présentation sur Slideshare

AttrakDiff : une évaluation quantitative de l’UX

Le questionnaire AttrakDiff, élaboré par Hassenzahl et ses collègues en 2003, est un outil de référence pour les chercheurs en UX. Il permet d’évaluer les qualités hédoniques et pragmatiques des systèmes interactifs. Jusqu’en 2014, il n’avait jamais été traduit et validé en version française. Afin de pouvoir étudier l’UX sur des échantillons francophones dans le cadre de ma thèse, j’ai traduit et validé ce questionnaire en suivant une méthodologie scientifique (ce qui permet de garantir les qualités psychométriques de l’outil traduit).

Le modèle théorique d’Hassenzahl

AttrakDiff est basé sur un modèle théorique développé par le chercheur Marc Hassenzahl et son équipe. Selon ce modèle, les utilisateurs perçoivent les produits interactifs selon deux dimensions :

  • les qualités pragmatiques : capacité à soutenir l’accomplissement de « do-goals » (tâches). Focus sur le produit (utilité, utilisabilité, réalisation des tâches). Un produit perçu comme ayant de bonnes qualités pragmatiques sera structuré, clair, contrôlable, efficace, pratique, etc.
  • les qualités hédoniques : capacité à soutenir l’accomplissement de « be-goals ». Focus sur le soi (pourquoi on possède et on utilise un produit particulier). Un produit perçu comme ayant de bonnes qualités hédoniques sera original, créatif, captivant (versant hédonique – stimulation) ou encore présentable, professionnel, de bon goût, qui me rapproche des autres (versant hédonique – identification).

Ces deux dimensions (pragmatique et hédonique) vont influencer la perception subjective de l’attractivité du produit ou système, qui va donner naissance à des comportements (par exemple une utilisation accrue) et émotions (ex : joie, frustration).

Modèle théorique d’Hassenzahl (User Interface Design GmbH, http://attrakdiff.de/)

L’AttrakDiff, un outil de mesure quantitative de l’expérience utilisateur

L’AttrakDiff est un questionnaire standardisé comprenant 4 sous-échelles de 7 items chacune, soit 28 items au total. Il est exploité par la société allemande User Interface Design GmbH, qui propose la passation en ligne gratuitement (en allemand et en anglais) sur son site http://attrakdiff.de/

Les sous-échelles de l’AttrakDiff sont les suivantes :

  • Echelle de qualité pragmatique (QP) : décrit l’utilisabilité du produit et indique à quel point le produit permet aux utilisateurs d’atteindre leur(s) but(s)
  • Echelle de qualité hédonique – stimulation (QH-S) : indique dans quelle mesure le produit peut soutenir le besoin de stimulation
  • Echelle de qualité hédonique – identification (QH-I) : indique dans quelle mesure le produit permet à l’utilisateur de s’identifier à lui
  • Echelle d’attractivité globale (ATT) : décrit la valeur globale du produit basée sur la perception des qualités pragmatiques et hédoniques

Format : Les items se présentent sous la forme de différenciateurs sémantiques (paires de mots contrastés) à évaluer par des échelles de Likert en 7 points. L’ordre de passation des items est standardisé. Ceux-ci sont mélangés et les 7 items d’une même sous-échelle ne sont jamais passés à la suite.

Passation et scoring

Passation : L’AttrakDiff est un outil auto-administré. Les utilisateurs peuvent y répondre aussi bien en présentiel (après un test utilisateur par exemple) qu’en ligne. La passation dure généralement entre 5 et 10 minutes maximum. Pour les plus pressés, une version raccourcie existe en 10 items seulement.

Types d’évaluation : L’AttrakDiff soutient 3 types d’évaluation

  • Evaluation unique : adaptée pour une évaluation unique ou temporaire d’un produit ou système
  • Comparaison avant-après : ce type d’évaluation permet de tester le produit 2x : avant et après l’implémentation de changements. Vous aurez ainsi un résumé détaillé des effets des changements.
  • Comparaison Produit A – Produit B : ce type d’évaluation implique deux produits qui sont évalués et comparés. Vous serez en mesure de voir comment les utilisateurs perçoivent les différents produits.

Scoring : Le scoring de l’AttrakDiff est relativement facile.

  • Tout d’abord, il faut inverser certains items, c’est à dire transformer le score obtenu par son opposé (+3 depuis -3, +2 devient -2, etc). Cette étape est nécessaire car, pour éviter la tendance à l’acquiescement lors de la passation, les items n’ont pas la même valence (parfois le mot à gauche est négatif et parfois il est positif). Avant de calculer un score, il faut donc s’assurer que les items sont bien scorés dans le même sens, c’est à dire que les termes négatifs soient à gauche et les termes positifs à droite.

scoring AttrakDiff

  • Il s’agit ensuite de calculer les moyennes et écart-types pour chaque échelle, ainsi que les intervalles de confiance (le calcul de l’intervalle de confiance est détaillé dans les slides de l’atelier Evaluation UX)

Présentation des résultats

La présentation des résultats peut se faire sous différentes formes. Les concepteurs de l’outil en proposent 3 formes principales.

Diagramme des valeurs moyennes

AttrakDiff_results_1Les valeurs moyennes des différentes dimensions de l’AttrakDiff sont représentées sur ce diagramme. Les qualités hédoniques stimulation et hédoniques identité sont distinguées et l’attractivité globale est présentée.

Les valeurs proches de la moyenne (zone entre 0 et 1) sont standards. Elles ne sont pas négatives et remplissent leur fonction. Toutefois, des améliorations sont possibles sur ces aspects pour créer une UX ou attractivité très positive.

Graphique des paires de mots

Ce diagramme présente les valeurs moyennes pour chaque paire de mots. Les items sont regroupés par sous-échelles et placés autour d’un continuum avec au centre la valeur neutre 0, ce qui permet de distinguer très rapidement quels aspects sont perçus comme négatifs et quels aspects sont perçus comme positifs.

Les valeurs extrêmes (entre -2 et -3 ou à l’inverse entre +2 et +3) sont particulièrement intéressantes. Elles montrent quelles dimensions sont critiques ou au contraire particulièrement positives, et appellent à des actions d’amélioration sur ces aspects.

Portfolio des résultats

Dans cette représentation des résultats, les valeurs moyennes obtenues aux échelles hédoniques sont représentées sur l’axe vertical (avec en bas valeur la plus basse, soit -3) et la valeur moyenne à l’échelle pragmatique est représentée sur l’axe horizontal (à gauche valeur la plus basse). Selon les scores obtenus aux deux dimensions, le produit ou système évalué sera positionné dans l’une des zones, définissant ainsi sa « personnalité » ou son « orientation ».

Chaque valeur moyenne est entourée d’un rectangle représentant l’intervalle de confiance du résultat. Le rectangle de confiance montre si les utilisateurs ont fait une évaluation homogène du produit ou si on constate une grande variété dans l’évaluation. Plus l’intervalle de confiance est grand, plus l’évaluation a varié selon les utilisateurs. Ainsi, il est plus difficile de catégoriser le produit dans une zone particulière. Un petit intervalle de confiance est un avantage car il signifie que les résultats sont plus précis et plus fiables.

Conseils pratiques

  • L’AttrakDiff étant un outil quantitatif, essayez d’avoir un échantillon d’utilisateurs raisonnable pour une passation.
  • Ne modifiez aucun élément de l’AttrakDiff (formulation des items, nombre d’items, format, ordre de passation, etc) sous peine de détériorer les qualités psychométriques du questionnaire.
  • Utilisez la version courte (abridged AttrakDiff) en 10 items si vous ne pouvez pas faire passer l’échelle complète.
  • Ajoutez avant ou après l’AttrakDiff des questions socio-démographiques pour croiser les résultats en fonction de certaines caractéristiques de votre échantillon. Les plus fréquentes sont le sexe, l’âge et le sentiment de maîtrise des technologies.

Retrouvez les items de la version française ainsi que les instructions de passation dans la section Ressources.

La version abrégée du questionnaire consiste en une sélection de dix items sur les 28 que comprend l’outil d’origine Voilà les codes des items à retenir pour la version courte :
• qualité pragmatique (4 items) : QP2, QP3, QP5, QP6 ;
• qualité hédonique (4 items) : QHS5, QHS2, QHI3, QHI4 ;
• attractivité (2 items) : ATT2, ATT5.

Sources