Come configurare smartphone e PC. Portale informativo
  • casa
  • Televisori (Smart TV)
  • Test di usabilità: istruzioni passo passo usando Yelp come esempio. Non eseguire compiti complessi complessi

Test di usabilità: istruzioni passo passo usando Yelp come esempio. Non eseguire compiti complessi complessi

Importante: l'articolo è apparso 10 anni fa (la data sopra non è la data di scrittura, ma la data dell'ultima revisione). L'articolo è terribilmente obsoleto e non lo rimuoviamo affatto perché, per qualche ragione sconosciuta, nessuno ha scritto meglio e più nuovo in russo nel corso degli anni.

I test di usabilità sono emersi in aree altamente burocratiche - nell'industria militare e nel campo della produzione civile rischiosa (aeromobili, centrali elettriche, ecc.). Di conseguenza, lo stesso test di usabilità era estremamente burocratico: era necessario non solo trovare il problema, ma, cosa più importante, dimostrare che il problema esisteva davvero. Inoltre, i test di usabilità hanno ereditato le tecniche e le regole della ricerca scientifica, in cui è importante non solo rilevare il fenomeno, ma anche assicurarsi che non sia il risultato di circostanze estranee. A causa della complicazione forzata del processo, interi team di specialisti ristretti sono stati impegnati nei test: uno scrive attività di test, l'altro esegue effettivamente i test, il terzo analizza i dati e un altro trascina e trascina gli intervistati.

È facile capire cos'è il test, nonostante tutti i suoi meriti, è molto lungo e inaccettabilmente costoso.

Negli ultimi anni la situazione ha cominciato a cambiare: invece di test estremamente formali ed estremamente costosi, stanno diventando popolari test informali ed economici. Invece di una piccola folla con un mucchio di attrezzature costose, viene in primo piano una sola persona con un minimo di cose. L'essenza di questo approccio è descritta nel libro Web Design: A Book di Steve Krug o "Don't Make Me Think!" ...

Naturalmente, i test semplici non sono universali. Per il cruscotto di un aereo, probabilmente non funzioneranno. Ma per il software ordinario, i test semplici sono molto meglio, se non altro perché se ne possono eseguire di più.

Qui imparerai come condurre test di usabilità utilizzando le tecniche di test rapidi. Puoi trovare metodi più complessi e più formali nella letteratura specializzata o inventarli tu stesso.

Che cos'è il test di usabilità

Il test di usabilità è qualsiasi esperimento volto a misurare la qualità di un'interfaccia o a cercare problemi specifici in essa.

I vantaggi dei test di usabilità sono molteplici. Il test consente di:

  • Capire quanto male o come funziona l'interfaccia, che può indurre a migliorarla o, se è già abbastanza buona, calmarsi; in ogni caso il beneficio è conseguito.
  • Confrontare la qualità delle vecchie e nuove interfacce e fornire così una giustificazione per modifiche o implementazioni.
  • Trova e identifica i frammenti problematici dell'interfaccia e, con una dimensione del campione sufficiente, stima anche la loro frequenza.

Allo stesso tempo, i test di usabilità non possono creare un buon prodotto da un cattivo prodotto; rende solo il prodotto migliore.

Il primo test di sistemi di grandi dimensioni mostra sempre che l'interfaccia funziona molto peggio di quanto il suo proprietario o creatore pensi e molto meglio di quanto inizialmente creda il tester.

Perché a buon mercato?

Tre approcci consentono di ridurre drasticamente l'intensità del lavoro, e quindi il costo dei test di usabilità:

  1. Qualche semplificazione del concetto di usabilità.
  2. Rifiuto di raccogliere dati quantitativi.
  3. Diminuzione del costo dell'attrezzatura e diminuzione del pagamento per il tempo degli intervistati.

Il terzo approccio consiste nell'utilizzare solo laboratori mobili, che è dettagliato nella sezione. I restanti due approcci sono descritti di seguito.

Efficacia ed efficienza

Nell'interpretazione principale e più comunemente utilizzata (norma ISO 9241-11), il concetto di usabilità è definito come

La misura in cui un prodotto può essere utilizzato da utenti specifici per raggiungere obiettivi specifici con efficacia, efficienza e soddisfazione in un contesto d'uso specifico.

La mia traduzione di questa formulazione in russo:

Il grado di efficienza*, intensità di lavoro** e soddisfazione con cui un prodotto può essere utilizzato da determinati utenti in un determinato contesto d'uso per raggiungere determinati obiettivi.
* Ad esempio, la velocità del lavoro o il numero di errori umani e la durata della loro correzione.
** Ad esempio, il numero di operazioni che devono essere eseguite per ottenere un risultato o la quantità di informazioni che devono essere elaborate per prendere una decisione. Termine efficienzaè ancora spesso tradotto in russo come produttività; a mio parere, questo è un errore grossolano, poiché nella norma ISO 9241-11 originale sotto efficienza si comprende qualcosa di vicino al concetto di efficienza.

I principali indicatori di prestazione sono la velocità dell'utente, la velocità di apprendimento e il numero di errori umani (vedere la sezione per un elenco più dettagliato delle metriche). Questi sono gli indicatori necessari, oltre a influenzare il design. La cosa bella è che misurarli non è particolarmente problematico.

Con gli indicatori dell'intensità del lavoro, tutto è un po' più complicato. Questo gruppo comprende:

  • Successo, ad es. il rapporto tra le prove completate e quelle non soddisfatte o completamente errate.
  • Potenza, cioè il rapporto tra le attività dall'attività dell'utente alle attività a cui è destinato questo prodotto.
  • Carico dell'utente (sia carico mentale che, ad esempio, il numero di azioni dell'utente per attività di test).

Ci sono due problemi qui. La potenza non è affatto un indicatore misurabile (più o meno potenza di un prodotto è interamente una questione di design). Il carico sull'utente è difficile da misurare o è irrilevante, poiché si manifesta ancora in indicatori di efficienza: con un carico intenso, la velocità di lavoro diminuisce. Pertanto, da tutti gli indicatori dell'intensità del lavoro in pratica, rimane solo il successo.

Non c'è nulla di sedizioso in questa semplificazione. Nei test reali, l'intero set di indicatori non viene mai raccolto - dopotutto, solo alcuni di essi sono importanti per ogni sistema specifico. Tuttavia, la conseguenza fondamentale di questa semplificazione della formulazione - una significativa semplificazione della metodologia di test di usabilità - non può essere ottenuta in altro modo.

Il grado di efficacia, successo e soddisfazione con cui un prodotto può essere utilizzato da utenti specifici in uno specifico contesto d'uso per raggiungere obiettivi specifici.

Nessuna quantità!

La seconda opportunità per ridurre l'intensità del lavoro dei test di usabilità consiste nell'evitare di raccogliere la maggior parte dei dati quantitativi. Questo viene fatto per due motivi:

  • Ogni particolare test può essere finalizzato all'ottenimento di dati quantitativi o qualitativi. I dati qualitativi sono solitamente più richiesti nel design, quindi è meglio pianificare un test tenendo conto di ciò.
  • I dati quantitativi sono ancora inaffidabili. Possono essere misurati in modo affidabile, ma richiede molto tempo.

Qualità o quantità?

I test di usabilità possono essere finalizzati sia a ottenere dati quantitativi (necessari per misurare l'ergonomia dell'interfaccia), sia a ottenere dati qualitativi (necessari per capire cosa c'è di male e come risolverlo). Di norma, è impossibile raggiungere entrambi gli obiettivi in ​​un unico test.

Supponiamo di misurare la velocità di lavoro con il sistema. In questo caso, il test dovrebbe essere pianificato in modo tale da escludere qualsiasi rallentamento dell'utente insolito per il lavoro reale. Ad esempio, quando un utente commette un errore, non sarà possibile porgli domande per identificare le ragioni dell'errore. D'altra parte, se ti concentri su dati qualitativi, tutti i risultati quantitativi saranno discutibili.

In effetti, i dati quantitativi sono generalmente un lusso di usabilità, poiché sono più divertenti di quanto effettivamente necessario. Abbiamo bisogno di più dinamiche, ad es. il grado di cambiamento di questi dati, che semplifica notevolmente la vita. Non importa la precisione con cui vengono contati gli errori: se sono stati contati allo stesso modo prima e dopo l'ottimizzazione dell'interfaccia, la dinamica sembra essere corretta. Ad esempio, se, contando, il numero di errori umani si è dimezzato, ci si può aspettare (basta non chiedermi di motivare questo giudizio) che ce ne fossero davvero la metà, anche se è impossibile dire esattamente quanti fossero e quanti di loro sono diventati effettivamente.

Numeri inaffidabili

Inoltre, la questione se fidarsi o meno dei risultati dei test di usabilità merita considerazione. Dopotutto, i test non sono magici, quindi se presumi che i test potrebbero essere negativi, devi concludere che potrebbero avere risultati negativi.

La risposta a questa domanda è semplice e triste: non c'è motivo di credere nei risultati dei test di usabilità.

Infatti, nonostante disponiamo di dati assolutamente reali in ingresso durante i test di usabilità, il nostro inevitabile volontarismo non ci consente di fidarci completamente di essi. Abbiamo troppe potenziali fonti di errore:

  • Gli utenti effettivi possono differire dai nostri intervistati selezionati. In un piccolo campione, anche una leggera fluttuazione nel comportamento degli intervistati può portare uno specialista dell'usabilità a trarre conclusioni false.
  • Le attività di test possono riflettere in modo inadeguato le attività reali degli utenti nel sistema.
  • Uno specialista dell'usabilità potrebbe non notare parti del problema o fraintendere l'essenza del problema.
Rolf Molich conduce regolarmente test comparativi del test di usabilità stesso. I risultati sono scioccanti. Ad esempio, nel secondo test, in cui nove gruppi di specialisti dell'usabilità di vari livelli hanno testato il servizio HotMail, i risultati sono stati molto dispersi, anche se le attività di test erano identiche. Tutti i team hanno riscontrato un totale di 310 problemi di interfaccia. Ma tre quarti dei problemi sono stati riscontrati da un solo gruppo e non dal resto dei gruppi (questa percentuale comprende ventinove problemi veramente seri).

In generale, test di usabilità può essere ricerca scientifica, alla quale sono del tutto applicabili tutti i requisiti per la ricerca scientifica in generale.

Ad esempio, confronta i test di usabilità con il case study. Il sociologo adotta misure speciali, noto, complesse e dispendiose in termini di tempo, per garantire la scelta corretta degli intervistati. Non siamo. Il sociologo utilizza strumenti collaudati e statisticamente corretti, sia nella raccolta dei dati che nell'analisi degli stessi. Non siamo.

Quindi, ogni volta che proviamo a misurare qualcosa con precisione, ci sbagliamo. Quando non proviamo nemmeno a raggiungere la precisione, sbagliamo anche noi, forse non tanto, visto che l'asticella è già abbassata fin quasi a terra.

Cosa significa questo nello specifico? Di norma, non possiamo affermare con certezza, ad esempio, di aver rimosso dall'interfaccia tutte le cause di errore umano. Semplicemente perché con altri intervistati, forse meglio abbinati, avremmo - ancora una volta forse - trovato più errori. La stessa considerazione vale per il resto degli indicatori di qualità dell'interfaccia e ancora di più per altre attività di test. E se il test fosse stato pianificato e condotto da qualcuno più esperto di noi! Ed è spaventoso da immaginare.

Pertanto, dobbiamo misurare l'ergonomia solo per il confronto con la nuova interfaccia, rendendoci conto che le nostre misurazioni non sono in alcun modo corrette. Sono necessari solo per pianificare le ottimizzazioni più vicine. Solo una cosa si può dire con certezza: non importa quanto testiamo, c'è sempre spazio per miglioramenti. Come riserva per migliorare l'interfaccia stessa e i nostri metodi per testarla.

Perché i numeri sono comunque necessari?

Avendo denunciato i dati quantitativi come poco interessanti e inattendibili, non posso non indicare il loro vero scopo. I dati quantitativi sono assolutamente essenziali nei test comparativi di usabilità. Se ci sono diverse soluzioni tra cui è necessario scegliere la migliore - semplicemente non c'è alternativa ai dati quantitativi, è imperativo raccoglierli e devi prendere tutte le misure possibili per garantirne l'affidabilità (soprattutto perché i dati qualitativi non sono necessari a il tutto in test comparativi di usabilità). Tuttavia, i test comparativi sono rari, quindi questo argomento non è affatto considerato qui. Se hai bisogno di test di benchmarking, contatta.

Cosa misurare esattamente?

Il numero di indicatori misurati in un particolare test può essere piuttosto grande, ma tutti, di regola, si riducono a un insieme di cinque caratteristiche di base. Di seguito è riportato un elenco di queste caratteristiche con esempi di metriche generate da esse.

  • La velocità dell'utente. Metriche: durata dell'operazione; tempo speso per il rilevamento degli errori; tempo dedicato alla correzione degli errori; il numero di comandi eseguiti durante l'esecuzione di un'operazione (si presume che più comandi ci sono, più tempo occorre per impartirli); la durata della ricerca delle informazioni nella documentazione; il numero di comandi più efficienti di quelli utilizzati dall'utente; diminuzione della produttività durante il funzionamento a lungo termine.
  • Errori. Metriche: percentuale di operazioni che hanno causato un errore; il numero medio di errori per operazione per utenti esperti (in particolare per utenti esperti, poiché quelli inesperti possono anche avere fattori dal gruppo del tasso di apprendimento); il numero di errori non rilevati e non corretti dagli utenti.
  • Competenze di apprendimento per lavorare con il sistema. Metriche: il numero e la frequenza delle chiamate al sistema di aiuto; la durata del periodo tra l'inizio dell'utilizzo del sistema e il punto in cui la velocità di lavoro / il numero di errori dell'utente smette di crescere; la differenza nel numero di errori/velocità di lavoro tra utenti con esperienza di utilizzo del sistema e senza tale esperienza.
  • Soddisfazione soggettiva dell'utente. La misurazione di questa caratteristica è associata ad alcune difficoltà che meritano una considerazione separata. Vedi sotto per le metriche per questa proprietà.
  • Mantenimento delle capacità di lavorare con il sistema. Metriche: la differenza nella velocità di lavoro/numero di errori tra un utente dopo un'ora di lavoro con il sistema e per lo stesso utente all'inizio dell'utilizzo del sistema dopo una lunga pausa.

Come puoi vedere, misurare la qualità di un'interfaccia può essere piuttosto difficile, ad esempio, un test di conservazione delle abilità può richiedere più di un mese. Ma questi sono solo test per la seconda e la terza componente dell'usabilità, ovvero efficienza e soddisfazione. Oltre a loro, c'è anche il successo, che è più importante e che è molto più facile da misurare: devi solo calcolare quale percentuale di attività l'utente completa in modo completamente errato o non può farlo affatto. Questo semplifica notevolmente la vita di un utente.

Quanto è profonda la soddisfazione?

A differenza di altre caratteristiche, la soddisfazione non è nel mondo reale, ma nella testa dell'utente. Di conseguenza, è impossibile “toccarlo”, e quindi è impossibile misurarlo oggettivamente. Ma almeno può essere misurato indirettamente.

Ci sono due possibili linee d'azione. In primo luogo, si può chiedere all'intervistato quanto sia soddisfacente l'interfaccia. In secondo luogo, il comportamento dell'intervistato può essere utilizzato per determinare se gli piace o non gli piace l'interfaccia in un dato momento; contando il numero di reazioni mostrate, si può stimare la soddisfazione. Naturalmente, queste stime sono relative; il loro valore si manifesta solo rispetto alla nuova interfaccia o rispetto ai concorrenti.

Di seguito sono riportati alcuni metodi per misurare la soddisfazione.

Questionario

Se provi a determinare la soddisfazione attraverso un sondaggio tra gli intervistati, non puoi fare a meno di questionari formali. Infatti, se il formato del sondaggio non è fisso, non può esserci certezza che agli intervistati sia stata posta la stessa domanda, il che significa che le risposte diventano dubbie.

Sfortunatamente, nel contesto russo, i questionari hanno un grosso svantaggio: semplicemente non esistono questionari affidabili. Nonostante il fatto che nei paesi dell'Occidente in decadenza siano stati creati molti questionari abbastanza funzionanti (SUMI, QUIS, MUMMS, IsoMetrics, ecc.), Nessuno di essi è stato tradotto in russo e non è stato testato di nuovo. Di conseguenza, questi questionari, essendo, tra l'altro, molto costosi, non sono più affidabili di qualsiasi questionario che puoi inventare da solo.

Sfortunatamente, lo sviluppo e il test di questionari affidabili è un processo molto lungo e laborioso, quindi non si può contare sulla rapida comparsa di questionari domestici di alta qualità.

Di seguito sono riportati due questionari praticabili, anche se inaffidabili.

Questionario a parole

Per la prima volta questo questionario è stato proposto dai ricercatori del Microsoft Usability Laboratory come un modo per valutare molto rapidamente, anche se notoriamente inaffidabile, la soddisfazione. Il questionario è molto semplice. All'intervistato viene presentato un foglio di carta con una serie di aggettivi scelti a caso, di cui una metà è più probabile positiva, l'altra metà negativa. Al rispondente viene chiesto di enfatizzare le parole che, a suo avviso, sono applicabili al prodotto (la somiglianza del questionario con i questionari utilizzati nel metodo differenziale semantico non è significativa - si tratta di metodi completamente diversi). Una volta completato il questionario, viene calcolata la differenza tra il numero di termini negativi e positivi.

Uso il seguente insieme di aggettivi:

Antiquato - Efficace - Sfocato - Scomodo - Sporco - Opaco - Luminoso - Pulito - Diretto - Chiaro - Incoerente - Ingestibile - Attraente - Standard - Controllato - Buono - Intuitivo - Divertente - Dilettante - Inefficace - Pericoloso - Noioso - Gioioso - Sicuro - Duro - Fastidioso - Triangolare - Sgradevole - Comodo - Freddo - Intelligente - Inutile - Inquietante - Caldo - Leggero - Coerente - Misterioso - Qualità - Interessante - Inaffidabile - Flessibile - Bello - Brutto - Poco attraente - Utile - Sciocco - Confuso - Comodo - Comprensibile - Comprensibile - Chiaro - Pesante - Moderno - Leggero - Amichevole - Non standard - Scarso - Affidabile - Difficile - Semplice - Scuro - Professionale - Lento - Rotondo - Triste - Scoraggiante - Prevedibile - Incomprensibile - Veloce - Pazzo - Triste - Piacevole

Si prega di notare che non è un caso che le parole siano mescolate insieme, ecco come è necessario presentarle agli intervistati.

Questionario formale

A differenza di un questionario a parole, questo questionario non può essere utilizzato senza adattamento per un progetto specifico. Alcune delle sue domande a volte sono irrilevanti, a volte hanno bisogno di essere riformulate. In ogni caso, per le rispondenti di sesso femminile, è necessario modificare il genere della formulazione del questionario.

Il questionario è composto da più domande, per ognuna delle quali il rispondente può scegliere una delle cinque opzioni di risposta. Si prega di notare che ho progettato questo questionario solo come post-test, il suo utilizzo in qualsiasi altra veste è discutibile.

Domande del questionario:

Durante l'esecuzione delle attività ho sbagliato No / Sì
Il sistema è in grado di fare tutto ciò di cui ho bisogno e anche di più No / Sì Il sistema funziona abbastanza velocemente No / Sì
Mi piace l'aspetto dell'interfaccia No / Sì
Sento che se studio meglio il sistema, sarò in grado di fare cose che ora non so nemmeno No / Sì
Il sistema può essere facilmente personalizzato in base alle mie esigenze No / Sì
Iniziare è stato facile; Non ho incontrato difficoltà significative No / Sì
Ogni volta che ho sbagliato, ho notato e corretto facilmente il mio errore No / Sì
Sono soddisfatto della mia velocità di lavoro No / Sì
Durante i compiti, mi sentivo abbastanza sicuro No/Sì
In qualsiasi momento, ho capito cosa dovevo fare dopo No / Sì
Il sistema mi sembra utile, lo userei volentieri per risolvere i miei problemi No / Sì

I risultati devono essere calcolati secondo il seguente algoritmo: il valore centrale dà zero punti, i valori estremi danno -2 punti (risposta sinistra) o +2 punti (risposta destra), i valori intermedi sono -1 o +1 punto, rispettivamente. Il punteggio è il valore da confrontare.

Osservare le risposte emotive

Oltre al questionario, possono essere calcolate le reazioni emotive dell'intervistato. Ad esempio, l'intervistato ha sorriso - ha messo un più, ha imprecato o si è accigliato - ha messo un meno. Il numero e il segno delle reazioni è il valore desiderato dell'indicatore.

Ci sono anche problemi con questo metodo.

Innanzitutto, non è chiaro come calcolare le reazioni di diverse forze. Quante volte un intervistato deve sorridere per controbilanciare otto secondi di abuso selettivo? E nove secondi di abuso?

In secondo luogo, la stessa persona dovrebbe calcolare le reazioni di tutti gli intervistati, poiché è impossibile per più persone sincronizzare le proprie idee su ciò che, in effetti, è incluso nel concetto di reazione emotiva. Di conseguenza, l'intensità delle risorse del test aumenta notevolmente.

Non preoccuparti di questo test se sei almeno un po' insicuro della tua capacità di catturare le emozioni degli altri (ad esempio, se sei Em, non Jo).

Il secondo problema è l'incertezza del test. Si osserva solo la soddisfazione operativa, cioè il piacere, mentre la soddisfazione percepita, quasi sempre più importante, resta dietro le quinte.

Cosa è necessario per il test

Ora che le questioni fondamentali sono state generalmente risolte, possiamo procedere alla pratica. Vale la pena iniziare con un elenco di ciò che deve essere raccolto in un unico luogo per i test di usabilità (questi punti verranno descritti più dettagliatamente di seguito). Quindi ciò di cui abbiamo bisogno:

  • intervistati
  • metodo di prova
  • script di prova
  • postazione di lavoro per la prova e un metodo consolidato di fissaggio del materiale
  • prova testata.

intervistati

Quando si scelgono gli intervistati per i test, è prima conveniente determinare i requisiti generali per gli intervistati e solo successivamente selezionare gli intervistati dal pubblico di destinazione, utilizzando i requisiti formati.

Tieni presente che scegliere intervistati con un pubblico non target è molto più pericoloso di quanto sembri. Identificherai i problemi inesistenti o non identificherai quelli esistenti. Nel peggiore dei casi, semplificherai l'interfaccia a tal punto che sarà difficile anche per gli utenti medi, che di fatto sono la maggioranza, utilizzarla.

Requisiti generali per gli intervistati

Il primo punto è se gli intervistati hanno bisogno di esperienza con il sistema. Come regola generale, se l'interfaccia di un sistema esistente viene ottimizzata, metà degli intervistati dovrebbe avere esperienza lavorativa (possono determinare i problemi di riqualificazione durante l'implementazione) e metà no (determinano il tasso di apprendimento). Se ci sono sistemi concorrenti, è migliore una proporzione diversa: un terzo con esperienza con la versione precedente, un altro terzo con esperienza con sistemi concorrenti e il terzo rimanente senza esperienza con il sistema.

Il secondo punto è il livello di alfabetizzazione informatica. A parità di altre condizioni, la scelta preferita è reale, ad es. coincidendo con l'esperienza del target di riferimento, il livello di tre quarti degli intervistati e un livello basso del restante quarto (è possibile individuare più problemi su di esso).

È conveniente determinare il livello di alfabetizzazione informatica secondo la seguente scala:

  1. Alto. L'intervistato ha un computer al lavoro ea casa, la maggior parte della sua attività lavorativa viene eseguita su un computer, l'intervistato utilizza autonomamente un computer come mezzo di sviluppo personale, utilizza attivamente servizi su Internet (ad esempio, acquista regolarmente beni e servizi nei negozi online).
  2. Sopra la media. L'intervistato ha un computer al lavoro e a casa, la maggior parte della sua attività lavorativa viene svolta su un computer, ma l'intervistato non utilizza un computer per risolvere problemi che vanno oltre la sua attività principale (lavora su un computer "da chiamata a chiamata "e non di più).
  3. Media. Lavorare con un computer fa parte della tua normale attività (lavorativa o personale) per due anni o più.
  4. Corto. Sia al lavoro che a casa c'è un computer, ma l'esperienza con un computer non supera i due anni e un computer non è uno strumento significativo nel lavoro.
  5. Molto basso. L'esperienza di utilizzo del computer è sporadica, di durata inferiore ai tre anni. Il computer non viene utilizzato al lavoro oa casa.

Al terzo posto c'è l'età. La proporzione ottimale: tre quarti degli intervistati sono dell'età del pubblico di destinazione del sistema, il restante quarto è più anziano (è possibile identificare più problemi su di esso).

Il genere degli intervistati ha meno influenza sui risultati, ma ciò non significa che non sia necessario selezionare il genere corretto. Vale la pena aumentare il numero di donne tra gli intervistati rispetto alla proporzione nel target di riferimento, poiché è più facile identificare problemi di implementazione sulle donne (le donne, in generale, imparano più lentamente, ma dopo aver appreso lavorano meglio).

L'ultima caratteristica significativa è il livello di apertura emotiva degli intervistati. Più vincolato l'intervistato, meno è in grado di dirti prezioso. Anche dopo aver determinato l'esistenza di un problema, non sarai in grado di ottenere da lui alcuna informazione su ciò che ha causato il problema. C'è un ottimo modo per risolvere il problema della mancanza di apertura emotiva: vale la pena avere una base di intervistati e riutilizzarli. Un intervistato che sa già per esperienza che non c'è niente di sbagliato nei test di usabilità è molto più disposto a entrare in contatto ed è generalmente più loquace.

Infine, quando le proprietà utente desiderate per il test sono già state determinate, è il momento di selezionare quegli intervistati che non solo soddisfano i requisiti di cui sopra, ma appartengono anche al pubblico di destinazione del sistema.

Di quanti rispondenti hai bisogno

Nel 1992, Robert Virzi scrisse Affinare la fase di test della valutazione dell'usabilità: Quanti soggetti sono sufficienti? suggerito che cinque intervistati sono sufficienti per il test. Un anno dopo, Jakob Nielsen e Thomas K. Landauer hanno preso il testimone con l'articolo Un modello matematico di rilevamento dei problemi di usabilità, in cui hanno sostenuto che cinque rispondenti sono sufficienti per catturare il 70% dei problemi e sono necessari altri tre rispondenti per per portare l'efficienza fino all'85%.

La comunità dell'usabilità ha amato questi numeri con tutto il cuore. Da allora, la frase "5-8 intervistati" è diventata quasi un mantra. Ahimè, questo mantra è falso.

Innanzitutto, tutti e tre gli autori hanno scritto solo sul test di piccoli sistemi. Cosa fare se il sistema è troppo grande per adattarsi al test su ogni intervistato in un'ora e mezza (questo è il massimo che una persona, sia l'intervistato che lo sperimentatore può sopportare; i test di 40 minuti sono molto meglio). In questo caso, dovrai eseguire diversi test su diversi intervistati; senza questo, sarà semplicemente impossibile coprire l'intera interfaccia del sistema. Quanti rispondenti sono necessari in questo caso dipende dal sistema; qui non possono esserci gradazioni chiare. Quindi, per testare un grande sito aziendale, in modo amichevole, sono necessarie venti persone in diverse serie di 5 persone.

In secondo luogo, otto persone sono troppo poche per parlare di precisione nella misurazione delle caratteristiche ergonomiche. Per misurare, hai bisogno di almeno dodici persone.

In terzo luogo, otto persone non possono accogliere né il sesso, né l'età né qualsiasi altra diversità degli intervistati. Se vuoi testare un'interfaccia progettata per diversi gruppi di pubblico distinti, ogni gruppo dovrebbe avere i suoi cinque-otto intervistati.

D'altra parte, i primi intervistati rivelano ancora la parte del leone dei problemi. Pertanto, l'unica soluzione realmente possibile è il test in serie: la prima serie passa, i problemi identificati vengono risolti, quindi la seconda serie, i problemi vengono risolti di nuovo e così via. Se nella prima serie vengono utilizzati tutti i tipi di intervistati, il resto della serie può essere interrotto in modo sicuro quando la quantità di dati rilevati diminuisce in modo significativo. Allo stesso tempo, la prima serie dovrebbe essere più grande, il resto più piccolo.

Questioni organizzative

Oltre ai requisiti effettivi per gli intervistati, la domanda rimane aperta: come convincere un potenziale intervistato a partecipare al test?

Se progetti un'interfaccia per ordinare, prova a spostare la ricerca degli intervistati sul cliente. Quasi sempre il sistema ha utenti reali o potenziali con i quali il cliente ha sviluppato un rapporto privilegiato e che - ciò che è bello - sono particolarmente interessati alla nuova interfaccia, motivo per cui sono molto socievoli.

Se stai progettando un'interfaccia per un sistema con un pubblico di destinazione ampio (comune), non trascurare i tuoi cari. Sono entrambi estroversi e prontamente disponibili.

Molte società di reclutamento sono impegnate nel reclutamento di intervistati per i focus group, in modo da poter abbinare gli intervistati per i test di usabilità. Sfortunatamente, il focus group è un evento una tantum e relativamente di breve durata. Il test di usabilità richiederà di fissare appuntamenti con gli intervistati uno alla volta, una persona alla volta, il che complica notevolmente il processo.

Mantieni un database di persone che hai già utilizzato per i test. Di norma, è più facile negoziare con loro che con coloro che non hanno esperienza nella partecipazione ai test.

Quando prendi appuntamenti con il rispondente, sii il più flessibile e compiacente possibile. L'intervistato, anche se il suo tempo è pagato, ti sta facendo un favore accettando di partecipare al test.

Se trovi tu stesso l'intervistato, anche se è un tuo amico o parente, dovrebbe essere ricompensato per il suo tempo speso (puoi fare a meno di un compenso se gli intervistati sono forniti dal cliente dell'interfaccia, se hai utilizzato i servizi di servizi di reclutamento , la remunerazione deve essere discussa con il rappresentante del servizio) ... Per un pubblico non specifico, il miglior incentivo è il denaro: l'importo ottimale del pagamento è il doppio della tariffa oraria di un determinato intervistato, tenendo conto del tempo trascorso dall'intervistato sulla strada. Per un pubblico specifico sono spesso necessarie quantità molto elevate di premi; in tali condizioni, è ragionevole premiare gli intervistati con regali di valore per i quali è possibile ottenere un grande sconto all'ingrosso (personalmente preferisco usare alcolici costosi).

Metodi di prova

Esistono solo tre principali metodi di test di usabilità: osservazione passiva delle prestazioni degli elementi di test, flusso di coscienza e intervento attivo; il primo ha lo scopo di raccogliere dati quantitativi, il secondo è qualitativo:

  • Osservazione passiva delle prestazioni degli elementi di prova. L'essenza del metodo è molto semplice: l'intervistato esegue compiti di test, le sue azioni vengono analizzate (durante il test o dopo, secondo i protocolli), il che consente sia di trovare frammenti problematici sia di misurare le caratteristiche ergonomiche dell'interfaccia.
  • Flusso di coscienza (pensa ad alta voce). Corrisponde alla verifica mediante osservazione passiva, ma si chiede anche al rispondente di commentare oralmente le proprie azioni. Quindi i commenti vengono analizzati. Il metodo è piuttosto instabile, ma a volte dà risultati interessanti (dipende molto dalla loquacità dell'intervistato). Uno dei principali svantaggi del flusso di coscienza è che le misurazioni delle caratteristiche ergonomiche dell'interfaccia sono altamente discutibili.
  • Intervento attivo. In questo metodo, lo specialista dell'usabilità non si aspetta favori dalla natura nella persona del rispondente, ma cerca di prenderli lui stesso. Dopo ogni azione dell'intervistato, lo sperimentatore gli chiede perché l'intervistato agisca in questo modo; su ogni schermo, lo sperimentatore chiede come l'intervistato capisce lo scopo e la funzione di questo schermo. Questo metodo è più vicino a un colloquio mirato che al test stesso: ad esempio, il metodo può essere utilizzato anche senza attività di test, purché sia ​​disponibile un'interfaccia per la discussione. È chiaro che con un intervento attivo non sono semplicemente possibili misurazioni, ma la quantità di dati di qualità ottenuti è la più grande.

Script di prova

Un test case è un aspetto verificabile di un sistema. A mio parere, scenari di test adeguatamente selezionati sono il prerequisito più importante per la qualità dei test.

Gli scenari sono costituiti da un'attività personalizzata e dalle attività correlate:

  • metriche ergonomiche significative
  • elementi di prova per gli intervistati (potrebbero esserci diversi elementi)
  • segni di buon esito del compito.

Analizziamoli nel dettaglio.

Compito personalizzato

Il primo passaggio nella definizione degli scenari consiste nel definire attività utente significative. Queste attività sono il materiale di partenza per lo scripting.

Che cos'è un'attività personalizzata? Questo è un compito che la loro attività pone agli utenti e che ha un valore indipendente per gli utenti. Un'attività personalizzata viene eseguita come una o più operazioni (un'operazione personalizzata non ha un valore indipendente). Ad esempio, per un programma client di posta, le attività sono:

  • scrivere e inviare una lettera
  • ricevere messaggi dal server
  • personalizzare il programma in base alle proprie esigenze (ad esempio, impostando la ricezione automatica della posta a intervalli specificati).

Ma la scelta del destinatario dalla rubrica quando si scrive una nuova lettera non è più un compito, perché questa azione non ha valore in sé. Si tratta di un'operazione che consiste in molte azioni (fare clic sul pulsante A... > seleziona contatto > conferma selezione).

Quando scegli le attività per il test, dovresti essere guidato da due considerazioni:

  • Tutti i compiti devono essere reali, ad es. identificato dalle attività effettive degli utenti: il desiderio di rendere i compiti più difficili per trovare molti problemi contemporaneamente, è insostenibile - i compiti dovrebbero essere ordinari, poiché non ha senso cercare problemi che nessuno incontra.
  • Poiché testare l'intera interfaccia su tutte le attività dell'utente è possibile solo idealmente, devi limitarti e scegliere solo attività importanti. I compiti importanti sono, in primo luogo, i compiti di frequenza, ad es. che vengono eseguite da tutti gli utenti e/o eseguite frequentemente, in secondo luogo, tutte le altre attività che si sospetta stiano eseguendo male sul sistema e, infine, attività che, se eseguite in modo errato, portano a problemi importanti.

Metriche di attività ergonomiche significative

Per ogni attività, è necessario selezionare le caratteristiche dell'interfaccia che sono significative per essa. Naturalmente, abbiamo a nostra disposizione le metriche della sezione "Cosa misurare". Tuttavia, queste metriche sono scomode: sono difficili da misurare e difficili da capire (sebbene siano più facili da confrontare). Da un punto di vista pratico, le caratteristiche più banali sono molto più convenienti.

Ad esempio, puoi contare il numero di errori umani. Ma l'influenza di questa metrica sul risultato integrale è così difficile che tuttavia, quando si analizza, non si può fare a meno di elementi di volontarismo e soggettività. È molto più semplice determinare l'impatto degli stessi errori immediatamente, anche prima del test, ad esempio impostando una caratteristica dell'interfaccia significativa "L'utente è in grado di installare il programma in meno di cinque minuti, mentre effettua non più di due errori" (dove un errore insignificante indica un errore che l'utente ha notato e corretto). Naturalmente, c'è molta arbitrarietà in una tale richiesta. Ma è ancora inferiore rispetto a dubbie speculazioni sul numero di errori umani identificati. Pertanto, le metriche "con i piedi per terra" sono più convenienti delle metriche universali.

Inoltre, semplici metriche dichiarative sono anche utili in quanto consentono di capire quando continuare a ottimizzare l'interfaccia e quando interromperla. Tornando all'esempio del paragrafo precedente, possiamo dire che è necessario ottimizzare l'interfaccia fino a quando l'installazione richiede meno di cinque minuti. Se, dopo aver ottimizzato l'interfaccia, il programma viene installato in sei minuti, questo è un motivo per modificare nuovamente l'interfaccia e testarla nuovamente.

Ecco alcuni esempi di tali metriche:

  • Successo: gli intervistati completano correttamente il 90% delle attività.
  • Efficienza: la velocità del lavoro dell'utente: la registrazione al sito viene completata in meno di 7 minuti.
  • Efficienza - errori: quando si inseriscono 10 moduli, il numero di errori di input non supera i due.
  • Efficienza: apprendimento delle capacità di lavorare con il sistema: quando si esegue l'attività 9, che differisce dall'attività 2 solo per i dati di input, gli intervistati non commettono un solo errore (senza contare gli errori di battitura).
  • Soddisfazione: in base ai risultati del questionario, il numero di punti è aumentato del 20% rispetto ai risultati precedenti.

Attività di prova

Un'attività di test è ciò che l'intervistato riceve da te, un'attività che ti consente di guidare l'intervistato attraverso un frammento dell'interfaccia del sistema e determinare le caratteristiche di questo frammento.

Le attività di test, oltre ad essere coerenti con le attività utente, devono avere anche le seguenti proprietà:

  • Univocità. I compiti dovrebbero essere formulati in modo tale da escludere la loro interpretazione errata da parte del rispondente. Se l'intervistato fraintende il compito, quasi certamente non sarai in grado di guidare il test sulla strada giusta senza chiedergli allo stesso tempo di completare il compito.
  • Completezza. Il testo dell'incarico deve contenere tutte le informazioni necessarie per portare a termine tale incarico.
  • brevità. Se misuri la velocità di completamento dei compiti, i compiti dovrebbero essere sufficientemente brevi in ​​modo che la durata dei compiti di lettura da parte degli intervistati non influisca sulla durata dei compiti stessi (le persone leggono a velocità diverse). Se il testo del compito è di grandi dimensioni, dovrai tagliare manualmente la durata della lettura per ogni compito, il che richiede molto tempo.
  • Mancanza di suggerimenti. Non dovrebbe essere chiaro dal testo del compito come questo compito dovrebbe essere eseguito. Ad esempio, è inaccettabile utilizzare la terminologia del sistema: invece di ciascun termine, è necessario descriverne il significato, altrimenti gli intervistati faranno semplicemente clic sui pulsanti con le stesse parole e non identificheranno alcun problema.
  • Il compito deve contenere punto di inizio dell'attività, cioè. dovrebbe essere scritta la finestra o lo schermo su cui dovrebbe essere il rispondente all'inizio. Se tali informazioni non vengono fornite, gli intervistati passeranno inevitabilmente ad altri frammenti dell'interfaccia, il che significa che l'attività verrà eseguita in modo diverso da intervistati diversi, il che rende tutti i calcoli statistici privi di significato. È necessario fissare il punto di partenza del compito alla fine del compito precedente. Se il compito inizia con una lavagna vuota, la fine del compito precedente dovrebbe dire "torna alla schermata principale". Se l'attività deve iniziare dove è terminata l'attività precedente, l'attività precedente dovrebbe terminare con le parole "al termine, non chiudere la finestra corrente/rimani in questa schermata".

Oltre a questi requisiti generali, è necessario considerare anche quanto segue:

  • È possibile che diverse attività di test debbano essere scritte per un'attività personalizzata. In genere, un'attività è troppo grande per essere contenuta in un'unica attività. Inoltre, se un'attività personalizzata è frequente, non dovresti essere particolarmente interessato a come viene eseguita la prima volta: è molto più interessante sapere come gli utenti la eseguiranno la seconda, la terza, la quarta (e così via). In questo caso, nei limiti del test su un rispondente, sarà necessario eseguire questo compito più volte, variando ogni volta i compiti.
  • Oltre ai compiti in cui il rispondente deve eseguire un'azione, sono accettabili e desiderabili doppi compiti, in cui il convenuto deve prima decidere se ha bisogno di eseguire questa azione in un dato momento. Ad esempio, se stiamo testando un'utilità di deframmentazione del disco, invece dell'attività "Deframmenta il disco del computer", è meglio utilizzare l'attività "Verifica il grado di frammentazione del disco e, se lo ritieni necessario, deframmenta il disco del computer". Tali compiti dovrebbero essere progettati in modo tale che il rispondente non possa rifiutarsi di prendere una decisione senza preoccuparsi di dire che, dicono, va tutto bene e non è necessaria la deframmentazione. Inoltre, è consigliabile frammentare deliberatamente il disco prima di tale test in modo che l'intervistato non possa evitare l'attività.
  • A volte, nel corso di un'attività, è necessario modificare con forza lo stato del sistema. Ad esempio, se vuoi sapere esattamente come gli utenti risolvono un determinato problema, devi creare quel problema. È inaccettabile interrompere l'esecuzione del test per questo, poiché distrae il rispondente. In tali casi, prima dell'attività corrispondente, è possibile inserire un'altra attività in cui l'intervistato deve creare un problema da solo. Naturalmente, tale attività non fornirà alcuna informazione sull'interfaccia.
  • L'analisi dei risultati e il riepilogo delle statistiche risultano notevolmente semplificati se non si eseguono un numero limitato di attività lunghe, ma un numero elevato di attività brevi che richiedono lo spostamento di solo un paio di schermate o la compilazione di uno o due moduli.
  • Il primo compito del test dovrebbe essere introduttivo, inteso esclusivamente a introdurre il rispondente nel processo. Di conseguenza, dovrebbe essere semplice e i suoi risultati possono essere ignorati.
Assicurati di controllare che i tuoi script possano essere completati dagli intervistati entro il tempo previsto per il test. L'elenco degli scenari dovrà probabilmente essere abbreviato.

Segnali di completamento dell'attività di successo

L'ultima parte dello scenario sono i segni del successo dei compiti. Il punto è questo: non è sempre possibile portare a termine lo stesso compito in un solo ed unico modo. Non è corretto eseguire il test senza conoscere tutti questi metodi, poiché ulteriori analisi risulteranno dubbie. Supponiamo che l'intervistato A abbia completato l'attività nel modo A e l'intervistato B nel modo B. Entrambi gli intervistati hanno affrontato l'attività, ma uno è ancora migliore dell'altro. Dopotutto, metodi diversi, apparentemente, hanno un'efficacia diversa, ad esempio il numero di azioni incluse nel metodo B è una volta e mezza superiore al numero di azioni nel metodo A. Il metodo A in una situazione del genere è preferibile, in un sistema ideale (a cui ci si dovrebbe tendere) tutti gli utenti dovrebbero solo usarlo.

Inoltre, a volte il risultato del test corretto dal punto di vista dello sperimentatore non è in realtà corretto, soprattutto se l'area tematica è complessa e lo specialista dell'usabilità non la conosce abbastanza. Per assicurarsi che il risultato corretto sia esattamente quello che pensa l'usabilista, ha bisogno di trovare uno specialista nel sistema e nell'area tematica e chiedere. Senza conoscere saldamente tutti i modi per completare l'attività, semplicemente non sarai in grado di identificare gli errori.

Luogo di lavoro e modalità di acquisizione dei dati

Esistono due approcci per organizzare un luogo di lavoro per i test di usabilità: un luogo di lavoro fisso e uno mobile. Qui ci sono solo raccomandazioni relative ai posti di lavoro mobili, poiché i laboratori mobili sono di per sé più economici e riducono la remunerazione degli intervistati (anche se a scapito del costo del tempo di uno specialista dell'usabilità che deve recarsi personalmente dagli intervistati).

Quindi, cosa devi avere per il test completo:

1. Taccuino. I requisiti del laptop sono semplici. Innanzitutto, il processore più potente per la registrazione simultanea del contenuto dello schermo (sebbene anche i processori Intel Centrino più deboli ti consentano di registrare un flusso video in background, su processori più potenti l'interfaccia testata funzionerà più velocemente e la qualità video sarà maggiore) . In secondo luogo, se hai intenzione di registrare un video con l'intervistato stesso (vedi sotto), avrai bisogno di uno schermo più grande per ospitare sia l'interfaccia in prova che la finestra con la fisionomia dell'intervistato.

2. Webcam, se hai intenzione di registrare le espressioni facciali e la direzione dello sguardo dell'intervistato. Di norma, più la fotocamera è costosa, migliore è la qualità dell'immagine che offre. Una fotocamera montata su laptop è desiderabile in quanto è più comoda da usare.

3. Microfono. In linea di principio, chiunque lo farà. Personalmente, uso un normale microfono Genius che costa settanta rubli. Se la tua webcam ha un microfono integrato, andrà bene. D'altra parte, un microfono migliore produrrà una migliore qualità di registrazione, quindi ci sarà meno sibilo (ma non interferisce con nulla).

4. Registratore dello schermo. Lo standard di fatto è TechSmith Camtasia, se i fondi lo consentono, investi in TechSmith Morae, appositamente progettato per i test di usabilità (registra non solo il contenuto dello schermo, ma registra anche le azioni dell'utente, il che consente di velocizzare notevolmente le analisi successive - d'altra parte , Morae in quattro volte più costoso di Camtasia, che comunque non è economico).

Avvicinati il ​​più possibile alla tua attrezzatura prima di eseguire il test per la prima volta. Scopri come posizionare al meglio la fotocamera e il microfono per ottenere i migliori risultati. Impara i tasti di scelta rapida del registratore dello schermo, impara come avviarlo rapidamente in qualsiasi modalità. Niente mina la fiducia di un intervistato nel test più dello spettacolo di uno sperimentatore irrequieto che cerca di mettere su il nastro proprio all'ultimo momento prima del test.

5. Se hai intenzione di registrare la durata degli incarichi, è utile acquisire cronometro sportivo con registrazione dei giri (Laps), che permette di memorizzare una serie di intervalli. Altrimenti, dovrai guardare di nuovo i video per calcolare la durata delle attività, il che è molto noioso.

6. Attività di prova per la presentazione agli intervistati. Di norma, l'opzione migliore è una stampa, ogni attività su un foglio separato, in modo che l'intervistato non possa correre avanti e leggere le attività che non ha ancora completato. Sul primo foglio devi stampare forma introduttiva. Un esempio di tale modulo (tra parentesi quadre - dati variabili):

Gentile [Nome dell'intervistato]!
Ti invitiamo a completare una serie di attività progettate per valutare la semplicità e l'usabilità di [Nome sistema]. Sentiti libero di completare i compiti. Lo scopo dello studio è valutare le qualità dell'interfaccia oggetto di studio e non voi personalmente. Se fai qualcosa di sbagliato, significa che l'interfaccia e solo l'interfaccia devono essere migliorate.
Quando completi i compiti, devi agire come ritieni opportuno. Ad esempio, se decidi di utilizzare l'Aiuto, puoi farlo senza chiedere il permesso allo sperimentatore.
Tieni presente che le tue azioni e parole sono registrate per ulteriori studi, ma tutti i dati raccolti rimarranno strettamente riservati e saranno disponibili solo per i ricercatori.
Leggi attentamente il compito e segui attentamente le istruzioni.
Cerca di portare alla fine il completamento di ogni compito, ma se durante il compito ti rendi conto che non puoi o non vuoi completarlo, informa lo sperimentatore di questo e passa al compito successivo.
Si prega di girare la pagina del compito solo quando si completa il compito nella pagina aperta.
Se non capisci alcun compito, non esitare a chiedere di nuovo allo specialista del test.

D'altra parte, in alcuni casi è molto più efficace dare incarichi agli intervistati non sulla carta, ma in un modo più vicino alla realtà. Ad esempio, quando si testa un'interfaccia POS, è meglio fingere di essere un cliente e i clienti raramente dichiarano le loro esigenze per iscritto.

7. Se hai intenzione di sondare gli utenti, avrai bisogno questionari stampati.

8. Se hai intenzione di essere vicino al rispondente e correggere immediatamente qualsiasi parametro, avrai bisogno tablet con carta e penna.È conveniente prestampare diversi fogli con il nome dell'intervistato e i numeri di pagina: se si eseguono più test di seguito, è garantito che si eviti il ​​dolore di documenti confusi.

Come puoi vedere, non è necessario così tanto. Il costo dell'attrezzatura e del software necessari (a parte un laptop, nel 21 ° secolo non è un lusso) in una versione economica non supera i 450 dollari. I vantaggi di una tale soluzione sono l'affidabilità e la facilità d'uso; inoltre, la mobilità consente di effettuare test con gli intervistati stessi, il che ne aumenta notevolmente il numero (molti potenziali intervistati in nessun caso si recheranno in ufficio per consultare uno specialista dell'usabilità).

Registrazione delle espressioni facciali degli intervistati

Se hai intenzione di analizzare i risultati dopo il test (e non durante lo stesso), sarà estremamente utile effettuare una registrazione video delle espressioni facciali e dei gesti degli intervistati. Senza video con l'intervistato, dovrai analizzare i movimenti del cursore (accompagnato, poiché il suono è registrato, sibili e urla). Con la registrazione sarà possibile analizzare l'interazione di una persona con l'interfaccia, poiché appariranno i prerequisiti per la gestalt. Una differenza di metodo oggettivamente insignificante si ritorcerà contro un miglioramento oggettivamente significativo dei risultati.

Il problema è che la registrazione di un video con l'intervistato stesso è irta di una certa difficoltà: è necessario sincronizzare automaticamente il viso dell'intervistato e la registrazione delle sue azioni.

Non posizionare il microfono vicino alle stampe di prova. Diventa sordo mentre guardi il video.

In un laboratorio di usabilità stazionario, ciò è ottenuto dal fatto che il video della telecamera è hardware mescolato con il flusso video dalla scheda video del computer. I maggiori inconvenienti di questa soluzione sono l'alto costo e la bassa qualità dell'immagine dello schermo registrata (il numero di pixel sullo schermo è parecchie volte superiore a quello che può essere registrato su un registratore). Inoltre, è scomodo lavorare con tali registrazioni.

È possibile sincronizzare la registrazione e manualmente, la registrazione sul computer in streaming contemporaneamente dalla fotocamera e dallo schermo. Ma in questo caso, dopo ogni prova, dovrai dedicare un po' di tempo al noioso lavoro di mixare due file video diversi.

In precedenza, era disponibile solo una soluzione stupida, sebbene praticabile (un modo nuovo e migliore è descritto di seguito). Prima del test:

  1. Disattiva l'accelerazione grafica in Windows (in Pannelli di controllo scegliere Schermo, nella scheda Opzioni premi il bottone Inoltre, nella finestra che si apre sulla scheda Diagnostica muovi il cursore Accelerazione hardware A sinistra). Dopo il test, l'accelerazione può essere riattivata.
  2. Esegui qualsiasi programma in grado di visualizzare i video provenienti dalla fotocamera. Tali programmi sono collegati alle webcam, inoltre sono adatti programmi per chat video.
  3. Posizionare una finestra con un'immagine proveniente dalla telecamera nel bordo inferiore destro dello schermo (dove distrae meno l'intervistato) e posizionare la finestra del sistema in prova in modo che non oscuri le immagini. La finestra con il video dovrebbe essere coperta con un pezzo di carta (grazie a Dmitry Satin per l'idea).
  4. Chiedere all'intervistato di non ridimensionare la finestra del sistema in prova.
  5. Abilita la registrazione di tutto il contenuto dello schermo.

Per questo motivo, durante l'esecuzione del test, viene registrato l'intero contenuto dello schermo, comprese sia le azioni dell'intervistato che la sua immagine dalla telecamera.

Visualizzazione dello schermo quando si registrano le espressioni facciali in questo modo.

aggiunta: Nella terza versione di TechSmith Camtasia Studio, c'è una modalità picture-in-picture (uno stream da una videocamera viene inserito nell'angolo della registrazione video con il contenuto dello schermo), quindi ora tutto è diventato molto più semplice.

L'unico problema con la registrazione delle espressioni facciali dell'intervistato è che se vai tu stesso dagli intervistati, nessuno può garantire che non ci saranno cose cattive sullo sfondo del video - agli intervistati spesso piace incontrare specialisti dell'usabilità nei bug.

Prova testata

Infine, dobbiamo controllare il test stesso. Devi assicurarti che:

  1. l'attrezzatura è operativa
  2. sai come trattarla come un giovane semidio
  3. tutte le impostazioni predefinite sono corrette
  4. hai abbastanza nastri vuoti o spazio su disco
  5. tutti i documenti necessari vengono stampati e controllati per pertinenza ed errori
  6. le attività di test contengono tutte le informazioni necessarie e non richiedono ulteriori spiegazioni
  7. non ci sono indizi nascosti negli elementi di prova
  8. sai come riportare rapidamente il sistema in prova al suo stato originale in modo che i prossimi intervistati non vedano le modifiche apportate dai partecipanti precedenti
  9. la tua idea di ciò che è corretto fare i compiti è vera
  10. il test su un solo rispondente può essere svolto in un tempo ragionevole (non più di un'ora e mezza).

Come puoi vedere, ci sono così tanti punti in cui è possibile commettere errori che controllarli di per sé diventerà una fonte di errori (le attività complesse sono difficili da completare senza errori). Di conseguenza, è necessario un metodo di verifica affidabile. Questo metodo sta testando il test stesso, ad es. eseguire il test su qualcuno di cui non ti senti dispiaciuto e che è facile da catturare (ad esempio, un collega). Se l'esecuzione del test ha mostrato almeno un errore nella preparazione del test, correggerlo e ripetere l'esecuzione.

Si noti, tuttavia, che un'esecuzione di test non elimina la necessità di eseguire personalmente il test, poiché alcuni aspetti dell'esecuzione del test non possono essere verificati.

test

Quindi, il test è pronto e puoi iniziare. La procedura è semplice. Dopo aver acceso la registrazione e seduto l'intervistato al computer:

  1. inserire il rispondente nel problema
  2. chiedigli delle sue aspettative dal sistema
  3. prova l'interfaccia
  4. scopri come sono state soddisfatte le aspettative dell'intervistato
  5. completare la prova.

Questi passaggi sono dettagliati di seguito.

Introduzione al problema

L'introduzione del rispondente al problema è che gli spieghi coerentemente le regole del test. Tutte queste spiegazioni sono estremamente importanti, se perdi anche solo un punto, i risultati saranno distorti.

  • Spiegare all'intervistato cos'è il test di usabilità e perché è necessario.
  • Spiega all'intervistato (è lecito mentire qui) che è lui e solo lui che è necessario per condurre il test - sentendo che è necessario, l'intervistato si rallegrerà.
  • Menziona che l'interfaccia non è stata sviluppata da te (puoi e dovresti mentire), quindi non ti offenderai se l'intervistato rimprovera l'interfaccia.
  • Prima di eseguire il test, non dimenticare di spegnere il cellulare e chiedere all'intervistato di fare lo stesso.
  • Spiega all'intervistato che non stai testando lui, ma il sistema. Avverti che tutti i suoi problemi sono in realtà problemi del sistema, e che se commette un errore nessuno lo biasimerà, anzi, saprai che il problema non è con lui, ma con il sistema.
  • Scusati per aver dovuto registrare le sue azioni. Rassicura il rispondente che i dati raccolti rimarranno con te e trasferirai i risultati del test al cliente, prima di spersonalizzarli. Se stai registrando il contenuto dello schermo, chiedi inoltre all'intervistato di non inserire il suo cognome nei moduli dello schermo (in modo che il tuo cliente, a cui consegnerai la registrazione video, non lo veda).
  • Spiega all'intervistato che può rifiutarsi di continuare il test in qualsiasi momento e che in questo caso riceverà comunque una ricompensa. Spiega che l'intervistato può chiedere di interrompere il test in qualsiasi momento per riposare.
  • Infine, spiega all'intervistato che è inutile che tu faccia domande sull'interfaccia, ma puoi e dovresti chiedere se un'attività non è chiara all'intervistato.
Memorizza un elenco di cose da dire prima del test. Questo influisce anche sui risultati.

Identificare le aspettative dal sistema

Indipendentemente dal tipo e dallo scopo del test, durante il test di una nuova interfaccia è utile determinare in che modo soddisfa le aspettative dell'utente. Se le aspettative vengono soddisfatte, l'implementazione e il supporto iniziale saranno notevolmente facilitati; se le aspettative si rivelassero deluse, il sistema causerà immediatamente il rifiuto.

Identificare le aspettative, in generale, dovrebbe essere fatto prima di progettare l'interfaccia - ma sfortunatamente, nelle prime fasi del lavoro, questo è estremamente difficile e richiede un talento straordinario oltre ad ascoltare e porre le domande giuste. Tuttavia, nelle fasi in cui c'è già qualcosa da testare, ad esempio quando si testano i prototipi, è più facile identificare le aspettative degli utenti, quindi è sciocco non sfruttare questa opportunità.

La procedura per identificare le aspettative si compone di due fasi:

  1. Prima di condurre il test, al rispondente dovrebbe essere chiesto cosa si aspetta dal sistema. Devi ascoltare l'intervistato con uno sguardo attento e tutto ciò che dice può essere tranquillamente dimenticato, poiché tutte le sue parole non sono altro che fantasie. Devi chiedere non per scoprire qualcosa, ma per preparare il rispondente alla seconda fase.
  2. Dopo il test, al rispondente dovrebbe essere chiesto come l'interfaccia mostrata soddisfi le sue aspettative. Qui, l'intervistato può già essere pienamente affidabile: in primo luogo, è stato preparato dalle sue risposte precedenti e, in secondo luogo, l'interfaccia che gli è stata mostrata potrebbe spingerlo a formulare requisiti che prima non aveva realizzato.

test

Durante il test, è necessario seguire i seguenti sei "mai":

  • Non scusarti mai per l'imperfezione del sistema in prova.
  • Non dire mai: "Lo aggiusteremo dopo".
  • Non incolpare nessuno se l'interfaccia è pessima ("Gli sviluppatori, ovviamente, sono degli idioti e hanno creato qualcosa di imbarazzante, ma lo sistemeremo subito").
  • Non chiamare mai il processo di test "test utente": l'intervistato penserà di averlo testato e avrà paura. Idealmente, farete sempre riferimento alla procedura come "test di usabilità dell'interfaccia" o semplicemente "test dell'interfaccia".
  • Non interrompere mai l'intervistato. Anche se dice qualcosa di irrilevante, lascia che parli pienamente e solo allora fai le tue domande.
  • Non modellare mai il comportamento del rispondente. Alcune persone si adattano alle aspettative dello sperimentatore, ad esempio, avendo sentito di voler trovare più errori nell'interfaccia, commetteranno costantemente errori loro stessi, anche se l'interfaccia non ha i prerequisiti per questo. Per evitare questo risultato, tutte le tue parole dovrebbero essere enfatizzate in modo neutro. Ci sono due semplici metodi per raggiungere la neutralità. Innanzitutto, non dovresti fare domande a scelta singola. Invece di chiedere all'intervistato quanto gli sia sembrato semplice il sistema (questa è chiaramente una domanda importante, poiché può essere posta in modo diverso con un diverso atteggiamento nei confronti dell'argomento - "quanto ti è sembrato complesso il sistema?"), È meglio per chiedere se l'interfaccia del sistema è semplice o complessa. In secondo luogo, gli intervistati spesso ti fanno domande da soli, cercando di evitare di dover prendere una decisione da soli. È facile rispondere a tali domande, solo le risposte, per la loro spontaneità, saranno suggestive. In questi casi, la risposta migliore è una controdomanda. Sto affrontando? - Cosa ne pensi? Ho completato l'attività correttamente? - Cosa ne pensi? E così via finché l'intervistato non si calma. Scortese, ma efficace.

Inoltre, ci sono alcune regole non così rigide:

  • Se, durante un test, segui una proprietà dell'interfaccia, ad esempio contando gli errori del rispondente, non dovresti seguire più di un indicatore. Ad esempio, se si contano gli errori, non si dovrebbe contare il tempo di esecuzione delle operazioni: la probabilità del proprio errore aumenta troppo. Secondo me, durante il test, puoi solo scrivere le tue ipotesi sui potenziali miglioramenti dell'interfaccia, ad es. quello che vedi subito. È meglio calcolare gli indicatori dell'interfaccia in base alle registrazioni video.
  • Anche con un intervento attivo, cerca di non porre all'intervistato domande che non siano direttamente correlate al suo funzionamento attuale. Meglio chiedere a loro dopo il test.
  • Se possibile, siediti alla destra della schiena dell'intervistato, in modo che possa vedere la tua faccia, girando leggermente la testa. La tua presenza è gravosa per l'intervistato, ma in questa situazione sarà almeno meno teso.
  • Durante il test, spesso non è possibile vedere problemi con l'interfaccia nel suo insieme. Ad esempio, hai notato un errore dell'utente. Ma come si spiega? Si tratta di un'anomalia causata dal fatto che l'utente è meno preparato degli altri? Sei sicuro che tutti ripetano questo errore? Per questo motivo, è necessario registrare il numero massimo di osservazioni. Ne scarterai alcuni in seguito, ma è meglio che perdere il problema.
  • La velocità del lavoro. Tra le assegnazioni, sposta il cronometro su un nuovo giro. Se l'intervistato è distratto per qualsiasi motivo, metti in pausa il cronometro.
  • Errori. Su un pezzo di carta scrivi un trattino per ogni errore umano. È conveniente inserire trattini piccoli per errori piccoli e lunghi per errori grandi. Dopo il test, è sufficiente contare il numero di righe. Se si contano separatamente errori di tipo diverso (ad esempio errori semplici e voci di menu selezionate separatamente in modo errato), è meglio utilizzare codici diversi, ad esempio gli stessi trattini per errori semplici e le lettere M per errori relativi al menu.
  • Problemi che vedi subito. Annota brevemente su un pezzo di carta l'essenza del problema e l'ora corrente (prima il tempo!). Sapere esattamente quando si è verificato il problema renderà più facile individuare la porzione corrispondente del video.
  • Reazioni emotive dell'intervistato. Usa un segno più per le reazioni positive e un segno meno per le reazioni negative. Le reazioni che si verificano al momento del completamento degli elementi di prova non vengono conteggiate.

Completamento del test

Dopo aver terminato il test:

  • Chiedi al rispondente l'arretrato di domande.
  • Lascia che il rispondente completi i questionari se stai conducendo un sondaggio.
  • Chiedi all'intervistato se gli è piaciuta l'interfaccia; indipendentemente dalla risposta, chiedi di chiarire cosa ti è piaciuto e cosa non ti è piaciuto.
  • Paga il rispondente.
  • Ringrazialo per aver sostenuto il test. Rassicurare l'intervistato che ha fatto un ottimo lavoro e che grazie a lui sei riuscito a individuare molti problemi di interfaccia (fai questo anche se l'intervistato si è rivelato un tipo di comunicazione introverso, sgradevole, il test su cui non ha rivelato nulla di nuovo ).
  • Se l'intervistato è particolarmente bravo, chiedigli se puoi fare riferimento a lui in futuro per nuove attività di test. Un intervistato con esperienza di test è sempre meglio di uno senza esperienza.

Test su prototipi

Particolare attenzione dovrebbe essere prestata ai test sui prototipi. Quando si esegue il test sui prototipi, sono disponibili due opzioni:

  • Ci si può limitare ad un test di intervento attivo, rendendo impossibile ottenere alcun dato quantitativo. Per questo, non è necessario alcun prototipo speciale, poiché hai sempre l'opportunità di spiegare all'intervistato il significato delle informazioni generali e le ragioni delle lacune nel prototipo.
  • Puoi, oltre al solito, creare un prototipo di test e ottenere alcuni dati quantitativi, perdendo molte risorse spese per il prototipo di test.

Un prototipo di test è un tipo di prototipo in cui un rispondente può eseguire attività di test. Ad esempio, se il prototipo è costituito da una sequenza di screenshot:

  • In un tipico prototipo, ogni immagine dello schermo rappresenterà tutti i possibili frammenti dell'interfaccia in circostanze diverse; invece dei dati reali, verranno visualizzati dati generalizzati con note su quale volume massimo e minimo possono avere.
  • Nel prototipo di test verrà presentata la stessa interfaccia così come viene visualizzata in qualsiasi momento durante l'esecuzione delle attività di test: se i dati vengono modificati su qualsiasi schermata per un'attività di test, entrambe le versioni di questa schermata dovranno essere disegnate nel prototipo, e possibilmente altro (stato prima, durante e dopo la modifica).

La creazione di un prototipo di prova richiede sempre molto tempo. Va bene che gli schermi in un tale prototipo debbano essere disegnati più volte. Peggio ancora, non sarai in grado di limitarti a creare solo un prototipo di prova, quindi dovrai realizzare sia prototipi normali che di prova. E se stai testando in modo iterativo, dovrai comunque riparare entrambi i prototipi contemporaneamente.

Per essere onesti, devo dire che a volte devi ancora creare prototipi di prova. Ad esempio, se l'interazione su qualche schermo è troppo complessa e variabile, il cliente non sarà in grado di capirlo (sarà difficile per te farlo da solo). L'unica via d'uscita in una situazione del genere è disegnare questa schermata in tutti i possibili stati con tutte le possibili opzioni di interazione, ad es. creare lo stesso prototipo di prova.

Pertanto, l'uso di prototipi di test non funzionali è controllabile, ma è ancora un incubo (in effetti, questo è il motivo principale per la creazione di prototipi funzionali, che inizialmente sono prototipi di test). Hai bisogno di questo incubo? Decidi tu stesso.

Analisi dei risultati

Infine, è il momento di analizzare i risultati del test. Tre cose sono importanti qui:

  • quando iniziare l'analisi?
  • come analizzare le azioni del rispondente
  • cosa si può apprendere dai dati quantitativi.

La questione di quando iniziare a ottimizzare l'interfaccia resta a parte.

Quando iniziare l'analisi

È possibile analizzare i risultati sia durante che dopo il test. L'analisi durante il test presenta vantaggi e svantaggi. I vantaggi includono il fatto che lui:

  • Consente di risparmiare tempo in fase di analisi, perché parte dell'analisi viene eseguita in una fase precedente.
  • Dà l'impressione più diretta del test (gestalt), permettendoti di vedere problemi che non vengono notati in nessun altro modo.

Ci sono anche degli svantaggi:

  • Non consente di registrare più di un indicatore ergonomico alla volta, e anche allora in pratica è possibile misurare solo la velocità del lavoro dell'utente e il numero di errori umani (sebbene questi siano gli indicatori più richiesti).
  • Possibile solo con una significativa esperienza di uno specialista dell'usabilità.
  • Impossibile se il test è condotto da uno specialista e l'analisi è fatta da un altro (d'altra parte, quest'altra persona avrà sicuramente bisogno delle osservazioni di chi ha condotto il test).

L'analisi post-test è priva di questi vantaggi e svantaggi. Ti consente di analizzare attentamente e attentamente il materiale, indipendentemente dal numero e dalla natura degli indicatori misurati. Inoltre, si adatta facilmente a tutti gli artisti che desideri.

Pertanto, la strategia ottimale sembra essere quella di avviare l'analisi durante il test. In alcuni casi, questa analisi può essere limitata. Se ciò risulta impossibile, puoi sempre analizzare anche i protocolli di test video.

Analisi delle azioni degli intervistati

Quasi tutti i test di usabilità riguardano la ricerca e l'identificazione dei problemi. Ma come vedere il problema nelle azioni degli intervistati?

Errori

Non tutti gli errori dell'intervistato sono spiegati da problemi di interfaccia, ad esempio l'intervistato potrebbe aver mostrato una disattenzione elementare. Tuttavia, qualsiasi errore richiede considerazione:

  • Se l'errore è critico, ad es. l'intervistato ha commesso un errore a causa di un'incomprensione della struttura dell'interfaccia e l'errore ha portato ad altri errori (ad esempio, un visitatore del sito è andato in una sezione di cui non aveva bisogno e si è perso lì), il frammento corrispondente deve essere rifatto: i passaggi devono essere presi per eliminare l'ambiguità, aggiungere suggerimenti, ecc.
  • Se l'errore non è critico, ad es. l'intervistato se ne è accorto immediatamente e l'ha corretto lui stesso, devi decidere se correggerlo o lasciarlo incustodito. Vale la pena risolvere il problema se ritieni di aver compreso il motivo per cui si è verificato l'errore (solo l'esperienza ti aiuterà qui). Se non ti senti, lascia l'interfaccia così com'è. Ovviamente, se il problema si ripresenta, l'errore deve essere corretto, ma avrai più informazioni a riguardo, quindi sarà più facile risolverlo.
  • Forse l'errore è dovuto all'imperfezione dell'elemento di prova. Assicurati che non sia così: chiedi all'intervistato di ripetere l'attività con parole sue e, se si è sbagliato, ha capito l'attività in modo errato e l'attività deve essere rifatta urgentemente, ma l'errore può essere ignorato .

Rallentare il compito

Se l'intervistato si è fermato senza una ragione apparente, significa che sta cercando di capire cosa deve fare dopo. L'interfaccia probabilmente non è autoesplicativa o abbastanza priva di ambiguità. Il problema deve essere corretto.

Puoi vedere la decelerazione non solo dalla decelerazione stessa, ma non è sempre chiaramente evidente, quanto dai movimenti casuali che accompagnano il cursore del mouse (molte persone, avendo perso il filo dell'azione, spostano automaticamente il cursore).

) esiste una fase di valutazione del progetto, è in questa fase che possono essere eseguiti test di usabilità di alta qualità.

Sono stato costretto a scrivere questo articolo dai problemi sorti durante i miei test di usabilità. Spero di poter aiutare qualcuno a capire in modo più preciso quando utilizzare i test di usabilità e come evitare un po' di confusione nel farlo.

Riprogettazione del sito web

Quando dovresti condurre test di usabilità e cosa viene prima?

Nel caso di un sito già sviluppato, la questione di condurre test di usabilità sorge quando si sente o si scopre che qualcosa non va nel sito. In ogni caso è necessario installare Google analytics (libro: Google Analytics. Analisi professionale del traffico del sito) o un altro servizio di analisi delle visite al sito. Non parlerò del motivo per cui dovrebbe essere installato un tale servizio, poiché l'argomento è stato a lungo esaurito e solo le persone pigre non consigliano l'installazione di tali servizi. Dopo aver installato Google Analytics, disponi già di dati specifici sulle statistiche delle visite, dei luoghi di ingresso e di uscita dei visitatori del sito e altre informazioni.

Il passo successivo è definire i KPI (Wikipedia: Key Performance Indicators). È necessario analizzare ciò che è importante per il business, per determinare gli obiettivi che devono essere raggiunti dai siti.

Esempio: per qualcuno possono essere ordini di merce, per qualcuno che contatta tramite il modulo di feedback con eventuali domande, ecc.

Se fino a questo punto le raccomandazioni erano obbligatorie, ovvero, in ogni caso, questi passaggi aiuteranno nello sviluppo e nella promozione del sito, seguiranno ulteriori raccomandazioni, nel caso in cui tu capisca davvero che il sito non è efficace.

Il terzo passaggio consiste nell'identificare direttamente le pagine e le funzioni problematiche. La semplice conduzione di test di usabilità è inefficace, è necessario capire dove sorgono i problemi, su quale pagina, con quale funzione, quindi condurre test per determinare esattamente cosa c'è di sbagliato nella pagina e come risolverlo. Ancora una volta, Google Analytics ti aiuterà, qui puoi determinare quali pagine stanno lasciando gli utenti, quali pagine vengono ignorate e quali funzioni non vengono utilizzate.

Preparazione per i test di usabilità

Quindi, al momento è già stato stabilito che il sito ha bisogno di un restyling, abbiamo trovato pagine e funzioni con cui gli utenti hanno problemi. L'unica cosa rimasta è capire perché gli utenti hanno problemi e come risolverli.

Il quarto passo dovrebbe essere la formazione di ipotesi su cosa non va nella pagina, e in base a questa, è necessario determinare le metriche (Wikipedia: ISO 9126 - Valutazione del prodotto software) con cui verranno testate le funzioni (c'è un metodo di valutazione peritale in cui l'esperto avanza ipotesi per migliorare l'interfaccia del sito e, sulla base di esse, il sito viene ridisegnato, tuttavia, è possibile verificare se tale ipotesi è realmente corretta solo dal risultato dell'implementazione del modifiche, il che comporta un alto costo di errore).

Esempio: utilizzando Google Analytics, abbiamo stabilito che gli utenti stanno visitando la pagina di registrazione, ma non la stanno attraversando. Gli utenti potrebbero non essere in grado di capire quali informazioni inserire nei campi o potrebbero non sapere cosa fare dopo aver compilato i campi. Pertanto, dobbiamo testare questa pagina per le metriche dell'intelligibilità dei messaggi di sistema e della coerenza operativa.

Dopo aver determinato le metriche con cui testeremo le aree problematiche sul sito, è necessario determinare il carattere e lo scenario del lavoro (libro: Alan Cooper sull'interfaccia. Nozioni di base sull'interaction design), che verrà utilizzato per i test di usabilità. Questo passaggio è necessario per attirare gli intervistati giusti e selezionare un'attività per i test di usabilità. Se questo momento viene perso, l'intervistato che non è l'utente di destinazione può superare con successo la zona problematica e l'utente che utilizza effettivamente la determinata pagina avrà davvero grossi problemi. Il risultato sarà una riprogettazione dell'interfaccia senza considerare i dati, e il problema rimarrà. La definizione accurata dello scenario aiuterà a dare al rispondente il compito giusto. Cioè, se il compito è acquistare un telefono cellulare e l'intervistato non si registra affatto (e stiamo testando la registrazione), il test di usabilità è inutile.

Nota: selezionare lo scenario in modo da testare il maggior numero possibile di aree problematiche.

Segue la selezione degli intervistati in base al personaggio selezionato. Più l'intervistato corrisponde al ritratto del personaggio, meglio è. Un numero sufficiente di intervistati è di 5-8 persone. Nella scelta della quantità, mi sono basato sulla raccomandazione di Jacob Nielsen e sulla mia esperienza.

Immediatamente prima dell'effettivo test di usabilità, chiedi all'intervistato di compilare un questionario per verificare che il personaggio selezionato e l'intervistato corrispondano alle caratteristiche richieste. Dare un briefing introduttivo, durante il quale descrivere il contesto di utilizzo del sito e il compito (libri: Web Design: il libro di Steve Krug, oppure "Non farmi pensare!").

Attività di esempio: alla ricerca di un nuovo telefono cellulare, sei andato su questo sito tramite un motore di ricerca. Trova il telefono di cui hai bisogno (chiedi anche all'intervistato di descrivere il telefono che cercherà).

Condurre il test di usabilità stesso (programma: Usability Studio) non è così difficile come sembra. Hai bisogno di un laptop con una fotocamera e diversi programmi per registrare i movimenti degli utenti e registrare le azioni dello schermo. Chiedi all'intervistato di commentare tutte le sue azioni ed emozioni. Come dimostra la pratica, lo farà comunque (e questo non sorprende, perché anche a casa, agli utenti spesso piace molto sgridare o, al contrario, governare varie forme e altri elementi sui siti).

Dopo aver completato il test, chiedi all'intervistato la sua esperienza, quali difficoltà ha affrontato e cosa ha trovato scomodo. Non consiglio di usare i dati del sondaggio come una legge per cambiare tutto ciò che non gli piace. Devi ascoltare gli utenti, ma diffidare molto della sua opinione soggettiva. È meglio se, in base ai risultati del sondaggio, è apparsa un'ipotesi sulla necessità di modificare le interfacce, aggiungere un altro elemento all'elenco delle aree problematiche e testarlo nella prossima iterazione.

Elaborazione dei dati dei test di usabilità

Successivamente, è necessario visualizzare i materiali video raccolti, analizzare i risultati dei test di usabilità e determinare i requisiti dell'interfaccia per la riprogettazione (libro: Web-design. Usabilità dei siti Web). Vale la pena verificare le modifiche che verranno apportate in base a determinati requisiti nel prossimo test di usabilità. Il numero di tali iterazioni dovrebbe dipendere in gran parte dagli obiettivi e dal budget stanziato per la riprogettazione del sito.

Esempi: aggiungere suggerimenti al modulo di registrazione, evidenziare il pulsante di acquisto, aggiungere il campo "piattaforma" al modulo di selezione del telefono tramite parametri, ecc.

Progettazione del sito

Se il progetto è stato eseguito secondo lo standard ISO 9241-210, il test di usabilità non dovrebbe essere un processo costoso e dispendioso in termini di tempo a causa della base analitica preparata. Le fasi principali del test di usabilità durante la progettazione di un sito Web da zero rimangono le stesse descritte sopra, ad eccezione di alcuni aspetti:
  1. Formazione di ipotesi
  2. Definizione delle metriche per i test
  3. Definire personaggi e scenari
  4. Selezione degli intervistati
  5. Compilando il questionario
  6. Formazione iniziale
  7. Test di usabilità
  8. Sondaggio degli intervistati
  9. Analisi dei risultati
  10. Determinazione dei requisiti per la progettazione del sito
Il problema principale che ho dovuto affrontare con i test di usabilità in questo caso è testare un design statico, non un sito completo. In realtà, è meglio testare un layout e persino un sito programmato, ma il costo dell'iterazione nel design sarà già elevato. Prima viene rilevato un problema nell'interfaccia, minore è il costo per risolverlo. Come condurre un test di usabilità completo di un'immagine statica? La soluzione a questo problema era il programma Axure. Il modo più economico e di maggior successo era posizionare artificialmente i collegamenti su un'immagine statica del design del sito e generarla nelle pagine HTML. Questo metodo permette di testare il sito senza spendere risorse anche sul layout. Naturalmente, non c'è quasi nessuna funzionalità nelle pagine generate, viene visualizzata solo in una certa forma, ma questo è sufficiente per identificare più problemi.

Non considero l'opzione del test di usabilità quantitativo, poiché consente di determinare l'ergonomia complessiva dell'interfaccia, ma non consente di determinare quali problemi sorgono, perché e come risolverli.

P.S. Non vedo l'ora di ricevere critiche costruttive in merito alla soluzione proposta per i test di usabilità del design di alta qualità, dal momento che non ho mai visto una soluzione del genere da nessuna parte. Se ci sono suggerimenti su quanto sia economico e allegro condurre un vero e proprio test di usabilità di alta qualità, sarò lieto di leggerlo.

Viene eseguito per trovare aree problematiche su un sito o in un prodotto. Il suo obiettivo principale è la successiva introduzione di modifiche al sito e l'avanzamento di nuove ipotesi di A/B - testing.

Hai bisogno di aumentare le conversioni sul tuo sito web? Lanci un nuovo sito Web o prodotto e hai bisogno di feedback da potenziali clienti? Allora questo articolo fa per te. Oggi parleremo di quali fasi consiste il processo di test e come eseguirlo correttamente.

6 passaggi di test di usabilità

Passaggio 1. Determinare gli obiettivi chiave della ricerca

La qualità e il risultato finale dei test di usabilità dipenderanno da quanto correttamente e accuratamente formulerai gli obiettivi di ricerca. Non dovresti esplorare tutto in una volta in un test. Ti consigliamo di scegliere un obiettivo per ogni test, questo ti aiuterà a formulare correttamente le attività per gli utenti e a ottenere più dati per l'analisi.

Cattivo esempio:

  • Lo scopo della ricerca è identificare tutti i problemi del sito.

Buon esempio:

  • Lo scopo dello studio è scoprire quanto sia facile per un utente trovare il prodotto desiderato ed effettuare un ordine.

Passaggio 2. Scegli il tuo pubblico di destinazione

Devi condurre test di usabilità su persone reali il più vicino possibile al tuo pubblico di destinazione. Inoltre, devono utilizzare il tuo sito per la prima volta (o testare un nuovo aggiornamento per la prima volta). Se una persona ha già imparato a utilizzare il sito, incontrerà molte meno difficoltà rispetto a un nuovo acquirente e troverà meno errori e problemi.

Dove trovare i tester?

Se hai un'azienda b2c e vendi prodotti o servizi a un vasto pubblico (scarpe, articoli per la casa, ecc.), ti consigliamo di utilizzare il nostro servizio di test di usabilità online Punto utente. ru, dove è presente un ampio database di tester, tra i quali puoi scegliere il tuo target di riferimento per età, sesso e qualsiasi altro parametro:

Naturalmente, se hai un pubblico molto ristretto (ad esempio, se hai un negozio online di boscaioli Chukchi), allora devi condurre un focus group alla vecchia maniera, organizzare tu stesso il processo di test, in una stanza confortevole, o utilizzare i servizi delle agenzie. Naturalmente, i test tradizionali sono molto più costosi e richiederanno decine di volte di più.

Quanti utenti devi attirare per i test?

Nel mondo accademico, questo è un vecchio argomento di controversia. Secondo una ricerca di Jacob Nielsen e Thomas Landauer, 5 utenti trovano l'85% dei problemi di usabilità, 15 utenti trovano il 100% dei problemi. La figura mostra un modello matematico per trovare problemi di usabilità presentato da Nielsen.

Ricerche più recenti e sostanziali mostrano la necessità di attirare più partecipanti. La dott.ssa Gitte Lindgaart della Carleton University ha dimostrato che la percentuale di problemi riscontrati dipende più dalla qualità dei problemi del test che dal campione. Gruppi di 5-6 utenti nella sua ricerca trovano il 30-50% dei problemi di usabilità con approcci diversi alla formulazione del problema. Per una cronologia delle ricerche e delle controversie, segui il link - Storia del numero magico 5 nei test di usabilità.

Si consiglia di eseguire test di usabilità utilizzando entrambi minimo 10 persone, inoltre, va ricordato che un indicatore altrettanto importante oltre al campione è la qualità dei compiti e delle domande poste.

Se prevedi di eseguire più iterazioni durante il processo di sviluppo del sito, dovrai reclutare un nuovo gruppo per ogni test. Questo è importante quando si calcola il budget.

Passaggio 3. Creare uno scenario e attività

Lo scenario è il percorso che l'utente percorre dall'inizio alla fine per raggiungere l'obiettivo della ricerca. In ogni fase dello script, è necessario creare attività, durante le quali le persone penseranno ad alta voce, interagendo con il tuo sito o prodotto.

Come abbiamo detto prima, non dovresti esplorare tutto in una volta in un solo test. L'opzione ideale è condurre la tua ricerca per ciascun obiettivo, creando uno scenario specifico per esso con una serie di attività. Ricorda che per i test di qualità, 15-20 minuti è il tempo ottimale per un utente per completare uno script. Inoltre, non consigliamo di eseguire più di 4-5 attività in uno scenario.

Usa diversi tipi di attività nei tuoi script

Ampio le attività sono utili quando si esamina l'usabilità e il contenuto di un sito, per osservare il comportamento naturale dell'utente.

Esempi di compiti generali:

  • Trova una borsa che ti piace.
  • Trova l'hotel giusto per la tua vacanza a Sochi il mese prossimo. Condividi i tuoi pensieri.

Specifica Le attività aiuteranno a determinare con quali strumenti gli utenti hanno problemi e difficoltà.

Esempi di compiti specifici:

  • Trova una borsa rossa per un massimo di 10.000 RUB.
  • Quando ordini un regalo, indica che desideri ritirarlo presso il punto di ritiro più vicino. Dai un'occhiata alla pagina dei risultati. Ordina gli articoli in base alle migliori recensioni.

Non eseguire compiti complessi complessi

Cattivo esempio:

  • Aggiungi l'articolo al carrello. Ora seleziona un altro prodotto e aggiungilo anche tu. Quindi, aumenta la quantità del primo articolo nel carrello. Ora fai il tuo ordine e seleziona la consegna.

Meglio fare 4 compiti diversi:

  • Aggiungi articolo al carrello.
  • Trova un altro articolo e aggiungi al carrello.
  • Aumenta la quantità del primo articolo nel carrello.
  • Effettua un ordine con consegna.

Imposta le attività da confrontare con i concorrenti

Naturalmente, il prezzo e i termini di consegna sono i fattori più importanti nella scelta di un negozio. Ma sei sicuro che il cliente abbia acquistato il prodotto da un concorrente perché costa l'1% in meno? Forse il tuo sito ispira solo meno credibilità? O forse non c'è abbastanza chat online? O è una questione di termini di consegna? Se si sospetta che il motivo sia proprio nei termini di consegna, è possibile eseguire l'attività "confrontare i termini di consegna e pagamento con il concorrente X" o anche "con i concorrenti dei primi 3 risultati di Yandex". Ci possono essere molte ragioni per scegliere un'azienda e i test di usabilità sono un ottimo modo per scoprire perché i clienti scelgono di acquistare dai siti della concorrenza.

Fai le domande giuste per i compiti

Le attività di test dell'usabilità sono necessarie per esaminare le azioni intraprese dai tester e le domande alle attività sono necessarie per raccogliere feedback. A seconda del tipo di domanda (domanda semplice, domanda a scelta multipla, scala di valutazione, feedback), puoi ottenere risultati diversi. Per ogni attività, è necessario porre le domande giuste al fine di raccogliere i dati nel modo più completo possibile per successive analisi e ipotesi qualitative.

Attività di esempio:

  • Prendi un regalo per un amico nella fascia di prezzo da 5 a 10 mila rubli sui siti xxx.ru e yyy.ru.

Esempio di domanda:

  • Su quale sito è più conveniente utilizzare i filtri prodotto?

Molto presto avremo un nuovo articolo su come comporre correttamente uno script, compiti e domande a loro. Iscriviti agli aggiornamenti del blog e non perdere informazioni utili.

Passaggio 4. Metti alla prova il tuo test

Naturalmente, è quasi impossibile trovare uno scenario ideale la prima volta, quindi esegui un test pilota per 1-2 utenti. Ciò ti consentirà di trovare ed eliminare la maggior parte delle carenze nella preparazione di compiti e domande.

L'obiettivo principale è assicurarsi che i tester comprendano correttamente i tuoi compiti e le tue domande, che non causino loro alcuna esitazione e domande aggiuntive.

Puoi procedere come segue:

  • Chiedi a qualcuno che conosci di fare un test (che non ha molta familiarità con il tuo progetto).
  • Guarda come lavora la persona con ogni compito e domanda, presta attenzione a eventuali difficoltà che hanno.
  • Modifica le attività e prova su un altro utente.

Il test di usabilità con utilizzo ti consente di eseguire rapidamente e facilmente un test su 1-2 utenti dal tuo pubblico di destinazione. Entro 1-2 giorni riceverai video, potrai modificare le attività e avviare un nuovo test per un numero maggiore di utenti.

I test pilota migliorano la qualità della tua ricerca e ti fanno risparmiare molto tempo a lungo termine.

Passaggio 5. Eseguire un test

Se lavori con UserPoint, l'intero processo (fornire ai tester il software necessario, registrare video e correggere tutti i ragionamenti della persona nel processo di completamento delle attività) viene eseguito automaticamente senza la tua partecipazione. Pertanto, non ci soffermeremo su questo passaggio in dettaglio.

Se decidi di condurre test tradizionali, ti consigliamo di familiarizzare con i materiali di uno dei pionieri dei test tradizionali, il Nielsen Norman Group.

Passaggio 6. Analizzare i risultati e avanzare ipotesi perUN/ B- test

Dopo il test, è necessario scrivere e strutturare dati quantitativi (il numero di attività completate con successo, il tempo di test, il numero di errori e problemi riscontrati) e qualitativi (quali problemi e difficoltà hanno i tester, commenti e raccomandazioni degli utenti , risposte alle vostre domande sui compiti). Ricorda che l'obiettivo finale dei test di usabilità è identificare i problemi evidenti per apportare modifiche a un sito o un prodotto e preparare ipotesi per nuovi test A/B.

Risolvi tutti i problemi

Annota in modo accurato e conciso tutti i problemi e le difficoltà che i tester hanno incontrato nel processo di completamento delle attività.

Cattivi esempi:

  • Confuso sulla navigazione.
  • Ho cliccato sul link sbagliato.

Buon esempio:

  • In fase di acquisto, ho cliccato sul link "Login", invece del link "Checkout".

Notare la gravità dei problemi.

  • critico- se non viene corretto, gli utenti non saranno in grado di completare l'attività.
  • Grave- la maggior parte degli utenti rimarrà delusa se non risolviamo il problema.
  • Insignificante- le persone sono infastidite, ma ciò non impedisce loro di completare il compito senza troppe difficoltà.

Formulare conclusioni, apportare correzioni, avanzare ipotesi per quanto segueUN/ B-test

Ogni conclusione dovrebbe essere basata sui dati ricevuti e contenere raccomandazioni su cosa fare dopo. Se il problema è critico, è necessario apportare immediatamente modifiche al sito o al prodotto. La maggior parte dei problemi richiederà ipotesi per eseguire test A/B.

Non dimenticare che non sarai in grado di seguire tutti i consigli dei tester e rendere il sito o il prodotto il più conveniente possibile per tutti, senza eccezioni. Concentrati prima sui problemi più grandi che influiscono direttamente sulle conversioni sul tuo sito.

A volte ci imbattiamo in applicazioni incomprensibili, illogiche, molte delle funzioni e delle modalità di utilizzo che spesso non sono ovvie. Dopo tale lavoro, raramente si desidera utilizzare nuovamente l'applicazione e stiamo cercando analoghi più convenienti. Perché un'applicazione sia popolare, non è sufficiente che sia funzionale, ma deve anche essere conveniente. Se ci pensi, le app intuitive consentono di risparmiare fastidio agli utenti e costi di formazione del datore di lavoro. Questo significa che sono più competitivi! Pertanto, i test di usabilità, che verranno discussi di seguito, sono parte integrante del test di qualsiasi prodotto di massa.

Test di usabilitàè un metodo di prova volto a stabilire il grado di usabilità, apprendimento, comprensibilità e attrattività per gli utilizzatori del prodotto in fase di sviluppo nel contesto di determinate condizioni. [ ISO 9126]

Il test di usabilità misura il livello di usabilità di un'applicazione nei seguenti punti:

  • produttività, efficienza (efficienza) - di quanto tempo e passaggi avrà bisogno l'utente per completare le attività principali dell'applicazione, ad esempio pubblicazione di notizie, registrazione, acquisto, ecc.? ( meno è meglio)
  • Giusto (precisione) - quanti errori ha commesso l'utente mentre lavorava con l'applicazione? ( meno è meglio)
  • attivazione della memoria (richiamare) - quanto ricorda l'utente dell'applicazione dopo la sospensione del lavoro con essa per un lungo periodo di tempo? ( la riesecuzione delle operazioni dopo un'interruzione dovrebbe essere più veloce del nuovo utente)
  • reazione emotiva (risposta emotiva) - come si sente l'utente dopo aver completato l'attività - confuso, stressato? L'utente consiglierà il sistema ai suoi amici? ( una reazione positiva è meglio)

Livelli di conduzione

I test di usabilità possono essere effettuati sia in relazione al prodotto finito, tramite black box testing, sia alle interfacce applicative (API) utilizzate in fase di sviluppo - white box testing. In questo caso viene verificata l'usabilità di oggetti interni, classi, metodi e variabili, nonché la comodità di modificare, estendere il sistema e integrarlo con altri moduli o sistemi. L'uso di interfacce user-friendly (API) può migliorare la qualità, aumentare la velocità di scrittura e mantenimento del codice sviluppato e, di conseguenza, migliorare la qualità del prodotto nel suo insieme.

Quindi, diventa ovvio che i test di usabilità possono essere eseguiti a diversi livelli di sviluppo del software: modulare, integrazione, sistema e accettazione. Allo stesso tempo, dipenderà completamente e completamente da chi utilizzerà l'applicazione a un livello specifico dedicato: uno sviluppatore, un utente aziendale del sistema, ecc.

Per la progettazione di applicazioni user-friendly, è utile seguire i principi del "bye-yoke" o fail-safe. Nel nostro paese è meglio conosciuto come "infallibile". Un semplice esempio, se un campo richiede un valore numerico, è logico limitare l'intervallo di input dell'utente ai soli numeri: ci saranno meno errori casuali.

Per migliorare l'usabilità delle applicazioni esistenti, è possibile utilizzare il ciclo Plan-Do-Check-Act Demming, raccogliendo feedback sul lavoro e sulla progettazione dell'applicazione dagli utenti esistenti e, in base ai loro commenti, pianificando e implementando miglioramenti.

Idee sbagliate sui test di usabilità

1. Test dell'interfaccia utente = Test di usabilità

Il test di usabilità non ha nulla a che fare con il test della funzionalità dell'interfaccia utente, viene eseguito solo sull'interfaccia utente e su molti altri possibili componenti del prodotto. In questo caso, il tipo di test e casi di test sarà completamente diverso, poiché possiamo parlare della comodità di utilizzare componenti non visivi (se presenti) o del processo di amministrazione, ad esempio un prodotto client-server distribuito, ecc.

2. I test di usabilità possono essere eseguiti senza un esperto

Non sempre una persona che non è esperta nell'argomento è in grado di condurlo da solo. Immagina che un tester debba testare l'usabilità di un bombardiere strategico. Dovrà controllare le funzioni di base: facilità di combattimento, navigazione, pilotaggio, manutenzione, trasporto a terra, ecc. Ovviamente, senza il coinvolgimento di un esperto, questo sarà molto problematico, e si potrebbe anche dire che è impossibile.


Il test di usabilità è un metodo per valutare l'usabilità e l'efficacia di un'interfaccia. Per la valutazione sono coinvolti i rappresentanti del pubblico di destinazione del prodotto, che lavorano con l'interfaccia, eseguendo compiti appositamente selezionati. Sulla base del comportamento degli intervistati, lo specialista dell'usabilità trae conclusioni sulla presenza di problemi di usabilità nell'interfaccia e sulla loro natura.

Perché è necessario il test di usabilità?

Come altri metodi di controllo dell'usabilità, i test sono necessari per capire cosa impedisce al tuo prodotto di essere efficace. I test di usabilità ti aiuteranno a scoprire i motivi per cui:

  • il tuo negozio online ha un basso tasso di conversione;
  • i tuoi utenti chiamano il call center con domande già presenti sul sito;
  • la tua app mobile ottiene recensioni negative su App Store e Google Play;
  • i dipendenti che lavorano con il tuo EDMS lo odiano e si lamentano che è troppo difficile lavorarci;
  • eccetera.

Avrai anche bisogno di test se vuoi:

  • confronta due interfacce, ad esempio, vecchia e nuova, la tua e una concorrente, per scoprire quale è la migliore;
  • confrontare la comodità dell'interfaccia per due gruppi di utenti, ad esempio per principianti ed esperti;
  • identificare potenziali problemi di usabilità di un nuovo prodotto ancor prima che venga immesso sul mercato;
  • valutare la conformità del prodotto a determinati KPI (ad esempio, “il processo di ordinazione non richiede più di 5 minuti”).

In che modo i test di usabilità sono diversi dai focus group?

I focus group coinvolgono sempre più intervistati contemporaneamente per discutere un argomento. Pertanto, ti consentono di raccogliere in modo efficace le opinioni degli intervistati sul prodotto, servizio, marchio e qualsiasi altro problema. Di norma, i focus group non vengono utilizzati per valutare la convenienza, poiché questo metodo fornisce poche informazioni sulle difficoltà che gli utenti incontrano quando lavorano con l'interfaccia.

Nei test di usabilità, gli intervistati partecipano uno alla volta, molto raramente in due, ma mai in un gruppo. Ciascun rispondente svolge determinate attività nell'interfaccia del servizio. L'esperto osserva il comportamento dell'intervistato e trae conclusioni su come migliorare il prodotto. Il risultato di tale studio è una descrizione dei problemi di usabilità e raccomandazioni per la loro eliminazione, basata sul comportamento e non sulle opinioni degli intervistati.

Quali tipi di test di usabilità esistono?

Utilizzando diversi criteri di classificazione, esistono diversi tipi di test. Nella nostra pratica, li usiamo tutti.

A seconda del grado di partecipazione del moderatore (analista UX):

  • moderato: il moderatore assegna compiti, monitora i progressi della loro attuazione, pone domande di chiarimento;
  • non moderato: un servizio specializzato assegna compiti, raccoglie metriche e feedback automaticamente, senza la partecipazione di un moderatore.

Una delle opzioni per il test remoto non moderato

A seconda della posizione del rispondente:

  • faccia a faccia - l'intervistato e il moderatore sono nella stessa stanza, di regola, in laboratorio e comunicano direttamente;
  • remoto - l'intervistato partecipa ai test da casa o dal posto di lavoro. In genere si tratta di test non moderati. Se è richiesta la partecipazione di un moderatore, l'analista comunica con l'intervistato tramite collegamento video.

A seconda degli obiettivi:

  • esplorativo - svolto nella fase di sviluppo del concetto di interfaccia al fine di verificare come il concetto sia generalmente comprensibile agli utenti, soddisfi le loro esigenze e aspettative;
  • verifica - viene eseguita per trovare e risolvere problemi di usabilità o valutare gli indicatori di prestazione di un prodotto finito o il suo layout (tempo dedicato alle attività, soddisfazione dell'utente, ecc.);
  • comparativo - viene effettuato per confrontare l'efficacia di una nuova e vecchia versione o di due prodotti concorrenti; richiede la partecipazione di un gran numero di intervistati al fine di trarre conclusioni statisticamente significative.

Per la maggior parte dei progetti, è appropriato eseguire test di laboratorio faccia a faccia. Ti consente di identificare i problemi chiave dell'interfaccia e raccogliere feedback dettagliati dagli intervistati. Il test remoto non moderato è una buona soluzione per confrontare le prestazioni delle due versioni dell'interfaccia, poiché raccoglie una grande quantità di dati in breve tempo, ma non fornisce una comprensione approfondita dei problemi affrontati dagli intervistati.

I nostri responsabili, anche in fase di progettazione, scoprono dal cliente quali informazioni vorrebbe ricevere a seguito del progetto, e, in base alle sue esigenze, selezionano il metodo più idoneo.

Come stanno andando i test di usabilità?

Di norma, conduciamo test di usabilità moderati faccia a faccia. Ciò significa che l'intervistato viene nel nostro laboratorio ed esegue le attività sotto la supervisione di uno specialista in usabilità.

Prima di iniziare un progetto, comunichiamo con il cliente per saperne di più sul prodotto da testare, il suo pubblico, gli obiettivi del test e le ipotesi che vorremmo testare.

Dopo aver raccolto i requisiti del progetto, l'analista UX crea uno scenario di test. Questo è un documento che contiene le istruzioni per il rispondente, un elenco delle attività da testare e le domande che il moderatore dovrebbe porre dopo aver completato ciascuna attività e dopo aver completato il test. Lo scenario viene concordato con il cliente.

Un estratto dalla sceneggiatura. Sono indicati la formulazione, i criteri per il successo dell'implementazione, le ipotesi verificabili e le domande che il moderatore porrà dopo che il rispondente avrà terminato il compito.

Parallelamente alla stesura della sceneggiatura, è in corso una ricerca degli intervistati. Di norma, queste sono 8-12 persone. Alcune aziende ci aiutano ad attirare intervistati tra i loro clienti. Se ciò non è possibile o non corrisponde agli obiettivi dello studio, stiamo cercando intervistati attraverso agenzie specializzate, ad esempio RusOpros. Diamo loro i requisiti per gli intervistati e forniscono elenchi di potenziali partecipanti al test. Allo stesso tempo, monitoriamo attentamente la qualità del reclutamento: conduciamo ulteriori chiamate agli intervistati, poniamo loro domande sull'esperienza di partecipazione a tali studi e, se l'intervistato ci sembra inadatto, lo filtriamo.

Dopo che lo scenario è stato concordato e gli intervistati sono stati trovati, inizia il processo di test. L'intervistato viene nel nostro laboratorio. Lo incontriamo, parliamo della procedura di test, quindi leggiamo i compiti prescritti nello script e osserviamo i progressi della loro implementazione. Allo stesso tempo, registriamo varie metriche di usabilità: il tempo e il successo del compito, la soddisfazione del rispondente e alcune metriche psicologiche operative sviluppate dalla nostra azienda insieme all'Istituto di Psicologia dell'Accademia Russa delle Scienze. Discutiamo il set di metriche con il cliente prima di iniziare il progetto.

Il nostro laboratorio di usabilità. Vista dalla stanza del moderatore. L'immagine dello schermo dell'intervistato è duplicata sullo schermo

Durante i test, registriamo un video, che mostra tutto ciò che accade sullo schermo dell'intervistato, il suo volto e i suoi commenti vengono ascoltati. Se necessario, possiamo utilizzare la tecnologia di eye-tracking, che fornisce ulteriori informazioni sulla natura delle difficoltà incontrate dagli intervistati.

Dopo che tutte le sessioni di test sono state completate, l'analista UX redige un report, che invia al cliente.

Quanto dura il test di usabilità?

Una sessione di test, dal momento in cui incontriamo l'intervistato fino al momento in cui lo saluta, dura circa un'ora e mezza. Di questi, la stessa procedura di test richiede circa un'ora, il resto del tempo è dedicato alla conversazione introduttiva e finale. Non ha senso prolungare le sessioni di test. Gli intervistati si stancano e commettono errori a causa della disattenzione, oppure iniziano a svolgere compiti in modo formale, il che influisce negativamente sulla qualità dei risultati.

Un tipico progetto di test di usabilità, inclusa la preparazione e la scrittura di un rapporto, richiede circa tre settimane. Tuttavia, a seconda della natura del prodotto, degli obiettivi e della complessità dei test, dei processi aziendali nell'azienda del cliente, i termini possono variare. Ad esempio, per le aziende Agile, possiamo eseguire test molto brevi che richiedono 1-3 giorni per adattarsi allo sprint. Un grande progetto di ricerca interculturale può richiedere dai tre ai quattro mesi.

L'eye-tracking fa parte dei test di usabilità?

Il nostro laboratorio dispone di apparecchiature per la registrazione dei movimenti oculari. Ma l'eye-tracking non è necessario su tutti i progetti. In genere, viene utilizzato per testare ipotesi su come gli utenti visualizzano una pagina. Ad esempio, se presumi che gli utenti non stiano facendo clic su un pulsante perché non lo notano, l'eye-tracking può aiutarti a verificare tale ipotesi.

La mappa di calore mostra come l'attenzione degli utenti è distribuita nella home page del nostro sito. La mappa di calore ottenuta per la stessa schermata avrà un aspetto diverso per compiti diversi.

Per impostazione predefinita, testiamo senza registrazione del movimento oculare. Ma puoi sempre discutere con il nostro responsabile la possibilità di aggiungere questa opzione al tuo progetto.

Cosa è incluso in un rapporto sull'usabilità?

In genere, il rapporto include:

  • informazioni sulle caratteristiche del prodotto, gli obiettivi e gli obiettivi del progetto, gli intervistati e la metodologia di test;
  • metriche di usabilità per ogni attività (se misurata);
  • una dettagliata descrizione illustrata dei problemi di usabilità riscontrati con l'indicazione della loro criticità ed insorgenza;
  • raccomandazioni per eliminare i problemi rilevati;
  • mappe di calore se abbiamo registrato i movimenti oculari durante i test.

La struttura del report può variare a seconda delle specifiche di un particolare progetto. Ad esempio, se ci sono molti problemi, aggiungiamo alla fine del rapporto un elenco di tutti i problemi, ordinati per gravità. In questo modo sarà più facile decidere cosa correggere per primo. Possiamo anche aggiungere al report una descrizione delle decisioni di successo dei concorrenti.

Come utilizzare i risultati dei test?

Desideriamo assicurarci che i risultati dei test ti siano utili e che i nostri consigli vengano implementati. Pertanto, nel rapporto, classifichiamo i problemi e le raccomandazioni in base al livello di gravità in modo da poter pianificare miglioramenti e impostare attività per gli sviluppatori. Inoltre, disponiamo di un servizio di supervisione sul campo: possiamo consigliare gli sviluppatori e controllare l'attuazione delle nostre raccomandazioni.

Vorresti che eseguissimo test di usabilità per te?

Se desideri che effettuiamo test di usabilità della tua interfaccia, lascia una richiesta sul nostro sito web. Il nostro manager ti contatterà per discutere i dettagli e scegliere il metodo migliore.

Principali articoli correlati