Metodikk · Testing · Digitale portaler

Brukertesting av digitale plattformer

En praktisk oppskrift for å avdekke hva som fungerer — og ikke minst hva som ikke gjør det — når ekte brukere møter en digital ressurs eller portal.

Som en del av Erasmus-prosjektet DiDLE utviklet vi en metodikk for systematisk brukertesting av digitale plattformer. Denne oppskriften bruker det samme rammeverket — med Kvalitetsportalen som eksempel — slik at man kan samle data, sammenligne funn og jobbe strukturert videre.

Slik gjennomføres en økt · 30 minutter · én deltaker om gangen

Observatørrollen

Sitt ved siden av testperson du har rekruttert, og ta notater. Hold interaksjonen med deltakeren på et absolutt minimum — du er fluen på veggen, ikke en guide.

«Tenke høyt»-protokoll

Be deltakeren si høyt hva de tenker, ser og forventer mens de løser oppgaven. Disse kommentarene er gull — de avslører tankegangen bak handlingene.

Ingen fasit

Forklar tydelig: det er portalen vi tester, ikke deg. Hvis de setter seg fast, ikke hjelp dem — det er nettopp disse hindrene vi er ute etter.

Steg-for-steg oppskrift

1

Planlegging og mål Før testen

A) Definer CUJs (Critical User Journeys) — beskriv de mest kritiske sekvensene av handlinger en bruker må gjennomføre for å nå et mål. En god CUJ inkluderer hvem, kontekst og hva suksess ser ut som:

Eksempel 1: Oppsett av evaluering (Emneansvarlig)
Kontekst: Det er to uker til semesterslutt og malen må klargjøres.
Reisen: Logger inn → Finner sitt emne → Legger til to egne spørsmål → Forhåndsviser på mobil → Aktiverer utsending.
Mål: Sikre at studentene får riktige spørsmål til rett tid uten teknisk bistand.
Eksempel 2: Analyse av resultater (Programleder)
Kontekst: Skal evaluere studiekvalitet på tvers av instituttet.
Reisen: Logger inn → Filtrerer alle emner på lav svarprosent → Identifiserer problemområder → Eksporterer en oppsummering til ledergruppen.
Mål: Raskt finne ut hvor det trengs tiltak før neste semesterstart.

B) Rekruttering: Finn 3 personer som representerer faktiske brukere.

  • En underviser
  • En programleder
  • En i ledelsen
Tips: En god CUJ skal føles som et kort filmmanus. Hvis reisen stopper opp underveis i testen, har dere funnet en kritisk feil i brukeropplevelsen.
2

A) Utvikling av testoppgaver Forberedelse

Oppvarming (2 min): Be brukeren se på forsiden og forklare hva de tror portalen tilbyr. Skriv ned formuleringene de bruker — de forteller deg om begrepsbruken er intuitiv.

Scenariobaserte oppgaver: Lag konkrete oppgaver med en kontekst, ikke bare instruksjoner.

B) Eksempel på oppgave «Du skal starte på en selvevaluering av ditt emne. Finn ut hvor du skal begynne.»
Unngå å bruke ord fra menyen i oppgavebeskrivelsen — da tester du om de kan lese, ikke om navigasjonen er logisk.
3

Gjennomføring og observasjon Under testen

Notatteknikk: Skriv ned nøyaktig hva som skjer i øyeblikket problemer oppstår. Direkte sitater er spesielt verdifulle — ikke parafraser.

  • Hva klikket de på? Hva forventet de å finne der?
  • Hvor lenge ble de stående? Hva sa de?
  • Hvor vendte de tilbake til?

Nøytralitet: Hvis deltakeren spør «gjør jeg det riktig?» — svar med «hva tenker du selv?». Ikke bekreft eller avkreft retning.

Etter testen: still oppfølgingsspørsmål om det som virket uklart. «Du nølte her — hva tenkte du på det tidspunktet?»
4

Analyse av funn Etter testen

Kategorisering: Grupper tilbakemeldingene under temaer. Typiske kategorier:

  • Navigasjon — fant de det de lette etter?
  • Begrepsbruk — var språket i portalen gjenkjennelig?
  • Innhold — manglet det noe de forventet å finne?

Mønstergjenkjenning: Når minst to av tre deltakere snublet på samme sted, er det et reelt problem — ikke tilfeldighet.

Se spesielt etter logiske brudd: steder der brukeren forventer en funksjon som ikke er der, eller der de leter på feil sted fordi strukturen ikke matcher mentalt modell.
5

Anbefalinger og tiltak Leveranse: Kort rapport

Prioritering: Ikke alle funn er like viktige. Sorter etter frekvens (skjedde det for mange?) og alvorlighetsgrad (hindret det brukeren helt?).

Konkrete forslag: Formuler anbefalingene som handlinger:

  • Reduser antall menynivåer fra tre til to
  • Bytt ut fagtermer med de ordene brukerne faktisk brukte
  • Gjør startpunktet for selvevaluering tydeligere på forsiden