Citera denna sida som:
-
Att välja statistisk metod
-
Först publiserad:
på:
Senast updaterad:
Om du vill informera om att denna webbsida finns...
Denna webbsida berättar om olika statistiska metoder och när man kan använda dem. Att läsa denna sidan (några gånger) kommer att ge dig en förståelse av de val man måste göra och hur man väljer statistisk metod. Du kommer sannolikt kunna välja statistisk metod för ditt eget projekt när du studerat detta en stund. Glöm inte att först gå igenom lästipsen som ger dig en grund för att förstå denna sidan.
Du förstår denna webbsida bäst om du först har läst sidorna Introduktion till statistik, Observationer och variabler, Signifikansnivå och Korrelation och regression. Att förstå sidan om Observationer och variabler är absolut nödvändig för att du skall kunna välja rätt statistisk metod så läs den sidan mer än en gång.
Statistikens fågelperspektiv

(klicka på bilden om du vill ladda ner en högupplöst bild för att använda i dina egna Powerpoint-bilder)
Statistik består av två huvuddelar; beskrivande statistik och analytisk statistik. Beskrivande statistik försöker beskriva observationerna, vanligen genom att ange ett centralmått och ett spridningsmått. Analytisk statistik försöker dra slutsatser från observationerna.
I engelskan innefattar analytisk statistik alla tekniker som syftar till att med statistiska knep dra slutsatser. Det kan inkludera både beskrivande statistik och “inferentiell statistik”, sistnämnda innebär att på matematisk väg räkna fram p-värde, effektstorlek eller mått på likhet. På svenska brukar vi inte tala om “inferentiell statistik” utan när vi använder begreppet analytisk statistik brukar vi i Sverige mena att räkna fram p-värde, effektstorlek eller mått på likhet. Det är så begreppet analytisk statistik används på denna webbplats.
Denna webbsida handlar om val av statistisk metod för den analytiska statistiken. Figuren visar ett fågelperspektiv över analytisk statistik som har två huvudinriktningar:
- Gruppjämförelser (en grupp mot ett fixt värde, matchade eller omatchade grupper) med ingen eller begränsad justering för andra faktorer.
- Sambandsanalys. Den görs alltid i en enda grupp (även om det skenbart kan se ut som flera grupper).
Parametriska eller icke-parametriska metoder?
Statistiska metoder som används inom analytisk statistik kan delas upp i parametriska respektive icke-parametriska metoder. Så när du är klar med den beskrivande statistiken är det dags att bestämma om den analytiska statistiken skall använda parametriska eller icke-parametriska metoder (följ länken och läs mer om detta innan du läser vidare här).
Parametriska test kallas de test som har vissa lite hårdare krav framför allt på hur mätvärdena skall vara fördelade. Det första och viktigaste kravet är att variablerna skall mätas med intervallskala. Dessutom kräver de att variabeln skall vara normalfördelad. Dessutom krävs om man jämför två eller fler grupper att variansen (spridningen) i de olika grupperna är ungefär lika stor. Om din variabel mäts med intervallskalan bör du undersöka om dina mätvärden uppfyller villkoren för att få använda parametriska tester.
Grundregeln är att använda parametriska metoder om dina observationer uppfyller villkoren för detta. I annat fall använd icke-parametriska metoder. Parametriska metoder är lite känsligare och har större chans att hitta vad du letar efter. Det är vanligt att man i en och samma studie analyserar vissa variabler med parametriska metoder och andra variabler med icke-parametriska.
Enkel gruppjämförelse eller analys av samvariation?
Det kan bevisas att göra en enkel gruppjämförelse eller att utvärdera samma sak med “samvariation med multifaktoriella modeller” (vanligen med någon sorts regressionsanalys) ger samma resultat. Det är faktiskt så att de flesta gruppjämförelser är egentligen bara ett specialfall av samvariation med multifaktoriella modeller. Spelar det då någon roll om jag använder statistiska metoder för gruppjämförelse eller samvariation med multifaktoriella modeller? Ja det gör det!
Det är ganska vanligt att det finns störande faktorer som påverkar resultatet vid en gruppjämförelse. Exempel på sådana störande faktorer kan vara kön, ålder, att vara rökare, att ha sockersjuka, etc. Om du använder gruppjämförelse vill du antagligen göra sub-analys av olika undergrupper för att se hur de påverkar resultatet. Detta medför några allvarliga problem:
- Du måste antagligen göra flera separata gruppjämförelser som då leder till flera p-värden (ett för varje gång du gör en gruppjämförelse). Låt oss som exempel anta att du har tre variabler där du kan utvärdera skillnad mellan grupperna. Låt oss anta att dessa utfallsvariabler är minskning i dödlighet, minskning i andelen patienter som får hjärtinfarkt och slutligen minskning i kolesterolnivå i blodet. Detta medför då tre olika p-värden (om vi använder p-värden för att visa på skillnad mellan grupperna) när vi analyserar skillnad mellan våra två grupper, ett p-värde för varje utfallsvariabel. Om vi dessutom vill göra analys av undergrupper för kön, ålder (över eller under 65 år), om patienten har sockersjuka och om de är rökare behöver vi räkna fram 3*2*2*2*2=48 p-värden. Att räkna fram många p-värden kräver justering av signifikansnivån på grund av multipel testning. Med många undergrupper blir det snabbt så att justeringen av signifikansnivån blir så stor att det blir mycket svårt, kanske omöjligt, att påvisa en skillnad mellan grupperna.
- När du delar upp i undergrupper blir antalet tillgängliga observationer i varje undergrupp mycket mindre och det ökar risken för att dina statistiska analyser har för litet antal observationer för att uppnå en rimlig statistisk styrka.
Alternativet till att göra gruppjämförelser är att använda samvariation med multifaktoriella modeller. Du kan då ta med alla relevanta variabler i en enda statistisk körning som omfattar samtliga observationer. Du gör då en separat analys för var och en av utfallsvariablerna (utfallsvariablerna kallas i den beräkningen beroende variabel). Alla andra variabler såsom kön, ålder, sockersjuka och rökning samt grupptillhörighet tas med som oberoende variabler. I ovanstående exempel innebär det framräknande av 3*(1+1+1+1+1)=15 mått (såsom p-värden eller odds ratio, etc) på vad som betyder något i gruppjämförelsen. Storleken på justeringen av signifikansnivån som du måste göra för att producera 15 mått (exempelvis p-värden) är mycket mindre jämfört med om du räknar fram 48 mått. Dessutom har du kunnat använda hela materialet, något som inte går om du analyserar flera undergrupper var för sig.
Slutsatsen är att använd enkel gruppjämförelse med ingen justering för andra faktorer om du inte har något behov av att justera för andra faktorer. Detta inträffar bara i väl genomförda randomiserade kontrollerade studier. I alla andra situationer (och även ibland när du har gjort en randomiserad kontrollerad studie) så är det mycket bättre att göra gruppjämförelse genom att analysera samvariation med multifaktoriella modeller. Detta är speciellt viktigt när man jämför grupper genom historiskt insamlade data, så kallade retrospektiva studier (exempelvis journalgranskningar som görs i efterhand) där störande faktorer alltid finns.
Viktiga aspekter att beakta i olika situationer
Randomiserade kontrollerade studier (RCT)
Huvudsyftet med randomisering till olika grupper är att minska risken för systematiska felkällor. Huvudsyftet med randomisering är inte att skapa grupper som är lika, även om randomisering oftast har den önskade bieffekten. Det är viktigt att förstå att en skillnad mellan grupper kan uppstå även om individerna fördelas slumpmässigt (randomiseras) till de olika grupperna. Om en skillnad mellan grupperna uppstår kan man dels fråga varför (läs mer om detta på sidan om randomisering) och dels kan man överväga att justera för detta genom att göra gruppjämförelsen med samvariation med multifaktoriella modeller. Om du använder samvariation med multifaktoriella modeller låter du grupptillhörighet vara en av de oberoende variablerna medan de variabler där grupperna skiljer sig åt i baseline (första mätningen) också tas med som oberoende variabler.
Dikotoma tester för screening eller diagnostik
Normalt behövs en “Gold standard” (=referensmetod) för att utvärdera ett nytt test med sensitivitet, specificitet, sannolikhetskvot eller prediktiva värden. Gold standard är en accepterad referensmetod som förhoppningsvis också ger ett bra mått på det sanna värdet som skall mätas.
Sensitivitet och specificitet talar om hälsotillståndet hos det test du vill utvärdera, något som är mycket intressant för de som utvecklar och tillverkar tester. Sannolikhetskvot talar om hur mycket information testet tillför, något som är av intresse för de som utvecklar nya riktlinjer. Prediktiva värden informerar om hälsotillståndet hos patienten och det är mycket mer intressant för sjukvårdspersonal.
Det är vanligt att det test vi vill utvärdera mäter något som inte nödvändigtvis innebär att individen är sjuk. Exempelvis kan man bära bakterier men en sjukdom kan bero på något annat, exempelvis ett virus. Vi måste alltså förstå att i vissa fall är det en skillnad mellan att påvisa närvaro av en bakterie och att försöka bevisa att personen är sjuk av just den bakterien. Titta gärna på denna presentation som försöker exemplifiera detta:
(Nedanstående video är på engelska. Om du har svårt att förstå engelska kan du få svensk text genom starta videon, sedan klicka på kugghjulsikonen, sedan klicka på Subtitles, klicka sedan på auto-translate och välj svenska. Detta fungerar någorlunda bra men det blir en del felaktigheter i översättningen).
För varje test som skall utvärderas bör man diskutera vad är det egentligen som gold standard påvisar, är det närvaro av en markör eller närvaro av en sjukdom.
Antag att vi vill jämföra ett nytt väldigt bra test med en etablerad referensmetod (som vi utnämner till gold standard). Om det nya testet är bättre än vårt referenstest kommer det nya testet att felaktigt verka som dåligt. Skälet är att varje gång det nya testet och referensmetoden inte stämmer överens klassas det som ett fel hos det nya testet fast det i verkligheten kanske är tvärtom. Kom alltså ihåg att alltid ifrågasätta om referensmetoden verkligen är lika bra eller bättre än det test man vill utvärdera.
Fall-kontroll eller kohortstudier
Detta görs ibland som eftergranskning av patientjournaler och man vill veta om ett sätt att handlägga patienter är bättre eller sämre än ett annat sätt. Låt oss diskutera ett exempel: Vid operation av njursten används antingen öppen kirurgi, titthålskirurgi eller stötvågsbehandling (det finns fler metoder men för diskussionens skull håller vi oss till dessa tre). Någon har fått i uppgift att titta på hur det har gått för patienter som opererades på det ena eller andra sättet . Detta är inte en randomiserad kontrollerad studie och detta är huvudproblemet. Konsekvensen i detta exempel är att vi jämför tre grupper av patienter som inte är jämförbara. Skillnader i resultat kan mycket väl bero på skillnader mellan grupperna istället för skillnader i effekten av de olika behandlingarna.
Eftergranskning av journaler eller databaser som innehåller information om patienter används ibland i syftet att jämföra olika behandlingar. Det är viktigt och komma ihåg att det då nästan alltid finns störande faktorer som man bör ta hänsyn till genom att göra gruppjämförelser med samvariation med multifaktoriella modeller. En specialvariant av sistnämnda är “propensity score matching“.
Samvariation med multifaktoriella modeller
Det är vanligt att man vill förutsäga risken för att något skall hända. Det kan exempelvis handla om förändrad livskvalitet, att en sjukdom skall uppstå eller bli försämrad eller om död. Du gör då en körning av en statistisk metod för varje utfallsvariabel du har (kallas ofta beroende variabel). Du undersöker då hur ett antal oberoende variabler korrelerar till din utfallsvariabel. Om din utfallsvariabel är dikotom (typ 0/1, eller sjuk / frisk) vill du antagligen använda logistisk regression. Om din utfallsvariabel är tid till något (exempelvis försämring/förbättring eller död) vill du antagligen använda Cox regression.
Att använda samvariation med multifaktoriella modeller är ett bra alternativ till att göra fall-kontroll studier. Grupptillhörighet blir då en av flera oberoende variabler. Tolkningen av samband blir att det finns en “samvariation” snarare än orsak-verkan. Sistnämnda kräver ofta randomiserade kontrollerade studier för att fastställas.
Generalized Linear Mixed Models (GLMM)
Många statistikprogram har en funktion som kallas “Generalized Linear Mixed Model (GLMM)” (eller något liknande). Nedan nämns detta i flera situationer. Du kan läsa mer om vad detta är på sidan om Modeller med blandade effekter. Där förklaras även begreppet random effect.
Specifika råd för att välja statistisk metod
Samvariation
Samvariation analyseras nästan alltid med någon form av regressionsanalys. I regressionsanalyser talar man om beroende och oberoende variabler. Man letar efter hur stor del av variationen i den beroende variabeln som förklaras av variationer i de oberoende variablerna. I de flesta regressionsanalyser har man en enda beroende variabel som undersöks tillsammans med en eller flera oberoende variabler. Det är vanligt att man undersöker vad som samvarierar med flera beroende variabler men då undersöker man nästan alltid en beroende variabel i taget.
Det finns väldigt komplicerade statistiska analyser som samtidigt utvärderar vad som samvarierar med flera beroende variabler. Man kan också analysera vad som samvarierar med en virtuell beroende variabel (en tänkt beroende variabel som man tror finns men som inte direkt går att mäta).
Samvariation med en beroende variabel
Enkel samvariation utan att bygga multifaktoriella modeller
Här handlar det om att se hur två variabler (en beroende och en oberoende) samvarierar. När det bara är två variabler brukar man sällan tala om vilken som är beroende respektive oberoende variabel. Så fort det är mer än två variabler inblandade blir det multifaktoriella modeller. Förslag på lämpliga statistiska test ges i tabellen nedan:
| Mätskala | Beskrivning | Typ av tester | Lämpliga tester | Kommentar |
|---|---|---|---|---|
| Nominalskala | Båda variablerna kan bara anta två värden vardera (dikotom variabel). | Icke parametriskt | Oddskvot | Används ofta |
| Binär logistisk regression | Bara ett annat sätt att räkna ut oddskvot. Det ger samma svar som om du räknar oddskvot på vanligt enkelt sätt. | |||
| Relativ risk | Används ofta | |||
| Phi coefficient | ||||
| Craemer’s Phi koefficient = Craemer’s V index | ||||
| Yule coefficient of association = Yule’s Q | Ovanligt | |||
| Nominalskala | Minst en av variablerna kan anta >2 värden vardera. | Icke parametriskt | Craemer’s Phi koefficient = Craemer’s V index | |
| Nominalskala & ordinal | En av variablerna mäts enligt nominalskalan och är dikotom. Den andra mäts enligt ordinalskalan eller enligt intervall/kvotskalan men är då snedfördelad. | Parametriskt | Binär logistisk regression | |
| Nominalskala & intervall | En av variablerna mäts enligt nominalskalan och är dikotom. Den andra mäts enligt intervall/kvotskalan och är normalfördelad. | Parametriskt | Eta kvadrat (Eta squared) | Detta är sambandsanalysens motsvarighet till gruppjämförelsens one-way ANOVA. |
| Ordinalskala | Båda variablerna mäts med ordinalskala | Icke parametriskt | Spearmann’s rangkorrelation | Används ofta |
| Gamma coefficient = Gamma statistic = Goodman and Kruskal’s gamma | Ovanligt | |||
| Kendall’s coefficient of concordance = Kendall’s tau | Ovanligt | |||
| Somer’s D | Ovanligt | |||
| Intervallskala | Åtminstone en av variablerna är snedfördelad. | Icke parametriskt | Spearmann’s rangkorrelation | Används ofta |
| Båda variablerna är normalfördelade. | Parametriskt | Pearson’s korrelation | Används ofta | |
| Kvotskala | En av variablerna är tid till en händelse. | Cox regression | Används ofta | |
| Icke-negativa heltal (noll eller högre) | Poisson regression | Används ofta | ||
| Negativ binomial regression | Bra om villkoren för Poisson regression inte uppfylls. | |||
| Zero inflated models (finns ingen bra svensk översättning) | Lämpligt om det finns många observationer med värdet noll. |
Avancerad samvariation med multifaktoriella modeller
Här har vi mer än två variabler. Man utnämner då alltid en av dem till beroende variabel och de övriga kallas då oberoende variabler. En del av de metoder som omnämns i ovanstående tabell används också när vi har mer än en oberoende variabel. Det finns alltså både likheter och skillnader mellan ovanstående tabell och den som kommer närmast nedan.
| Mätskala för beroende variabeln | Beskrivning | Typ av tester | Lämpliga tester | Kommentar |
|---|---|---|---|---|
| Nominalskala | Beorende variabeln kan bara anta två värden (dikotom variabel). | Parametriskt | Omatchad logistisk regression | Används ofta |
| Icke parametriskt | (Mantel-Haenszels stratifierade analys) | Endast om alla oberoende variabler är dikotoma. Logistisk regression är alltid ett bättre alternativ. | ||
| “Semi-parametriskt” | Propensity score matching (PSM) | Används mestadels när man vill göra gruppjämförelse mellan grupper fast det finns mängder av konfunderande variabler man behöver ta hänsyn till. PSM är egentligen ingen statistisk metiod utan en förberedande procedur för att förbereda materialet för statistisk testning. | ||
| Beroende variabeln kan anta >2 värden. | Parametriskt | Multinominal logistic regression = multiclass logistic regression | ||
| “Semi-parametriskt” | Propensity score matching | Med hjälp av olika knep kan man få propensity score matching att fungera med >2 grupper i den beroende variablen. | ||
| Ordinalskala | Parametriskt | Ordinal regression = Ordered logistic regression | ||
| Omatchad logistisk regression | Som alternativ kan man introducera en cut-off och istället använda vanlig logistisk regression. | |||
| Intervallskala | Den beroende variabeln kan vara vad som helst så länge den mäts med intervallskala och är normalfördelad. | Linjär regression = Linear regression | Används ofta. Detta kallas även “kovariansanalys” = “analysis of covariance (ANCOVA)” om minst en av de oberoende variablerna är dikotom. | |
| Omatchad logistisk regression = Unconditional binary logistic regression | Som alternativ kan man introducera en cut-off och istället använda vanlig logistisk regression. | |||
| Mixed linjär regression | Blandar “fixed effects” och “random effects”. Används ibland vid flernivåanalys. | |||
| “Semi-parametriskt” | Propensity score matching | (Se kommentar ovan) | ||
| Kvotskala | Tid till en händelse. | Parametriskt | Cox regression = proportional hazards regression | Används ofta |
| Den beroende variabeln är ett icke-negativa heltal (noll eller högre). | Poisson regression | Används ofta. | ||
| Negativ binomial regression | Bra om villkoren för Poisson regression inte uppfylls. | |||
| Negativ binomial regression | Lämpligt om det finns många observationer i den beroende variabeln med värdet noll. |
Samvariation med flera beroende variabler
Detta är avancerad statistik. Exempel är faktoranalys eller multivariat probit analys.
Samvariation med virtuell beroende variabel
Detta är avancerad statistik. Exempel är faktoranalys
Enkel gruppjämförelse (ej justering för andra faktorer)
Något mätvärde jämförs mellan grupperna. Detta mätvärde har olika namn såsom: resultatvariabel, utfallsvariabel, utfallsmått eller beroende variabel. Om man dessutom vill justera för andra konfounders använder man “Avancerad samvariation med multifaktoriella modeller” (se ovan) och då kallas grupptillhörighet och konfounders för oberoende variabler.
- Fastställ hur många variabler (faktorer) används för att indela deltagarna/observationerna i grupper:
-Noll-faktor design: Inga variabler används för gruppindelning. En enda grupp jämförs då med ett fastställt målvärde. Alternativt görs en före-efter-jämförelse i en enda grupp.
-En-faktor design: Här används en variabel (faktor) för att indela observationer/deltagare i grupper. Oftast indelas observationerna/deltagarna i två grupper (men det kan vara fler). Detta är den vanligaste gruppjämförelsen.
-Två-faktor design: Om två faktorer (exempelvis olika behandlingar som en faktor och olika timing/initierande av behandling som en annan faktor) används för att indela observationer/deltagare i grupper. Om varje faktor som indelar observationerna/deltagarna i grupper hade två alternativ vardera skulle vi få en två-faktor design med fyra grupper. Det skulle fortfarande vara en två-faktor design om varje faktor som kopplas till gruppindelning hade tre alternativ vardera men då skulle vi få en två-faktor design med nio grupper.
-N-factor design: Det finns studier där man har fler än två faktorer som styr gruppindelning. Dessa studier är komplicerade och därför mycket ovanliga. - Om du har åtminstone två grupper (åtminstone en en-faktor design) så klarlägg om grupperna är matchade eller omatchade.
- Klarlägg vilka mätskalor som är lämplig för dina variabler. Detta påverkar valet av statistisk metod.
- Om intervall- eller kvotskalan används för en del variabler är dessa observationer normalfördelade? Om svaret är ja kan du använda parametriska statistiska metoder, annars får du välja icke-parametriska metoder..
- Om nominalskalan används för resultatvariabeln har resultatvariabeln bara två alternativ (dikotom variabel) eller finns fler alternativ?
Enkel gruppjämförelse – Nollfaktordesign (Zero factor design)
| Mätskala för resultatvariabeln | Beskrivning | Typ av tester | Lämpliga tester | Kommentar |
|---|---|---|---|---|
| Nominalskala | Beorende variabeln kan bara anta två värden (dikotom variabel). | Icke parametriskt | Chi-två test | Används ofta. Kräver minst 5 observationer i varje cell |
| (Parametriskt) | Z-test | |||
| Beroende variabeln kan anta >2 värden. | Icke parametriskt | Chi-två test | Används ofta. Kräver minst 5 observationer i varje cell | |
| Ordinalskala | Teckenrangtest = Wilcoxon one sample signed rank sum test | |||
| Intervallskala | Beoende variabeln uppfyller inte villkoren för parametriska statistiska test (oftast snedfördelning av observationerna). | Teckenrangtest = Wilcoxon one sample signed rank sum test | ||
| Parametriskt | Z-test | |||
| Beoende variabeln uppfyller villkoren för parametriska statistiska test (oftast normalfördelning av observationerna) | Student’s t-test – one sample t-est | Används ofta. | ||
| Z-test | T-test (ovan) är känsligare och bör användas i första hand om villkoren för det testet uppfylls. | |||
| Kvotskala | Tid till en händelse. | —– | Kaplan-Meyer kurva | Detta är inte ett statistiskt test utan bara en grafisk representation av förändring över tid. |
| Resultatvariabeln är räknedata (oftast icke negativa heltal – noll eller högre). | Parametriskt | Mixed Poisson regression | “Mixed Poisson regression” är en “Generaliserad Linjär Mixad Modell (GLMM)” som använder Poisson-familjen. Du skapar en ny variabel som är ett unikt ID för varje individ. Du talar sedan om att programmet skall betrakta denna variabel som en slumpvariabel (“random effect variabel”). | |
| Mixed negativ binomial regression | Som ovan men “Mixed negativ binomial regression” används istället för Poisson regression. Bra om villkoren för Poisson regression inte uppfylls. | |||
| Mixed zero inflated models (finns ingen bra svensk översättning) | Som ovan men “Mixed zero inflated model” används istället för Mixed Poisson regression. Lämpligt om det finns många observationer av resultatvariabeln med värdet noll. |
Enkel gruppjämförelse – Enfaktordesign
Enkel gruppjämförelse – Enfaktordesign 2 omatchade grupper
| Mätskala för resultatvariabeln | Beskrivning | Typ av tester | Lämpliga tester | Kommentar |
|---|---|---|---|---|
| Nominalskala | Resultatvariabeln kan bara anta två värden (dikotom variabel). | Icke parametriskt | Chi-två test | Kräver minst 5 observationer i varje cell. Om du har färre gör på Fisher’s exakta test istället. |
| Fisher’s exakta test | Har i princip inga krav på minsta antal. ger liknande (men mer exakt) svar som chi-två. | |||
| Resultatvariabeln kan anta >2 värden. | Chi-två test | Används ofta. Kräver minst 5 observationer i varje cell | ||
| Ordinalskala | Resultatvariabeln mäts med ordinalskala | Mann-Whitney’s test = Wilcoxon two unpaired test = Rank sum test | Mycket vanligt test | |
| Kruskal-Wallis test | Kan jämföra >2 grupper. Vid bara 2 grupper får man samma resultat som Mann-Whitney’s test. Detta är den icke parametriska motsvarigheten till one way ANOVA. | |||
| Fisher’s permutation test | ||||
| Mantel-Haenszels stratifierade analys | ||||
| Intervallskala | Resultatvariabeln som uppfyller inte villkoren för parametriska statistiska test (oftast snedfördelning av observationerna). | Mann-Whitney’s test = Wilcoxon two unpaired test = Rank sum test | Mycket vanligt test. | |
| Kruskal-Wallis test | Kan jämföra >2 grupper. Vid bara 2 grupper får man samma resultat som Mann-Whitney’s test. Detta är den icke parametriska motsvarigheten till one way ANOVA. | |||
| Mantel-Haenszels stratifierade analys | ||||
| Fisher’s permutation test | ||||
| Parametriskt | Z-test | |||
| Resultatvariabeln uppfyller villkoren för parametriska statistiska test (oftast normalfördelning av observationerna) | Student’s t-test – two sample unpaired t-est | Mycket vanligt test. | ||
| Envägs variansanalys = One way analysis of variance | ||||
| Cohen’s d | ||||
| Z-test | T-test (ovan) är känsligare och bör användas i första hand om villkoren för det testet uppfylls. | |||
| Kvotskala | Resultavariabeln är tid till en händelse. Detta är ett specialfall av intervall- eller kvotskala. | —– | Kaplan-Meyer kurvor | Detta är inte ett statistiskt test utan bara en grafisk representation av förändring över tid. |
| Icke parametriskt | Log rank test = Mantel–Cox test = time-stratified Cochran–Mantel–Haenszel test | Log rank test används om man har två omatchade grupper och inget behov av att justera för andra störande faktorer. | ||
| Parametriskt | Cox regression | Cox proportional hazards regression används om man vill jämföra omatchade grupper och dessutom justera för störande faktorer (justering blir då avancerad gruppjämförelse – en variant av samvariation). | ||
| Resultatvariabeln är ett icke-negativa heltal (noll eller högre). | Poisson regression | Används ofta. Låt variabeln som beskriver grupptillhörighet bli den oberoende variabeln. | ||
| Negativ binomial regression | Bra om villkoren för Poisson regression inte uppfylls. | |||
| Zero inflated models (finns ingen bra svensk översättning) | Lämpligt om det finns många observationer i den beroende variabeln med värdet noll. |
Enkel gruppjämförelse – Enfaktordesign 2 matchade grupper
| Mätskala för resultatvariabeln | Beskrivning | Typ av tester | Lämpliga tester | Kommentar |
|---|---|---|---|---|
| Nominalskala | Resultatvariabeln kan bara anta två värden (dikotom variabel). | Icke parametriskt | Teckentest | Teckentest och McNemars test är delvis utbytbara men teckentest är ofta lite bättre. |
| McNemar’s test | Se ovan | |||
| Stuart-Maxwells test | Stuart-Maxwells test kan även användas om du har >2 matchade grupper. | |||
| Resultatvariabeln kan anta >2 värden. | —– | Denna situation uppstår sällan. Skulle det inträffa bör skalan göras om till dikotom skala eller ordinalskala. | ||
| Ordinalskala | Resultatvariabeln mäts med ordinalskala | Icke parametriskt | Teckentest | Används ofta |
| Fisher´s parade permutationstest = Fisher-Pitman’s permutationstest för parade data | ||||
| Intervallskala | Resultatvariabeln är en intervallskala som inte uppfyller villkoren för parametriska statistiska test (oftast snedfördelning av observationerna). | Teckentest | Används ofta | |
| Fisher´s parade permutationstest = Fisher-Pitman’s permutationstest för parade data | ||||
| Parametriskt | Z-test | |||
| Resultatvariabeln är en intervallskala som uppfyller villkoren för parametriska statistiska test (oftast normalfördelning av observationerna) | Student’s t-test – one sample unpaired test = Student’s t-test paired t-test | Mycket vanligt test. Klarar bara två matchade grupper. | ||
| (Z-test) | ||||
| Mixed linjär regression | “Mixed linjär regression” är en “Generaliserad Linjär Mixad Modell (GLMM)”. Du skapar en ny variabel som är ett unikt ID för varje par. Du talar sedan om att programmet skall betrakta denna variabel som en slumpvariabel (“random effect variabel”). | |||
| Kvotskala | Resultavariabeln är tid till en händelse. | Icke parametriskt | Stratifierat log rank test | Stratifierat log rank test används om man har två matchade grupper och inget behov av att justera för andra störande faktorer. Egentligen kan det vara bättre att gå direkt på micad Cox regression (se raden nedan). |
| Resultatvariabeln är räknedata (oftast icke negativa heltal – noll eller högre) | Parametriskt | Mixed Cox regression | Mixed Cox proportional hazards regression används om man vill jämföra matchade grupper och dessutom justera för störande faktorer. (justering blir då avancerad gruppjämförelse – en variant av samvariation) | |
| Mixed Poisson regression | Mixed Poisson regression är en “Generaliserad Linjär Mixad Modell (GLMM)” som använder Poisson-familjen. Du skapar en ny variabel som är ett unikt ID för varje par. Du talar sedan om att programmet skall betrakta denna variabel som en slumpvariabel (“random effect variabel”). | |||
| Mixed negativ binomial regression | Som ovan men Mixed negativ binomial regression används istället för Poisson regression. Bra om villkoren för Poisson regression inte uppfylls. | |||
| Mixed zero inflated models (finns ingen bra svensk översättning) | Som ovan men Mixed zero inflated model används istället för Mixed Poisson regression. Lämpligt om det finns många observationer av resultatvariabeln med värdet noll. |
Enkel gruppjämförelse – Enfaktordesign >2 omatchade grupper
| Mätskala för resultatvariabeln | Beskrivning | Typ av tester | Lämpliga tester | Kommentar |
|---|---|---|---|---|
| Nominalskala | Resultatvariabeln kan bara anta två värden (dikotom variabel). | Icke parametriskt | Chi två test | Kräver minst 5 observationer i varje cell. |
| Resultatvariabeln kan anta >2 värden. | Chi två test | |||
| Ordinalskala | Resultatvariabeln mäts med ordinalskala | Kruskal-Wallis test | Detta är den icke parametriska motsvarigheten till one way ANOVA. (Kan jämföra >2 grupper. Vid bara 2 grupper får man samma resultat som Mann-Whitney’s test.) | |
| Intervallskala | Resultatvariabeln är en intervallskala som inte uppfyller villkoren för parametriska statistiska test (oftast snedfördelning av observationerna). | Kruskal-Wallis test | ||
| Resultatvariabeln är en intervallskala som uppfyller villkoren för parametriska statistiska test (oftast normalfördelning av observationerna) | Parametriskt | Envägs variansanalys = One way analysis of variance | One way ANOVA används om det är fler än två omatchade grupper i ett enfaktorförsök. (Om det bara är två omatchade grupper får man samma resultat med “Student’s t-test – two sample unpaired test”.) | |
| Linjär regression | Låt grupptillhörighet bli den oberoende variabeln. | |||
| Kvotskala | Resultavariabeln är tid till en händelse. | —– | Kaplan Meyer kurva | Detta är inte ett statistiskt test utan bara en grafisk representation av förändring över tid. |
| Resultavariabeln är tid till en händelse. Detta är ett specialfall av intervall- eller kvotskala. | Icke parametriskt | Log rank test | Log rank test används om man har omatchade grupper (i ett enfaktorförsök) och inget behov av att justera för andra störande faktorer. | |
| Semi parametriskt | Cox regression | Cox proportional hazards regression används om man vill jämföra omatchade grupper och dessutom justera för störande faktorer. (justering blir då avancerad gruppjämförelse – en variant av samvariation) | ||
| Resultatvariabeln är räknedata (oftast icke negativa heltal – noll eller högre) | Parametriskt | Poisson regression | Används ofta. Låt variabeln som beskriver grupptillhörighet bli den oberoende variabeln. | |
| Negativ binomial regression | Bra om villkoren för Poisson regression inte uppfylls. | |||
| Zero inflated models (finns ingen bra svensk översättning) | Lämpligt om det finns många observationer i den beroende variabeln med värdet noll. |
Enkel gruppjämförelse – Enfaktordesign >2 matchade grupper
| Mätskala för resultatvariabeln | Beskrivning | Typ av tester | Lämpliga tester | Kommentar |
|---|---|---|---|---|
| Nominalskala | Resultatvariabeln kan bara anta två värden (dikotom variabel). | Icke parametriskt | Stuart-Maxwells test | Motsvarar McNemars test men klarar >2 matchade grupper |
| Resultatvariabeln kan anta >2 värden. | —– | —– | (Denna situation uppstår förmodligen aldrig. Skulle det inträffa bör skalan göras om till dikotom skala eller ordinalskala) | |
| Ordinalskala | Resultatvariabeln mäts med ordinalskala | Icke parametriskt | Friedman´s test | Enfaktorförsöket omvandlas till ett tvåfaktorförsök genom att grupperna betraktas som en variabel och individerna som en annan. Analysera sedan med Friedmann’s test som om det vore ett tvåfaktorförsök. |
| Intervallskala | Resultatvariabeln uppfyller inte villkoren för parametriska statistiska test (oftast snedfördelning av observationerna). | Friedman´s test | ||
| Resultatvariabeln är uppfyller villkoren för parametriska statistiska test (oftast normalfördelning av observationerna) | Parametriskt | Två-vägs-ANOVA | ||
| Mixed linjär regression | Nyckeln här är att använda en “Generaliserad Linjär Mixed Modell (GLMM)”. Inkludera den variabel som styr gruppindelningen som oberoende variabel. Du kan sedan lägga till fler oberoende variabler som du vill justera för, t.ex. kön, ålder, etc. (justeringen blir då en avancerad gruppjämförelse – en variant av kovariation). Du skapar också en ny variabel som är ett unikt ID för varje block som använts för att fördela individer till de matchade grupperna. Ange för programvaran att denna variabel ska behandlas som en slumpmässig effekt. Du talar också om för programvaran vilken typ av regression som ska användas: ordinal, vanlig linjär, Cox, Poisson etc. | |||
| Kvotskala | Resultavariabeln är tid till en händelse. | Mixed Cox regression | ||
| Resultatvariabeln är räknedata (oftast icke negativa heltal – noll eller högre) | Mixed Poisson regression | |||
| Mixed negativ binomial regression | Som ovan men “Mixed negativ binomial regression” används istället för Poisson regression. Bra om villkoren för Poisson regression inte uppfylls. | |||
| Mixed zero inflated models | Som ovan men “Mixed zero inflated model” används istället för Mixed Poisson regression. Lämpligt om det finns många observationer av resultatvariabeln med värdet noll. |
Enkel gruppjämförelse – Tvåfaktordesign
Tvåfaktordesign innebär att man har två variabler för gruppindelning. Ett exempel kan vara att den ena är behandlingstilldelning och den andra är tidpunkt för behandlingsstart. Om var och en av dessa faktorer (variabler) är binära innebär det att man får fyra grupper.
Enkel gruppjämförelse – tvåfaktordesign omatchade grupper
| Mätskala för resultatvariabeln | Beskrivning | Typ av tester | Lämpliga tester | Kommentar |
|---|---|---|---|---|
| Nominalskala | Resultatvariabeln kan bara anta två värden (dikotom variabel). | Parametriskt | Omatchad logistisk regression = Unconditional binary logistic regression | Inkludera variablerna som styr gruppindelning och låt dem vara med som oberoende variabler (det blir minst 2 variabler för detta). Du kan sedan lägga till fler oberoende variabler som du vill justera för, ex vis kön, ålder, etc. (justering blir då avancerad gruppjämförelse – en variant av samvariation) |
| Resultatvariabeln kan anta >2 värden. | Multinominal logistic regression =multiclass logistic regression | |||
| Ordinalskala | Resultatvariabeln mäts med ordinalskala | Ordnad regression = Ordered logistic regression | ||
| Icke parametriskt | Friedman’s test | |||
| Intervallskala | Resultatvariabeln uppfyller inte villkoren för parametriska statistiska test (oftast snedfördelning av observationerna). | Friedman´s test | ||
| Parametriskt | Ordnad regression = Ordered logistic regression | Inkludera variablerna som styr gruppindelning och låt dem vara med som oberoende variabler (det blir minst 2 variabler för detta). Du kan sedan lägga till fler oberoende variabler som du vill justera för, ex vis kön, ålder, etc (justering blir då avancerad gruppjämförelse – en variant av samvariation) | ||
| Resultatvariabeln uppfyller villkoren för parametriska statistiska test (oftast normalfördelning av observationerna) | Två-vägs-ANOVA | En bättre metod än tvåvägs ANOVA är att använda linjär regression (se nedan), där grupptillhörighet blir oberoende variabler (detta kräver minst två variabler). Du kan då också justera för andra kovariater. | ||
| Linjär regression = Linear regression | Inkludera variablerna som styr gruppindelning och låt dem vara med som oberoende variabler (det blir minst 2 variabler för detta). Du kan sedan lägga till fler oberoende variabler som du vill justera för, ex vis kön, ålder, etc (justering blir då avancerad gruppjämförelse – en variant av samvariation) | |||
| Kvotskala | Resultavariabeln är tid till en händelse. Detta är ett specialfall av intervall- eller kvotskala. | Semi parametriskt | Cox regression | |
| Resultatvariabeln är räknedata (oftast icke negativa heltal – noll eller högre) | Parametriskt | Poisson regression | ||
| Negativ binomial regression | Bra om villkoren för Poisson regression inte uppfylls. | |||
| Zero inflated models (finns ingen bra svensk översättning) | Lämpligt om det finns många observationer i den beroende variabeln med värdet noll. |
Enkel gruppjämförelse – tvåfaktordesign matchade grupper
| Mätskala för resultatvariabeln | Beskrivning | Typ av tester | Lämpliga tester | Kommentar |
|---|---|---|---|---|
| Nominalskala | Resultatvariabeln kan bara anta två värden (dikotom variabel). | Parametriskt | Mixed logistisk regression | Nyckeln här är att använda en “Generaliserad Linjär Mixed Modell (GLMM)”. Inkludera de variabler som styr gruppindelningen som oberoende variabler (detta kommer att kräva minst 2 variabler). Du kan sedan lägga till fler oberoende variabler som du vill justera för, t.ex. kön, ålder, etc. (justeringen blir då en avancerad gruppjämförelse – en variant av kovariation). Du skapar också en ny variabel som är ett unikt ID för varje block som använts för att fördela individer till de matchade grupperna. Ange för programvaran att denna variabel ska behandlas som en slumpmässig effekt. Du talar också om för programvaran vilken typ av regression som ska användas: ordinal, vanlig linjär, Cox, Poisson etc. |
| Resultatvariabeln kan anta >2 värden. | Mixed multinominal logistisk regression = Mixed multiclass logistisk regression | |||
| Ordinalskala | Resultatvariabeln mäts med ordinalskala | Mixed ordnad regression | ||
| Intervallskala | Resultatvariabeln uppfyller inte villkoren för parametriska statistiska test (oftast snedfördelning av observationerna). | Mixed ordnad regression | ||
| Resultatvariabeln uppfyller villkoren för parametriska statistiska test (oftast normalfördelning av observationerna) | Mixed linjär regression | |||
| Kvotskala | Resultavariabeln är tid till en händelse. | Mixed Cox regression | ||
| Resultatvariabeln är räknedata (oftast icke negativa heltal – noll eller högre) | Mixed Poisson regression | |||
| Mixed negativ binomial regression | ||||
| Mixed zero inflated models (finns ingen bra svensk översättning) |
Utvärdera likhet
Typexemplet är att man vill utvärdera tester som används för screening eller diagnostik.
| Mätskala för resultatvariabeln | Beskrivning | Typ av tester | Lämpliga tester | Kommentar |
|---|---|---|---|---|
| Nominalskala | Resultatvariabeln kan bara anta två värden (dikotom variabel). | Icke parametriskt | Kappakoefficient | |
| Sensitivitet och specificitet | Talar om hur det testet mår. Bra för tillverkare av tester. | |||
| Sannolikhetskvot | Informerar om testet tillför något nytt. Bra för de som skapar riktlinjer. Detta är en specialvariant av odds ratio. | |||
| Prediktivt värde av ett test | Talar om hälsotillståndet hos patienten (om det nu är patienter testet skall tillämpas på). Bra för de som handlägger patienter. | |||
| Etiologiskt prediktivt värde (EPV) | Prediktivt värde av ett test om man justerar för att personer kan vara falskt test-positiva bärare men sjuka av något annat. En gold standard (referensmetod) behövs inte. | |||
| Resultatvariabeln kan anta >2 värden. | Kappakoefficient | |||
| Ordinalskala | Resultatvariabeln mäts med ordinalskala | Kappakoefficient | ||
| Viktad kappakoefficient | ||||
| Intervall- eller kvotskala | Resultatvariabeln är en intervall- eller kvotskala som inte uppfyller villkoren för parametriska statistiska test (oftast snedfördelning av observationerna). | —– | Bland-Altman plot på transformerade data | Transformera data så de blir normalfördelade. |
| Icke parametriskt | Icke parametrisk variant av Limits of agreement | Istället för medelvärde och standardavvikelse för differenserna använd medianvärde och interkvartilavstånd. | ||
| Resultatvariabeln är en intervall- eller kvotskala som uppfyller villkoren för parametriska statistiska test (oftast normalfördelning av observationerna) | —– | Bland-Altman plot | Detta är inget statistiskt test utan en grafisk presentation av hur två tester stämmer överens. Används ofta. | |
| Parametriskt | Limits of agreement | Kombineras ofta med att göra Bland-Altman plot | ||
| Lin’s Concordance correlation coefficient | ||||
| Intraklasskorrelation |