Utvärdering av statistiska sanningar på individnivå
Nyligen kom en medelålders kvinna – ganska uppskakad – med en rapport från ett laboratorium i USA. Hon hade skickat dit lite blod och en ganska stor summa pengar varefter ett mycket stort antal genanalyser gjorts och en datoralgoritm rapporterat att den största risken för henne att få cancer förelåg för pancreatic cancer. Risken var angiven i procent och det var många nollor före den angivna siffran, men den var större än den för breast cancer, colorectal cancer och så vidare (glädjande nog hade hon ingen risk alls för prostatacancer, vilket angivits särskilt).
Om vi utgår från att de siffror det amerikanska laboratoriet hade var korrekta – vilket borde föranleda en diskussion i sig – kan man undra vad siffror som dessa kan och ska användas för. Rimligen grundas de i att någon stor databas med tusentals personers gener matchats mot resultat i någon annan stor databas där diagnoser, dödsorsaker med mera framgår. Har man tillräckligt stora databaser så kommer det med statistiskt signifikant säkerhet (sic!) att påvisas några korrelationer – kanske mycket svaga men ändå statistiskt signifikanta. Korrelationernas styrka eller svaghet kan man aldrig begära att en lekman ska förstå, oftast inte ens en rimligt välutbildad läkare. Dock kan man säga att en grupp av (friska, symtomfria) personer med en gen eller en kombination av gener har x gånger större sannolikhet att få en viss sjukdom än de som inte har denna gen eller grupper av gener. Detta kan vi kalla ”vetenskapliga” sanningar, men det kan ifrågasättas vad som i detta sammanhang menas med ordet sanning.
För det första har ordet signifikant fått en särskild betydelse i vetenskapliga sammanhang. Enligt ordböckerna kommer ordet signifikans med adjektivet signifikant av ett latinskt ord som betyder ”beteckna, betyda”. Adjektivet kan vardagligt översättas med betydelsefull. Statistiskt signifikant och statistiskt säkerställd (skillnad) kan användas synonymt. Arbiträrt har man emellertid satt gränsen för ”säkerställd skillnad” till att risken att skillnaden inte är sann – utan slumpmässig – till en på 20 eller mindre (samtidigt som man inte ur filosofisk utgångspunkt inte säga att p<0,01 är en mer säker skillnad än p<0,01 – båda visar att risken att slumpen har avgjort resultatet är mindre än den gräns man testade, det vill säga en risk på 20 eller en risk på 100). Själva den statistiska grunden betyder emellertid att med användande av ordet signifikant har vi accepterat att det vi säger är sant har en stor risk att inte vara det i ett fall av 20 (om vi väljer p<0.05). Mäter vi 40 gånger fördubblas risken att vi har fel och gör vi 100 mätningar borde statistiken lura oss i fem fall (statistiskt!). Märk särskilt att ”vi” valt intellektuellt förståeliga tal som 5, 100 och 1 000 istället för 7, 17 och 77, men valet är snarare gjort på psykologisk grund än på matematik eller logik.
Om man nu matar in tusentals data och ställer dem mot tusentals andra data är sannolikheten signifikant (!) att man får fram korrelationer som egentligen beror på slumpen. Ju mer statistiska beräkningar man gör, desto fler ”statistiska sanningar” är i verkligheten beroende på slumpen – samtidigt som man måste hålla i minnet att de flesta ”signifikanserna” (statistiskt sett 19 av 20) inte är beroende av slumpen. Det krävs alltså ett visst mått av intellektuell bedömning för att förstå de data som statistikerna och statistiken ger oss (vi måste ju inse att det mycket väl kan finnas verkliga, sanna, korrelationer trots att statistikerna inte kan visa det i ”signifikanta” siffror – om sannolikheten är 80 procent att en häst skulle vinna vore väl de flesta totalisatorbitna beredda att satsa stora pengar på den).