Learning for safety in health care and air traffic control

Abstract: Popular Abstract in Swedish Hantering av risker i företag och organisationer har haft en lång och komplicerad historia. På åttiotalet, och i början av nittiotalet, var uppfattningen att om en olycka inträffade i en organisation, som påstods vara nära nog perfekt, måste det bero på ”den mänskliga faktorn”, dvs. att en eller flera medarbetare inte gjorde som de borde ha gjort. Orsakerna till olyckan beskrevs i termer av försumlighet, bristfällig kompetens och slarv. Synen på riskhantering ändrades så småningom på sent nittiotal. James Reason, en psykolog vid University of Manchester, fick stor genomslagskraft med sin bok ”Human error”. Han introducerade begreppet ”latenta fel” (eller ”latenta förhållanden”). Dessa latenta fel, menade han, var ”sjukdomsalstrare”, inbyggt i produktionssystemen. Ett produktionssystem kan leva med dessa länge, tills något händer som stör produktionssystemets ”immunsystem”. En jämförelse från det medicinska området är att våra kroppar härbärgerar många potentiellt farliga mikroorganismer, men de hålls i schack av andra mikroorganismer och vårt immunsystem som utgörs av olika vita blodkroppar. Om vårt immunsystem slås ut, som t.ex vid cellgiftsbehandling, blir dessa bakterier plötsligt väldigt farliga för vår hälsa. På samma sätt kan oförutsedda händelser inträffa i ett produktionssystem. Ett antal latenta fel byter skepnad från att vara latenta till i högsta grad aktiva, och kan orsaka en olycka. Reason säger att människan i systemet, medarbetaren, går till arbetet varje dag med ambitionen att göra ett bra jobb. Medarbetaren går inte till jobbet med målsättningen att orsaka en olycka. När därför olyckor inträffar för att medarbetare gör fel, är det inte för att medarbetaren avsiktligt har gjort ett fel. Det är snarare så att medarbetaren har fångats i en ”felfälla” pga. brister i utformningen av produktionssystemet. Denna avhandling rör högrisksystem, men inte högriskteknologi . Vi undersöker akut somatisk sjukvård, flygtrafikledning, apotek och en cancerklinik. Vi vill undersöka olika sätt för en organisation att få återkoppling från inträffade händelser/olyckor så att den kan lära av dessa, och förhoppningsvis förbättra säkerheten. Målet för avhandlingen är att undersöka olika sätt att åstadkomma denna återkoppling på, samt att reflektera över om några av dessa sätt är bättre än andra när det gäller att få en organisationen att dra nytta av informationen. Vi vill pröva fyra olika tillvägagångssätt för att inhämta information om risker: • Retrospektivt lärande från inträffade händelser/olyckor (paper I) • Proaktivt lärande, dvs. få information om risker i systemet utan att vänta på att en olycka skall avslöja riskerna. Här använder vi en expert för att göra analysen (paper II) • Operatörscentrerat lärande. Här låter vi ”folk på golvet” stå för datainsamling och analys (paper III) • Användarcentrerat proaktivt lärande. Analysmetoden är den samma som i paper II, men med den skillnaden att vi använder en referensgrupp som består av ”folk på golvet”, dvs. det blir mindre av expertinflytande och mer av medarbetarinflytande under analysens gång (paper IV). Metoder och material Metoder I paper I använde vi MTO (Människa-Teknik-Organisation) analys som beskrivits av kärnkraftsoperatörer i Sverige. Dock gjorde vi en viss anpassning från kärnkraft till sjukvård. Paper II var inspirerat av arbetet med paper I. Vid de talrika intervjuer med läkare och sköterskor som genomfördes i paper I var en återkommande reaktion: ”Varför tänkte vi inte på dessa risker innan olyckan? Det är ju så tydligt.” En annan reflektion var att retrospektiva riskanalyser kan vara bra för att förhindra en liknande olycka men att sannolikheten för att detta skulle inträffa, med exakt de samma förtecken, är minimal (jfr Tage Danielssons monolog om Harrisburg (Three Mile Island): ”Det kanske var bra det som hände i Harrisburg, fast det var osannolikt, men nu kan det osannolika inte hända i Harrisburg… igen”). Detta fick oss att börja designa en metod för proaktiv riskanalys. Åtskilliga metoder för detta hade redan publicerats men dessa var i huvudsak inriktade på tekniska system, och förutsatte en hög grad av linearitet (om A inträffar, så inträffar med stor sannolikhet B och sedan C). Vi tyckte inte att dessa metoder var applicerbara på de organisationer som var i fokus för vår forskning (sjukvård, flygtrafikledning). Dessa fungerade i högsta grad icke-linjärt, eller komplext. Resultatet var DEB (Disturbance-Effect-Barrier) analysen som användes i paper II. Med denna metod hittade vi ett antal systemsvagheter (latenta fel och bristfälliga säkerhetsbarriärer) som vi jämförde med systemsvagheter som framgick av den centrala utredningsavdelnings analys av 15 fall av separationsunderskridande . Under arbetet med paper II fick vi klart för oss att händelser med separationsunderskridande (AIRPROX) endast utgjorde en liten del av den information som kunde användas för att öka säkerheten. Regelbundet ägde händelser rum som var ”nära händelser”, dvs. en mer eller mindre okontrollerad situation som upptäcktes i tid så att händelsen inte utvecklades till ett separationsunderskridande. Vi uppfattade således att AIRPROX - händelser var ”toppen av isberget” och funderade på hur vi kunde komma åt en del av resten av isberget. Genom samtal med flygtrafikledarna upplevde vi att de hade en stor ”dold” kunskap om potentiellt riskfyllda rutiner och procedurer. Ur dessa iakttagelser kläcktes följande idé: Varför inte låta flygtrafikledarna själva stå för analysen av säkerhetsrelaterade händelser? Vi utvecklade därför en metod för operatörscentrerat lärande (paper III). I metoden ingick utbildning av flygledarna i ”systemtänk” om 1½ dag, samt formulering av vilka säkerhetsrelaterade händelser (utöver AIRPROX) de skulle rapportera och analysera. Utgångspunkten för paper IV var tragisk. Författaren till denna avhandling utredde ett fall där en åtta år gammal flicka miste livet. Hon hade cancer, och fick av misstag totaldosen av ett cellgift varje dag i tre dagar, således en överdosering med 300 %. Kliniken bad oss göra en proaktiv riskanalys. Vi använde DEB - analysen igen, på processen ”att behandla patienter med cellgifter”. Denna gång använde vi en formaliserad referensgrupp av läkare och sjuksköterskor, utsedda av kliniken. Material Materialet till paper I var en konsekutiv serie av rapporter (så kallade Lex Maria-anmälningar) till Socialstyrelsen i Malmö, från akut somatisk vård. Underlaget för paper II var en DEB - analys av flygtrafikledningsprocessen vid Malmö Air Traffic Control Centre (ATCC Malmoe). Materialet för paper III var en utökad rapportering av säkerhetsrelaterade händelser under en sex månaders försöksperiod. Under perioden rapporterades 45 händelser som annars inte skulle ha dokumenterats och analyserats. I paper IV gjorde vi en DEB - analys av risker vid behandling av patienter med cellgifter, vid en vårdenhet på onkologiska kliniken, Lunds universitetssjukhus. I analysen ingick även analys av gränssnittsproblem mellan kliniken och sjukhusapoteket (som tillverkar infusionspåsarna med cellgifter). Resultat I paper I visade vi att det var givande att använda idén om latenta fel/latenta förhållanden för analys och lärande från olyckor i sjukvården. I sju av de åtta analyserade händelserna hittade vi risker i form av inbäddade latenta fel som det var möjligt att åtgärda. I paper II identifierade vi ett antal risker (latenta fel) i ett flygtrafikledningssystem med DEB - analys . Vi jämförde våra resultat med de latenta fel som framgick av 15 fall av AIRPROX, utredd av tillsynsmyndigheten (Luftfartsverket). DEB - analysen identifierade 14 av de 15 systembrister som framgick av AIRPROX utredningarna. I paper III visade vi att flygledarna mycket väl kunde analysera ”lärande händelser” och föreslå preventiva åtgärder. En sådan preventiv åtgärd var behov av att utbilda flygledare i hur ett flygplans autopilot ”tänkte”. Ett annat resultat var att ganska många fall där flygplanet gjorde något oväntat, och som traditionellt av flygledarna hade betecknats som SBS (”Skit Bakom Spakarna”) faktiskt visade sig delvis ha orsakats av flygtrafikledningen, och alltså inte bara var flight deck error. I paper IV förfinade vi DEB - analysen genom att från första början luta oss mot en formaliserad referensgrupp av läkare och sjuksköterskor från kliniken. Analysen visade på ett antal systemsvagheter/risker. Detta presenterades för medarbetarna vid ett möte och accepterades som förståndigt (en korridorskommentar efter mötet: ”Det var en bra sågning”!). En stor del av våra förbättringsförslag implementerades sedan. Diskussion Vi diskuterar våra metoder utifrån det aktuella forskningsläget, i synnerhet diskuterar vi MTO - analys i relation till root cause analysis, och DEB - analys i relation till FMEA (Failure Mode and Effect Analysis). Vi är tämligen kritiska till båda. Vi menar att båda dessa metoder kunde förbättras och ge bättre resultat om man dels använde ”latenta förhållande konceptet”, dels tillämpade vokabulär och koncept från ISO 9000 - standarden för kvalitetsledningssystem. Vi diskuterar potentialen för lärande för retrospektiva och proaktiva metoder och rekommenderar proaktiva metoder, såsom DEB - analysen. Vi introducerar komplexitetsteori och relaterar denna till våra resultat. Vår konklusion är att den operatörscentrerade metoden (paper III) tycks vara den mest effektiva metoden för att påverka ett komplext system vad gäller systemets förmåga till självorganisering och önskvärda framväxande egenskaper (emergent properties).

  CLICK HERE TO DOWNLOAD THE WHOLE DISSERTATION. (in PDF format)