Modelo del queso suizo

El modelo del queso suizo aplicado a la pandemia de COVID-19

El modelo del queso suizo de causalidad de los accidentes es un modelo utilizado en el análisis de riesgos y gestión de riesgos, usado en la aviación, la ingeniería y la asistencia sanitaria. Compara los sistemas humanos a varias rebanadas de queso suizo, que se apilan. Esto fue propuesto originalmente por James T. Reason de la Universidad de Mánchester,[1]​ y se ha ganado ya una amplia aceptación. A veces se llama el modelo del efecto acumulativo.

Aunque el modelo de queso suizo es respetado y considerado como un método útil para relacionar conceptos, ha sido objeto de críticas ya que a veces se usa sin suficientes apoyo de otros modelos.[2]

Dominios de fallo

Reason planteo la hipótesis de que la mayoría de los accidentes se pueden remontar a uno o más de los cuatro dominios de fallo: influencias de organización, supervisión, condiciones previas y los actos específicos. Condiciones previas para actos inseguros incluyen personal de vuelo fatigado o prácticas de comunicación inadecuados. Supervisión insegura que abarca, por ejemplo, el vínculo de los pilotos sin experiencia en un vuelo nocturno en tiempo adverso conocido. Influencias organizacionales abarcan aspectos tales como la reducción de los gastos en formación de pilotos en tiempos de austeridad financiera.[3]

Agujeros y cortes

En el modelo de queso suizo, las defensas de una organización contra el fracaso se modelan como una serie de barreras, representadas como rebanadas de queso. Los agujeros en las rebanadas representan debilidades en partes individuales del sistema y están variando continuamente en tamaño y posición a través de las cortes. El sistema produce fallos cuando un agujero en cada rebanada se alinea momentáneamente, lo que permite (en las palabras de Reason) "una trayectoria de oportunidad de accidente", de manera que un peligro pasa a través de los agujeros en todas las rebanadas, lo que conduce a un fallo.[4][5][6]

Frosch[7]​ describe el modelo de Reason en términos matemáticos como un modelo en la teoría de la percolación, que analiza una celosía de Bethe.

Las fallas activas y condiciones latentes

El modelo del queso suizo incluye tanto las fallas activas como las condiciones latentes. Las fallas activas abarcan los actos inseguros que pueden estar directamente vinculadas a un accidente, como por ejemplo (en el caso de los accidentes de aviación) errores del piloto. Las condiciones latentes incluyen factores contributivos que pueden permanecer en estado latente durante días, semanas o meses hasta que contribuyen al accidente. Las condiciones latentes abarcan los tres primeros dominios del fracaso en el modelo de Reason.[4]

Aplicaciones

El mismo marco se aplica en la asistencia sanitaria. Por ejemplo, una falla latente podría ser el embalaje similar de dos medicamentos que a continuación se almacenan cerca uno del otro en una farmacia. Tal fracaso podría ser un factor contribuyente en la administración de la droga equivocada a un paciente. Esta investigación llevó a la conclusión de que los errores médicos puede ser el resultado de "fallas del sistema, no defectos de carácter", y que la codicia, la ignorancia, la malicia o la pereza no son las únicas causas de error.[8]

Lubnau, Lubnau y Okray[9]​ aplican el modelo de la ingeniería de sistemas de extinción de incendios, con el objetivo de reducir los errores humanos por "la inserción de capas adicionales de queso en el sistema", es decir, las técnicas de Gestión de Recursos de la Tripulación.

Referencias

  1. Reason, 1990.
  2. «Revisiting the Swiss cheese model of accidents». Eurocontrol. octubre de 2006. 
  3. Douglas A. Wiegmann and Scott A. Shappell (2003). A Human Error Approach to Aviation Accident Analysis: The Human Factors Analysis and Classification System. Ashgate Publishing, Ltd. pp. 48–49. ISBN 0754618730. 
  4. a b Daryl Raymond Smith, David Frazier, L W Reithmaier, and James C Miller (2001). Controlling Pilot Error. McGraw-Hill Professional. p. 10. ISBN 0071373187. 
  5. Jo. H. Wilson, Andrew Symon, Josephine Williams, and John Tingle (2002). Clinical Risk Management in Midwifery: the right to a perfect baby?. Elsevier Health Sciences. pp. 4–6. ISBN 0750628510. 
  6. Tim Amos and Peter Snowden (2005). «Risk management». En Adrian J. B. James, Tim Kendall, and Adrian Worrall, ed. Clinical Governance in Mental Health and Learning Disability Services: A Practical Guide. Gaskell. pp. 176. ISBN 1904671128. 
  7. Robert A. Frosch (2006). «Notes toward a theory of the management of vulnerability». En Philip E Auerswald, Lewis M Branscomb, Todd M La Porte, and Erwann Michel-Kerjan, ed. Seeds of Disaster, Roots of Response: How Private Action Can Reduce Public Vulnerability. Cambridge University Press. p. 88. ISBN 0521857961. 
  8. Patricia Hinton-Walker, Gaya Carlton, Lela Holden, and Patricia W. Stone (30 de junio de 2006). «The intersection of patient safety and nursing research». En Joyce J. Fitzpatrick and Patricia Hinton-Walker, ed. Annual Review of Nursing Research Volume 24: Focus on Patient Safety. Springer Publishing. pp. 8-9. ISBN 0826141366. 
  9. Thomas Lubnau II, Randy Okray, and Thomas Lubnau (2004). Crew Resource Management for the Fire Service. PennWell Books. pp. 20-21. ISBN 1593700067. 

Bibliografía adicional

  • Reason, James (18 de marzo de 2000). «Human error: models and management». British Medical Journal 320 (7237): 768-770. PMC 1117770. PMID 10720363. doi:10.1136/bmj.320.7237.768. 
  • Reason, James (12 de abril de 1990). «The Contribution of Latent Human Failures to the Breakdown of Complex Systems». Philosophical Transactions of the Royal Society of London. Series B, Biological Sciences 327 (1241): 475-484. doi:10.1098/rstb.1990.0090.  (read online: JSTOR)
  • Reason, James (1997). Managing the risks of organizational accidents. Aldershot: Ashgate. ISBN 1840141042. 
  • Reason, James (1995). «A System Approach to Organizational Error». Ergonomics 38: 1708-1721. 
  • Bayley, Carol (2004). «What medical errors can tell us about management mistakes». En Paul B. Hofmann and Frankie Perry, ed. Management Mistakes in Healthcare: Identification, Correction, and Prevention. Cambridge University Press. pp. 74–75. ISBN 0521829003. 
  • Organizational factors associated with safety and mission success in aviation environments. Lawrence Erlbaum Associates. 1998. p. 84. ISBN 0805816801.  — Westrum and Adamski relate Reason's Swiss Cheese model to Westrum's "human envelope" model, where "around every complex operation there is a human envelope that develops, operates, maintains, interfaces, and evaluates the function of the sociotechnological system" and where the system "depends on the integrity of this envelope, on its thickness and strength". Westrum models latent failures as voids within this envelope, and active failures as factors external to the envelope that are acting to breach it.
  • Shappell, Scott A.; Wiegmann, Douglas A. (febrero de 2000). «The Human Factors Analysis and Classification System—HFACS: The "Swiss cheese" model of accident causation». National Technical Information Service. 
  • «Sources of Error in Drug Interactions: The Swiss Cheese Model». Pharmacy Times. 2004. 
  • Perneger, Thomas V. (9 de noviembre de 2005). «The Swiss cheese model of safety incidents: are there holes in the metaphor?». BMC Health Services Research (BioMed Central Ltd.) 5 (71). doi:10.1186/1472-6963-5-71. 
  • Young, M.S.; Shorrock, S.T.; Faulkner, J.P.E (14 de junio de 2005). «Seeking and finding organisational accident causes: Comments on the Swiss cheese model». Department of Aviation, University of New South Wales.  (also available on-line here) — a reminder that while Reason's model extends causation to latent failures, this is not at the expense of eliminating active failure entirely
  • Nance, John J. (12 de abril de 2005). «Just How Secure Is Airline Security?: The Swiss Cheese Model and What We've Really Accomplished Since 9/11». ABC News. 
  • Luxhøj, James T.; Kauffeld, Kimberlee (2003). «Evaluating the Effect of Technology Insertion into the National Airspace System». The Rutgers Scholar 3. Archivado desde el original el 15 de julio de 2018. Consultado el 20 de abril de 2014. 
  • Howell, Elizabeth A.; Chassin, Mark R. (mayo de 2006). «Right? Left? Neither!». Morbidity & Mortality Rounds on the Web. Agency for Healthcare Research and Quality. Archivado desde el original el 16 de octubre de 2011.  — the application of the Swiss Cheese model to a specific case of medical error


Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q2472721
  • Commonscat Multimedia: Swiss cheese model / Q2472721

  • Wd Datos: Q2472721
  • Commonscat Multimedia: Swiss cheese model / Q2472721