Людська помилка

Людська помилка — це дія, яка була зроблена, але «не була запланована виконавцем; не відповідала встановленим правилам чи очікуванням зовнішнього спостерігача; або призвела до виходу завдання чи системи за межі допустимих параметрів».[1] Помилка людини часто називається основною причиною або сприяючим фактором у катастрофах та аваріях у різних галузях, таких як ядерна енергетика (наприклад, аварія на АЕС Три-Майл-Айленд), авіація, космічні дослідження (наприклад, катастрофа шатла Challenger та катастрофа шатла Columbia), а також медицина. Запобігання людським помилкам зазвичай розглядається як важливий чинник забезпечення надійності та безпеки складних систем. Помилка людини є одним із численних чинників, що сприяють виникненню ризикових подій.

Визначення

Помилка людини стосується дії, яка була «не запланована виконавцем; не відповідала встановленим правилам чи очікуванням зовнішнього спостерігача; або призвела до виходу завдання чи системи за межі допустимих параметрів».[1] Коротко кажучи, це відхилення від наміру, очікування або бажаного результату.[1] Логічно, дії людини можуть не досягти мети двома способами: дії можуть бути виконані згідно з планом, але сам план може бути недосконалим (що призводить до помилок); або ж план може бути задовільним, але виконання виявляється недостатнім (що призводить до промахів або збоїв).[2][3] Однак, якщо не було плану досягти конкретного результату, тоді проста невдача не вважається помилкою.[1]

Продуктивність

Помилка людини та продуктивність — це дві сторони однієї медалі: механізми, які призводять до «помилки людини», є тими самими механізмами, що визначають «продуктивність людини». Дії, які згодом класифікуються як «помилки людини», оцінюються так лише з позиції ретроспективи.[3][4] Отже, дії, які називають «помилкою людини», насправді є частиною звичайного спектра людської поведінки. Дослідження неуважності(інші мови) в повсякденному житті надає значну кількість прикладів та класифікацій таких аспектів поведінки. Хоча поняття людської помилки міцно закріпилося в класичних підходах до розслідування аварій та оцінки ризиків, воно не відіграє жодної ролі в сучасних підходах, таких як інженерія стійкості(інші мови).[5]

Категорії

Існує багато способів класифікувати помилки людини:[6][7]

  • Екзогенні та ендогенні(інші мови) помилки: помилки, що виникають зовні (зовнішні чинники) чи всередині (внутрішні чинники) особи.[8]
  • Оцінка ситуації та планування реакції,[9] зокрема:
    • Помилки у виявленні проблеми (див. також теорію виявлення сигналів).
    • Помилки у діагностиці проблеми (див. також розв'язання проблем).
    • Помилки у плануванні дій та їх виконанні[10] (наприклад, зриви або помилки виконання проти помилок наміру[11][3]).
  • За рівнем аналізу: Перцептивні помилки (наприклад, оптичні ілюзії).Когнітивні помилки. Помилки у міжособистісному спілкуванні(інші мови). Помилки на організаційному рівні(інші мови).
  • Помилки фізичної маніпуляції[12]
    • Зриви: коли фізична дія не досягає безпосередньої мети.
    • Забування: коли відбувається збій пам'яті або спогадів.
  • Активні помилки: спостережувані фізичні дії, які змінюють стан обладнання, системи чи об'єкта, що призводить до негайних небажаних наслідків.
  • Латентні помилки(інші мови): приховані організаційні слабкості або дефекти обладнання, які залишаються непоміченими на момент їх виникнення та не мають негайних

наслідків.

  • Помилки, пов'язані із залежністю від обладнання: втрата пильності через припущення, що технічні засоби контролю чи пристрої безпеки завжди працюватимуть належним чином.
  • Командні помилки(інші мови): втрата пильності через соціальну взаємодію між двома чи більше людьми, які працюють разом.
  • Особистісні залежності: небезпечні установки та пастки людської природи, що призводять до самозаспокоєності та надмірної впевненості.

Джерела

Когнітивне вивчення помилок людини є дуже активною сферою досліджень, що охоплює вивчення обмежень пам'яті та уваги, а також стратегій прийняття рішень, таких як евристика доступності та інші когнітивні упередження. Такі евристики та упередження є корисними й часто ефективними стратегіями, але вони також можуть призводити до систематичних помилок.

Тема непорозумінь у людській комунікації досліджується в аналізі розмов, зокрема вивчаються порушення принципу кооперації та максим Грайса.

Організаційні дослідження помилок або дисфункцій включають вивчення культури безпеки. Одним із методів аналізу відмов у складних системах, який враховує організаційний контекст, є аналіз ризиків за допомогою дерева управлінського нагляду (Management Oversight Risk Tree Analysis).[13][14][15]

Суперечності

Деякі дослідники стверджують, що поділ людських дій на «правильні» та «неправильні» є шкідливим спрощенням складного явища.[16][17] Більш перспективним підходом може бути зосередження на варіативності людської продуктивності та тому, як оператори (та організації) можуть управляти цією варіативністю.

Сучасні підходи, такі як інженерія стійкості (resilience engineering), підкреслюють позитивну роль людини у складних системах. У межах цього підходу успіхи (те, що відбувається правильно) і невдачі (те, що йде не так) розглядаються як результат одного й того ж явища — варіативності людської діяльності. Одним із конкретних аспектів цього є принцип компромісу між ефективністю та ретельністю (інші мови),[18] який проявляється на всіх рівнях людської діяльності — як у окремих індивідів, так і у групах.

Див. також

Список літератури

  1. а б в г Senders, J.W. and Moray, N.P. (1991) Human Error: Cause, Prediction, and Reduction[недоступне посилання з 01.08.2024]. Lawrence Erlbaum Associates, p.25. ISBN 0-89859-598-3.
  2. Hollnagel, E. (1993) Human Reliability Analysis Context and Control. Academic Press Limited. ISBN 0-12-352658-2.
  3. а б в Reason, James (1990) Human Error. Cambridge University Press. ISBN 0-521-31419-4.
  4. Woods, 1990
  5. Hollnagel, E., Woods, D. D. & Leveson, N. G. (2006). Resilience engineering: Concepts and precepts. Aldershot, UK: Ashgate
  6. Jones, 1999
  7. Wallace and Ross, 2006
  8. Senders and Moray, 1991
  9. Roth et al., 1994
  10. Sage, 1992
  11. Norman, 1988
  12. DOE HDBK-1028-2009 ( https://www.standards.doe.gov/standards-documents/1000/1028-BHdbk-2009-v1/@@images/file)
  13. Rasmussen, Jens; Pejtersen, Annelise M.; Goodstein, L.P. (1994). Cognitive Systems Engineering. John Wiley & Sons. ISBN 0471011983.
  14. The Management Oversight and Risk Tree (MORT). International Crisis Management Association. Архів оригіналу за 27 вересня 2014. Процитовано 1 жовтня 2014.
  15. Entry for MORT on the FAA Human Factors Workbench
  16. Hollnagel, E. (1983). Human error. (Position Paper for NATO Conference on Human Error, August 1983, Bellagio, Italy.
  17. Hollnagel, E. and Amalberti, R. (2001). The Emperor's New Clothes, or whatever happened to "human error"? Invited keynote presentation at 4th International Workshop on Human Error, Safety and System Development.. Linköping, June 11–12, 2001.
  18. Hollnagel, Erik (2009). The ETTO principle : efficiency-thoroughness trade-off : why things that go right sometimes go wrong. Farnham, England Burlington, VT: Ashgate. ISBN 978-0-7546-7678-2. OCLC 432428967.