Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
Knock on Wood

sous estimation des Risques et adaptation aux Menaces inhabituelles ( High Reliability Organizations )

22 Novembre 2021 , Rédigé par Ipsus Publié dans #GEOPOLITIQUE

 

le déni de realité n'est pas un fait nouveau mais s'est encore illustré récemment ce qui nous a amenés à essayer de comprenydre comment on en est arrivés là

Les problèmes quotidiens dégénèrent très rapidement en catastrophe lorsque les gens ne réagissent pas de manière appropriée aux signes de problèmes. 

 

Les HRO ( organisations à haute fiabilité  )

se distinguent en étant capables de détecter des signes d'alerte incroyablement faibles, puis en prenant des mesures fortes et décisives.

Une partie de la solution pour gérer l'imprévu consiste donc à amener les dirigeants à prendre du recul et à reconnaître à quel point la réalité peut parfois être désordonnée.

nous ne pouvons voir que ce que nous sommes prêts à voir.

CAPITOLE : le dispositif de sécurité était inadapté, les effectifs mal calibrés et mal équipés ; il est frappant de constater que les policiers disposaient d’uniformes ordinaires au lieu de tenues antiémeutes.

Les services de renseignement et la sécurité du Capitole ont mal évalué la menace.

Malgré les appels du Président Trump et des messages hostiles sur les réseaux sociaux et les forums, les différents acteurs de la sécurité du Capitole ne considéraient pas la menace d’un envahissement possible, et ce malgré les moyens de renseignement et d’analyse à leur disposition.

Le département sécurité du Capitole disposait en effet de son propre service de renseignement, dénommé National Capital Region Threat Intelligence Consortium qui avait pour objet d’identifier, collecter, analyser et traiter les données relatives aux menaces portant sur le Capitole.

Biais cognitifs, peur d’inquiéter les officiels, déni de réalité, refus d’envisager le champ des possibles, mauvais traitement des données disponibles, les responsables de la sécurité ne semblaient pas préparer à piloter une crise de cette envergure.

Le responsable de la sécurité Steven Sund a d’ailleurs démissionné.

Comme il le reconnut lui-même, il avait préparé sa police à une manifestation pour la liberté d’expression et ne s’attendait pas une émeute violente.

Des moyens supplémentaires lui avaient été proposés et il donna l’assurance que toutes les précautions avaient été prises.

Naturellement, il n’est pas le seul en faute.

Des responsables du ministère de la Défense ont déclaré que lors des réunions de planification menées avant le 6 janvier par le ministère de la Justice, les responsables de la ville et les forces de l’ordre fédérales n’ont demandé qu’un soutien modeste de la Garde nationale et ne prévoyaient pas de violences à grande échelle.

 Les événements du Capitole illustrent parfaitement les biais intellectuels pouvant exister en matière de sécurité, et en particulier la difficulté pour les forces de l’ordre d’appréhender les menaces émergentes ou inhabituelles.

Malgré l’existence de signaux assez forts, la police du Capitole n’a pas su identifier le risque et adapter sa stratégie de sécurité en mettant en œuvre les mesures appropriées.

Ces événements nous permettent de tirer un point général important.

Les décideurs (publics ou privés) ont du mal à appréhender les risques tant que ceux-ci ne se sont pas matérialisés au moins une fois (on restructure les services de renseignement qu’après des attentats, les entreprises renforcent leurs capacités cyber généralement après avoir été victime d’une attaque…).

Et c’est cette sous-estimation du risque qui conduit à des surprises stratégiques.

Comme le souligne le professeur Todd LaPorte, professeur à l’université de Berkeley :

« Le problème n’est pas de se préparer pour éviter les surprises,

mais de se préparer à être surpris. »

....... dans Itinéraire d'un enfant gâté , JP Belmondo apprend à Anconina à NE JAMAIS AVOIR L'AIR ETONNE ( à 1.35 mn de la video)

This article looks back over two decades of work pioneered by Todd 

https://drive.google.com/file/d/1-WFioWHaFsUrJuhjxQaCd-GMuRCLCL8i/view?usp=drivesdk


LaPorte and colleagues, under the banner of High Reliabiilty Theory 
(HRT). The article revisits the American roots of the Berkeley-based 
group and comments on its early and decisive fieldwork choices. It 
revisits some of the elements that emerged through the controversy 
around findings and implications of HRT. 
It discusses the legacy of HRT and the ethographical twist given to 
"normal operations" studies. It further explains why the use of 
ethnographic and sociological methodologies gave new vitality to the 
study of high-risks organizations

Sens et fiabilité
Tiré du numéro d'avril 2003

 

L'idée en bref

Stable. Sécurise. Prévisible. Nous sommes nombreux à décrire nos organisations en ces termes rassurants. Mais les entreprises doivent relever de nombreux ONU défis prévisibles qui mettent à rude épreuve notre imagination et la créativité. Une vue complaisante sorts danger: Quand l'imprévisible ne se produise, nous devenons trop paralysés pour survivre à l'expérience.

Comment mieux gérer l'imprévisible? Prenez les leçons des organisations à haute fiabilité. Les HRO - centrales nucléaires, salles d'urgence des hôpitaux, unités de lutte contre les incendies - fonctionnent en permanence dans des conditions difficiles. Pourtant, ils ont étonnamment peu d'accidents. Pourquoi? Pleine conscience: le pouvoir de détecter - et d'agir sur - même les signaux faibles de danger imminent.

les organisations à haute fiabilité. Que sont les HRO et pourquoi sont-ils importants?

Un HRO est, par exemple, une centrale nucléaire, un porte-avions, une équipe de contrôle du trafic aérien, une unité de lutte contre l'incendie ou le service des urgences d'un hôpital. Vous pourriez même penser aux cuisines de restaurant, avec des commandes à tir rapide et des couteaux volant partout, comme des organisations à haute fiabilité. Les HRO fonctionnent dans des conditions très éprouvantes tout le temps et parviennent toujours à avoir moins que leur juste part d'accidents. Un porte-avions, par exemple, pourrait avoir une catastrophe à chaque fois qu'un avion atterrit ou décolle. Mais ce n'est pas le cas, et la question est: pourquoi pas?

La principale différence entre les HRO et les autres organisations est la sensibilité ou la pleine conscienceavec laquelle les personnes dans la plupart des HRO réagissent à des signes, même très faibles, de l'approche d'un changement ou d'un danger. Contrairement aux HRO, la plupart des entreprises d'aujourd'hui ne sont pas préparées à l'imprévisible. Les gestionnaires ont l'illusion de savoir plus ou moins ce qui va se passer ensuite ou comment les autres sont susceptibles d'agir. C'est à la fois arrogant et dangereux. Non seulement ces gestionnaires ignorent la possibilité que quelque chose d'inattendu se produise, mais ils oublient également que les décisions qu'ils prennent peuvent avoir des conséquences inattendues

Comment un HRO pourrait-il répondre à un signal faible?

Considérez les opérateurs de bord dans la salle de contrôle d'une centrale nucléaire. Ils prêtent une attention particulière aux petits événements imprévus qui peuvent annoncer des problèmes système plus importants - par exemple, ils notent lorsqu'un système automatique ne répond pas comme prévu ou lorsque des données inhabituelles concernant les paramètres de l'installation apparaissent. Ils reconnaissent quand une procédure est inappropriée et naviguent vers une autre. Cette mise à jour vigilante facilite la gestion de l'imprévu, et je crois qu'elle résulte en grande partie d'un souci d'échec. Pensez-y: les préoccupations concernant les pannes sont ce qui donne aux centrales nucléaires leur qualité distinctive. Mais comme les pannes complètes des centrales nucléaires sont extrêmement rares, les gens qui y travaillent sont préoccupés par quelque chose qu'ils voient rarement. Et cela nécessite un type particulier de vigilance. Les employés de ces installations ne regardent pas de façon monotone les cadrans, ne lisent pas les imprimés ou ne manipulent pas les affichages graphiques, puis respirent avec lassitude à la fin de la journée: «Super, je viens de passer une autre journée terne et normale. Au contraire, ces travailleurs font des jugements, des ajustements et des comparaisonsgarder leurs journées ennuyeuses et normales.

Pour un exemple classique d'une entreprise qui a mal interprété ou ignoré un signal faible, vous pouvez considérer les employés du bureau de rappel de Ford pendant la crise de Pinto dans les années 1970. Ils étaient conscients que le Pinto pouvait parfois prendre feu lors de collisions arrière à basse vitesse. Mais ils ne voyaient pas la nécessité de rappeler la voiture, car ils ne pouvaient pas trouver une «cause traçable» aux incidents. Ils ont raté le fait que des boulons sur les essieux arrière des voitures avaient perforé les réservoirs d'essence des Pintos impliqués dans ces accidents. Leur incapacité à capter les signaux faibles a été synonyme de désastre

La maltraitance des enfants a été «découverte» et son traitement ne s'est accéléré que dans les années 1960 lorsque, à Boulder, au Colorado, des pédiatres et des radiologues qui traitaient des enfants ont ajouté des travailleurs sociaux à leurs équipes

Jusque-là, les pédiatres et les radiologues ne permettaient même pas la possibilité que les parents blessent leurs propres enfants parce qu'ils ne savaient pas quoi faire ensuite. 

Mais lorsque les travailleurs sociaux sont venus à bord, ils ont dit: «Bien sûr, la maltraitance des enfants se produit, et nous savons comment y faire face en fournissant des services de protection. » 

Ce n'est qu'à ce moment-là que les équipes de médecins pouvaient se permettre de voir la maltraitance des enfants, car ils savaient alors comment y faire face.

Dans les crises en particulier, les dirigeants doivent agir pour réfléchir - et non l'inverse.

Pris dans un cercle vicieux d'insécurité couvert par l'orgueil, de nombreux dirigeants placent beaucoup d'espoir dans des objectifs irréalistes. 

Pendant ce temps, ce sont les gens plus bas dans l'organisation qui font tout l'improvisation, les correctifs et les brouillages pour faire fonctionner les plans. 

Et les gens au sommet n'ont aucune idée à quel point les gens du milieu se cassent le dos pour maintenir l'organisation.

On peut suggerer aux  cadres de lutter contre leur tendance à vouloir tout planifier. 

La plupart des plans sont trop spécifiques et les détails créent l'illusion que le plan saisit tout ce qui se passe et peut donc faire confiance. 

En conséquence, lorsque vous avez un plan, vous avez tendance à ne pas chercher des choses qui le confirment

Les plans sont des signaux, des jeux, des excuses pour les interactions; 

ils ne sont pas bons pour la microgestion de l'inattendu.

quand on finit par s'habituer :

Pensez aux pompiers forestiers: saviez-vous qu'ils sont plus susceptibles d'être tués ou blessés au cours de leur dixième année de travail? 

C'est à peu près le moment où ils commencent à penser qu'ils ont tout vu. 

Ils se sont extrêmement bien adaptés aux défis du passé, mais sont devenus moins ouverts aux nouvelles informations qui leur permettraient de s'adapter aux nouveaux défis. 

C'est pourquoi les pompiers, comme les membres d'autres organisations, doivent être constamment encouragés à imaginer différentes possibilités.

S'ils comprennent que la survie dépend littéralement de la capacité de voir les choses différemment, ils apprendront à être plus attentifs.

 Il en va de même pour les cadres:  élargir leur répertoire et gagner en confiance dans des manières alternatives d'agir.

Partager cet article
Repost0
Pour être informé des derniers articles, inscrivez vous :