SearchEsegui ricerca

 

ISSN 2283-7949

 

 

open menu open search

Issue 2015, 3

L’Analyse du Risque Géopolitique: du Plausible au Probable

Aumenta dimensioni testoDiminuisci dimensioni testo

​Abstract: This paper is going to explore the logical process behind risk analysis, particularly in geopolitics. The main goal is to demonstrate the ambiguities behind risk calculation and to highlight the continuum between plausibility and probability in risk analysis. To demonstrate it, the author introduces two notions: the inference of abduction, often neglected in the social sciences literature, and the Bayesian calculation. Inspired by the works of Louise Amoore, this paper tries to go further by studying qualitative tools used in geopolitical risk analysis and establishing links between abduction and Bayesian probability. After a brief exploration of some epistemological contradictions in risk analysis, the paper explores different methodological tools used in geopolitical risk analysis, through a comparison between quantitative and qualitative tools. Finally, the author suggests new avenues for research on risk analysis.

Keywords: risk analysis, geopolitics, abduction, calculation, methodology

Introduction

Dans le rapport final de la Commission nationale traitant des attaques terroristes du 11 septembre 2001, il est mentionné que l’incapacité à prévenir les attaques aurait été causée par un manque d’imagination (Amoore 2014: 426)[1]. Il s’agit dès lors d’envisager l’ensemble des scénarios plausibles pour par la suite les prévenir. Pour résumer le schème logique suggéré dans le rapport de la Commission nationale, il s’agit de penser de plausibles évènements, d’en inférer par la suite des causes et d’y associer, par la suite, leurs probabilités de survenance (Amoore 2014). Une démarche intuitive et un raisonnement spéculatif semblent présider la construction de l’analyse et de la gest on des risques, particulièrement dans la lutte contre le terrorisme. La Commission nationale sur les attaques terroristes du 11 septembre va jusqu’à recommander “de trouver un moyen de routiniser et même bureaucratiser, l’exercice de l’imagination” (Commission 11/09 2004: 344)[2].

Le calcul du risque est dès lors changé. Il ne s’agit plus de faire de la gestion des risques à partir de données pour réduire l’incertitude mais d’imaginer le pire des scénarios et prendre des mesures pour l’anticiper (Amoore 2013: 58). L’analyse n’est plus basée sur les données, mais sur l’incertitude. C’est cette logique que Tony Blair avance pour expliquer l’intervention en Irak (Ibid.). La décision préemptive d’intervenir en Irak est basée sur un changement dans le calcul du risque (Ibid.: 58-59). Pour lui, son devoir était d’imaginer le scénario catastrophe et de tout faire pour le prévenir et l’éviter (Ibid.). L’hypothétique, en l’absence des sources et de données pouvant permettre de parvenir à une déduction, préside à la décision.

Dans l’analyse et la gestion des risques, l’enjeu principal est le traitement des données existant dans un contexte d’incertitude, où les données disponibles ne sont pas exhaustives. Kessler considère qu’étudier le risque et penser le risque conduit en vérité à s’interroger sur trois concepts, soit “l’incertitude, la contingence et la probabilité” (Kessler 2010: 17-18). Bien que ces notions soient centrales pour penser le risque, il s’agit dans la présente étude d’aller au-delà d’une réflexion conceptuelle. En effet, il convient de se pencher sur les relations étroites entretenues dans l’analyse des risques entre le plausible et le probable, et par conséquent sur les inférences et le schème logique ambigu associés à une pensée du risque.

L’hypothèse soutenue est qu’il existe un continuum, voire une dialectique, entendue comme un jeu de va-et-vient, entre le plausible et le probable, dans l’analyse du risque. Pour le démontrer, cette étude s’inspire des travaux de Louise Amoore explorant l’épistémologie sous-jacente à l’outil des algorithmes utilisés en analyse du risque. Néanmoins, la présente analyse pousse le raisonnement plus loin en l’étendant à d’autres outils-clés existants dans l’analyse du risque géopolitique[3]. L’emphase est donc portée sur l’analyse du risque géopolitique, bien que les processus logiques dégagés soient très vraisemblablement transférables et observables dans les autres disciplines. Ce travail se base sur des réflexions alimentées au cours d’entretiens formels et informels faits avec des experts, des analystes en risque géopolitique, des universitaires et de participations à différents forums et groupes de discussion[4].

Cette étude tente, en soulignant les relations entre le plausible et le probable, de démontrer l’articulation d’un mode d’inférence, l’abduction, avec une lecture ambigüe et parfois confuse des probabilités dans l’analyse du risque. Cette première inférence est particulièrement peu évoquée en sciences sociales. Le présent texte constitue dès lors une opportunité intéressante pour porter à nouveau l’attention sur le concept d’abduction créé par le sémioticien Charles Sanders Peirce (Eco 1983; Shank dans Given 2008: 1-2). L’un de nos principaux objectifs est d’explorer de nouvelles voies dans les études sur le risque, en se focalisant sur les processus logiques présidant l’analyse du risque, que l’on situe en parallèle des débats ontologiques entre les différentes écoles pensant le concept de risque et de la littérature sur le phénomène de “risquisation”[5] (Hameiri et Kühn 2011). Après une brève exploration des contradictions et des ambiguïtés associées à l’analyse du risque, nous présenterons les logiques sous-tendues par le calcul bayésien et l’abduction. Par la suite, il s’agira d’explorer les processus logiques associés aux outils méthodologiques développés et utilisés en analyse du risque géopolitique, à travers la comparaison d’outils qualitatifs et quantitatifs.

Du Concept du Risque à la Pratique de l’Analyse et la Gestion du Risque

Le développement moderne de la notion du risque est inter-relié avec l’utilisation des probabilités pour mesurer et évaluer l’incertitude depuis le XVIIème siècle (Lobo-Guerrero 2011: 2). Cependant, l’importance du risque a pris une toute autre ampleur après les attaques du 11 septembre 2001 et sa compréhension s’est aussi transformée, que ce soit dans la représentation que l’on s’en fait ou dans son calcul. Pour Beck, nous vivons dans une “société du risque global” où les risques sont incontrôlables, incertains et dont les conséquences des évènements catastrophiques sont irréparables (Beck 2002). Il considère que les décideurs politiques ne peuvent plus garantir la sécurité et contrôler des éléments imprévisibles, comme des attentats (Beck 2002). Ils ne peuvent que “feindre de contrôler” l’incontrôlable (Ibid.: 41). Néanmoins, l’une des ambiguïtés de Beck réside dans sa volonté d’avoir une approche à la fois réaliste et constructiviste (Aradau et Van Munster 2007: 13). Il reconnaît d’une part l’existence du risque, c’est-à-dire qu’il considère que les risques et les évènements associés sont intrinsèquement liés. Néanmoins, il reconnaît aussi que les risques sont le résultat des catégories sociales et de la subjectivité des acteurs qui se les représentent (Ibid.: 13). Aradau et Van Munster considèrent dès lors qu’il a une ontologie réaliste et une épistémologie constructiviste du risque (Ibid.: 13). Cependant, considérer l’existence des risques implique leur identification alors qu’ils sont le fait d’une projection. Cette dernière entraîne des décisions qui intègrent un futur hypothétique dans le présent altérant les horizons possibles (Amoore 2014). Le risque est une virtualité ou encore une plausibilité matérialisée et défie donc une ontologie strictement réaliste. Par ailleurs, la subjectivité des acteurs dans la construction du risque est miroir de la subjectivité des acteurs qui cause les risques. Ainsi, l’incontrôlable semble davantage relever de la contingence que de l’incertitude (Kessler 2010). L’épistémologie associée empêche, par conséquent, tout exercice de prévision se voulant précis.  

Pourtant, les praticiens définissent souvent le risque comme la “probabilité qu’un évènement indésirable arrive dans le futur” (Aradau et al. 2008: 148). Les risques sont aussi quantifiés et catégorisés pour gérer l’incertitude (Ibid.). La quantification peut être basée sur des spéculations, sur la transposition en chiffres d’intuitions, ou encore sur les fréquences d’évènements observés (Amoore 2009: 53-59; Bremmer 2009). Dans le domaine des assurances, l’incertitude est gérée et échangée à travers les différents outils et technologies employés (Lobo-Guerrero 2011). La notion du risque subsume l’incertitude dans ces perspectives (Bremmer 2009). Pour les praticiens en analyse du risque géopolitique, l’objectif est donc de traiter avec l’incertitude. La contingence se confond dès lors avec l’incertitude et n’est plus que la variable inconnue dans une configuration précise d’un jeu donné (Kessler 2010: 22-23; Bremmer 2009). Elle serait un élément déclencheur que les analystes ne sont pas (encore) parvenus à identifier. Les erreurs dans les prédictions s’expliqueraient, à cet égard, par la complexité et la multi-dimensionnalité de l’analyse du risque. Ce raisonnement fonctionnaliste, quasi-biologique, considère que les solutions sont dans le développement de méthodes (Jacobsen 2010).

La littérature sur l’analyse des risques semble toutefois avoir quelques nuances et se divisent entre les experts épousant une lecture interprétativiste des risques basée sur une approche cumulative de la connaissance et ceux préférant une grille positiviste accompagnée de typologies et d’indicateurs (Baas 2010; Bremmer 2009; Jacobsen 2010). Cependant, cette littérature qui s’est principalement développée dans les revues en gestion et commerce, n’intègre pas l’idée que le risque et l’incertitude puissent être deux éléments associés sur une projection subjective de scénarios qui mêle des éléments intuitifs et probabilistes (Amoore 2013). La logique sous-jacente croise ainsi les inférences du plausible qu’est l’abduction (Shark dans Given 2008: 1-2) et du probable qu’est l’induction. Elle les place sur un continuum où la “grammaire mathématique” des probabilités, comme l’énonce Amoore, voile l’élan subjectif initial de l’intuition (Amoore 2014).

L’emphase sur le préemptif par les décideurs politiques, à l’instar de Tony Blair et George W. Bush pour la guerre en Irak, ainsi que le développement d’un calcul du risque nouveau pour anticiper le pire imaginable, viennent toutefois répondre à une reconnaissance tacite de l’imprévisibilité des événements et donc à la prééminence de la notion de contingence sur la notion d’incertitude (Amoore 2013; Kessler 2010). Si l’incertitude permet le langage du probable, la contingence rend son usage particulièrement délicat car elle s’inscrit en rupture épistémologique avec l’exercice de prévision[6]. L’incertitude est dès lors davantage mobilisée par les praticiens pour signifier la difficulté de la prévision et l’anticipation des évènements. Néanmoins, les outils développés pour le calcul du risque s’inscrivent dans une logique ambigüe, qualifiée par Amoore de “probabilité conditionnelle” (Amoore 2014).  

Le Calcul du Risque

Le calcul du risque est appréhendé de manière différente car les probabilités ne sont plus mobilisées sur une logique d’assemblages et de pondération des données disponibles (Amoore 2013). Les algorithmes employés dans la lutte contre le terrorisme et dans le domaine de la sécurité s’inscrivent dans une logique de probabilité conditionnelle, de probabilité bayésienne (Ibid.). Amoore résume de la manière suivante ce qu’est le calcul bayésien:” It arrays together multiple correspondences, making links and associations between them through the use of intuitive judgements” (Amoore 2014: 429).

Amoore énonce que le calcul du risque est à présent basé sur la juxtaposition de l’intuition et de l’“ingéniosité” (2014). L’intuition est la première étape dans l’établissement des différents scénarios possibles, des différents futurs plausibles. Elle relie différents éléments pour dégager notamment le pire des scénarios qui est celui qui focalisera bien souvent l’attention des analystes et des gestionnaires du risque”. The worst-case scenario”, est le scénario qu’ils cherchent à anticiper et empêcher (Bremmer 2009)[7]. Ainsi, les analystes du risque se projettent sur ce qu’il y a de pire possible. Ce scepticisme entraîne souvent une réticence à l’investissement dans des pays en développement, alors que des indicateurs et des éléments factuels démontrent l’existence d’opportunités, et même de tendance à la stabilité[8]. Ce calcul du risque devenu bayésien vient renforcer les connexions des éléments factuels et logiques amorcés de manière spontanée au cours de l’intuition (Amoore 2014). Il attache des probabilités à la survenance des évènements et réduit par conséquent l’espace possible pour la critique des analyses réalisées, car la grammaire mathématique vient dissimuler la première étape du processus logique (Ibid.: 426). Le mathématicien Turing, qui s’est lui-même penché sur ces mécanismes logiques, considère que: “(…) the exercice of intuition can never be entirely eradicated by rule or routine, for it is intuition that bridges the gaps of the incalculable elements of prove or theorem” (Ibid.: 428).

Le calcul bayésien porte en lui quelques ambiguïtés que la littérature ne lève pas tout à fait (Lecoutre 2005). Cet usage des probabilités, qui est parfois confondu avec l’approche fréquentiste, cherche à mesurer la crédibilité des propositions données, d’hypothèses formulées (Carranza et Kuzniak: 1-2)[9]. Elle est basée sur un manque d’informations ou sur des informations limitées. A contrario, l’approche fréquentiste, se penche sur la probabilité qu’un évènement se produise si les mêmes conditions sont reproduites (Ibid.: 1-2). La probabilité de réalisation de cet évènement se stabilise plus le nombre de réalisations croît. Ce type de probabilités semble dès lors compatible avec l’exploration des tendances lourdes pour prévoir la réalisation d’un évènement. Lorsque Louise Amoore considère qu’il y a un changement qui s’est opéré dans le calcul du risque, et par conséquent dans la manière dont les probabilités associées sont pensées, il s’agit vraisemblablement d’une emphase portée sur le calcul bayésien, qui délaisse par conséquent l’approche fréquentiste. Par conséquent, l’analyse du risque se fait sur quelques éléments disponibles et cherche à offrir une probabilité de réalisation de l’évènement. Ce calcul peut être modifié toutefois. Lorsqu’un évènement nouveau se réalise, le calcul initial est dès lors modifié et réajusté[10].

L’association de l’abduction avec le calcul bayésien et leurs liens sont peu présentés dans les enjeux méthodologiques en sciences sociales mais sont en débat dans la littérature sémiotique (Igor Douven 2011). L’un des rares ouvrages récents en science politique, mentionnant l’abduction, est celui de Beach et Pedersen (2013). L’ouvrage se penche sur la méthode du process-tracing qui est une méthode d’investigation, relevant de l’analyse qualitative et s’inscrivant dans un paradigme indiciel (Beach et Pedersen 2013). Les auteurs présentent l’abduction comme la dialectique de la déduction et de l’induction (Beach et Pedersen 2013: 19-20). Ils considèrent dès lors l’abduction au cœur de la méthode du process-tracing, tout en affirmant que cette méthode relève d’une logique bayésienne. L’ouvrage semble par conséquent entretenir des confusions puisqu’il ne distingue pas l’abduction de la logique bayésienne et l’abduction des autres modes d’inférence, à savoir la déduction et l’induction. Enfin, quelques travaux universitaires en mathématique soulignent que le calcul bayésien repose sur l’abduction et que les réseaux bayésiens se constituent suite à un raisonnement relevant de l’abduction (Poole 1993; Poole 2000). Cette inférence, qui constitue le schème logique du plausible, mérite d’être présentée pour expliquer son intérêt dans une pensée de l’analyse du risque, sans une prétention à lever toutes ses ambigüités. 

D’une Pensée du Plausible à une Pensée du Probable: l’Abduction?

Les principaux éléments caractéristiques de l’abduction, selon Peirce, sont qu’il s’agit de penser le plausible dans un raisonnement à l’envers, c’est-à-dire des évènements réalisés aux causes que l’on identifie par la suite en remontant dans le temps (Dumez 2012: 5). L’abduction est parfois qualifiée par Peirce de “rétroduction”, ce qui permet de mettre l’emphase sur le fait qu’il s’agit d’un raisonnement remontant en arrière, remontant aux causes premières (Ibid.: 4-5). Peirce insiste aussi sur le rôle de la surprise ou de l’étonnement ; il s’agit d’expliquer ce qui est inexplicable compte tenu de l’état des connaissances (Catellin 2004: 181). S’inspirant des définitions de Peirce, Catellin résume l’abduction de la manière suivante: “L’abduction consiste à sélectionner une hypothèse A susceptible d’expliquer le fait C, de telle sorte que si A est vrai, C s’explique comme un fait normal” (Ibid).

Par ailleurs, l’abduction se formule à travers une hypothèse élégante où la mise en relation des différentes données se fait partiellement sur une base esthétique[11]. Finalement, il s’agit d’une recherche d’harmonie des données disponibles. Comparée à la déduction et l’induction, cette inférence est la plus incertaine. Elle relève du plausible, alors que l’induction relève du probable et la déduction de la certitude. Pour faire un parallèle avec l’investigation dans une enquête criminelle, il s’agit de mettre en cohérence les indices existants et les traces laissées par le coupable (Eco 1983; Carson 2009). Ce parallèle reste toutefois limité pour penser l’analyse du risque. En effet, la différence entre l’investigation policière ou clinique et l’analyse du risque réside dans le fait que la réalisation de ces évènements n’a pas encore eu lieu et qu’ils demeurent une projection dans l’analyse du risque. Dans un exercice de prospective, ces évènements sont virtuels et imaginés, alors que dans l’enquête criminelle les évènements se sont déjà produits. L’effort de création demeure toutefois similaire.

De plus, plusieurs types d’abduction, plus ou moins sophistiqués, existent. Umberto Eco en identifie quatre (Eco 1983: 198-220). La plus sophistiquée d’entre elles est la méta-abduction. Cette dernière succède à ce qu’Eco nomme “l’abduction créatrice”. L’abduction créatrice est le moment initial où une nouvelle hypothèse est formulée[12]. Il s’agit de l’intuition originelle où les liens et la mise en relation des données disponibles et non disponibles sont formulés sur une base esthétique (Ibid.: 215-217). Il ne s’agit pas d’un travail réfléchi et élaboré. Il s’agit donc bel et bien d’une pensée du plausible, mais le souci esthétique est clé dans cette première abduction. La méta-abduction vient par la suite réaliser un travail d’analyse, en vérifiant l’abduction créatrice par l’expérience et l’observation (Mugneret 2010). La méta-abduction vient confirmer si les liens formulés dans l’abduction créatrice sont plausibles dans le monde réel (Eco 1983: 207). À titre d’illustration, certains travaux ethnographiques peuvent s’inscrire dans une démarche abductive pour permettre la découverte dans un contexte où les données - très nombreuses tout en restant partielles - saturent l’observateur et rendent leur mise en cohérence délicate (Bajc 2012).

Enfin, le calcul bayésien vient succéder à la méta-abduction dans un souci de modéliser l’intuition formulée (Mugneret 2010; Dubois et al. 2005). Ce calcul est basé sur une équation conjuguant les probabilités de survenance de l’évènement a priori (soit la probabilité de réalisation de l’évènement p, indépendamment de la réalisation de q) et les probabilités de survenance de l’évènement a posteriori (soit la probabilité que p se réalise, sachant que q se réalise). Une ambiguïté semble dès lors omniprésente dans le calcul bayésien. Les probabilités a priori sont basées sur l’intuition de l’individu[13]. Les probabilités a posteriori sont, par contre, basées sur l’observation d’évènements. L’ingénuité mentionnée par Louise Amoore serait donc ce passage au calcul bayésien par les analystes du risque. Ce calcul fait suite aux intuitions de départ résumées dans les différentes étapes abductives. Néanmoins, le calcul bayésien ne consiste pas à aller au-delà des intuitions car ces dernières continuent à constituer des éléments de l’équation.

La Logique Similaire des Autres Outils Analytiques du Risque

L’exercice d’établissement de scénarios basé sur une analyse qualitative épouse une logique similaire à celle des algorithmes. En effet, les analystes en risque géopolitique cherchent à dégager des scénarios par un effort imaginatif où des éléments factuels sont liés, à travers un travail d’agencement des données disponibles. Cet agencement relève d’une mise en cohérence plus ou moins complexe d’une succession d’hypothèses[14]. Il s’agit, par ailleurs, d’un raisonnement à l’envers, où l’on part des conséquences possibles pour dégager les causes. Le fil d’Ariane est déroulé à partir des évènements plausibles dans le futur pour arriver au présent où les causes sont dégagées. Enfin, il s’agit d’un exercice où les intuitions de l’analyste se conjuguent avec une capacité à associer des données dispersées dans un effort de projection[15]. Ce schème logique s’intègre dans l’inférence qu’est l’abduction mais dans sa construction la plus sophistiquée, la méta-abduction (Eco 1983). Il ne s’agit pas que d’une immédiate intuition mais d’un raisonnement complexe, même si en partie imaginatif. Par ailleurs, l’effort des analystes d’y associer des probabilités de survenance pour chacun des scénarios dégagés[16] semble s’assimiler à l’ingéniosité au cœur des algorithmes.

De plus, la volonté de dégager des tendances lourdes par l’observation des évènements passés, notamment par la comparaison avec d’autres situations et des contextes différents, vient renforcer la logique probabiliste des travaux des analystes en risque géopolitique (Bremmer 2009). Néanmoins, la mobilisation de la comparaison sous-tend que les évènements passés et à venir sont considérés comme ayant lieu dans des contextes au moins similaires. De la quantité infinitésimale de variables existantes, il n’est retenu dans ce raisonnement comparatif que celles qui sont considérées comme importantes et significatives. La distinction entre les variables pertinentes et les variables non pertinentes est dès lors à la discrétion de l’analyste et basée sur les connaissances de ce dernier, sur ses ressentis et sur ses intuitions. Le continuum entre le plausible et le probable et ses ambigüités se retrouvent ainsi à la fois dans l’utilisation des algorithmes et dans les scénarios dégagés par l’analyse qualitative. 

D’une manière assez similaire, l’usage du panel Delphi en analyse du risque géopolitique souligne les relations entre le plausible et le probable. Cette méthode vise à soumettre un questionnaire à des experts, dont le nombre est généralement entre 10 et 25 (Wimmer et al. 2002). Dans le questionnaire, il leur est demandé d’attacher à des évènements (suggérés ou non) une probabilité de survenance ainsi que le niveau d’impact de chacun des évènements considérés (relatifs à la sécurité de personnes, d’infrastructures ou encore d’investissements économiques). Les experts remplissent isolément et sans communiquer entre eux leurs résultats puis envoient leurs questionnaires remplis aux analystes en charge du panel Delphi. Ceux-ci agrègent les résultats obtenus et font une moyenne des probabilités données par les experts ainsi que des niveaux d’impact associés. Ils renvoient les résultats agrégés aux experts qui peuvent corriger leurs prévisions initiales. Les analystes effectuent alors une dernière fois des corrections en fonction des nouvelles données obtenues. À l’intuition initiale des experts qui est convertie en langage probabiliste en chiffrant l’impact et la probabilité de survenance, s’ajoute l’opération d’agrégation de résultats par la constitution d’une moyenne pour chaque probabilité et impact. Cette “grammaire mathématique” s’apparente à l’ingéniosité soulignée par Louise Amoore dans son analyse des algorithmes et du calcul du risque (Amoore 2013; 2014). La différence entre le calcul bayésien et l’opération d’agrégation réalisée par l’analyste entre les deux tours est que pour le premier un évènement conduit à modifier le résultat premier, alors que dans le second cas les panélistes sont soumis à un résultat agrégé, c’est-à-dire à un estimé et non à un évènement[17]. Néanmoins, les derniers réajustements dans le second tour de consultation rappellent les réajustements effectués dans le calcul bayésien lors de la survenance d’un nouvel évènement ou d’une nouvelle donnée (Amoore 2014)[18]. Bien qu’il ne s’agisse pas à proprement parler de calcul bayésien, l’usage du panel Delphi met de nouveau en exergue ce continuum entre le plausible et le probable.

Enfin, l’intérêt de plus en plus porté pour les marchés prédictifs dans l’analyse du risque vient illustrer une volonté de systématiser l’usage des intuitions et des facultés imaginatives des individus ayant des habiletés à deviner le futur[19]. En effet, la logique des marchés prédictifs répertorie les personnes parvenant à prédire correctement la survenance d’évènements. Ces marchés prédictifs y associent par la suite des probabilités de justesse des futurs scénarios dégagés par les individus sur la base des prédictions qu’ils ont auparavant réalisés. La démarche consiste toujours à partir des intuitions. Cependant, il s’agit de conserver uniquement les prédictions intuitives des individus ayant démontré qu’ils étaient de bons “devins” et que l’on conservé à travers une logique probabiliste. Une nouvelle fois, les probabilités se juxtaposent aux intuitions dans un schème ambigu de probabilité conditionnelle. 

Conclusion

La présente étude a mis en lumière les schèmes logiques employés dans l’analyse du risque géopolitique. Le continuum, voire la dialectique, entre le plausible et le probable, dans l’analyse du risque géopolitique, invite dès lors à s’interroger sur les niveaux de certitude des analyses réalisées.

L’un des objectifs de cet article était, par ailleurs, d’apporter un nouvel éclairage sur les relations entre le plausible et le probable à travers le concept d’abduction et les ambiguïtés du calcul bayésien. Cet article ne demeure qu’une réflexion préliminaire, mais offre de nombreuses avenues pour de futures recherches. Il invite, en premier lieu, les théoriciens de l’analyse du risque géopolitique à renouveler leur questionnement sur la fiabilité des outils méthodologiques développés, dans la lignée des travaux de Jarvis et Griffiths (2007). Par ailleurs, la présente étude offre aussi de nouvelles perspectives pour les études critiques de sécurité du champ des relations internationales s’étant penchées sur les processus de “risquisation” (Salter 2008) et d’(in)sécurisation (Bigo 2005). En effet, les pratiques des analystes en risque géopolitique sont encore peu documentées, que ce soit vis-à-vis des outils méthodologiques de nature qualitative, mais aussi des types de design d’études choisis par les analystes et présentés à leurs clients pour légitimer leur champ d’expertise.     

 


Notes

[1] Je tiens à remercier les collègues, ayant relu et commenté les versions précédentes de ce papier, notamment Sébastien Parker et Benjamin Ducol, ainsi que les évaluateurs anonymes pour leurs précieux commentaires. Je tiens enfin à exprimer toute ma reconnaissance au Professeur Gérard Hervouet de l’Université Laval pour m’avoir initié à l’analyse du risque politique et au métier de la prospective dans le cadre de contrats de recherche et de son cours d’“Analyse du risque politique international” et au Professeur Mark B. Salter de l’Université d’Ottawa pour m’avoir permis, dans son cours “Security and Conflict: Contemporary issues”, d’interroger les pratiques du champ des analystes du risque.

[2] “It is crucial to find a way of routinizing, even bureaucratizing, the exercise of imagination’’ (Commission 11/09 2004: 344).

[3] La présente étude se focalise sur l’analyse du risque géopolitique. Cependant, l’analyse du risque géopolitique est aussi synonyme dans la littérature avec l’“analyse du risque politique”, l’“analyse du risque politique international” et l’“analyse du risque-pays”. Nous demeurons réticents à l’utilisation du concept d’analyse du risque-pays” alors que les risques transversaux et internationaux sont parmi les risques qui préoccupent le plus les analystes. Dans le présent texte, nous utiliserons uniquement l’expression d’“analyse du risque géopolitique”.

[4] Le caractère sensible de la recherche contribue à rendre difficile l’explicitation des témoignages recueillis. Certains entretiens seront mentionnés anonymement. L’ensemble des entretiens a toutefois permis à la maturation de la réflexion présentée dans cette étude.

[5] La “risquisation” dérive du terme anglais “Riskisation”. Il correspond au processus où un enjeu devient un enjeu à risque (Hameiri et Kühn 2011: 277; Clapton 2011; Salter 2008).

[6] La définition de Luisi que Balinger résume de manière efficace la complexité du concept de contingence: “La contingence peut être définie comme le résultat d’une série particulière d’effets concomitants qui s’appliquent dans une situation spatio-temporelle spécifique et qui déterminent donc le résultat d’un événement donné. En épistémologie, ce mot en est souvent venu à prendre, de manière pertinente, la place des termes ‘hasard’ et évènement ‘aléatoire’. Il a effectivement une texture différente. On peut, par exemple, considérer un accident de voiture comme le produit du hasard, mais il est en fait lié à la concomitance de nombreux facteurs indépendants, comme la vitesse de la voiture, les conditions de route, l’état des pneus, la consommation d’alcool du conducteur, etc. C’est tous ensemble que ces facteurs produisent le résultat final, perçu comme le produit du hasard. On peut dire la même chose d’un krach boursier, ou d’une tempête survenue un jour d’été. Il est intéressant de noter que chacun de ces facteurs indépendants peut en fait être conçu comme étant en soi un évènement déterministe, c’est-à-dire que le mauvais état des pneus de la voiture détermine en soi le dérapage de la voiture dans un virage. Cependant, le fait qu’il y ait un si grand nombre de tels facteurs, chacun possédant un poids statistique inconnu, rend l’accident dans sa totalité imprévisible: un produit du hasard [non ontologique]” (Balinger 2013: 56; Luisi 2003: 1142).

[7] Entretien avec un analyste en risque géopolitique, Montréal, 16 juin 2015.

[8] Entretien avec Taieb Hafsi, Professeur de management à HEC Montréal, 9 janvier 2015.

[9] Entretien avec un analyste en risque financier, Montréal, 22 juin 2015.

[10] Entretien avec un analyste en risque financier, Montréal, 22 juin 2015.

[11] Nous insistons pour préciser qu’une abduction n’est pas nécessairement suivie d’une déduction. Bien que le raisonnement hypothético-déductif soit un raisonnement où l’abduction est suivie d’une déduction, ce schème logique n’est pas systématique et n’est pas le seul possible suite à une abduction (Eco 1983; Poole, 1993; 2000).

[12] Nous choisissons de l’appeler par commodité une hypothèse mais cette hypothèse n’est pas basée sur une création réfléchie à partir de la connaissance de l’analyste au moment où il la formule, contrairement à l’“overcoded abduction” qu’énonce Eco. L’abduction créatrice est plus imaginative car elle se base sur une absence de connaissances sur l’objet considéré et implique d’autres connaissances non directement en lien. L’abduction créatrice est d’abord et avant tout basée sur un souci esthétique (Eco 1983: 210-220).

[13] Entretien avec un analyste en risque financier, Montréal, 22 juin 2015.

[14] Entretien avec Taieb Hafsi, Professeur de management à HEC Montréal, 9 janvier 2015.

[15] Entretien avec un analyste en risque géopolitique, Montréal, 16 juin 2015.

[16] Conférences de Jean-Baptiste Jeangène Vilmer, Chercheur et chargé de mission “Affaires transversales et sécurité” au Centre d’Analyse, de Prévision et de Stratégie (CAPS) au Ministère des Affaires étrangères français, 1 mai 2015 et d’Ariel Colonomos, Professeur à Science Po Paris, Forum Saint-Laurent, Montréal 1 mai 2015.

[17] Entretien avec un analyste en risque financier, Montréal, 21 mai 2015.

[18] Entretien avec un analyste en risque géopolitique, 16 juin 2015.

[19] Conférence de Jean-Baptiste Jeangène Vilmer, Montréal 1er mai 2015.

Bibliographie

A. Al Khattab, J. Anchor and E. Davies (2007), Managerial perceptions of political risk in international projects, in “International Journal of Project Management”, 25 (7), pp. 734-743.

L. Amoore (2014), Security and the incalculable, in “Security Dialogue”, 45 (5), pp. 423-439.

L. Amoore (2013), The politics of possibility: Risk and security beyond probability (Duke University Press).

L. Amoore (2009), Algorithmic war: Everyday geographies of the War on Terror, in “Antipode”, 41(1), pp. 49-69.

L. Amoore and M. De Goede (2005), Governance, risk and dataveillance in the war on terror, in “Crime, law and social change”, 43 (2-3), pp. 149-173.

L. Amoore (2004), Risk, reward and discipline at work, in “Economy and Society”, 33 (2), pp. 174-196.

C. Aradau, L. Lobo-Guerrero and R. Van Munster (2008), Security, Technologies of Risk, and the Political: Guest Editors’ Introduction, in “Security Dialogue”, 39 (2/3), pp. 147-154.

C. Aradau and R. Van Munster (2007), Governing Terrorism through Risk: taking precautions, (un)knowing the future, in “European Journal of International Relations”, 13 (1), pp. 89-115.

D. Baas (2010), Approaches and challenges to political risk assessment: The view from Export Development Canada, in “Risk Management”12 (2), pp. 135-162.

V. Bajc (2012), Abductive Ethnography of Practice in Highly Uncertain Conditions, in “The Annals of the American Academy of Political and Social Science”, 642 (1), pp. 72-85. 

C. Ballinger (2013), Contingence, déterminisme et “just-so stories”, traduit par Marc Lenormand, et Pierre Saint-Germier, in “Tracés”, 1, pp. 47-69.

D. Beach and R. Brun Pedersen (2013), Process-tracing methods: Foundations and guidelines (University of Michigan Press).

U. Beck (2002), The terrorist threat world risk society revisited, in “Theory, Culture & Society”, 19 (4), pp. 39-55.

D. Bigo (2005), La mondialisation de l’(in)sécurité?, in “Cultures & Conflits”, 58, pp. 53-101.

I. Bremmer (2005), Managing risk in an unstable world, in “Harvard business review”, 83, 6, pp. 51-60.

I. Bremmer, and K. Preston (2009), The fat tail: the power of political knowledge for strategic investing (Oxford University Press).

G.M. Bowler (2010), Netnography: A method specifically designed to study cultures and communities online, in “The Qualitative Report”, 15 (5), pp. 1270-1275.

P. Carranza et A. Kuzniak, Approche bayesienne “cachée et approche fréquentiste “ambiguë dans les livres de cours français de Première S et ES.

D. Carson (2009), The abduction of Sherlock Holmes, in “International Journal of Police Science & Management”, 11 (2), pp. 193-202.

S. Catellin (2004), L’abduction: une pratique de la découverte scientifique et littéraire, in “Hermès, La Revue”, 39 (2), pp. 179-185.

W. Clapton (2011), Risk in international relations, in “International Relations”, 25 (3), pp. 280-295.

Commission 11/09, The 9/11 Commission Report: Final Report of the National Commission on the Terrorist Attacks upon the United States. New York: WW Norton & Co.

U. Eco (1983), The Sign of Three: Dupin, Holmes, Peirce Advances in Semiotics (Indiana University Press).

R.V. Ericson (2006), Ten uncertainties of risk-management approaches to security, in “Canadian Journal of Criminology and Criminal Justice/La Revue canadienne de criminologie et de justice penale”, 48 (3), pp. 345-356.

I. Douven (2011), Abduction, in E.N. Zalta (ed.), The Stanford Encyclopedia of Philosophy, http://plato.stanford.edu/archives/spr2011/entries/abduction/.

D. Dubois, A. Gilio et G. Kern-Isberner, Probabilist Abduction Without Priors, Dagstuhl Seminar Proceedings, Belief Change in Rational Agents: Perspectives from Artificial Intelligence, Philosophy, and Economics, http://drops.dagstuhl.de/opus/volltexte/2005/328.

H. Dumez (2012), Qu’est-ce que l’abduction, et en quoi peut-elle avoir un rapport avec la recherche qualitative?, in “Le Libellio d’Aegis”, 8 (3), pp. 3-9.

M. Foucault (1980), The Confessions of the Flesh, in C. Gordon (ed.) Power/knowledge, Selected Interviews and Other Writings 1972-1977 (New York: Pantheon Books), pp.194-198.

L.M. Given (dir.) (2008), The Sage encyclopedia of qualitative research methods (Sage).

X. Guillaume (2013), Criticality, in “Research Methods in Critical Security Studies” (London: Routledge), pp. 29-32.

S. Hameiri et F.P. Kühn (2011), Introduction Risk, Risk Management and International Relations, in “International Relations”, 25(3), pp. 275-279.

H.R. Hughes (2013), The practice of writing, in “Research Methods in Critical Security Studies” (London: Routledge), pp. 93-96.

J. Jakobsen (2010), Old problems remain, new ones crop up: Political risk in the 21st century, in “Business Horizons”, 53 (5), pp. 481-490.

D.S.L. Jarvis and Martin Griffiths (2007), Learning to Fly: The Evolution of Political Risk Analysis, in “Global Society”, 21(1), pp. 5-21.

O. Kessler (2010), Risk, in J.P. Burgess (ed.), The Routledge handbook of new security studies (London: Routledge), pp. 17-26.

B. Lecoutre (2005), Et si vous étiez un bayésien qui s’ignore, in “Revue Modulad”, 32, pp. 92-105.

L. Lobo-Guerrero (2010), Insuring security: biopolitics, security and risk (Taylor & Francis).

M. Mugneret, Inférence bayésienne, simplicité et probabilité a priori du théisme, ThéoRèmes [Enligne], Philosophie, mis en ligne le 12 juillet 2010, consulté le 17 mai 2015, http://theoremes.revues.org/67; doi: 10.4000/theoremes.67

K.L. Petersen (2011), Risk analysis-A field within security studies, in “European Journal of International Relations”, 18 (4), pp. 693-717.

D. Poole (1993), Probabilistic Horn abduction and Bayesian networks, in “Artificial intelligence”, 64 (1), pp. 81-129.

D. Poole (2000), Learning, Bayesian probability, graphical models, and abduction, in “Abduction and Induction”, Springer Netherlands, pp. 153-168.

M.B. Salter (2008), Imagining numbers: risk, quantification, and aviation security, in “Security dialogue”, 39 (2-3), pp. 243-266.

A. Wimmer, I. de Soysa et C. Wagner (2002), Political Science Tools for Assessing Feasibility and Sustainability of Reforms, Mai, Center for Development Research-Department of Cultural and Political Change, Université de Bonn. 

 

DOI: 10.12893/gjcpi.2015.3.4

Je tiens à remercier les collègues, ayant relu et commenté les versions précédentes de ce papier, notamment Sébastien Parker et Benjamin Ducol, ainsi que les évaluateurs anonymes pour leurs précieux commentaires. Je tiens enfin à exprimer toute ma reconnaissance au Professeur Gérard Hervouet de l’Université Laval pour m’avoir initié à l’analyse du risque politique et au métier de la prospective dans le cadre de contrats de recherche et de son cours d’“Analyse du risque politique international” et au Professeur Mark B. Salter de l’Université d’Ottawa pour m’avoir permis, dans son cours “Security and Conflict: Contemporary issues”, d’interroger les pratiques du champ des analystes du risque.

Print