Quand plus conduit à moins : l’inflation inutile de la complexité

La finance et l’économie ont fait l’objet de multiples théorisations, modélisations, qui ont contribué à leur complexification croissante, sans démontrer de supériorité réelle sur des règles simples et basiques. Regard sur ce processus.

La volonté de tout mettre en équation a permis d’être de plus en plus précis sur des points de détail de plus en plus fins et en même temps de perdre de vue toute vision d’ensemble.

L’origine de cette complexité vient des succès rencontrés au début des premières théorisations de l’économie et de la finance : le modèle d’équilibre général, les modèles d’allocation d’actifs, la théorie des anticipations rationnelles, toutes ces avancées de la pensée économique et financière ont délivré des résultats tangibles. Elles ont en particulier donné le sentiment à ceux qui les utilisaient de détenir une forme d’information privilégiée qui produisait donc du profit une fois mise en application dans les processus de décision. Puis elles se sont généralisées, elles se sont complexifiées, toujours selon le principe que le risque pouvait être modélisé, contrôlé et donc évalué et couvert.

C’était oublier que nous vivons dans un monde essentiellement incertain, où l’information est très imparfaite et ou la plupart des décisions individuelles sont plus cognitive que réflexives. Certains économistes et scientifiques avaient d’ailleurs bien reconnu un tel phénomène, niant de la sorte la théorie des anticipations rationnelles et soulignant que le danger et les catastrophes ne naissent pas de ce que l’on connait mais de ce que l’on ne connait pas.

Les arguments qui sous-tendent une telle école de pensée sont de plusieurs ordres. Ils tiennent au coût souvent prohibitif de collecte de l’information. Ils tiennent aux bénéfices objectifs de la simplicité qui s’avère être une approche très efficace dans un grand nombre de processus de décision, comme par exemple la gestion de centrales nucléaire ou les systèmes de navigation des avions.

Des travaux récents démontrent par exemple que dans des conditions très usuelles de gestion de portefeuille, la règle la plus simple d’allocation, l’équi-pondération (1/N), bat très largement des règles plus sophistiquées, y compris celle de Markowitz qui alloue les actifs en fonction de leurs risques et de leurs rendements. Pour que la complexité retrouve un avantage dans un tel exemple, il faudrait que le nombre de données utilisées dépassent 3000, ce qui représente 15 années de données journalières ou 250 années de données mensuelles. De tels échantillons existent mais leurs tailles posent d’autres problèmes.

De la complexité à prévoir les faillites, mesurer le capital et modéliser les risques.

Le résultat est qu’avec des outils très sophistiqués, la crise n’a pu être évitée. A postériori , lorsque l’on fait passer par les grilles d’analyse des ratios réglementaires toutes les banques étant passées par un processus de résolution depuis le début de la crise, à aucun moment, les critères réglementaires relatifs au capital n’ont été significatifs pour déceler le risque de faillite. Les auteurs lient cet échec aux difficultés d’utiliser des mesures de capital basées sur une pondération des risques et devenues donc de plus en plus complexe, pour les mêmes raisons citées précédemment que trop de complexité tue la pertinence.

Les modèles utilisés ont tellement d’équations et de paramètres que leur calibrage devient impossible par manque d’un nombre significatif de données. Les auteurs se sont livrés à un petit exercice de simulation de comparaisons de capacité prédictive de modèles mathématiques simples (moyennes mobiles) et de modèles mathématiques complexes (Garch (5,5)) appliqué à des portefeuilles de risque simulés. Ils font varier le nombre d’observations utilisées pour calibrer le modèle. Les résultats montrent que le modèle simple bat systématiquement le modèle complexe tant que le nombre d’observations ne dépasse pas 250.000 jours (soit un millénaire !).

Le résultat est que les mêmes excès simplement constatés dans les années 20 ont conduit aux mêmes calamités et toute l’intelligence, la recherche et les moyens développés dans l’intervalle semblent n’avoir rien changé.

La mise en parallèle de l’indicateur de cours sur actif net d’une population de 13 banques entre 1928 et 2007 est à ce sujet tout à fait parlant.

Olivier Dyer

Cet article est extrait d’un article publié initialement dans la Lettre n°63  du cabinet 99 ADVISORY.

Il complète l”article “Le chien et le frisbee: plaidoyer pour plus de simplicité dans la finance” .