PRÉVOIR LA BOURSE ET VOTRE PATRIMOINE GRÂCE AUX SIMULATIONS DE MONTE-CARLO
Alors attention, avant de commencer la lecture de cet article, je dois tout de suite vous dire qu’il s’agit d’un thème très intéressant, mais tout de même un peu complexe. Je vais tout de même essayer de rendre cela le plus digeste possible. Aussi, c’est un article qui sera utile pour comprendre certains articles sur la gestion de patrimoine que j’ai prévu d’écrire. Par ailleurs, je fais parfois référence à cette technique dans mes livres.
Les simulations de Monte-Carlo sont utilisées dans plein de domaines dont la physique des particules. En finance, cela sert à répondre à des questions « Quel sera le niveau du CAC 40 dans 10 ans ? », « Quel sera mon patrimoine dans 40 ans ? » ou encore « De quel montant ai-je besoin à la retraite ? ». Cela paraît étonnant, cependant c’est bien le cas.
Commençons par tenter de répondre à la question « quel sera le niveau de la bourse dans le futur ? ». Vous le savez la bourse a, depuis 1900, fait 5% à 6% net d’inflation par an. Donc, il est tentant de partir là-dessus pour le futur. Cependant, les cours sont très variables. Cette variabilité est mesurée par ce que l’on appelle la volatilité. On peut partir du postulat que les cours de bourse évoluent purement au hasard et suivent une courbe de Gauss (une loi normale). Vous savez probablement que c’est une loi très répandue dans l’univers et beaucoup de choses sont réparties statistiquement sur la base de ce modèle. On pense, par exemple, au quotient intellectuel. La plupart des gens sont « moyens » ou « normaux », avec un QI autour de 100 et plus on s’éloigne de 100 moins, il y a de gens. C’est pareil en bourse, chaque année il y a beaucoup de chance d’avoir une performance entre 5 à 10% (net d’inflation), mais peu de chance d’avoir une performance supérieure à 50%. Pour construire une courbe de Gauss nous avons besoin de deux données en entrée (qu’on appelle des moments) : la moyenne (rappelons, comme je l’écris dans mon livre, que la moyenne des performances n’est pas égale à la performance annualisée) et la volatilité (la racine carrée de la variance qui est par définition la moyenne des carrés des écarts à la moyenne). On peut raffiner le modèle en ajoutant des « modificateurs », tels que le Kurtosis ou le Skewness.
Typiquement une courbe de Gauss avec une moyenne de 7% et une volatilité de 20%, ce qui correspond aux actions mondiales sur le long terme (net d’inflation), ressemble à ça :
Vous avez en abscisse la performance (par pas de 5%) et en ordonnées la probabilité. Il y a 55% de chance d’avoir une performance entre -5% et 20%. Aussi, il y a à peu près 25% de chance de faire moins de -10% et 25% de chance de faire plus de 25%.
Naturellement, ce n’est pas la vraie vie. Sans rentrer dans le détail, voilà à quoi ressemble la distribution de la performance mensuelle annualisée du S&P 500 depuis 1950 (hors dividendes), avec en superposition la courbe de Gauss théorique :
On voit, par exemple, qu’il y a des événements extrêmes qui ne sont pas prédits par la théorie. D’ailleurs, petite anecdote, vous avez peut-être déjà lu que le Krach de 1987 n’aurait jamais dû arriver. En effet, le 19 octobre 1987 la bourse a perdu (en une journée !) plus de 20%. Selon le modèle de la loi normale, ce n’est pas possible. Il y a en effet une chance sur 5 millions, qu’un mois boursier fasse moins de -20%. C’est censé arriver tous les 500 000 ans ! Pourtant c’est bien arrivé en octobre 1987 (-21,8%).
Aussi (ce graphique ne le montre pas), les séquences des performances boursières ne se font pas parfaitement au hasard. D’une part, à court terme, il y a un effet momentum : ce qui a monté a plus de chance de continuer à monter. D’autre part, à moyen terme, il y a un effet « retour à la moyenne» : ce qui a fortement baissé a plus de chance de fortement remonter.
Cependant, bien qu’imparfaite (comme tout modèle), la loi normale est utile. On peut sortir un nombre au hasard qui donne la performance de la bourse, mais en respectant la performance moyenne et la volatilité. On n’est pas limité sur le nombre de tirages. C’est justement ce que fait une simulation de Monte-Carlo. On va demander à son tableur : fait 10 000 fois l’évolution au hasard sur 40 ans de la bourse … On aura donc bien un éventail de possibilités.
Sous Excel cela donne ça :
Et voilà la représentation graphique de l’évolution de 100 euros en bourse de 100 tirages au hasard :
En faisant 10 000 tirages, on s’aperçoit qu’il y a moins de 2% de chance d’avoir une performance négative sur 40 ans.
Maintenant, que se passe-t-il si l’on épargne 200 € par mois, en augmentant chaque année sa contribution de 3% (son augmentation salariale) et en l’investissement entièrement en actions ?
On voit clairement la répartition des possibilités (pour les matheux, on peut observer, « sans surprise », que les retours composés d’une répartition normale deviennent une répartition log-normale). C’est approximatif, comme tout modèle, mais très utile. Pour information, il y a 50% de chance d’obtenir plus de 500 k€ (en ayant mis 180 k€).
Évidemment, il est possible de raffiner le modèle, en choisissant des distributions de la performance qui ne suivent pas une loi normale, de modifier les hypothèses, de choisir plusieurs données en entrée suivant des distributions avec des lois différentes (mettre de l’aléatoire dans son augmentation de revenu, par exemple), etc. Il existe bien sûr des logiciels spécialisés sur le sujet. Aussi, vous pouvez utiliser cet excellent site web américain, Portofolio Vizualizer.
Autre point important, c’est en faisant ce type de simulations que l’on peut montrer qu’il est possible de retirer 40 000 euros par an d’un portefeuille diversifié (en actions et obligations) d’un million d’euros sans jamais tomber à court d’argent. C’est ce que l’on appelle « la règle des 4% » (il s’agit de 4%, ajusté de l’inflation, du montant du portefeuille initial et non de chaque année). À mon sens, pour de nombreuses et diverses raisons, comme je l’explique dans mon livre, ce seuil de 4% fait prendre trop de risques. Je partirais plutôt sur du 3%.
Comme pour tout modèle, le résultat va hautement dépendre des données en entrée. Cependant, je pense que c’est un outil de réflexion réellement intéressant pour les épargnants prévoyants qui veulent piloter leur patrimoine avec finesse et optimiser leur gestion du risque.
Bonjour,
Nous réalisons actuellement un mémoire et à travers notre étude nous tentons de superposer l’histogramme des rendements de différents indices avec une loi normale comme vous l’avez fait.
Cependant, nous n’arrivons pas à un graphique aussi propre que le votre, votre aide serait un atout précieux.
Voici mon contact : maxence.reffet@hotmail.fr
Je vous remercie par avance.
Bien à vous,
Maxence
Bonjour,
La modélisation d’événements extrêmes tels les krachs boursiers ne se fait pas bien par une gaussienne car la queue de distribution est alors sous estimée. Il existe une théorie statistique appelée théorie des événements rares (ou extrêmes) qui permet de modéliser, je pense, plus finement la survenue des krachs. Il existe même des packages R qui traitent du sujet: https://cran.r-project.org/web/views/ExtremeValue.html
Bonjour,
Oui le sujet des “fat tails” est important et largement étudié (je connais ce package …). Comme je disais la Gaussienne sous évalue les événements rares – les krachs; mais sous évalue aussi la performance à long terme, parce qu’elle ne prend pas en compte le phénomène de retour à la moyenne (d’ailleurs, plus on allonge la durée d’analyse plus la volatilité baisse).
3 % d’augmentation par an… Ça laisse rêveur ! J’en suis à 0,73 % pour les 4 dernières années (0,73 pour les 4 ans).
Merci en tout cas pour cet article et tous les autres d’ailleurs (sans parler des 2 livres).
Il faudrait que je regarde les augmentations moyenne par typologie de population – c’est sur ma to do …