La volatilité dit-elle vraiment le risque ?

Ce que mesurent nos outils… et ce qu’ils ne mesurent pas

Mesurer le risque est probablement l’acte le plus structurant – et le plus fragile – du conseil en gestion de patrimoine. Fragile, parce que derrière une apparente rigueur mathématique se cachent des conventions, des simplifications, parfois même des fictions collectivement acceptées.

La volatilité est devenue, depuis des années, la métrique centrale. Elle est partout : dans les questionnaires investisseurs, les documents réglementaires, les profils de risque, les rapports d’adéquation. Mais que mesure-t-on réellement quand on parle de volatilité ? Et surtout : comment doit-on l’agréger lorsqu’un client détient plusieurs produits financiers ?

C’est précisément à cette frontière entre mathématiques, réglementation et pratique professionnelle que se situe le débat.

La volatilité : une mesure statistique, pas une vérité économique

D’un point de vue strictement financier, la volatilité mesure un écart-type des rendements passés sur une période donnée (1 an, 3 ans, 5 ans). Elle ne mesure ni la perte maximale, ni la probabilité de ruine, ni le stress psychologique d’un investisseur. Elle mesure la dispersion historique autour d’une moyenne.

Autrement dit : ✔️ c’est un indicateur de variabilité ❌ ce n’est pas une mesure exhaustive du risque réel

L’AMF elle-même, dans ses positions et recommandations, rappelle régulièrement que le risque ne se limite pas à un seul indicateur chiffré, et que la compréhension par le client prime sur la sophistication des calculs.

Le cadre réglementaire : un résultat à respecter, pas une méthode imposée

Un point est fondamental et souvent mal compris : 👉 l’AMF n’impose aucune formule mathématique officielle pour calculer la volatilité d’une allocation multi-produits.

Ce qu’elle exige, en revanche, c’est :

  • l’identification du profil de risque du client,
  • la cohérence entre ce profil, l’horizon de placement et la solution proposée,
  • la capacité pour le professionnel de justifier cette cohérence dans le rapport d’adéquation.

Le résultat doit être intelligible, traçable et défendable. La méthode, tant qu’elle est cohérente et prudente, relève de la responsabilité du professionnel.

Un premier niveau d’agrégation… déjà imparfait

Dans la pratique, chaque support financier arrive déjà avec sa propre volatilité agrégée.Cette volatilité intègre elle-même :

  • des dizaines voire des centaines d’actifs,
  • des corrélations internes,
  • des choix de gestion.

Autrement dit, une première “boîte noire” existe déjà.Lorsque l’on combine ensuite plusieurs supports, on empile des indicateurs qui ont chacun déjà gommé une partie de la réalité mathématique du risque.

C’est un point essentiel : le chiffre de volatilité fourni par un fonds n’exprime pas la corrélation avec les autres fonds du portefeuille. Il exprime un risque interne, pas un risque systémique.

La question centrale : comment agréger le risque de plusieurs produits ?

Deux grandes écoles coexistent aujourd’hui dans la profession.

Première école : la moyenne pondérée des volatilités
C’est l’approche la plus répandue dans les outils.

On calcule une moyenne pondérée (arithmétique) des volatilités des produits, proportionnellement aux montants investis.Exemple :

  • 50 % sur un support à 15 % de volatilité
  • 50 % sur un support à 5 %

👉 Volatilité moyenne affichée : 10 %

Cette approche a un avantage décisif : ✅ elle est simple, lisible, explicable ✅ elle permet une vérification automatisée de l’adéquation ✅ elle est cohérente avec la logique de diversification “produit”

Mais mathématiquement, elle est approximative. La vraie formule de la volatilité de portefeuille dépend des corrélations entre actifs. Et cette moyenne n’est strictement correcte que si les actifs sont parfaitement corrélés entre eux — ce qui n’est presque jamais le cas.

Seconde école : le respect strict du plafond sur chaque ligne

Certaines pratiques considèrent que :


si un client accepte une volatilité maximale de 10 %, aucun produit du portefeuille ne devrait dépasser ce seuil.

Cette approche est :

  • plus conservatrice,
  • plus protectrice juridiquement,
  • mais aussi plus restrictive.

Elle revient à considérer que l’effet de diversification ne peut jamais être utilisé pour justifier un dépassement, même partiel, du seuil de risque accepté.

Le choix pragmatique de Capital Explorer

Capital Explorer fait un choix volontairement prudent et transparent.

  1. Au niveau du portefeuille interne à chaque produit, la volatilité affichée est déjà une volatilité agrégée.
  2. Au niveau de la solution globale, le contrôle d’adéquation repose sur une moyenne arithmétique pondérée des volatilités, en fonction des montants investis et de l’horizon de placement.
  3. La responsabilité finale reste entre les mains du CGP, qui doit vérifier que chaque produit, pris isolément, reste cohérent avec le profil du client.

Autrement dit :

  • l’outil effectue un contrôle global,
  • le professionnel exerce son jugement ligne par ligne.

Ce double niveau de lecture permet :

  • d’éviter les aberrations,
  • de rester dans un cadre compréhensible pour le client,
  • et de ne pas prétendre à une précision mathématique illusoire.

Pourquoi ne pas aller plus loin mathématiquement ?

Parce que, dans la majorité des cas :

  • les données de corrélation entre fonds ne sont pas disponibles,
  • les actifs sous-jacents ne sont pas homogènes ni cotés,
  • certains supports (SCPI, structurés, non coté) reposent sur des évaluations largement conventionnelles.

Simuler une volatilité “exacte” dans ces conditions serait donner une fausse impression de scientificité.

L’AMF ne le demande pas. Les clients ne le comprendraient pas. Et le gain réel en protection serait discutable.

Un débat sain… et nécessaire

La vérité est simple : 👉 il n’existe pas aujourd’hui de méthode parfaite et universelle de calcul du risque patrimonial.

La volatilité reste un indicateur utile, mais incomplet. Le véritable rôle du conseil n’est pas de produire un chiffre exact, mais de :

  • contextualiser le risque,
  • l’expliquer,
  • le comparer à la capacité réelle du client à l’absorber,
  • et, le cas échéant, le réduire.

En ce sens, le calcul retenu dans Capital Explorer n’est pas une vérité mathématique absolue. C’est un compromis professionnel, aligné avec la réglementation, les pratiques de place et une logique de responsabilité.

Conclusion : mieux vaut un risque compris qu’un risque “bien calculé”

L’enjeu du rapport d’adéquation n’est pas d’avoir la formule la plus sophistiquée, mais la décision la plus défendable. La petite coche verte sur l’écran n’est pas un symbole mathématique ; c’est un engagement de cohérence.

Dans un univers où une grande partie du risque est déjà estimée, agrégée, et parfois approximée en amont, l’honnêteté intellectuelle reste la meilleure protection du conseiller… et du client.

Et peut-être est-ce là la véritable mesure du risque :ce que l’on comprend vraiment, et ce que l’on est capable d’assumer.