Quotidien finance innovation, innovation financière journal
Financial Year with Finyear
 
 
 
 


              

Une nouvelle crise après trois à quatre années chaotiques : une série fatale en matière de dépréciations d’actifs ?


Par Laurent Inard, Associé Mazars




Les perspectives de sortie de crise augurées fin 2010 auront donc fait long feu. La succession des évènements sur ces cinq derniers mois de 2011 a, à partir de la sphère financière, muté en une crise économique. Dans le même temps, les marchés financiers internationaux ont réagi par une baisse générale des cours sur fond de volatilité extrême. Pour ne citer que cet indice, le CAC 40 aura enregistré une baisse de 20% sur la période et de 16% sur un an.

C’est donc dans un environnement global particulièrement anxiogène et à visibilité réduite que les responsables financiers ont à conduire les tests de dépréciations pour la clôture des comptes du 31 décembre 2011.

Même si la norme IAS36 n’est pas naturellement pro-cyclique car requérant d’adopter une perspective de long terme, il ne saurait inversement être fait totalement abstraction de la situation des cinq derniers mois ; d’ailleurs, la norme IAS36 prévoit elle-même parmi les indices de perte de valeur le fait qu’une valeur comptable d’actif net puisse se trouver supérieure à sa capitalisation boursière.
Les tests de dépréciation sont susceptibles d’être affectés par les principaux éléments suivants : coût des ressources financières, prévisions d’espérances de revenus futurs de l’entreprise, niveau d’incertitude autour de ces prévisions.

(a) Un renchérissement du coût des ressources financières ?

La méthodologie la plus répandue pour sa détermination est celle du coût moyen pondéré du capital (CMPC), assorti d’un coût du capital approché par le modèle d’évaluation des actifs financiers (MEDAF). Parmi les paramètres financiers constitutifs du taux d’actualisation, la détermination du taux sans risque, l’émergence de risques-pays non négligeables en zone euro, ou encore l’appréhension du coût de la dette, méritent une instruction plus particulière cette année.

Taux sans risque :
Le taux sans risque est traditionnellement approché par référence au taux des obligations d’Etat (sur des maturités de l’ordre de 10 ans ou plus). Or cette pratique pose implicitement pour hypothèse le caractère négligeable du risque souverain, actuellement infirmé sur nombre de pays, notamment en zone euro. Dans ce cadre, la détermination d’un taux sans risque « pur » reste périlleuse. Les tentations de référence aux taux allemands posent notamment question, ces derniers s’avérant conjoncturellement très bas sans doute du fait d’un accroissement de l’aversion au risque (phénomène dit de « fly to quality »), en témoigne en ce début 2012 la souscription d’obligations à taux négatif (certes sur de courtes maturités). Par ailleurs, pour ce qui concerne la prime pays, sa prise en compte constitue le cas courant, même si une prise en compte partielle peut être légitime en fonction de situations et caractéristiques particulières notamment relatives à l’exposition de l’activité aux marchés domestiques amont, aval, financier etc.

Au-delà de ces considérations, il convient au final de faire preuve de pragmatisme en appréhendant le couple taux sans risque (RFR) et prime de marché actions (ERP), par rapport aux fourchettes usuellement pertinentes pour le long terme.

Lorsque la prime-pays reste de niveau raisonnable (cas de la France, entre autres, où les taux des OAT 10 ans avant 2007 étaient de l’ordre de 4,3%, soit des niveaux supérieurs à ceux observés fin 2011, et ce malgré la prime-pays implicite…), il n’apparaît pas déraisonnable de rester sur la référence OAT et donc d’inclure, sauf exception patente, la prime-pays dans le test du couple RFR+ERP. Pour certains pays éprouvant des difficultés plus aigües, il sera nécessaire de procéder à une analyse plus fine de la part de la prime-pays à reporter sur le CMPC.

Taux d’intérêts de la dette :
Les spreads de financement ont connu une hausse générale assortie d’un écart accru d’une gradation à l’autre dans les notations de crédit. Ces évolutions, pour récentes et rapides qu’elles aient pu être, ne sauraient être écartées hâtivement en arguant du caractère long terme de l’approche de valorisation à mettre en œuvre, dans la mesure où les notations de crédit elles-mêmes se situent dans une perspective de moyen-long terme.
La question du poids de la dette au sein du CMPC se pose également. Dans le cadre de la détermination d’un ratio d’endettement moyen sectoriel ou gearing, les échantillons de sociétés cotées comparables ont toutes les chances d’afficher un ratio d’endettement en hausse par la simple mécanique de la chute des capitalisations boursières. Ce mouvement à la hausse est conjoncturel, subi par les entreprises et ne reflète donc pas leur stratégie d’endettement de long terme.
Au final, c’est l’ensemble ratio d’endettement et spread de financement qu’il convient d’appréhender en cohérence. L’effet du spread de financement sur le CMPC devrait généralement au moins compenser l’effet de hausse du gearing.

(b) Un infléchissement des espérances de revenus futurs de l’entreprise ?

Les prévisions d’activité constituent un élément clé des tests de dépréciation, et sont très délicates à établir dans un contexte de visibilité réduite.
Parmi les facteurs d’exposition ou a contrario de résilience peuvent être citées : zones géographiques opérées, duration des contrats, du carnet de commandes, niveau de pricing power, niveau d’exposition aux arbitrages clients, capacités de rattrapage des périodes de moindre activité, part des coûts fixes dans la structure de coûts, remise en cause temporaire ou durable du business model…

Tous ces éléments sont délicats à anticiper, d’une part car tout changement de contexte est toujours difficile à estimer en ampleur et durée, et d’autre part car la situation n’est pas stabilisée et que des bouleversements macro-économiques peuvent encore intervenir. Il est alors d’usage de préconiser une approche par scenarii, mais il faut bien convenir du caractère assez théorique de cette approche : définir un jeu de scenarii (et les pondérer) ne s’avère que rarement plus aisé. A défaut, des études de sensibilité à certains paramètres trouveront une utilité certaine.

L’Autorité des Marchés Financiers insiste précisément dans ses recommandations relatives à l’arrêté 2011 sur la nécessité de mettre en œuvre des analyses de sensibilité (et de les communiquer), en ne se cantonnant pas seulement aux classiques sensibilités sur les taux d’actualisation et de croissance long terme, mais en faisant apparaître également d’autres paramètres clés (économiques mais aussi opérationnels) concernant les prévisionnels.

(c) L’accroissement de l’incertitude autour des prévisions à prendre en compte ?

L’accroissement des incertitudes autour des prévisions trouve son illustration dans les commentaires précédents relatifs à la mise en œuvre de scenarii ou d’analyses de sensibilités. Au-delà, il convient par ailleurs de rappeler que les prévisions constituent des espérances de flux, et qu’une dispersion accrue des flux autour de leur espérance est susceptible d’avoir une incidence négative sur la valeur, pour des investisseurs averses au risque.

Or si l’aversion au risque est une composante clé de la prime de marché actions, celle retenue dans le cadre des CMPC utilisés pour les tests de dépréciation n’est pas du niveau de la prime du marché actions spot. L’incertitude accrue autour des prévisions n’est donc pas automatiquement intégrée dans la prime de marchés utilisée pour les besoins du test.

L’incidence de l’aversion aux incertitudes est délicate à quantifier car elle dépend de l’aversion au risque des investisseurs et prêteurs, aversion non nécessairement stable dans le temps ; par ailleurs, il convient de s’assurer que les prévisionnels ne présentent pas déjà un caractère conservateur (dans une approche intuitive ou consciente de type Value at Risk)... Dans la négative, il y aura lieu de considérer des sensibilités sur le CMPC, et/ou de retenir pour le cas central un couple RFR+ERP plutôt dans la moitié haute de leur fourchette usuellement pertinente pour un taux de long terme.

Finalement, on le voit, le contexte de turbulence et de visibilité réduite de ces derniers mois conduit naturellement à une complexité accrue dans la mise en œuvre des tests de dépréciation. Dans le cadre des Valeurs d’Utilité qui nécessitent de se placer dans une perspective de « long terme », les difficultés proviennent souvent de la distinction à faire entre la part des effets « conjoncturels » et ceux plus « pérennes » s’appliquant sur les données-sources et paramètres retenus (taux d’actualisation, flux de trésorerie futurs, flux normatif et taux de croissance à l’infini).

Les prévisions de flux et leurs hypothèses sous-jacentes constituent l’élément-clé d’attention, avec des problématiques différentes selon les secteurs et sociétés, tandis qu’au niveau des taux d’actualisation, et même s’il n’est pas possible de tirer des généralités, il n’est a priori pas attendu d’évolution de taux substantiellement à la hausse ; les développements précédents relatifs aux différents paramètres augurent plus probablement d’une hausse très légère à modérée.

Quant à l’émergence ou non de dépréciations, celle-ci dépendra donc en premier lieu des prévisions de flux, ainsi que de la situation comptable des actifs (par exemple des écarts d’acquisition provenant d’acquisitions relativement récentes conclues selon des TRI proches du CMPC des tests de dépréciation, augurent d’une sensibilité plus grande aux tests).

La crise impose en tout état de cause une vigilance accrue quant à la réalisation des impairment tests et rend d’autant plus opportune la mise en œuvre d’analyses de sensibilité.

www.mazars.fr

Mardi 28 Février 2012
Notez




Nouveau commentaire :
Twitter

Your email address will not be published. Required fields are marked *
Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *



Recevez la newsletter quotidienne


évènements


Lettres métiers


Livres Blancs