Compte rendu du Axioma Quant Forum 2015, qui s’est tenu à Londres

Post with image

Les présentations organisées dans le cadre de l’incontournable conférence Axioma traitaient de la quantification des risques macroéconomiques, de l’utilisation des données fondamentales – telles que les données ESG et comptables – dans un processus d’investissement systématique et enfin de la performance des portefeuilles multifactoriels. BNP Paribas Asset Management a exposé sa récente étude sur la décomposition du risque lié au ratio de financement.

 

Quantification des risques macroéconomiques

Sebastian Ceria, CEO d’Axioma, a donné le coup d’envoi du forum. Traditionnellement, la méthode utilisée pour effectuer un test de résistance consiste à transposer un portefeuille actuel dans un certain nombre de périodes historiques marquées par des tensions. Le principal inconvénient de cette approche est que les périodes historiques peuvent ne pas être fidèles aux dynamiques anticipées. M. Ceria a évoqué la « résolution des risques », une façon novatrice de tester la résistance de portefeuilles d’actions à l’aide d’un modèle factoriel préexistant pour les actions. Habituellement, les facteurs de fixation des prix de ces modèles sont totalement intrinsèques aux actions, comme la performance globale du marché des actions, les secteurs boursiers et les paramètres des styles d’investissement dans les actions (tels que la taille, la valeur et le momentum). Le secret de l’approche de résolution des risques consiste à définir la relation unissant les facteurs macroéconomiques aux facteurs de fixation des prix dans le modèle d’actions. Par exemple, si la relation entre le taux d’intérêt à 10 ans et les facteurs de fixation des prix des actions a été établie, il est possible de faire subir un choc au taux d’intérêt, de le transposer en chocs sur les facteurs d’actions qui se transmettent ensuite au modèle d’actions existant ; ce dernier produit la valeur choquée du portefeuille d’actions. M. Ceria a insisté sur le fait que l’évaluation de la relation entre les facteurs préexistants du modèle et les variables macroéconomiques peut revêtir une importance non négligeable. La période utilisée pour l’estimation des équations est particulièrement cruciale, car les relations peuvent être fortement non stationnaires.

L’équipe organisatrice de l’événement a eu la gentillesse de me laisser présenter notre document intitulé « Decomposing Funding Ratio Risk: Providing pension funds with key insights into their liabilities hedge mismatch and other factor exposures ». Cette étude décrit une méthode innovante, qui appréhende la façon dont le ratio de financement d’un fonds de pension donné est exposé aux risques macroéconomiques, tels que les risques de taux d’intérêt, d’inflation, de spread de crédit et les risques purement liés aux actions. Pour de plus amples détails, veuillez vous référer à nos blogs précédents « Fonds de pension : mieux comprendre le risque lié au ratio de financement », partie 1 et 2.

Utilisation des données fondamentales dans le cadre d’une approche systématique

Trois présentations traitent de ce sujet. Elles ont été réalisées par Gerben de Zwart et Maarten Smit, tous deux travaillant pour APG Asset Management, Yin Luo de Deutsche Bank et Söhnke Bartram de la Warwick Business School

MM. De Zwart et Smit ont évoqué les efforts d’APG pour intégrer les principes environnementaux, sociaux et de gouvernance (ESG) dans ses stratégies systématiques sur actions. Ce domaine comporte selon eux son lot de défis. Par exemple, les fournisseurs de données ESG travaillent avec leurs propres définitions, leur propre méthodologie et leurs propres données. De ce fait, leurs classements ESG sont souvent faiblement corrélés. En outre, les données n’évoluent que lentement dans le temps. De son côté, la littérature n’est pas non plus toujours très limpide dans ses conclusions au sujet du rapport entre les facteurs ESG et les performances escomptées des sociétés. Toutefois, le lien qui unit les principes ESG aux niveaux de risque, à savoir que des classements ESG médiocres ont tendance à accroître les risques futurs, est plus généralement accepté. Dans ce contexte, de nouveaux résultats d’analyse en régression obtenus par APG ont été présentés. Premièrement, il est apparu que les classements actuels des variables ESG d’évolution lente étaient négativement corrélés aux risques intrinsèques des actions pour les 12 mois à venir. Deuxièmement, une variable d’évolution rapide mesurant les mauvaises nouvelles pour les entreprises a été elle aussi examinée ; il en est ressorti que les mauvaises nouvelles, caractérisées par des formulations comportant des termes tels que « pot-de-vin », « corruption », « scandale » etc., doivent selon les anticipations se traduire par une hausse ultérieure des risques intrinsèques des actions.

M. Luo a montré de quelle façon le modèle de Black et Litterman (BL) pouvait s’appliquer à la construction d’un portefeuille. L’idée fondamentale qui sous-tend le modèle de BL consiste à tenir compte de la confiance dans les anticipations de performance. Par exemple si un investisseur table sur une performance très robuste pour une action donnée, mais sans grande conviction, alors le modèle de BL ramènera cette anticipation vers un niveau plus normal. Moins l’investisseur sera confiant, plus l’anticipation sera atténuée. Le principal exemple de M. Luo traitait de la combinaison de signaux purement quantitatifs, produits à partir de modèles exclusifs, avec des signaux fondamentaux repris dans les recommandations des analystes « sell-side ». Il s’est avéré que le modèle de BL produit de bons résultats en termes de back-testing pour des indicateurs tels que le ratio de Sharpe, le ratio d’information et l’erreur de suivi et qu’il surpasse ou égale des techniques de construction de portefeuille plus conventionnelles.

Le professeur Bartram a présenté les travaux qu’il a réalisés en commun avec Mark Grinblatt, professeur à l’UCLA Anderson School of Management. Pour commencer, M. Bartram se pose une question simple, mais captivante dans le contexte du débat sur l’investissement actif/passif : « Puis-je, en tant que statisticien peu familier des chiffres comptables, exploiter les données mises à la disposition du public dans les bilans et les comptes de résultat trimestriels et en tirer des bénéfices ? » Pour répondre à cette question, une modélisation de la juste valeur basée sur une régression a été établie, faisant correspondre des capitalisations boursières effectives à un ensemble de 28 éléments comptables couramment publiés. Chaque mois, le cours effectif de chaque action était comparé au cours de la juste valeur du modèle. Le signal de trading qui en résultait était ensuite utilisé dans des stratégies de négociation. En fonction de la configuration précise de la stratégie de négociation mais aussi de la méthode d’ajustement des risques appliquée, il est apparu qu’une telle stratégie de négociation pouvait dégager un rendement anormal corrigé des risques de 4 à 9 % par an. Cela laisse penser que le marché d’actions ne reflète pas la totalité des informations disponibles dans les données comptables et qu’il est par conséquent inefficace. Il est regrettable toutefois que l’analyse ne tienne pas compte des coûts de négociation.

Passer les facteurs au peigne fin au sein d’un portefeuille

Enfin, Jennifer Bender de State Street Global Advisors et Nick Baltas d’UBS Investment Bank ont étudié les portefeuilles multifactoriels.

S’il est intéressant de combiner de multiples facteurs au sein d’un portefeuille, c’est parce que cela permet des gains de diversification dans un environnement général de facteurs peu corrélés. Jennifer Bender s’est demandé comment construire un portefeuille multifactoriel dans l’univers des actions en prenant comme facteurs la valeur, la qualité, le momentum et la faible volatilité. Faut-il partir des titres individuels et allouer la majeure partie des actifs aux actions obtenant les meilleurs scores multidimensionnels aux quatre facteurs ? Ou bien serait-il plus judicieux de construire d’abord quatre portefeuilles unidimensionnels pour chacun des facteurs, puis d’allouer les fonds à ces portefeuilles ? La différence majeure entre ces deux approches réside dans les effets d’interaction des facteurs au niveau de chaque action individuelle. Jennifer Bender a conclu que les deux approches produisent des résultats tout à fait divergents, et que la première méthode permet de mieux affiner l’arbitrage risque-rendement global. Je suis cependant d’avis que les résultats de ces deux approches ne sont pas si différents. En outre, l’analyse n’a pas donné de vue d’ensemble des expositions factorielles – ni des bêtas de marché – générés par les deux approches. Les écarts au niveau d’une ou plusieurs expositions factorielles et/ou bêtas de marché ne peuvent-ils pas expliquer les écarts de performance constatés ?

En se basant sur un ensemble de contrats à terme individuels par classe d’actifs, M. Baltas a étudié les combinaisons des facteurs de performance au sein de quatre classes d’actifs différentes : actions, obligations d’État, matières premières et changes. Travaillant avec des facteurs tels que la valeur, le momentum et le suivi de tendance, il a constitué des portefeuilles quantiles long-short par classes d’actifs puis les a combinés pour chaque facteur. Ainsi, par exemple, le « momentum cross-asset » combine quatre quantiles de momentum long-short, un pour chaque classe d’actifs. M. Baltas a également défini des combinaisons de plusieurs paramètres, tels que le facteur « valeur cross-asset plus suivi de tendance. » Pour finir, il s’est penché sur le facteur de la faible volatilité pour chacune des quatre classes d’actifs, mais cette fois sans établir de combinaison transversale. Les principales conclusions de ce travail de longue haleine sont les suivantes : 1) le facteur « valeur cross-asset » et le facteur « valeur cross-asset plus momentum » ont signé des performances médiocres au cours de la récente décennie ; 2) le facteur « suivi de la tendance cross-asset » a présenté la configuration la plus solide mais s’est avéré neutre après 2008 et 3) les actions comme les obligations d’État ont été sensibles au facteur « faible volatilité ».

Erik Kroon

Research manager, Financial Engineering

Laisser un commentaire

Your email adress will not be published. Required fields are marked*