L'hypothèse du marché efficace indique que les marchés financiers sont «efficaces sur le plan de l'information» en ce que les prix des actifs négociés reflètent à tout moment toutes les informations connues. Mais si cela est vrai, pourquoi les prix varient-ils d'un jour à l'autre malgré l'absence de nouvelles informations fondamentales? La réponse implique un aspect qui est souvent oublié parmi les commerçants individuels: la liquidité.
De nombreux grands métiers institutionnels tout au long de la journée n'ont rien à voir avec l'information et tout à voir avec la liquidité. Les investisseurs qui se sentent surexposés couvriront ou liquideront agressivement leurs positions, ce qui finira par affecter le prix. Ces demandeurs de liquidité sont souvent disposés à payer un prix pour quitter leurs positions, ce qui peut entraîner un profit pour les fournisseurs de liquidité. Cette capacité à tirer profit des informations semble contredire l'hypothèse d'un marché efficace, mais constitue le fondement de l'arbitrage statistique.
L'arbitrage statistique vise à capitaliser sur la relation entre prix et liquidité en profitant de la mauvaise valorisation statistique d'un ou plusieurs actifs sur la base de la valeur attendue des actifs générée à partir d'un modèle statistique.
Qu'est-ce que l'arbitrage statistique?
L'arbitrage statistique est né dans les années 1980 de la demande de couverture créée par les opérations du bureau de négociation de blocs d'actions de Morgan Stanley. Morgan Stanley a pu éviter les pénalités de prix associées aux achats de gros blocs en achetant des actions dans des actions étroitement corrélées comme couverture contre sa position. Par exemple, si l'entreprise achète un grand bloc d'actions, elle court-circuite une action étroitement corrélée pour se protéger contre toute baisse importante du marché. Cela a effectivement éliminé tout risque de marché alors que l'entreprise cherchait à placer le stock qu'elle avait acheté dans une transaction en bloc.
Les traders ont rapidement commencé à penser à ces paires non pas comme un bloc à exécuter et sa couverture, mais plutôt comme les deux côtés d'une stratégie commerciale visant à générer des bénéfices plutôt qu'à se couvrir simplement. Ces échanges de paires ont finalement évolué vers diverses autres stratégies visant à tirer parti des différences statistiques des prix des titres en raison de la liquidité, de la volatilité, du risque ou d'autres facteurs. Nous classons maintenant ces stratégies comme arbitrage statistique.
Types d'arbitrage statistique
Il existe de nombreux types d'arbitrage statistique créés pour tirer parti de plusieurs types d'opportunités. Alors que certains types ont été supprimés progressivement par un marché plus efficace, plusieurs autres opportunités se sont présentées pour prendre leur place.
Arbitrage des risques
L'arbitrage des risques est une forme d'arbitrage statistique qui vise à profiter des situations de fusion. Les investisseurs achètent des actions dans la cible et (s'il s'agit d'une transaction sur actions) court-circuitent simultanément les actions de l'acquéreur. Le résultat est un profit réalisé à partir de la différence entre le prix de rachat et le prix du marché.
Contrairement à l'arbitrage statistique traditionnel, l'arbitrage des risques implique de prendre certains risques. Le plus grand risque est que la fusion échoue et que l'action de la cible retombe à ses niveaux d'avant la fusion. Un autre risque concerne la valeur temps de l'argent investi. Les fusions qui mettent beaucoup de temps à se réaliser peuvent affecter les rendements annuels des investisseurs.
La clé du succès dans l'arbitrage des risques est de déterminer la probabilité et l'opportunité de la fusion et de la comparer avec la différence de prix entre l'action cible et l'offre de rachat. Certains arbitragistes du risque ont également commencé à spéculer sur des objectifs de rachat, ce qui peut conduire à des bénéfices sensiblement plus élevés avec un risque tout aussi élevé.
Arbitrage de volatilité
L'arbitrage de volatilité est un type populaire d'arbitrage statistique qui vise à tirer parti des différences entre la volatilité implicite d'une option et une prévision de la volatilité future réalisée dans un portefeuille neutre en delta. Essentiellement, les arbitrageurs de volatilité spéculent sur la volatilité du titre sous-jacent plutôt que de faire un pari directionnel sur le prix du titre.
La clé de cette stratégie est de prévoir avec précision la volatilité future, qui peut s'égarer pour diverses raisons, notamment:
- Litiges en matière de brevets Résultats des essais cliniques Revenus incertains Spéculation en fusions et acquisitions
Une fois qu'un arbitre de volatilité a estimé la volatilité future réalisée, il peut commencer à rechercher des options où la volatilité implicite est soit significativement inférieure ou supérieure à la volatilité réalisée prévue pour le titre sous-jacent. Si la volatilité implicite est plus faible, le trader peut acheter l'option et se couvrir avec le titre sous-jacent pour constituer un portefeuille neutre en delta. De même, si la volatilité implicite est plus élevée, le trader peut vendre l'option et se couvrir avec le titre sous-jacent pour constituer un portefeuille neutre en delta.
Le trader réalisera alors un profit sur la transaction lorsque la volatilité réalisée du titre sous-jacent se rapprochera plus de sa prévision qu'elle ne l'est de la prévision du marché (ou de la volatilité implicite). Le profit est réalisé à partir de la transaction grâce à la reprise continue nécessaire pour maintenir le portefeuille delta neutre.
Les réseaux de neurones
Les réseaux de neurones deviennent de plus en plus populaires dans le domaine de l'arbitrage statistique en raison de leur capacité à trouver des relations mathématiques complexes qui semblent invisibles à l'œil humain. Ces réseaux sont des modèles mathématiques ou informatiques basés sur des réseaux neuronaux biologiques. Ils se composent d'un groupe de neurones artificiels interconnectés qui traitent les informations en utilisant une approche connexionniste du calcul - cela signifie qu'ils changent de structure en fonction des informations externes ou internes qui circulent à travers le réseau pendant la phase d'apprentissage.
Essentiellement, les réseaux de neurones sont des modèles de données statistiques non linéaires qui sont utilisés pour modéliser des relations complexes entre les entrées et les sorties pour trouver des modèles dans les données. De toute évidence, tout modèle de mouvement des prix des titres peut être exploité à des fins lucratives.
Trading à haute fréquence
Le trading haute fréquence (HFT) est un développement relativement nouveau qui vise à capitaliser sur la capacité des ordinateurs à exécuter rapidement des transactions. Les dépenses dans le secteur commercial ont considérablement augmenté au fil des ans et, par conséquent, de nombreux programmes sont capables d'exécuter des milliers de transactions par seconde. Maintenant que la plupart des opportunités d'arbitrage statistique sont limitées en raison de la concurrence, la possibilité d'exécuter rapidement des transactions est le seul moyen d'augmenter les bénéfices. Des réseaux de neurones de plus en plus complexes et des modèles statistiques combinés à des ordinateurs capables de calculer les nombres et d'exécuter des transactions plus rapidement sont la clé des bénéfices futurs pour les arbitrageurs.
Comment l'arbitrage statistique affecte les marchés
L'arbitrage statistique joue un rôle essentiel en fournissant une grande partie de la liquidité au jour le jour sur les marchés. Il permet aux grands négociants en bloc de placer leurs transactions sans affecter de manière significative les prix du marché, tout en réduisant la volatilité dans des problèmes tels que les certificats de dépôt américains (ADR) en les corrélant plus étroitement avec leurs actions mères.
Cependant, l'arbitrage statistique a également causé quelques problèmes majeurs. L'effondrement de Long Term Capital Management (LTCM) en 1998 a presque laissé le marché en ruine. Pour bénéficier de ces écarts de prix aussi faibles, il est nécessaire de prendre un effet de levier important. De plus, comme ces échanges sont automatisés, il existe des mesures de sécurité intégrées. Dans le cas de LTCM, cela signifiait qu'elle se liquiderait en cas de baisse; le problème était que les ordonnances de liquidation de LTCM ne faisaient que déclencher davantage d'ordres de vente dans une boucle horrible qui finirait par se terminer avec l'intervention du gouvernement. N'oubliez pas que la plupart des krachs boursiers découlent de problèmes de liquidité et de levier - l'arène même dans laquelle opèrent les arbitragistes statistiques.
The Bottom Line
L'arbitrage statistique est l'une des stratégies commerciales les plus influentes jamais conçues, malgré une légère baisse de popularité depuis les années 1990. Aujourd'hui, la plupart des arbitrages statistiques sont effectués par le biais de transactions à haute fréquence utilisant une combinaison de réseaux de neurones et de modèles statistiques. Non seulement ces stratégies stimulent la liquidité, mais elles sont également largement responsables des gros crashs que nous avons vus dans des entreprises comme LTCM dans le passé. Tant que les problèmes de liquidité et de levier sont combinés, cela devrait continuer à rendre la stratégie digne d'être reconnue même pour l'investisseur ordinaire.
