Comment les données volumineuses ont changé Finances

Flash Crash 2010 - VPRO documentary - 2011 (Octobre 2024)

Flash Crash 2010 - VPRO documentary - 2011 (Octobre 2024)
Comment les données volumineuses ont changé Finances

Table des matières:

Anonim

La prolifération des données et la complexité croissante des technologies continuent de transformer la façon dont les industries fonctionnent et se font concurrence. Au cours des deux dernières années, 90% des données dans le monde ont été créées à la suite de la création quotidienne de 2,5 milliards d'octets de données. Communément appelée Big Data, cette croissance rapide et ce stockage créent des opportunités pour la collecte, le traitement et l'analyse de données structurées et non structurées.

À la suite des 3 V du Big Data, les organisations utilisent les données et les analyses pour obtenir des informations précieuses afin de prendre de meilleures décisions d'affaires. Les industries qui ont adopté l'utilisation des mégadonnées comprennent les services financiers, la technologie, le marketing et les soins de santé, pour n'en nommer que quelques-uns. L'adoption de Big Data continue de redéfinir le paysage concurrentiel des industries. On estime que 89% des entreprises estiment que ceux qui n'ont pas de stratégie d'analyse courent le risque de perdre un avantage concurrentiel sur le marché.

Les services financiers, en particulier, ont largement adopté l'analyse des données volumineuses afin d'améliorer les décisions d'investissement avec des rendements constants. Conjointement avec le big data, le trading algorithmique utilise de vastes données historiques avec des modèles mathématiques complexes pour maximiser les rendements du portefeuille. L'adoption continue de big data va inévitablement transformer le paysage des services financiers. Cependant, parallèlement à ses avantages apparents, des défis importants subsistent en ce qui concerne la capacité du Big Data à capturer le volume croissant de données. (Pour en savoir plus, voir: Le Big Play dans Big Data .)

3 V de Big Data

Les 3 V sont fondamentaux pour le Big Data: le volume, la variété et la vélocité. Face à la concurrence croissante, aux contraintes réglementaires et aux besoins des clients, les institutions financières cherchent de nouveaux moyens de tirer parti de la technologie pour gagner en efficacité. Selon l'industrie, les entreprises peuvent utiliser certains aspects du Big Data pour obtenir un avantage concurrentiel.

La vélocité est la vitesse à laquelle les données doivent être stockées et analysées. La Bourse de New York capture 1 téraoctet d'informations chaque jour. D'ici 2016, il y aura environ 18,9 milliards de connexions réseau d'ici 2016, avec environ 2,5 connexions par personne sur Terre. Les institutions financières peuvent se différencier de la concurrence en se concentrant sur le traitement efficace et rapide des transactions.

Les données volumineuses peuvent être classées en tant que données non structurées ou structurées. Les données non structurées sont des informations qui ne sont pas organisées et ne tombent pas dans un modèle prédéterminé. Cela inclut les données recueillies auprès des médias sociaux, qui aident les institutions à recueillir des informations sur les besoins des clients. Les données structurées sont constituées d'informations déjà gérées par l'organisation dans des bases de données relationnelles et des tableurs.En conséquence, les différentes formes de données doivent être activement gérées afin d'éclairer les meilleures décisions d'affaires.

L'augmentation du volume des données de marché pose un grand défi aux institutions financières. En plus des vastes données historiques, les marchés bancaires et financiers doivent gérer activement les données boursières. De même, les banques d'investissement et les sociétés de gestion d'actifs utilisent des données volumineuses pour prendre de bonnes décisions d'investissement. Les sociétés d'assurance et de retraite peuvent accéder à des informations sur les polices et les sinistres pour une gestion active des risques. (Pour en savoir plus, voir: Quants: The Rocket Scientists de Wall Street .)

Algorithmic Trading

Le trading algorithmique est devenu synonyme de big data en raison des capacités croissantes des ordinateurs. Le processus automatisé permet aux programmes informatiques d'exécuter des transactions financières à des vitesses et des fréquences impossibles pour un trader humain. Dans les modèles mathématiques, le trading algorithmique fournit des trades exécutés aux meilleurs prix possibles et en temps opportun, et réduit les erreurs manuelles dues aux facteurs comportementaux.

Les institutions peuvent réduire plus efficacement les algorithmes afin d'incorporer des quantités massives de données, en tirant parti de grands volumes de données historiques vers des stratégies de backtest, créant ainsi des investissements moins risqués. Cela aide les utilisateurs à identifier les données utiles à conserver ainsi que les données de faible valeur à supprimer. Étant donné que des algorithmes peuvent être créés avec des données structurées et non structurées, l'intégration de données en temps réel, de médias sociaux et de données boursières dans un moteur algorithmique peut générer de meilleures décisions commerciales. Contrairement à la prise de décision, qui peut être influencée par différentes sources d'information, l'émotion humaine et le biais, les transactions algorithmiques sont exécutées uniquement sur des modèles financiers et des données.

Les conseillers Robo utilisent des algorithmes d'investissement et des quantités massives de données sur une plateforme numérique. Les investissements sont encadrés par la théorie du portefeuille moderne, qui appuie généralement les investissements à long terme pour maintenir des rendements constants, et nécessite une interaction minimale avec les conseillers financiers humains. (Pour en savoir plus, voir: Bases du trading algorithmique: concepts et exemples .)

Défis

Malgré l'adoption croissante du big data par l'industrie des services financiers, d'importants défis subsistent sur le terrain. Plus important encore, la collecte de diverses données non structurées prend en charge les préoccupations relatives à la confidentialité. Des informations personnelles peuvent être recueillies sur la prise de décision d'un individu à travers les médias sociaux, les courriels et les dossiers de santé.

Au sein des services financiers en particulier, la majorité des critiques porte sur l'analyse des données. Le volume de données exige une plus grande sophistication des techniques statistiques afin d'obtenir des résultats précis. En particulier, les critiques surestiment le signal au bruit comme des modèles de corrélations parasites, ce qui représente des résultats statistiquement robustes purement par hasard. De même, les algorithmes basés sur la théorie économique indiquent généralement des opportunités d'investissement à long terme en raison de l'évolution des données historiques. Produire efficacement des résultats soutenant une stratégie d'investissement à court terme est un défi inhérent aux modèles prédictifs.

The Bottom Line

Les données massives continuent de transformer le paysage de diverses industries, en particulier les services financiers. De nombreuses institutions financières adoptent l'analyse de données volumineuses afin de conserver un avantage concurrentiel. Grâce à la structure et aux données non structurées, des algorithmes complexes peuvent exécuter des transactions en utilisant un certain nombre de sources de données. L'émotion humaine et le biais peuvent être minimisés grâce à l'automatisation; Cependant, le commerce avec l'analyse de Big Data a son propre ensemble de défis spécifiques. Les résultats statistiques produits jusqu'ici n'ont pas été entièrement adoptés en raison de la nouveauté relative du champ. Cependant, à mesure que les services financiers tendent vers le big data et l'automatisation, la sophistication des techniques statistiques augmentera la précision.