Réorganisation stratégique des Bourses

Voici un article de Jennifer Nille, journaliste et auteur du blog Fair Trade dont l’objectif est de faire découvrir le monde obscur du trading. Jennifer décrit comment les dark pools, algo-traders, MTFs,… fonctionnent, et ce qu’ils entraînent comme changement sur les marchés. Les autres acteurs (régulateurs et Bourses traditionnelles) sont également épinglés.

Il n’y a pas si longtemps que cela, dans une galaxie où Chi-X et BATS n’existaient pas encore, les Bourses comme le London Stock Exchange et Euronext dénonçaient le modèle vertical, en silo, de Deutsche Börse.

Le groupe allemand prônait fièrement déjà à l’époque les avantages de ce modèle, où toute la chaîne des transactions (de la négociation, au règlement-livraison en passant par la compensation) est assurée par celui-ci.

Les arguments d’Euronext et du LSE s’avéraient purement défensifs. En 2004, la Bourse allemande a tenté de s’emparer du joyau de la City, puis, sous la pression de ses actionnaires (TCI et Atticus Capital), d’Euronext. Ils estimaient que le modèle de Deutsche Börse ne pouvait pas s’accorder avec le leur.

Le LSE et Euronext utilisent LCH.Clearnet pour la compensation et Euroclear comme organisme de règlement-livraison et banque de dépôt. Deux sociétés indépendantes, même si  les deux Bourses sont actionnaires de celles-ci. En face, Eurex Clearing et Clearstream assurent la même tâche pour Deutsche Börse. A la différence que celles-ci sont ses filiales.

Depuis, la compétition féroce sur le trading dûe à Chi-X et consorts ont poussé les Bourses à revoir leur modèle. Le 12 mai, NYSE Euronext a annoncé son intention de mettre fin au partenariat avec LCH. Clearnet. Et lors de la présentation des résultats préliminaires du LSE, le 21 mai, le CEO Xavier Rolet (photo) a indiqué qu’il révisait cette relation.

Signe du déclin pour LCH.Clearnet, S&P a placé sa note sous surveillance négative deux jours après l’annonce de NYSE Euronext.

Le groupe transatlantique mise sur sa relation avec ses clients banquiers pour trouver un remplaçant à LCH.Clearnet. Mais le LSE lui envisage de reproduire le même modèle que Deutsche Börse. Les titres italiens (le LSE détient Borsa Italiana) fonctionnent sur ce modèle en silo.

L’avantage de ce modèle? Deutsche Börse peut proposer des offres croisées sur les dérivés et le cash, et éviter de toucher trop à ses tarifs de la sorte. Hormis les deux derniers trimestres, le groupe a publié des bénéfices depuis 2007.  Le LSE et NYSE Euronext ne peuvent pas en dire autant.
Il faudra bien évidemment que le LSE possède son propre marché de dérivés. Le Joyau de la City doit encore se mordre les doigts d’avoir laissé filer le London International Financial Futures à Euronext. Mais Xavier Rolet y travaille.

Analyse du Flash Crash du 6 Mai 2010 – Partie I : La journée du 6 mai

Cet article est une traduction/adaptation de l’analyse réalisée par Nanex LLC dont la version originale est publiée ici. Nanex est le créateur et développeur de NxCore, un flux de données multi marchés associé à une API très intuitive. Nanex développe NxCore ainsi que les applications associées à cette plateforme.

Retrouvez un suivi temps réel de l’analyse du flash crash sur notre forum.

Durant l’après midi du 6 mai 2010, le Dow jones Industrial Average a chutté d’approximativement 600 points (5,7%) avant de les regagner très rapidement. D’autres marchés majeurs ont subi le même type de pertes. Nous avons lu de nombreux articles tentant d’expliqué ce qui s’est passé ainsi que le rappot de la SEC “Preliminary Findings Regarding the Market Events of May 6, 2010”. Voici donc notre analyse.

Il y a 9 Marchés qui routent les ordres des actions cotées au NYSE : NYSE, Nasdaq, ISE, BATS, Boston, Cincinnati (National Stock Exchange), CBOE, ARCA et Chicago. Chaque Marché propose un prix d’offre et de demande pour chaque action qu’il souhaite lister. Le bid le plus élevé devient le meilleur bid national et le ask le plus bas est le meilleur ask national.

Les marchés sont en rudes compétition pour proposer les meilleurs offres et demandes nationales car ils recevront alors les flots d’ordres cherchant l’exécution. Ce qu’ils cherchent par contre à éviter à tout prix et le “crossing” avec les autres marchés (un bid plus élevé que le ask d’un autre marché ou inversement) car ils seraient alors à la portée d’un arbitrage buy/sell évidant à la portée des programmes Hautes Fréquences capturant la différence en tant que profit immédiat. A ce jour, il es très rare de pouvoir observer de tels crossing durer plus que quelques millisecondes.

Graphique 1-a: Nombre total des actions du NYSE avec un Ask inférieur au meilleur bid

Graphique 1-b: Nombre total des actions du NYSE avec un Bid supérieur au meilleur Ask

 

Le 6 Mai, à 14:42:46, les bids du NYSE ont commencé à croiser à la hausse le meilleur Ask national pour 100 actions listées au NYSE, chiffre qui s’est étendu à 250 actions dans les 2 minutes (cf graphique 1-b ci dessous). Une inspection détaillée indique que les cotations du NYSE ont commencé à être retardées par rapport aux autres marchés : leurs bids ne plongeaient pas assez rapidement pour suivre les autres Echanges et rester en dessous de leurs offres. Pourtant le timestamp des cotations du NYSE correspondait à ceux des autres Marchés, indiquant qu’elles étaient valides et fraiches.

Avec les Bid du NYSE au dessus des Ask des autres Echanges, les systèmes Hautes Fréquences tentent de tirer profit de ces différences en envoyant des ordres buy sur les autres Marchés et des sell sur le NYSE. Le NYSE se retrouve alors sous une très forte poussée baissière au niveau des actions en crossing.

Quelques minutes plus tard, l’exécution des trades sur le NYSE était réalisée à un prix légèrement inférieur au meilleur Bid national, matérialisant des nouveaux bas pour la journée (cf graphique 2). Ceci est surprenant et non attendu car les prix d’exécution auraient du être supérieurs pour correspondre au plus haut bid proposé par le NYSE, à moins que les timestamps ne reflètent pas réellement quand les cotations et les trades ont eu lieu.

 

Graphique 2: Nombre total des trades du NYSE exécutés en dessous du meilleur Bid

 

Si les cotations envoyées par le NYSE étaient bloquées dans une file d’attente pour transmission et étaient marquées temporellement seulement à la sortie de la file d’attente, alors toutes les inconsistences disparaissent et tout s’explique. En fait cette situation s’est déjà produite à 2 occasions : le 30 octobre 2009 et le 28 janvier 2010. (cf prochain article).

La représentation graphique du nombre de cross bid/ask lors de ces deux jours présente le même comportement que le 5 mai. Observer le détail des trades et des cotations montre également les mêmes anomalies temps/prix. Et le NYSE avait déclaré au même moment qu’ils avaient des problèmes de retard dans la propagation des cotations!

En résumé, les cotations du NYSE sont rentrées dans les files d’attente mais étant donné qu’elles n’étaient marquées temporellement qu’à leur sortie, les délais n’étaient pas détectables par les systèmes de trading traitant les cotations en temps réel. Le 5 mai 2010, le délai était suffisamment important pour déplacer légèrement le bid du NYSE à un prix légèrement supérieur que le meilleur ask global à tous les échanges, d’une manière assez discrète pour ne pas être repérée. Ceci a provoqué le routage immédiat d’un flot d’ordres de vente vers le NYSE faisant disparaitre toute force d’achat qui existait sur les autres Echanges. Lorsque tous ces ordres ventes arrivèrent sur le NYSE, le bid actuel était plus bas car les nouvelles cotations plus basses étaient toujours en train d’attendre de pouvoir sortir de la file d’attente pour diffusion.

Cette situation a amené les ordres à être exécutés contre n’importe quel ordres d’achats existant sur le carnet d’ordre market maker du NYSE (DMM). Quand un trade est exécuté, il est reporté à un différent système (CTS) et ensuite cote (CQS). Puisque le rapport de traffic des trades est beaucoup moins important que celui des cotations, il n’y a que rarement des délais dans ces files d’attente.

Etant donné que les actions impliquées étaient de grosses capitalisations, représentaient une large gamme d’industries, et que les cotations du NYSE sont associées à une plus grande crédibilité de la part des systèmes de trading, dès que les résultats eurent été publiées, les programmes de trading ont detecté rapidement le mouvement de phute et sont passées automatiquement vendeurs pour capturer le momentum bear se développant. Ceci a causé par la suite la panique et le mouvement qui s’en est suivie.

Certains acteurs ont déclaré avoir détecté un problème dans la validité des flux données et ont décidé de couper leurs systèmes, ce qui a entrainé une réduction de la liquiditée. nous pensons que le délai dans les cotations de NYSE sont à l’origine de cette détection.

Nous étudierons dans de prochains articles les cas similaires qui se sont produits auparavant, le quote stuffing (bourrage de cotations littéralement…) qui a une part de responsabilité dans ces évènements, d’autres théories ayant pour ambition d’expliquer le flash crash et nous finirons par une liste de recommandations pour prévenir l’apparition de nouveaux évènements de ce type.


Nombre de cotations HF pour les divers Echanges
( Une unité représente 150 cotations ou plus par seconde pour un même titre et Echange)



Nombre de cotations HF pour les divers Echanges en format barres

Nombre de cotations dupliquées sur les divers Echanges

Cloud computing, trading hub et latence

Voici un article de Jennifer Nille, journaliste et auteur du blog Fair Trade dont l’objectif est de faire découvrir le monde obscur du trading. Jennifer décrit comment les dark pools, algo-traders, MTFs,… fonctionnent, et ce qu’ils entraînent comme changement sur les marchés. Les autres acteurs (régulateurs et Bourses traditionnelles) sont également épinglés.

5358330109

 

L’informatique dans les nuages (cloud computing) pourrait bien encore modifier davantage le modèle du trading. Aux Etats-Unis, des centres de données baptisés trading hub poussent un peu çà et là à équidistance des différentes places d’exécution. En Europe, le phénomène commence.

Qu’est-ce que c’est que ces trading hub? Un hébergeur va proposer quelques 150 à 200 connections dans son centre de données, notamment aux serveurs des Bourses et MTF.

L’intérêt de ce système réside dans le coût d’utilisation et la vitesse. D’après les principaux hébergeurs, ceci permet aux participants de marché de gagner en temps de latence d’un simple point de localisation.

Il sert essentiellement aux traders qui souhaitent exploiter la fragmentation actuelle des marchés. Comme le souligne Patrick Young, président de Derivatives Vision, “tout dépend de ce que vous voulez faire. Une grande firme d’investissement n’utilisera pas ce trading hub. Mais un algo trader exploitant les moindres abritrages y trouve un intéret“.

Chez Algo Technologies, Hirander Misra, le CEO, arrive au même constat. “Les flux des institutionnels ne passent pas par ces trading hub” souligne-t-il. Algo Technologies propose d’ailleurs Algo Span, qui relie les traders aux marchés européens et américains à partir d’un seul point de données.

A côté de ces trading hub, les Bourses ont adapté leur système informatique pour pouvoir abriter les serveurs de leurs membres. Cela s’appelle la colocation. Toutes les Bourses n’offrent pas cette possibilité. Et puis tous leurs membres ne l’utilisent pas non plus. Ni le trading hub, ni la colocation ne leur sert.

Les grandes firmes d’investissement n’utilisent ni l’un ni l’autre. Nous sommes encore à un stade avancé de ce développement” note Patrick Young. Mais le jour où elles décideront de franchir le pas, ceci va entraîner une désintermédiation, et donc pénaliser leurs brokers.

Il restera aussi à voir comment va tourner le match entre trading hub et colocation. Pas sûr que les Bourses en sortent gagnantes. Mais cela reste à voir.

Une phrase dans le magazine “the Automated Trader” m’a particulièrement interpellée:

Nous pouvons arriver à de meilleurs résultats sur Euronext Paris avec des serveurs basés à Londres que les courtiers basés à Paris malgré les 10 millisecondes de délai” y soulignait le CEO de Quod Financial, Ali Pichvai, un fournisseur de technologie de trading.

Tout ceci promet de grands changements…

Nouveaux coupe-circuits sur les bourses américaines

Voici un article de Jennifer Nille auteur du blog Fair Trade dont l’objectif est de faire découvrir le monde obscur du trading. Jennifer décrit comment les dark pools, algo-traders, MTFs,… fonctionnent, et ce qu’ils entraînent comme changement sur les marchés. Les autres acteurs (régulateurs et Bourses traditionnelles) sont également épinglés.

679466

 

Jeudi, la Securities and Exchange Commission a annoncé la mise en place d’un nouveau système de coupe-circuits sur les marchés américains, et ce, dès ce vendredi.

C’est un pas important pour nous. Ceci est une réponse directe au (krach éclair du) 6 mai, et aussi un moyen de rassembler les places d’éxecution devenues fragmentées d’une manière à protéger les investisseurs” a commenté Mary Schapiro, la présidente de la SEC.

Ce coupe-circuit sera mis en place si les actions composant le S&P500 chutent de plus de 10% en cinq minutes. Certains participants de marché estiment déjà que cette mesure ne sera pas suffisante.

Le flash éclair du 6 mai, où le Dow Jones a perdu près de 1000 points en l’espace de quelques minutes, a montré un problème de connection entre les différentes places d’exécution. Si le NYSE se dote de coupe-circuits, qui arrêtent les échanges pendant quelques minutes, le Nasdaq et BATS annulent les ordres qui dévient du Best Bid&Offer.

Il faut croire que les smart orders routers, qui dirigent les ordres vers telle ou telle place d’exécution, n’ont plus su où donner de la tête et se sont finalement réfugiés sur le NYSE, où ils étaient certains de pouvoir exécuter leurs ordres.

Les Bourses doivent implémenter de nouvelles règles ce vendredi, à ce propos. Mais rien n’a été annoncé du côté de leurs concurrents. Les regards désapprobateurs se tournent vers eux.

Précisons aussi que la SEC n’a toujours pas trouvé la cause du krach éclair…

Les algorithmes de trading classiques

 

Voici un article de Sacha Pouget qui est un professionnel français de la finance passionné de trading et des biotechnologies. Vous pourrez retrouver tous ses articles sur son blog personnel Shachakin.

Ces dix dernières années, les algorithmes ont pris une place importante dans la négociation. Ces Program Trading sont établis à partir de modèles de négociation mathématiques, qui se basent sur les données des cours historiques et sur le volume. L’occasion de faire un point sur quelques techniques concrètes, qui sont maintenant proposées aux day traders particuliers (voir plus bas avec l’exemple de Interactive Brokers) .


1.Balance Impact and Risk (BIR)

 

 

trading algo

 

Objectif Cette stratégie est utilisée afin d’équilibrer l’impact du marché avec le risque de variation des cours par l’ordre Algo, sur un horizon de temps déterminé. Cette stratégie permet aux utilisateurs de définir plusieurs niveaux d’aversion au risque pour ajuster le rythme de l’exécution, ainsi que les cours cibles définis par l’utilisateur – en fonction du volume.

Paramètres (Setup) :

– Pourcentage Max du Volume quotidien moyen
– Degrés d’Urgence / Niveau d’aversion pour le risque

– Agressif
/ Neutre / Passif

Notes

– Le pour cent maximum que vous définissez est le pour cent du volume total quotidien.
– Le niveau d’urgence détermine le rythme auquel l’ordre est soumis au cours de la journée.

– Une urgence importante exécute le trade plus rapidement, en l’ouvrant à un plus grand impact du marché.

– Une urgence moins élevée permet de charger au fil du temps et de subir moins d’impact sur le marché.

– L’utilisateur peut choisir la période d’achèvement pour la journée, ou alors compléter l’ordre plus tard.


2.Minimiser l’impact (Minimize Impact)

 

 

Objectif Un découpage de l’ordre est effectué au fil du temps pour minimiser l’impact sur le marché et atteindre la moyenne du marché, sans dépasser la valeur en pourcentage Max.

Entrées de l’utilisateur Pourcentage maximum du volume quotidien moyen

Notes

– Le % maximum défini par le trader est le % du volume total quotidien
– Le trader définit la limite de cours en termes de volatilité en utilisant le type d’ordre “VOL”.

– Le trader fixe le pourcentage maximum de 1% à 50%

3. Pour cent du volume


 

trading algo

Objectif Ramasser un nombre de titres défini par l’utilisateur. La quantité d’ordres et la distribution du volume au cours de la journée est déterminé en utilisant le paramétrage de la cible : le % du volume prédéterminé, en fonction des prévisions du volume continuellement mis à jour à partir des données du marché.

Entrées de l’utilisateur -Pourcentage cible du volume quotidien moyen.

Notes Définir une cible en % (il s’agit de la ‘participation’) de 1% à 50%. Utilisation avec d’autres attributs.

4.VWAP

 

trading algo

Objectif Atteindre le prix moyen pondéré par le volume (VWAP), calculé entre le moment où l’Algo est soumis à l’Exécution jusqu’ à la clôture du marché.

Entrées de l’utilisateur Pourcentage Max du Volume moyen quotidien

Notes

– Le VWAP est calculé en cours de séance.
– Définir le pour cent de la participation du volume quotidien moyen.





Comme indiqué, Interactive Brokers propose désormais des stratégies Algo, moyennant un versement initial de minimum 10 000 $. Il faut cependant bénèficier d’un Backround de programmation assez important (maîtrise de C++ et Java API). Voici le type de stratégies qu’ils proposent :

 

trading algo

Accenture crash : sweeping order et stub quote

 

Le jeudi 6 mai 2010 restera probablement marqué dans l’histoire de la finance par ce krach éclair que nous avons vécu : une chute du DJ de 10% en quelques secondes et qui s’est résorbé tout aussi rapidement. Si une action doit doit représenter à elle toute seule cette anomalie, c’est bien Accenture PLC, dont le cours est passé de 45$ à 1p (!!!) en 2 minutes pour retrouver très rapidement ensuite son niveau habituel.

 

 

C’est seulement la conjonction de nombreux éléments qui peuvent aboutir à un tel phénomène. Un vent de panique planait déjà sur les places boursières à cause de la crise de la dette grecque. Les marchés étaient absorbés dans les images de révoltes populaires en Grêce et voyaient une propagation à l’échelle Européenne.

Il suffit alors qu’un fond de pension place un ordre short disproportionné pour que toute la mécanique s’emballe. Les articles que nous pouvons lire à droite et à gauche mentionnent souvent les “Intermarket Sweep Order” (ISO) et les “Stub Quote“. Trading Automatique va donc essayer de clarifier ces concepts et apporter un éclairage sur ce fameux “flash krach”.

 

Nvidia, CUDA ou comment accélérer vos backtests

 

De Simon Depiets pour Trading Automatique.

Lors de vos backtests vous pouvez vous retrouver face à un problème de puissance disponible sur votre machine, faites variez 5 paramètres entre 1 et 1000 et vous devrez en fait effectuer 1000^5 backtests soit un million de milliards ! La puissance de votre processeur est alors trop petite pour réaliser vos calculs dans un temps raisonnable, il est alors possible dans un premier temps d’utiliser un algorithme génétique pour obtenir une bonne approximation, mais augmentez encore le nombre de variables et vous vous retrouverez face au même problème.

Pour celà vous pouvez utiliser les spécificités d’un GPU et la technologie GPGPU pour General Purpose GPU. Il est impossible aujourd’hui d’augmenter la fréquence des CPU, on augmente donc le nombre de coeurs dont ils disposent. Les GPU disposent par contre d’une parallélisation poussée à l’extrême avec plusieurs dizaines de cœurs et la possibilités d’exécuter en parallèle plusieurs centaines de threads.

Pour résumer les GPU ont un jeu d’instruction SIMD (Simple Instruction Multiple Data) qui vient à l’origine du marché du jeu (CG de PC). Depuis quelque années une transformation s’opère vers une utilisation professionnelle pour le calcul scientifique. Il est ainsi possible d’utiliser les unités de calcul très présentes sur un GPU (au détriment du cache ou des Entrées/Sorties d’un CPU) et de fait avoir un très gros potentiel de calcul.

L’histoire

La roadmap des GPU est très agressive puisque les performances sont multipliées par 2 à chaque itération depuis le milieu des années 2000. Tout a commencé dans les années 80/90 avec les premières stations SUN graphiques, cela restait une sorte d’outil à plugger avec une carte externe. Dans les années 90, on voit arriver les premières cartes 3D, avec la Voodoo par exemple : 16 bits au départ, pas de flottants, purement graphique. Puis Nvidia arrive à la fin des années 90 sur le marché avec les GeForce, pour les programmer Microsoft lance Direct X et face à eux on trouve l’implémentation libre OpenGL.

Au début 2003 arrivent les premiers calculs sur Cartes Graphiques, les gens se sont rendus compte qu’il y avait du potentiel, les Cartes Graphiques avaient déjà plus de puissance de calcul que les processeurs. On voit apparaitre des méthodes de programmation orientées graphiques : les shaders. On peut en utilisant quelques astuces considérer que le graphique n’est que du calcul et les utiliser pour faire du calcul scientifique, il faut pour celà néanmoins passer par toutes les contraintes d’OpenGL.

A l’époque Nvidia/ATI sont au même niveau en termes de mégaflops, on est aujourd’hui au dessus du TéraFlop. La programmation GPU utilise néanmoins toujours quelques aspects graphiques, le marché de Nvidia est constitué de joueurs, pas de scientifiques…

En 2004/2005 les constructeurs s’intéressent au GPGPU, ils créent des langages dédiés pour faire des calculs sur GPU au lieu de l’OpenGL bidouillé et le rendent ainsi accessible. La première implémentation intéressante est celle d’ATI avec Brook, basé sur le Stream Computing, mais n’est tout de même pas très utilisable par la communauté scientifique traditionnelle.

En 2007, Nvidia lance CUDA, qui permet vraiment de faire du calcul scientifique sur les GPU NVidia, la même année ATI fournit son propre SDK. L’interet est qu’on a plus besoin de passer par OpenGL, les GPGPU sont maintenant exploitables par l’industrie et sortent du cadre confidentiel de quelques informaticiens farfelus.

Nvidia a ainsi séparé ses cartes pro et gamer au début de la décennie, la Quadro est orientée vers le graphisme, les Tesla vers le GPGPU et le calcul scientifique. La ligne Quadro a été dérivée en une première ligne Tesla en 2002. 

La nouvelle génération est attendue en 2010, basée sur une architecture Fermi qui a de bien meilleures performances en double précision (la moitié des performances simple précision pour les Tesla, un huitième pour la gamme gamers).  L’adressage est en 64 bits, on peut donc dépasser les 4GB de mémoire vive, mais aussi faire du mapping de mémoire entre poste et GPU sur des tailles de plus de 4GB.

De plus des opérations atomiques de lecture mémoire/calcul/écriture mémoire sont disponibles, très importantes pour certaines opérations qui ne peuvent être interrompues. La mémoire partagée passe de 16 à 32ko, les cartes sont disponibles en cartes simples, en racks avec des versions disponsant de 3 ou 6 GB de mémoire. Ces cartes dépassent le téraflop de puissance de calcul.

Du côté d’AMD on trouve le Firestream, comme chez Nvidia c’est une gamme proche de celles des cartes gamers, les premières cartes sortent en 2004, aujourd’hui la plus récente est une 5870. En 2006, le concept de stream computing est lancé, ainsi qu’une première plateforme de développement qui ressemble toujours fortement à un Proof of Concept et est destinée à la recherche. En 2007 il y a la première release officielle du SDK avec Brook  et des aspects assembleur de haut-niveau, depuis ATI sort une version par an du SDK. Fin 2009 ils abandonnent Brook pour se focaliser sur OpenCL ils atteignent 2.7 Téraflops avec néanmoins une forte perte de puissance lors du passage de simple à double précision.

L’avantage des GPU est qu’on y trouve beaucoup de Stream Processing Units, chaque processeur peut gérer actuellement mille threads, lancés par une partie hardware dédiée. On retrouve toujours sur ces cartes des blocs matériels dédiés au graphique et à la gestion des textures et du rendu.

La mémoire n’est pas en général de très bonne qualité, le principal problème est d’être certain qu’il n’y a pas d’erreur lors de l’accès mémoire, le moindre bit inversé va bouleverser les résultats. Une étude a été faite sur Folding@Home pour voir quelle était la fiabilité des GPU, sur les cartes pro et gaming, quand on passe sur un nombre de cartes assez grand (50000) deux-tiers d’entre elles ont des mémoires assez chaotiques. Il fallait ajouter le support des mémoires ECC, Fermi va supporter ECC, comme ce sont des bits correcteurs d’erreur on va perdre 1/8 de la mémoire.

ATI et Nvidia savent ou ils vont, mais ils ont pas sûrs d’y arriver, ils ne donnent pas beaucoup d’informations sur leurs roadmap. Comme le Fermi vient juste de sortir, on dispose d’informations sur les releases de cette gamme mais de peu d’indications à long terme.  On devrait voir apparaître cette année plusieurs versions dont CMA50, CMA70 avec un peu plus de mémoire et un peu plus de capacités en double précision.

Premier processeur non-CPU ayant participé au grid computing avec des résultats prometteurs (10 fois la performance d’un CPU), le Cell d’IBM semble abandonné, l’entreprise américaine envisage en 2011 d’ajouter un accélérateur dans leur nouveau Power, ils ont dit de manière vague qu’ils réutilisaient les choses qu’ils maitrisaient donc la porte n’est pas totalement fermée. Le Cell dans sa version actuelle est définitivement mort, il n’est de toute façon pas évident à utiliser puisqu’il faut déporter certains calculs sur les différents niveaux de l’architecture.

Comment utiliser votre GPU

En pratique les standard ne sont pas encore présents, on mélange en fait plusieurs interfaces de programmation. On va avoir plusieurs technos qui permettent d’accéder à plusieurs niveau de programmation dans l’architecture. Le but est de mélanger des CPU et des GPU, un CPU c’est une grosse RAM, du gros cache, partagé par 4 à 8 coeurs, plusieurs Unités de Calcul, et un tout petit peu de vectorisé caché au niveau de la programmation.

Au contraire le GPU c’est une architecture dont le design est spécifique à certaines applications, basé sur des concepts de vectoriel SIMD. La façon de programmer va cacher de façon plus ou moins efficace l’aspect vectoriel ou l’aspect SIMD, il y a peu de cache mais des mémoires et des bus et des requêtes mémoires très larges. Avec souvent plusieurs dizaines de cœurs on va pouvoir lancer plusieurs centaines de threads en parallèle, si ceux-ci ont le même code.

On va créer des GPU Thread, c’est un Thread léger, qui n’est là que pour faire du calcul et des accès mémoires. Il y a des statements (instructions) et un identifiant, qui va varier selon les architectures et qui le rendent unique. Tous les threads ont le même code sur le même kernel, il n’y a pas de pile donc pas de récursif par exemple, Les threads sont organisés en warp et exécutes de façon SIMD, regroupés pour former des blocs. Ils sont reppartis sur les multi-processeurs, chacun va être capable d’executer un bloc (ou plus si il a assez de capacités pour en executer plus). Quand on atteint un test conditionnel par exemple, les threads avec la condition fausse vont devenir inactifs, ceux avec la bonne continuent et vice versa quand on atteint le else.

L’API la plus efficace et la plus utilisée à l’heure actuelle est le CUDA (Compute Unified Device Architecture) de Nvidia, disponible à partir des cartes graphiques GeForce 8XXX. C’est un modèle de programmation générique, l’objectif est d’exécuter des millions de Light Threads sur le GPU. Au niveau de la programmation c’est du C++ avec quelque extensions : des qualifiers pour spécifier que c’est un thread GPU : __global__ et quelques qualifiiers de données: __constant__ __shared__. On peut lancer un kernel de manière très simple avec kernel<<<config…>>>. Tout le C++ n’est pas nécessairement implémenté dans CUDA, mais il y a par exemple la possibilité quand même de templater les kernels, une API C pour remplacer les appels système sclassiques, des possibilités de copier de la mémoire entre CPU et GPU ou a l’intérieur du GPU, de manière synchrone ou asynchrone mais aussi un Driver API en C qui permet de contrôler de façon beaucoup plus fine le driver CUDA.

On peut dès lors imaginer paralléliser des backtests sur 10 ans avec un jeu de paramètres par thread, sachant qu’un code dont 99% est parallélisable est exécuté 100 fois plus rapidement sur un GPU. Les gains de performance ne sont pas négligeables, pour l’instant aucune application de trading grand public ne s’est intéressée à celà, pourtant nombreux sont les traders découragés par la lenteur de leurs backtests…

Sites :

http://gpgpu.org/

http://www.nvidia.com/object/cuda_home.html

Algodeal ou comment lever des fonds institutionnels pour sa stratégie

 

Je souhaite vous présenter par ce premier article (il y en aura probablement d’autres…) AlgoDeal qui sera à n’en pas douter une étoile montante dans le domaine du trading systématique. En effet leur concept consiste à rendre accessible aux meilleurs fournisseurs de stratégies systématiques/quantitatives des fonds institutionnels. Ils gèrent l’argent et les quants sont rémunérés par 10% de la performance réalisée par leur stratégie. Et devinez quoi? Il sont français et sympathiques…

Le monde du trading restant tout de même anglophone, pour ceux qui ne sont pas effrayés par la langue de Shakespeare et préfèrent les vidéos aux longs discours, rendez-vous directement ici.

Algodeal a pour objectif de rendre disponible un environnement à la fois technique et financier pour les traders/analystes quantitatifs, encore appelés Quants. Technique dans le sens où Algodeal rend accessible un environnement de backtests et d’études de stratégies, le Market Runner. Financier, car ils fournissent tout ce qui est nécessaire pour exécuter vos stratégies, des données du marché et leur connectivité jusqu’à levée des fonds.

Qu’apporte de nouveau Algodeal ?

* Levée de fonds : Algodeal est la seule entreprise accessible à tout un chacun qui permet de lever des fonds pour exécuter des stratégies quantitatives de qualité et le tout sans faire risquer au quant de perdre sa chemise. Algodeal sélectionnera évidemment que les meilleurs stratégies.
* Données historiques nettoyées : Algodeal propose un large panel de données historiques filtrées, corrigées et ajustées… à utiliser pour tester vos systèmes. A l’heure actuelle 80 contrats futures sont accessibles sur une base journalière mais leur ambition est de rendre accessible les cotations de tous les marchés tradés.
* Grid Computing : Les quants ont besoin d’optimiser ou d’étudier leur stratégie en utilisant de nombreux paramètres. Algodeal propose une ferme de calcul afin de réaliser les exécutions des backtests de manière parallèle et donc à une vitesse inégalable chez soit.
* Accès au marché optimal : Algodeal a des partenariats pour obtenir une connexion rapide et sûre telle qu’il l’est nécessaire pour exécuter du mieux possible les stratégies de trading sélectionnées.

Quel est le business model d’Algodeal ?

Algodeal est avant tout un leveur de fonds. Récemment agréé par l’AMF, ils ont pour objectif de trouver et d’apporter des fonds aux meilleurs Quants en supprimant les barrières majeures empêchant tout un chacun de se lancer dans un tel business. Les quants peuvent se concentrer sur leurs stratégies via leur plateforme gratuite. Une fois qu’ils le souhaitent, ils peuvent proposer leur stratégie à Algodeal pour y allouer de l’argent et l’exécuter en réel. Algodeal et les quants partagent les profits, le reste allant aux investisseurs.

Environnement Technique

Algodeal est essentiellement un web service, par conséquant multi-plateforme par nature. L’environnement d’exécution, le Market Runner, est écrit en Java et exécute du code Java 1.6. Algodeal pourra supporter également dans le future des langages compatibles avec le Java tels que Groovy ou Scala. L’intégration est possible avec un environnement Eclipse, mais de manière générale n’importe quel environnement Java fera l’affaire (NetBeans, IDEA, et même Emacs…).

 

Market Runner, à l’intérieure de l’éditeur Eclipse :

Market Runnner inside Eclipse

 

Résultats sur la plateforme locale :

Results on the web

 

 

Optimisation : la grille de calcul d’Algodeal :

Optimization: Leveraging the grid

 

Algodeal est tout juste disponible en version Beta et vous pouvez donc demander dès à présent une invitation pour commencer à utiliser cette plateforme.  Trading Automatique va par conséquent dès à présent suivre cette nouvelle solution innovante accessible à tous.

Nous vous proposerons également très prochainement nos services pour adapter vos stratégies à l’environnement proposé par Algodeal.

Qu’est ce qu’un dark pool

 

En ces temps de tentative de régulation boursière et de focus sur le trading haute fréquence et tout ce qui l’entoure, on peut croiser de nombreux concepts incompréhensibles au néophyte mais pourtant fort importants pour tous ceux qui tente de comprendre réellement ce qui se passe. Trouver une définition compréhensible de ces concepts n’est réellement pas une chose aisée, et je souhaite partager avec vous mes “trouvailles”. Nous allons aujourd’hui donner la définition du concept de dark pool également sur la sellette au même titre que que les ordres flashs déjà bannis.

Nous retrouvons une vidéo (en anglais) très pédagogique de Marketplace.

 

Dark pools de Marketplace sur Vimeo.

 

Débat trading haute fréquence vs trading traditionnel

 

Voici un débat intéressant et très animé ayant eu lieu récemment sur la chaine américaine CNBC entre un représentant des traders traditionnels et un représentant des traders hautes fréquences.

 

Et voici une vidéo très pédagogique bien qu’évidemment un peu réductrice de Marketplace sur Vimeo. Je tiens à rapeler que la trading haute fréquence ne repose pas que sur les ordres flashs qui sont bannis par la SEC.