Leseprobe: Akzeleration, High-Frequency-Trading und Öko-Technie.

Leseprobe aus Kapitalisierung Bd.2
Kommen wir nun zu den gegenwärtigen Maschinenensembles und ihren Umgebungen, zu den digitalen Netzwerken und ihren komplexen Ökologien des Materiellen und des Ökonomischen, in welche der Hochfrequenzhandel (HFH) integriert ist. Die digitalen Technologien haben längst das gesamte finanzielle System durchdrungen – mit dem HFH hebt die fluide, planetarische Bewegung des finanziellen Kapitals, der ein Drive zur Gewalt der reinen Marktabstraktion sowie zur Substitution der materiellen Erfahrung durch die diversen Modelle der Computersimulation eigen ist, ganz leicht von der schwerfälligen Produktion und den Ordnungen des Konsums ab, um sich in einem selbstreferenziellen, semiotischen System fortzuschreiben, das die Kalibrierung und Rekalibrierung der Maschine- Maschine-Relationen permanent forciert. Der Prozess der Dezimalisierung (das Auspreisen der Assets qua Dezimalzahl und nicht länger durch Fraktale/Brüche), der an den Finanzmärkten, sich selbst beschleunigend, etwa seit dem Jahr 2000 ins Rollen gekommen ist und den Spread zwischen den Kauf- und Verkaufspreisen (Bid-Ask-Spread) immer weiter reduziert hat, reflektiert und befeuert die Notwendigkeit immer höhere und äußerst zeitintensive Transaktionssummen an den Finanzmärkten zu bewegen, damit die immer geringer ausfallenden Spreads überhaupt noch kompensiert werden können. Dabei halten die Händler die Positionen der jeweiligen Deals nur noch minimale Zeitspannen, wobei sie auch nur geringe Spreads realisieren, sodass sich die hohen Gewinne eben allein aus der Menge und der Geschwindigkeit von monetären Transaktionen ergeben. Mit dem sog. direkten Handel, der es vor allem den großen institutionellen Investoren erlaubt, zwischen sich und dem jeweiligen Handelspartner sämtliche Mediatoren (inklusive der Börse) zu umgehen, sowie der Existenz von fast vollkommen automatisierten Infrastrukturen wird es für die Finanzunternehmen immer dringender, auf die neuesten technologischen Innovationen zuzugreifen, um sie im Sinne einer akzelerativen Dynamik zu bewirtschaften, zu kontrollieren und, wenn überhaupt noch möglich, auch zu steuern.77 So infiltriert im gegenwärtigen HFH die digi-

(77 Srnicek//Williams haben u. a. in ihrem Manifest für eine akzelerationistische Politik (Srnicek//Williams 2013: 21ff.) darauf hingewiesen, dass die Geschwindigkeit bzw. Beschleunigung, die durch die Konkurrenz zwischen den Unternehmen vorangetrieben wird, eine Konstante der finanziellen Märkte darstellt. In diesem Kontext stellt sich ganz grundsätzlich die Frage, wie man anhand der Parameter Position, Geschwindigkeit und Beschleunigung einen instantanen Wandel von verschiedenen Quantitäten zu beschreiben vermag. Um diese Frage zu beantworten, haben Mathematiker das Konzept der infinitesimalen Quantitäten entwickelt, die Resultate von limitierenden Prozessen sind. Und damit tendiert die Variation einer Quantität, die zwischen zwei Augenblicken durch den Zeitverlauf entsteht, gegen Null. Bekanntlich lässt sich in jedem Moment der Status eines sich bewegenden Körpers durch seine Position (r), seine Geschwindigkeit (v), die die Tendenz zur Veränderung seiner Position ausdrückt, und durch seine Beschleunigung (a) definieren, die wiederum die Tendenz zur Veränderung der Geschwindigkeit ausdrückt. Bei instantanen Geschwindigkeiten und Beschleunigungen (Instantaneität im Sinne eines limitierenden Jetzt) handelt es sich also um limitierende Quantitäten, die durch die Rate zweier infinitesimaler Quantitäten gemessen werden. Zunächst geht es um die Variation der Parameter (r) und (v) während eines zeitlichen Intervalls t0-t1, wobei dieses Intervall gegen Null tendiert. Intervalle sind als Ableitungen der Zeit zu begreifen und werden seit Leibniz zum ersten als v=/dr/dt und zum zweiten als a=dv/dt angeschrieben. Und dabei inhäriert die letztere Formel, i. e. Beschleunigung, die Ableitung einer Ableitung. Im deutschsprachigen Raum hat sich vor allem Hartmut Rosa des Phänomens der Beschleunigung im Kapitalismus angenommen. Nach Rosa könnten wir bspw. von temporalen Beschleunigungsprozessen des finanziellen Kapitals dann sprechen, wenn wir es gleichzeitig mit einer Mengenzunahme von finanziellen Transaktionen pro Zeiteinheit zu tun haben, d. h., mit Prozessen stetiger Produktionen, mit denen die technologischökonomisch fundierte Beschleunigung ein noch schnelleres Wachstum der Menge an. “)

tale Automatisierung fast jeden Aspekt des Trading-Prozesses, von der Analyse über die Ausführung des jeweiligen Geschäfts bis hin zu den Backend-Prozessen,wobei sämtliche Komponenten durch Algorithmen gesteuert werden. Ein HFH-System muss das Fine-Tuning jeder Programmierung sowie das der Speicherkapazitäten leisten, die Manipulation individueller Datenpunkte und -pakete, die Erfassungvon Datenbanken und die Selektion der Inputs etc. Es lässt sich also an den Finanzmärkten eindeutig eine Tendenz zur Hegemonialisierung der Automation feststellen. [Marx hatte in den Grundrissen ansatzweise die Automation als einen Prozess der Absorption der allgemeinen Produktivkräfte – Teile des sozialen Hirns – in die Maschine bzw. das capital fixe beschrieben, wozu auch das Wissen und die technischen Fähigkeiten der Arbeitenden gehört (Marx 1974: 603), die nun eher der Logik des Kapitals folgen, als dass sie noch Ausdruck der sozialen Arbeit sind.] Wenn man sich die Entwicklungsgeschichte des Verhältnisses zwischen Kapital und Technologie vergegenwärtigt, dann erscheint es ganz offensichtlich, dass sich die Automation vom thermomechanischen Modell des klassischen Industriekapitalismus entfernt und sich in die elektronisch-berechnenden Netzwerke des zeitgenössischen Kapitalismus integriert hat. Die digitale Automation prozessiert heute en détail das soziale Nervensystem und das soziale Hirn, sie umfasst die Potenziale des Virtuellen, des Simulativen und des Abstrakten, des Feedback und der autonomen Prozesse, sie entfaltet sich in Netzwerken und deren elektronischen und nervlichen Verbindungen, in denen der User als ein quasi-automatisches Relais der pausenlos fließenden Informationsströme fungiert. Algorithmen müssen im Kontext dieses neuen Modus der Automation diskutiert werden. Gewöhnlich definiert man den Algorithmus als eine Handlungs vorschrift, mit der ein Problem gelöst wird, und dies geschieht in einer Sequenz von endlichen, wohldefinierten Schritten oder Instruktionen, in Sets von geordneten Schritten, die mit Daten und berechenbaren Strukturen operieren, welche in die Computerprogramme implementiert sind. Als solcher ist der Algorithmus eine Abstraktion, seine Existenz ist zugleich in die partikulare Programmsprache einer partikularen maschinellen Architektur integriert, die wiederum aus Hardware, Daten, Körpern und Entscheidungen besteht. Dabei verarbeiten die derzeit existierenden Algorithmen immer größere Datenmengen und prozessieren damit eine wachsende Entropie von Datenströmen (Big Data), sie generieren weit mehr als nur Instruktionen, die jeweils ausgeführt werden müssen, nämlich potenziell unendliche Mengen an Daten und Informationen, die wiederum mit anderen Algorithmen interferieren, um die diversen algorithmischen Prozesse zu reprogrammieren. Aus der ökonomischen Perspektive betrachtet, handelt es sich bei den Algorithmen um Formen des fixen Kapitals, in die soziales Wissen (extrahiert aus der Arbeit von Mathematikern, Programmierern, aber auch User-Aktivitäten) vergegenständlicht ist, wobei diese Formen des fixen Kapitals nicht an sich verwertbar sind, sondern nur insoweit sie in die monetäre Kapitalisierung integriert werden, wobei sie diese weiter antreiben und forcieren können. Jedenfalls sind Algorithmen nicht als bloße Tools zu verstehen, sondern man sollte begreifen, dass sie aktiv in die Analyse und das Processing der Datenströme eingreifen, um diese in ökonomisch relevante Informationen zu übersetzen, bspw. die technologischen Bedingungen zur Verwertung der Informationen schaffen, indem sie selbstreferenziell Orders an den Finanzmärkten generieren und diese u. U. auch erfolgreich abschließen. Das heißt, der weitaus größere Anteil der finanziellen Transaktionen im Hochfrequenzhandel läuft heute über eine reine Maschine-Maschine-Kommunikation, welche die humanen Aktanten nicht mehr zu beobachten in der Lage sind, weil die Daten- und Informationsströme in a-humanen Hochgeschwindigkeiten über unsichtbare Apparaturen fließen und noch die Unterscheidung zwischen Maschine, Körper und Bild verflüssigen. (Vgl. Wilkins/Dragos 2013) Zwar variiert in den HFH-Systemen die Zusammensetzung bzw. Komposition von humanen und ahumanen Entitäten, aber im Extremfall eliminieren einige der Finanzunternehmen fast jede menschliche Intervention in die automatisiert ablaufenden Transaktionen, sodass die von den Maschinen gelesenen Daten kontinuierlich und selbstreferenziell in die die Prozesse steuernden Algorithmen ein- und zurückfließen. Jede menschliche Intervention kompliziert hingegen selbst diejenigen finanziellen Prozesse, in denen spezielle Fehler und Probleme entstanden sind.
Zum Teil implementiert man die Algorithmen heute schon physisch in die Silikonchips: die Vereinigung von Hardware und Software. Die zeitgenössische finanzielle Ökonomie wird zumindest im Bereich der HFH-Systeme also weitgehend unsichtbar durch Algorithmen gestaltet – bspw. scannen bestimmte Programme die Finanzmärkte permanent daraufhin ab, ob die von Algorithmen fixierten Indikatoren bestimmte Levels erreichen, die dann als Kauf- oder Verkaufssignale wirksam werden. Es gibt aktuelle Versionen von Algorithmen wie die »volumeweighted average price Algorithmen« (VWAP), die in Verbindung mit ökonometrischen Verfahren komplexe Randomness-Funktionen generieren, um die Größe und Ausführungszeiten der monetären Transaktionen im Kontext globaler Handelsvolumina zu optimieren. (Ebd.) Wir haben es mit weiteren Typen von Algorithmen zu tun, die versuchen, solche Transaktionen zu identifizieren und zu antizipieren, oder es gibt non-adaptive, Low-Latency-Algorithmen, die sowohl die Differenziale der Übertragungsgeschwindigkeiten in den globalen Finanznetzwerken »bearbeiten« als auch die korrelierenden materiellen Transformationen, die jene informationellen Relationen ermöglichen. Man setzt genetische Algorithmen ein, um die möglichen Kombinationen von Preisfluktuationen der Finanzderivate und instrumente zu optimieren und das optimale Feintuning eines jeden Parameters innerhalb eines finanziellen Systems zu gewährleisten. (Ebd.) Die Implementierung der algorithmischen Systeme in die computerisierte Finanzökonomie stellt eine qualitativ neue Phase der reellen Subsumtion der Maschinerie unter das Kapital dar, sie zeigt den Übergang von der Kybernetik zur zeitgenössischen wissenschaftlichen Technizität an, die sog. »nano-bio-info-kognitive« Revolution, die auf verteilten Netzwerken und angeblich friktionsfreien Systemen (Supraleiter, ubiquitäres Computing) aufsitzt. (Vgl. Srnicek/Williams 2014) (Reelle Subsumtion unter das Kapitals inkludiert, dass jeder Aspekt des Produktionsprozesses – Technologie,Forschung, Märkte, Arbeiter, Produktionsmittel etc. – durch einen Prozess determiniert wird, dessen Zweck die Selbstverwertung des Kapitals ist.) Dabei bleiben die Tradingprozesse an den Finanzmärkten in eine finanzielle Ökologie von mächtigen dominanten Playern integriert, die die selbstreferenziell operierenden Roboter (solche, die große Positionen liquidieren, und solche, die Indexe beobachten) mit Informationen füttern und sie nur zum Teil noch steuern, während die HFH-Systeme zumindest in technischer Hinsicht sich an die Spitze der finanziellen Ökologie gesetzt haben. Die monetäre Seite der finanziellen Ökologie wäre dahin gehend zu präzisieren, dass das digitale Geld heute in Serien von referenzlosen Zeichen prozessiert, die in die berechnende Automation der diversenSimulationsmodelle integriert sind, in die Bildschirmmedien mit ihren automatisierten Displays (Grafiken, Indizes etc.) und eben in das algorithmische Trading selbst (Bot-to-bot Transaktion). Bernhard Vief hat in seinem Essay Digitales Geld (Vief 1991: 120f.) schon früh darauf hingewiesen, dass es sich beim digitalen Geld um reines Zeichengeld handelt, das heute wie eben fast alle anderen Zeichensysteme binär codiert ist. Dabei erfüllen die Bits nicht nur alle Funktionen des bisherigen Geldes, sondern vermitteln darüber hinaus jeden beliebigen Austausch von Informationen. Für Vief sind die Bits Universalzeichen, mit deren Hilfe man verschiedene Zeichen und Zeichensysteme (Ton, Bild, Schrift, Logik, Werte etc.) übersetzen und verrechnen kann. (Ebd.: 120) Bits, reines Zeichengeld, codieren nicht nur das Geld, sondern sie sind selber Geld, und damit ist Vief zufolge das Geld einem Code gleich. Die Bedeutung der Geschwindigkeit war zwar schon immer essenziell für die Finanzmärkte, aber die technischen Infrastrukturen ermöglichen heute das maschinelle Processing mit vollkommen a-humanen Geschwindigkeiten plus der entsprechenden Beschleunigungen.78 Die verwendeten Programme, die als rekursive Schleifen in die Märkte integriert sind, d. h., über Rückkoppelungen auf die Märkte einwirken, bleiben nur für kurze Zeit profitabel, womit die Programme laufend aktualisiert werden müssen, um die Reaktionszeiten weiter zu steigern, sodass nur noch die schnellsten Computersysteme Gewinne generieren, was für die Unternehmen wiederum zu enormen Kosten führt. In den HFH-Systemen beinhaltet die Realisierung von Profiten eine kontinuierlich beschleunigende Fluktuation der jeweiligen Portfolios – finanzielle Entscheidungen fallen in Millisekunden, Mikrosekunden, ja sogar in Nanosekunden. So prozessiert z. B. der neueste iX-eCute-Chip von Fixnetix heute Trades in nur 740 Nanosekunden. Dieser Chip kann über 330000 Trades in der Zeit eines Wimpernschlags (ca. 250 Millisekunden) abwickeln. Folglich haben die HFH-Systeme längst die temporale Tiefe von Nanosekunden (1Billionstel einer Sekunde) erreicht. Und so stieg auch das durchschnittliche tägliche Volumen der finanziellen Transaktionen der NYSE für die Periode 2005–2009 um 300 % an, während die Anzahl der täglichen Trades in derselben Zeit um 800 % anwuchs. (Vgl. Durbin 2010: viviii) Obgleich die mit einem Trade in den HFH-Systemen erzielten Profite relativ gering gegenüber anderen Finanzinvestitionen wie etwa komplexen Derivatprodukten bleiben, gewähren die durch digitale Maschinen generierten Investitionen doch relativ sichere Einkommen. Der Hochfrequenzhandel markiert also zumindest in den USA einen wichtigen Einfluss auf die Strukturen der Finanzmärkte. Man schätzt, dass die HFH-Systeme (ca. 100 Unternehmen) derzeit für circa 70 % des sog. Equity-Market-Volumens in den USA verantwortlich sind, für ein Drittel in den UK, und dies mit steigender Tendenz. (Ebd.) Dennoch bleiben die HFH-Systeme wegen der geringen Profit-Spannen nicht besonders bedeutend für die dominanten Finanzunternehmen, allenfalls toleriert man diejenigen Unternehmen, die im HFH tätig sind, weil damit angeblich die benötigte Liquidität für die Märkte bereitgestellt wird. (Srnicek//Williams 2014) So interessieren sich die exklusiven Hedgefonds weniger für den Kursverlauf einer Aktie, sondern sie zerlegen die Unternehmen in verschiedene Teile und untersuchen dann ganz spezifische Aspekte, z. B., in welchem Land das Unternehmen angesiedelt ist, ob es ein Technologieunternehmen ist, ob die Aktie des Unternehmens als Teil eines bestimmten Index gehandelt wird, etc. Indem die Hedgefonds Matheme der Ökonomie wie die Black-Scholes Formel verwenden, lassen sich dann Relationen zwischen den Parametern, aus denen die jeweiligen Preisverläufe resultieren, herstellen, um dann konsequenterweise Arbitrage zu betreiben. Demgegenüber arbeiten die HFH-Systeme im Medium der statistischen Arbitrage, indem sie versuchen, durch ihren softwaregesteuerten Handel in extrem kurzen Zeitabständen Markteffizienzen auszunutzen, womit sie an einem systemischen Vorteil partizipieren, der auch ein Resultat der Technizität des synthetischen Handels ist, wobei dieser für die sog. Outsider der Finanzmärkte vollkommen opak bleibt.
Heiner Mühlmann hat in seinem Buch Europa im Weltwirtschaftskrieg ausführlich beschrieben, wie der Hochfrequenzhandel sich im Bereich der CDSSysteme auswirkt. (Mühlmann 2013: 115f.) Wird bspw. von einem Finanzakteur während der Zeitspanne (to bis tn) zum Zeitpunkt (to) ein versicherungsnehmender CDS und zum Zeitpunkt (tn) ein versicherungsgebender CDS abgeschlossen, wobei der Akteur im ersten Fall eine Gebühr (a) bezahlt, im zweiten Fall eine Gebühr (b) kassiert, dann geht er davon aus, dass die kassierte Gebühr (b) höher ist als die Gebühr (a), weil in der angenommenen Zeitspanne die Wahrscheinlichkeit, dass ein Kreditereignis (Ereignis mit negativen Wirkungen) eintritt, steigt – und damit erhöht sich die Gebühr (b). Die Zeit (tn) ist das Intervall einer Aufschubzeit, an deren jeweiligem Ende ein unvorhersehbares Ereignis steht, das eine qualitativ neue Dynamik ins Spiel bringt. Während dieser Zeitspanne werden die n-Intervalle, die zwischen Versicherungskauf und -verkauf liegen, immer kürzer, oder anders gesagt, die Taktzahl pro Transaktion steigt unaufhörlich. Mühlmann weist auch darauf hin, dass die Gebührenbeträge pro Transaktion klein sind, aber die inverse Verknüpfung von Kauf und Verkauf der CDS bleibt profitabel, weil enorme Geldsummen, zusätzlich angeheizt durch die Politik des billigen Geldes der Notenbanken, in den Handel fließen, sodass sowohl die jeweiligen Geldsummen pro Transaktion als auch die Hochfrequenzmultiplikation der Transaktionen die Geringfügigkeit der Gebührengewinne kompensieren. (Ebd.: 155) Insgesamt besitzt die Zeitspanne bis zum Eintritt eines katastrophischen Kreditereignisses eine asymptotische Komponente, insofern man sich über spezifizierte Zeiträume der Katastrophe (Insolvenz etc.) infinitesimal annähert, aber paradoxerweise soll die Katastrophe schließlich doch nicht eintreten, da sie zumindest für bestimmte Teilnehmer unweigerlich zu Verlusten führt.
Das abstrakte Diagramm eines Tradingsystems besteht aus drei wesentlichen Komponenten: a) Tradingstrategien, b) Mathematik, die in Softwareprogramme integriert ist, und c) technologische Infrastruktur. (Srnicek/Williams 2014) Der Hochfrequenzhandel gilt als ein perfektes Beispiel für distributive Real-Time- Systeme, wobei Patterns aus den Feldern des komplexen Ereignis-Processing einund umgesetzt werden, inklusive Tausende von individuellen Programmen, die sich zunehmend der Tendenz zur Konzentration des Processings im CPU des Computers widersetzen, indem sie entscheidende Aufgaben des Handels an spezielle Hardwarekomponenten delegieren. (Vgl. Durbin 2010: 8) Längst findet im HFH auch das GPU Computing (Grafikprozessor-beschleunigte Berechnung) Anwendung, bei dem man den Grafikprozessor (GPU) gemeinsam mit der CPU zur Beschleunigung des finanziellen Tradings einsetzt. Parallelisierung gilt als das entscheidende Konzept aktueller GPUs, das auch in den finanzwissenschaftlichen Diskursen und Praktiken immer weiter perfektioniert wird, um bspw. die Auswertung und Berechnungen der Black-Scholes-Modelle inklusive aller Komponenten in Realtime zu gewährleisten. Dabei bleibt die Software der Finanzsysteme an die Modularität der jeweils zu bewirtschaftenden Komponenten gebunden und dient zugleich der strukturellen Ankopplung der Unternehmen an spezifische Kommunikationsnetzwerke. (Ebd.: 101-102) Kybernetische Feedbacktechnologien wären heute ohne die Modularität der digitalen Maschinen/ Medien gar nicht zu denken, eine Strukturierung, bei der die Module, die alle auf eine identische Bauart zurückgehen, permanent neu zusammengesetzt werden können, ohne dass sie ihre Autonomie verlieren. Dabei erfordert der Modus der per se möglichen Neukombination von modularen Konstellationen ständig flexible Tests, mit denen das kontinuierliche Feedback überhaupt erst funktioniert. In den Finanzunternehmen tätige Softwareingenieure entwickeln solche Systeme hinsichtlich der Elastizität, Flexibilität und Profitabilität von finanziellen Ereignissen. Die Drift jede Surplusnanosekunde zu extrahieren, resultiert somit in mühsamen Prozessen des Designs und der Optimierung der Algorithmen und den entsprechenden spezifischen Finanzinstrumenten. Während die populäre Perzeption im Kontext finanzwissenschaftlicher Diskurse nach wie vor die Wall Street als die zentrale Lokalisierung der globalen Finance sieht, sind es gerade Städte wie New Jersey und Chicago, in denen ein Großteil des amerikanischen Finanzsystems derzeit zumindest physisch angesiedelt ist. HFH-Hubs wie der NYSE-Standort Mahwah beherbergen viele der größten »matching engines« (Maschinen, deren Algorithmen Transaktionen aus der ganzen Welt bewerten, vergleichen, kaufen und verkaufen). (Ebd.: 16)

This entry was posted on Sunday, November 9th, 2014 at 4:16 pm and is filed under Akzeleration, Kapital, Kapitalismus, Maschinen, Ökonomie. You can follow any responses to this entry through the RSS 2.0 feed. Responses are currently closed, but you can trackback from your own site.

Comments are closed.

 
Follow

Get every new post on this blog delivered to your Inbox.

Join other followers: