Die Superprognostiker
Wer kann 2020 „den Markt“ schlagen? Über Personen, die besser prognostizieren als Experten, und was aktive Manager davon lernen können. Die Spezies der Superprognostiker.
In den letzten Wochen eines Jahres verdichtet sich das Prognoseaufkommen zu einer Art Silvesterfeuerwerk, das die Zukunft des kommenden Jahres mitunter grell zu beleuchten verspricht. Im neuen Jahr geraten jedoch viele Prognosen bald wieder in Vergessenheit – nicht ohne Grund. Denn wenn sich eine nichttriviale Prognose zumindest gefühlt bewahrheitet, wird sie von ihrem Urheber nicht selten unter dem Vergrößerungsglas der Eitelkeit erinnert und stolz als besonderes Zertifikat eigener herausragender Vorhersagefähigkeit präsentiert. Die vielen Fehlschläge und Irrtümer aber werden meistens auf keinem Zettel verzeichnet, was insofern sehr misslich ist, als auch das subjektive Gedächtnis des Urhebers in diesem Fall mehr Loch als Gefäß ist – sehr zum Schaden für die objektive Chance, langfristig erfolgreichere Prognosen abzugeben. Dazu später mehr.
In der Ausgabe des Private Banker Nummer 4 / 2019 referierten wir zentrale Kapitel eines Buches des Black-Rock-Research-Chefs Ronald Kahn über die Zukunft des Investment Managements. Schwerpunkt waren die Herausforderungen, vom Markt abweichende Erträge durch aktives Management, also Alpha, zu generieren. Wir sprachen die sogenannte Information Ratio an, die Alpha ins Verhältnis mit dem Risiko bzw. der Streuung der aktiven Erträge setzt. Wir gingen auf das Fundamental Law of Active Management ein, das die Information Ratio in drei Bestimmungsfaktoren zerlegt: a) Information-Coefficient (IC); b) Breadth; c) Transfer-Coefficient. Wir stellten kurz den Informations-Koeffizienten IC vor, der ein Maß für die Kompetenz eines „aktiven Managers“ ist, aufgrund prognostischer Vorteile regelmäßig Alpha zu generieren. Und wir streiften in diesem Zusammenhang den empirischen Befund, dass diese Prognose-Kompetenz unterschiedlich verteilt ist: während der Durchschnitt einen IC von 0 hat, kommen gute aktive Manager auf 0,05, hervorragende auf 0,10.
In den Informations-Koeffizienten IC gehen individuelle Kompetenzen der Prognostiker ebenso ein wie organisatorische und technologische Aspekte. Im Folgenden beschränken wir uns überwiegend auf den Faktor „individuelle Kompetenz“ bzw. auf die Fähigkeit von Personen, weit überdurchschnittliche Prognoseleistungen abzuliefern. Allerdings zunächst auf einem anderen Gebiet als dem Finanzmarkt: dem der Geopolitik.
Superforecasting
In dem 2015 veröffentlichten Buch „Superforecasting. The Art and Science of Prediction“ stellte der kanadische Psychologe und Politikwissenschaftler Philip Tetlock gemeinsam mit dem Journalisten David Gardner die Ergebnisse langjähriger wissenschaftlicher Untersuchungen zur Prognosefähigkeit von Personen im Rahmen von Wettbewerben vor. Prognosewettbewerbe sind zentraler Bestandteil eines wachsenden Forschungsfeldes, an dem auch die US-Intelligenzgemeinde (also die Analytiker der Geheimdienste) reges Interesse hat. Diese Forschungsrichtung wurde in den letzten Jahren – d.h. insbesondere nach Erscheinen des erwähnten Buches – auch von Finanzprofis rezipiert.
BS = Brier Score; N = Anzahl der Prognosen; t = Nummer der Prognose; ft = die geschätzte Wahrscheinlichkeit (von 1 bis 0) von Prognose t; ot = realisiertes Ereignis, auf das sich Prognose t bezieht (1 oder 0).
Die Prognosewettbewerbe, auf die Tetlock sich bezieht, umfassen eine Vielzahl von Teilnehmern (teilweise im X-Tausenderbereich) über längere Zeiträume (bis zu mehreren Jahren). Das ermöglichte es überhaupt erst, die Vorhersagefähigkeit von Personen auf einer sehr breiten Experimental-Datenbasis wissenschaftlich zu untersuchen. Die Teilnehmer konnten in den Wettbewerben bis zu ein paar hundert Prognosen zu möglichen „geopolitischen“ Ereignissen in Form der Schätzung von Eintrittswahrscheinlichkeiten erstellen. Dabei handelte es sich um konkrete, zweifelsfrei identifizierbare Ereignisse mit eindeutigen Zeitangaben, wie etwa eine politische Wahl zu einem bestimmten Zeitpunkt oder eine andere, vorab präzise definierte politische Handlung / Entscheidung / Konstellation innerhalb eines vorgegeben Zeitraums. Diffuse, abstrakte, auf der Geschehensebene schwer operationalisierbare und damit für „Wetten“ ungeeignete Einschätzungen der Zukunft wurden dadurch vermieden. Die Zeithorizonte der Ereignisse, deren Eintreten geschätzt werden sollte, lagen in der Regel zwischen einigen Wochen und einem Jahr. Es zeigte sich nämlich, dass mit zunehmender Länge der Zeithorizonte über ein Jahr hinaus der Zufallsfaktor schnell größer wird, so dass die Prognosefähigkeit der Teilnehmer konvergiert. Bei den Teilnehmern handelte es sich, je nach Wettbewerb, teils um professionelle Analytiker im Gebiet der politischen Voraussage (insbesondere Geheimdienstmitarbeiter), vielfach aber um „Laien“, allerdings meist um gut bis sehr gut ausgebildete – d.h. um Personen mit akademischem Training bzw. Abschluss und häufig auch mit einer wissenschaftlichen Qualifikation. Insgesamt waren in den Wettbewerben Personen mit naturwissenschaftlich-technischem Hintergrund wohl überrepräsentiert, unter den Superprognostikern fiel eine Häufung von Physikern, Informatikern und Statistikern auf – also von Personen, die in der quantitativen Analyse von Daten trainiert sind.
Brier Score
Zur Bewertung der Prognosequalität griffen Tetlock und Kollegen auf quantitative Methoden zurück, insbesondere auf den „Brier Score“, dessen Benennung auf den Meteorologen Glenn W. Brier zurückgeht, der dieses anfangs noch Score P genannte Maß zur Verifikation von Wettervorhersagen verwendete. Der Brier Score ermittelt, einfach gesagt, die Kluft zwischen Vorhersage und eingetretener Wirklichkeit. Er misst die Genauigkeit von Prognosen, die als Wahrscheinlichkeiten p (von Ereignissen) angegeben wurden, in Abhängigkeit vom Eintreten (was mit 1 bewertet wird) oder Nichteintreten (mit 0 bewertet) der jeweils prognostizierten Ereignisse. Es macht demnach einen Unterschied, ob man z.B. die Wahrscheinlichkeit für ein bestimmtes Ereignis, das eintritt, mit 60 Prozent einschätzte, oder ab man eine Wahrscheinlichkeit von 90 Prozent angab. Im letzteren Fall ist die Genauigkeit der Prognose größer. Ein wirklicher „Seher“ der Zukunft würde daher den Eintritt eines Ereignisses immer entweder mit 100 oder 0 Prozent bewerten.
Der Brier Score in seiner ursprünglichen Form kann Werte zwischen 2 und 0 einnehmen. Ein Wert von 2 bedeutet, dass man mit seinen Prognosen immer komplett falsch lag; ein Score von 0 besagt, dass man – wie der Seher – alle Ereignisse komplett richtig prognostizierte; ein Score von 0,5 entspricht einer Zufallswahl.
Die bisher von Tetlock und Kollegen durchgeführten Wettbewerbe zeigen, dass es unter den Teilnehmern in der langen Frist unterschiedlich gute Prognostiker gibt. Die 2 Prozent der in einem großangelegten Wettbewerb, dem Good Judgment Project, am besten abschneidenden Prognostiker bezeichneten die Wissenschaftler um Tetlock als „Superforecasters“ – wir übersetzen diesen Terminus im Folgenden mit „Superprognostiker“. Am Ende des ersten Jahres des vierjährigen Projekts mit 2800 Teilnehmern hatten die Superprognostiker einen durchschnittlichen Brier Score von 0,25, die restlichen Teilnehmer einen von 0,37. Im Laufe der nächsten Jahre erhöhte sich der Vorhersagevorsprung der Superprognostiker weiter. Der beste Superprognostiker am Ende des Projekts unter allen Teilnehmern war Doug Lorch, ein früher bei IBM beschäftigter Programmierer im Ruhestand; er kam auf einen Brier Score von 0,14. Die Wahrscheinlichkeit, dass es sich bei der Güteverteilung der Prognostiker insgesamt und der Zugehörigkeit zur Gruppe der Superprognostikern speziell um eine Zufallsverteilung handelt, dass hier also nur unverschämtes Glück am Werk war, ist nach wissenschaftlichen Kriterien ausreichend gering. Allerdings war die Mitgliedschaft in der Gruppe der Superprognostiker (SP), die pro Jahr neu berechnet wurde, in den 4 Jahren nicht vollständig zeitstabil: 30 Prozent derer, die in einem bestimmten Jahr zur SP-Gruppe gehörten, waren im Jahr darauf nicht mehr dabei; d.h. aber, dass 70 Prozent ihren Status als Superprognostiker über zwei folgende Jahre aufrechterhalten konnten.
Die zwei zentralen Fragen im Zusammenhang mit solchen Prognosewettbewerben lauten nun: Welche Eigenschaften bzw. Merkmale unterscheiden die Superprognostiker von den übrigen Teilnehmern? Welche organisatorischen und sonstigen Faktoren tragen dazu bei, die Prognosefähigkeit bei Normalteilnehmern und Superprognostikern zu verbessern?
Eigenschaften von Superprognostikern
Welche prognoserelevanten Eigenschaften sind für Superprognostiker typisch? Haben sie überlegendes Fachwissen in Politik? Superprognostiker wussten zwar in politischen Fragen zum Teil weitaus mehr Bescheid als der Durchschnitt der Teilnehmer, sie waren aber größtenteils keine Experten. Dennoch schnitten Superprognostiker als Gruppe gegenüber professionellen Analysten der US-Geheimdienste in einem Wettbewerb deutlich besser ab. Lag es vielleicht an ihrer überragenden Intelligenz? Die meisten der Superprognostiker sind zwar nicht „superintelligent“, aber doch von deutlich überdurchschnittlicher Test-Intelligenz (überwiegend IQ 115 plus, d.h. die untere Grenzregion liegt eine Standardabweichung über dem Mittelwert des IQ eines Standardtests). Auch wenn wohl jenseits einer Standardabweichung keine sehr starke Korrelation mit der Testintelligenz mehr besteht, ist doch generell die in Tests gemessene kognitive und numerisch-mathematische Fähigkeit wichtigster Prädiktor der Prognosegenauigkeit. Typisch für sehr erfolgreiche Prognostiker ist zudem ihre Motivation und die Art und Weise, wie sie Informationen aufnehmen und verarbeiten, ihr Stil zu denken: Sie sind hochmotiviert, leistungsehrgeizig, betrachten Prognosen als intellektuelle Herausforderung und glauben an die Möglichkeit der individuellen Leistungsverbesserung. Bei der Informationssuche zeigen sie hohes Durchhaltevermögen, sie betreiben auch einen verhältnismäßig hohen Researchaufwand. Im Hinblick auf die Informationsverarbeitung sind sie typischerweise schneller bereit, ihre Meinungen, Ansichten oder Hypothesen in Abhängigkeit von neuen Informationen zu ändern. Das zeigte sich unter anderem darin, dass sie – was in den Prognosewettbewerben innerhalb bestimmter Zeiträume möglich war – ihre Einschätzungen öfters updateten, was in der Tendenz zu besseren Prognosen führte. Auch sind Superprognostiker weniger stark kognitiven Verzerrungen unterworfen und neigen mehr zum kontrafaktischen Denken.
Sehr wichtig für eine hohe Prognosequalität scheint zu sein, dass Superprognostiker die gewonnenen Informationen differenzierter in Wahrscheinlichkeiten übersetzen: während durchschnittliche Teilnehmer ihre Wahrscheinlichkeiten in 10er Schritte (10%, 20%, 30%...) einteilten, wählten viele Superprognostiker 1er-Schritte (1%, 2%, 3% ....). Das heißt, sie nutzen das Kontinuum der verwendeten Skala deutlich stärker aus und erzielen damit auch in „qualitativer“ Hinsicht größere Differenzierungsgewinne. Grundlegend scheint zu sein, dass sie ein Ereignis, dessen Eintritt geschätzt werden soll, so in bedingende Komponenten zerlegen, dass pro Faktor eine Reihe von ähnlichen Ereignissen in Raum und Zeit entsteht, die dann im Hinblick auf ihre Eintrittswahrscheinlichkeit geschätzt werden können. Aus einem scheinbar singulären Ereignis wird auf diese Weise eine komponentenweise zu schätzende Reihe von sich häufiger wiederholenden Ereignissen.
Organisatorische und algorithmische Faktoren, die zu besseren Prognosen führen
Die Güte einer Prognose wird aber nicht allein durch typische Eigenschaften von Superprognostikern bestimmt. Sie ist darüber hinaus von organisatorischen Formen (1), von Lernprozessen und Wissensaneignung (2) und nicht zuletzt von Algorithmen für das Fein-Tuning von Gruppenprognosen abhängig (3).
Zu 1) Ein Tetlock und Kollegen anfänglich überraschendes Ergebnis war, dass die Bildung von Teams von Superprognostikern auch deren individuelle Performance deutlich verbesserte, was bei nicht so guten Prognostikern weniger der Fall war. Allerdings handelte es sich um elektronisch vermittelte, auch zeitlich locker gekoppelte Kooperations-Teams räumlich distanter Teilnehmer. Die Teamstruktur unterschied sich also von der in den meisten Unternehmen etablierten (Teams von Anwesenden, formale Hierarchie usw.). Überraschend war dieses Ergebnis deshalb, weil in Teams häufig Gruppendenken und viele andere Effekte die individuelle Leistung mindern können. Es kommt offenbar auf die Bedingungen an, unter denen sich ein Team konstituiert.
Zu 2) Die Leistungen der Teilnehmer verbesserten sich im Laufe der Zeit teils deutlich. Dem zugrunde lagen Lerneffekte, die jedoch an bestimmte Bedingungen gebunden sind. Erstens ist eine wichtige Voraussetzung eines effektiven Trainings die stetige präzise Messung der Prognosegüte und die Rückkopplung der Messergebnisse, um Fehler und Erfolgsbedingungen analysieren zu können. Ein quantifizierendes Messinstrument ist dazu am besten geeignet – wie etwa der Brier-Score. Zweitens ziehen Tetlock und Kollegen aus ihren Forschungen den Schluss, dass Wettbewerbe u.a. aus Gründen der Motivation den stärksten Lerneffekt haben. Drittens lässt sich die individuelle Prognosegüte am schnellsten über einschlägige Wissensvermittlung verbessern: So etwa die Kenntnis diverser kognitiver Verzerrungen sowie die Übung im Umgang mit Wahrscheinlichkeiten.
Zu 3) Ein interessanter Aspekt ist die Anwendung von Algorithmen auf Prognostiker-Gruppen, um die „Weisheit der Vielen“ zu verbessern. Diese Algorithmen – zwei an der Zahl – fruchten am besten bei „Normalprognostikern“, weniger bei Superprognostikern. Die Aufgabe besteht zunächst darin, aus den individuellen Prognosen einer Gruppe zu einem bestimmten geopolitischen Ereignis eine einzige kollektive Prognose der Gruppe zu gewinnen. Dazu bildet man einen Durchschnitt, den man als „Weisheit der Vielen“ bezeichnen kann. Tetlock und Kollegen wenden nun darauf zwei Algorithmen an, um die Gruppenprognose noch besser zu machen. Im ersten Schritt werden die Schätzungen der Top-Prognostiker (etwa der ersten 10 %) der Gruppe höher gewichtet und dann wird ein neuer Durchschnitt gebildet. Die Grund ist evident: man möchte das Urteil der Besten stärker zum Tagen bringen. In einem zweiten Schritt wendet man darauf einen Algorithmus an, der als „Extremizing“ bezeichnet wird. Die im ersten Schritt ermittelte Gruppen-Prognose wird näher an die 100 oder an die 0 Prozent herangeführt. Wenn z.B. die Vorhersagewahrscheinlichkeit bei 81 Prozent liegt, wird sie vielleicht auf 95 Prozent erhöht; wenn bei 35 Prozent, vielleicht auf 20 Prozent vermindert. Die Grundüberlegung ist hier, dass man jene Prognostiker stärker gewichtet, die sich aufgrund guter Informiertheit ihrer Prognose relativ sicher sind, deren Schätzungen deshalb näher an 100 oder 0 Prozent liegen. Prognostiker, die sich informationsbedingt unsicher sind, geben nämlich eher Schätzungen im Mittelbereich ab. Hätten sie den gleichen Informationsstand wie die besser Informierten, käme bei der Durchschnittsbildung das durch „Extremisierung“ erzeugte Ergebnis heraus. Damit dieser Algorithmus allerdings richtig Wirkung erzielt, muss die Gruppe informationsmäßig ausreichend heterogen sein.
Mit Hilfe dieser beiden Algorithmen hat eine von Tetlock und Kollegen betreute Prognostikergruppe das von „Intelligence Advanced Research Projects Acitivity“ ausgerichtete IARPA-Tournament auch gegen Profigruppen der US-Geheimdienste gewonnen.
Prognoseverbesserung im Finanzbereich
Auch im Finanzbereich wurden die Forschungen zum Phänomen der Superprognostiker in den letzten Jahren vermehrt wahrgenommen. Zunächst kann man sich jedoch fragen, ob die Ergebnisse von Tetlock und Kollegen – die im Bereich der stark qualitativ ausgerichteten und von Intuitionen bestimmten geopolitischen Analyse gewonnen wurden – überhaupt für die quantitativ-empirisch hochgerüstete Finanzbranche mit ihrem mächtigen Methodeninstrumentarium relevant sind? Wird das, was einen Superprognostiker ausmacht, hier nicht zum größeren Teil schon routinemäßig praktiziert – nämlich hochgradig differenzierend zu quantifizieren?
Zumindest im Hinblick auf einen Teilaspekt kann man die Frage der Übertragbarkeit einfach bejahen. Im Zusammenhang mit den Finanzmärkten wird regelmäßig auf geopolitische Unsicherheitsfaktoren verwiesen (wie Brexit, Handelskonflikte, diverse als entscheidend empfundene Wahlen usw.). Sofern also eine überlegene geopolitische Prognose zugleich eine bessere Prognose von Erträgen zur Folge hat, dürften auch für aktive Manager geopolitische Superprognostiker von Nutzen sind. Darüber hinaus ist zu beachten, dass die meisten Superprognostiker keine Experten in Geopolitik sind. Sofern Analoges für den Finanzbereich gilt, dann wohl am ehesten dort, wo qualitative oder komplexere Informationen in Wahrscheinlichkeiten zu transformieren sind.
Finanzexperten können aber auch selber ihre Prognosefähigkeiten verbessern und eventuell selber zu Superprognostikern werden, sofern sie das nicht schon sind. Tetlock hat in einem CFA-Beitrag den möglichen Nutzen der Good-Judgment-Ergebnisse für Finanz-Analysten eingeschätzt. Zunächst weist er darauf hin, dass die unabdingbare Voraussetzung für Verbesserung oder Aktivierung der Prognosefähigkeit die quantitative Bewertung der Prognoseleistungen und deren regelmäßiges Feedback ist. Zudem sieht Tetlock in Prognose-Wettbewerben die effektivste organisatorische Form, um Lernprozesse zu initiieren. Tetlock schätzte die Verbesserungsmöglichkeiten pro Maßnahme auch quantitativ ein.
Die Auswahl von Personen mit dem richtigen Mix von Eigenschaften soll die Prognosequalität um bis zu 40% (bezogen auf die Prognosegüte gemäß Brier-Score) verbessern helfen. Geeignete Personalselektion ist damit der wichtigste potentielle Verbesserungsfaktor. Durch Training in Wahrscheinlichkeitsrechnung und Bias-Kompetenz lasse sich die Akkuratheit der Schätzungen um 10% erhöhen. Die Prognosearbeit in Teams könne gleichfalls bis zu 10% Leistungssteigerung erzielen. Die behutsame Anwendung der beiden oben angesprochenen Algorithmen (Übergewichtung der Top-Prognostiker; Extremisierung) soll Verbesserungen von bis zu 25% bringen. Dies wären, addiert, Verbesserung von bis zu 85 Prozent.
Die erste Frage ist allerdings, ob man diese Einzelergebnisse überhaupt addieren darf. Denn ein Teil der Interventionen zielt vor allem auf Verbesserungen bei „Normalprognostikern“ oder Gruppen (Wissensvermittlung Bias / Wahrscheinlichkeit; Algorithmen), ein Teil mehr auf Superprognostiker (insbesondere Personalselektion, Teambildung). Entscheidet man sich für die Auswahl von Superprognostikern, was die Leistung um bis zu 40% verbessern soll, wird dadurch eventuell die Leistungssteigerung einer Normalgruppe (bis zu 25%) in einem Unternehmen in den Schatten gestellt und damit überflüssig. Wird die Gruppe der Superprognostiker (bis zu 40%) identifiziert, aber in eine „Normalgruppe“ integriert und dann eine Anpassung über die beiden Algorithmen vorgenommen, erzielt man eine Verbesserung von maximal 25 Prozent. In beiden Fällen läge die potentielle Verbesserung deutlich unter der Steigerung bei Addition der Komponenten.
Nostradamus veröffentlichte ab 1550 jährlich einen Almanach, in dem er das kommende Jahr prophezeite. Das ist die Zeitspanne, in der auch moderne Koryphäen des Superforecastings brillieren. Im Unterschied zu diesen gab aber Nostradamus keine Wahrscheinlichkeiten für konkret identifizierbare Ereignisse an, sondern schrieb unter Verzicht auf genauere Zeit- und Namensangaben metaphernreiche Vorhersagen in Prosa und später als Vierzeiler, die sich nur für seine Anhänger in einen Brier Score, und dies nahe 0, umrechnen lassen.
Prognosevorteile und Alpha
Die Forschungsergebnisse zum „Superforecasting“ wurden von der Unternehmensberatung Oliver Wyman in dem Report „Revitalizing Active Management“ aufgenommen. Die Autoren des Wyman-Reports unterscheiden drei mögliche Quellen, um Alpha – oder mit Kahn: den IC – zu erhöhen: bessere (a), schnellere (b), intelligenter verarbeitete (c) Information.
Zu a) Die Strategie, durch bessere Informationen als die im Wesentlichen öffentlich zugänglichen dauerhaft positives Alpha zu erzielen, weisen die Wyman-Analysten aufgrund der viel zu seltenen Informationsvorteile als ungeeignet zurück.
Zu b) Die Strategie, Tempovorteile bei der Informationsverarbeitung zu erzielen, wird den Autoren des Reports zufolge im Wesentlichen durch Einsatz moderner Technologie umgesetzt (Big Data, KI, Maschinenlernen, Server in räumliche Nähe zu Börse bringen usw.). Aber: je mehr man auf einfach replizierbare Strategien und auf brute-force-Berechnungen setze, umso schneller würden Tempovorteile verschwinden. Dies ergebe einen „Rüstungswettlauf“, was, sofern man einen dauerhaften Vorsprung anstrebe, für die meisten Verwaltungen zu sehr unattraktiven Kosten-Ertrags-Konstellationen führe und daher für die Mehrheit nicht gangbar sei.
Zu c) Den einzigen gangbaren Weg, auf dem viele Verwaltungen dauerhaft kompetitive Vorteile erzielen können, sehen die Wyman-Analysten in intelligenterer Informationsverarbeitung bzw. verbesserten Prognoseleistungen. Es komme hier, so der Report, kaum zu einem ruinösen „Rüstungswettlauf“, was impliziert, dass Nischen, Segmente, Spezialbereiche besser verteidigt werden können. Der Report setzt sich in diesem Kontext mit den Forschungsergebnissen Tetlocks auseinander. Um das Verbesserungspotential anzuzeigen, berichten die Wyman-Analysten aus ihrer Praxis: die Mehrzahl der von ihnen beratenen Vermögensverwaltungen erfasse die eigenen Prognosen nicht systematisch; demgemäß erfolge auch keine regelmäßige Rückkopplung zur Fehler-/Erfolgs-Analyse. Bezugnehmend auf Tetlock und Kollegen äußern die Autoren des Reports die Überzeugung, mit geeigneten Interventionen lasse sich die Prognosegenauigkeit um bis zu nahe 100 Prozent verbessern (Oben waren es 85%). Die Addierbarkeit der Verbesserungspotentiale der einzelnen Interventionen, die Tetlock anführt, haben wir oben schon in Frage gestellt.
Außerdem ist zweifelhaft, dass sich mit den Verbesserungen die behaupteten dauerhaften Vorteile gegenüber Konkurrenten erzielen lassen. Verbesserung durch einfache Übung / Training, Teambildung, Anwendung von Algorithmen und Wissensvermittlung sind nicht allzu aufwändig und sollten nicht allzu viel kosten. Das gilt dann aber auch für jeden Konkurrenten. Deshalb kann man von dieser Strategie keine dauerhaften Konkurrenzvorteilen erwarten. Ein systematischer Konkurrenzvorteil ist einzig dann zu erwarten, wenn es einer Vermögensverwaltung gelingt, am Markt knappe Superprognostiker zu identifizieren und dauerhaft an sich zu binden, während dies zugleich den konkurrierenden Verwaltungen dauerhaft nicht gelingen darf. Denn ansonsten würde daraus kein dauerhafter Konkurrenzvorteil folgen, sondern, wie bei den anderen Maßnahmen, nur die Vermeidung dauerhafter Konkurrenznachteile.
Schließlich ist von allen diesen Verbesserungen eigentlich nur ein einmaliger, über einen bestimmten Zeitraum sich erstreckender Verbesserungs-Schub zu erwarten; sind alle Lern- und Auswahlmaßnahmen wie empfohlen umgesetzt, dürfte eine Abflachung der Lernkurve bzw. eine Sättigung eintreten: man hält dann überwiegend nur noch das Niveau der Prognosen, der Brier Score stagniert.
Schluss
Die im Rückgriff auf den Private Banker 4 / 2019 gestellte allgemeine Ausgangsfrage war: Wie lässt sich der Informations-Koeffizient IC – und damit Alpha, das Ziel aller Bemühungen aktiver Manager – verbessern? Die spezielle Ausgangsfrage lautete: Lässt sich der IC möglicherweise durch Umsetzung der Ratschläge verbessern, die in der vieljährigen, mit durchaus überraschenden Erkenntnissen aufwartenden Beforschung geopolitischer Normal- und Superprognostiker gewonnen wurden? Oder noch spezifischer: Lässt sich der IC durch Verringerung des Brier Scores erhöhen? Vieles spricht dafür, dass sich zumindest partiell die Erkenntnisse der geopolitischen Prognoseforschung auch im Finanzbereich fruchtbar nutzen lassen, zumal sich ein Teil der empfohlenen Maßnahmen mit relativ geringem Aufwand umsetzen lassen dürfte. Allerdings ist die Frage der Übertragbarkeit auf den Finanzbereich bisher noch nicht einmal in Ansätzen strikt beantwortet. Bisher fehlt unseres Wissens eine finanzmarktspezifische empirische Überprüfung der auf dem Feld der Geopolitik formulierten und verifizierten Hypothesen von Tetlock und Kollegen. Es ist auch klar, dass ein solches Unterfangen aufwändig ist und mit Widerstand jener zu rechnen hat, die ihre Prognosekarten auf den Tisch legen sollen. Viel einfacher dürfte es da für Quants wie Kahn und Kollegen sein, den Brier Score schon einmal a priori in eine IC-Formel und damit in das Fundamental Law of Active Management zu integrieren.