Univ.-Prof. Dr. Andreas Horsch
Dr. Michael Schulte

Wertorientierte
Banksteuerung II:
Risikomanagement

5., vollständig überarbeitete Auflage 2016

 
Bibliografische Information der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie;
detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
Besuchen Sie uns im Internet: http://www.frankfurt-school-verlag.de
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.
Konvertierung in ePub: mediaTEXT Jena GmbH
ISBN (Print): 978-3-956470-48-6
ISBN (PDF): 978-3-956470-49-3
ISBN (ePub): 978-3-956470-50-9
ISBN (Mobi): 978-3-956470-51-6
5. Auflage 2016  © Frankfurt School Verlag GmbH, Sonnemannstraße 9-11, 60314 Frankfurt am Main

Inhaltsverzeichnis

 Vorwort
1   Einleitung
2   Überblick zum Risk Management in Kreditinstituten
2.1   Zum Risikobegriff
2.2   Value-at-Risk-Konzepte
2.2.1   Analytisches Grundmodell
2.2.2   Simulationsmodelle
2.2.3   Zusammenfassende Bewertung
2.3   Risikoposition und Risikopolitik
2.4   Das Phasenschema des Risk Managements
2.5   Risiken in Kreditinstituten
2.5.1   Strategische Risiken
2.5.2   Operative Risiken
2.5.3   Erfolgs- und Liquiditätsrisiken
2.6   Gegenüberstellung von Risiken und Risikoträgern
2.6.1   Risikoverbundwirkungen und Diversifikation
2.6.2   Risikodeckungspotenziale in Kreditinstituten
2.7   Organisatorische Aspekte des Risk Managements
2.8   Zusammenfassung und Arbeitsaufgaben
3   Die Krisenprozesse ab 2007 aus Risikomanagementperspektive
3.1   Die Vorgeschichte der Finanzmarktkrise im Überblick
3.2   Die Finanzmarktkrise als Kettenreaktion
3.3   Krisentransmission: Von der Finanzmarkt- zur Wirtschafts-, Staatsschulden- und Eurokrise
3.4   Konsequenzen für das bankbetriebliche Risikomanagement
4   Liquiditätsrisiko
4.1   Analyse des Liquiditätsrisikos
4.1.1   Arten von Liquiditätsrisiken
4.1.2   Kennziffern zum Liquiditätsrisiko
4.1.3   Analyse des Liquiditätssaldos
4.1.4   Liquiditätsreserven als Risikoträger
4.2   Steuerung des Liquiditätsrisikos
4.3   Zusammenfassung und Arbeitsaufgaben
5   Kreditrisiko
5.1   Analyse des Kreditrisikos
5.1.1   Einzelgeschäftsbezogene Analyse am Beispiel des Firmenkreditgeschäfts
5.1.1.1   Grundlagen der Kreditwürdigkeitsanalyse
5.1.1.2   Einflussfaktoren des Kreditrisikos
5.1.1.3   Risikoklassifizierung mit Hilfe von Rating-Verfahren
5.1.1.3.1   Grundlagen von Scoring-Modellen
5.1.1.3.2   Rating-Agenturen und Rating-Prozess
5.1.1.3.3   Credit Spreads und Ausfallrisiko
5.1.1.4   Die Diskriminanzanalyse als mathematisch-statistisches Verfahren
5.1.2   Gesamtgeschäftsbezogene Analysen
5.1.2.1   Konzentrationsrisiken und Diversifikation im Kreditportfolio
5.1.2.2   Kreditportfoliomodelle
5.2   Steuerung des Kreditrisikos
5.2.1   Einzelgeschäftsbezogene Maßnahmen
5.2.2   Gesamtgeschäftsbezogene Maßnahmen
5.3   Zusammenfassung und Arbeitsaufgaben
6   Länderrisiko
6.1   Analyse des Länderrisikos
6.1.1   Einflussfaktoren des Länderrisikos
6.1.2   Länder-Ratings
6.2   Ansatzpunkte zur Steuerung des Länderrisikos
6.3   Zusammenfassung und Arbeitsaufgaben
7   Zinsänderungsrisiko
7.1   Analyse des Zinsänderungsrisikos
7.1.1   Zinsüberschuss- bzw. Zinsspannenrisiken
7.1.1.1   Einflussfaktoren und Formen des Zinsüberschussrisikos
7.1.1.2   Zinsbindungsbilanz
7.1.1.3   Das Zinselastizitätskonzept
7.1.1.3.1   Ermittlung von Zinselastizitäten
7.1.1.3.2   Statische Elastizitätsbilanz
7.1.1.3.3   Dynamische Elastizitätsbilanz
7.1.2   Barwertrisiken
7.1.2.1   Kursrisiken festverzinslicher Wertpapiere
7.1.2.2   Durations-Analyse
7.1.2.3   Barwertkonzept und Gesamtbankanalyse
7.2   Steuerung des Zinsänderungsrisikos
7.2.1   Aktive versus passive Treasury-Strategien
7.2.2   Risikovermeidung mit Risikolimiten
7.2.3   Risikoverminderung und Risikoüberwälzung
7.2.3.1   Derivative Steuerungsinstrumente im Überblick
7.2.3.2   Zins-Swaps
7.2.3.3   Forward Rate Agreements
7.2.3.4   Zins-Futures
7.2.3.5   Optionale Zinsprodukte
7.2.3.6   Überblick zum Einsatz ausgewählter derivativer Instrumente
7.3   Zusammenfassung und Arbeitsaufgaben
8   Wechselkursrisiko
8.1   Analyse des Wechselkursrisikos
8.1.1   Formen von Wechselkursrisiken
8.1.2   Kursrisiken im engeren Sinne und Swapsatzrisiken
8.1.3   Quantifizierung des Wechselkursrisikos
8.2   Steuerung des Wechselkursrisikos
8.2.1   Finanz-Hedging
8.2.2   Außerbilanzielle Steuerungsinstrumente im Überblick
8.2.3   Vergleich: Devisenoption und Devisentermingeschäft
8.3   Zusammenfassung und Arbeitsaufgaben
9   Operationelles Risiko
9.1   Analyse des operationellen Risikos
9.2   Steuerung operationeller Risiken
9.3   Neuere Entwicklungen – Reputationsrisiken
9.4   Arbeitsaufgaben
10   Schlussbemerkung
11   Literatur- und Quellenverzeichnis
13   Kurzbiographie der Autoren
Stichwortverzeichnis

 Vorwort

Die Frankfurt School of Finance & Management, kompetenter Bildungspartner des Kreditgewerbes, bietet engagierten Nachwuchskräften von Banken an, sich für anspruchsvolle Fach- und Führungsaufgaben zu qualifizieren: Das dreistufige Qualifikationsprofil Bankfachwirt-, Bankbetriebswirt- und Management-Studium hat sich erfolgreich in der Bankindustrie Deutschlands etabliert und bewährt.

Das aus neun Modulen bestehende Kompendium bankbetrieblicher Anwendungsfelder ist für Studierende des Bankbetriebswirt-Studiums konzipiert und mit dem Curriculum entsprechend abgestimmt. Zusätzlich ist das Werk auch für Studierende der Hochschulen und für Praktiker als Studienbuch gut geeignet.

Es hat sich als Medium zur Weiterentwicklung der fachlichen, persönlichen und sozialen Kompetenz bewährt. Die enge Verknüpfung von Theorie und Praxis hat dieser Fachbuchreihe ein klares eigenständiges Profil gegeben.

Die positive Resonanz unserer Leser bewegt uns, die Fachbuchreihe auf dieser Linie konsequent weiterzuentwickeln. Sämtliche Fachbücher werden didaktisch und inhaltlich grundlegend überarbeitet.

Nicht erst die Krisenprozesse seit 2007 haben nachdrücklich bewiesen, dass ein systematisches Risikomanagement im Rahmen der Gesamtbanksteuerung unerlässlich ist. Die erfolgreiche Analyse und Steuerung von Risiken wird immer mehr zum zentralen Faktor für die Wettbewerbsstärke einer Bank. Neben methodischen Impulsen der Theorie sind hierbei zunehmend die Wechselwirkungen zwischen bankinterner und aufsichtsrechtlich motivierter Risikoüberwachung zu verarbeiten.

Zwanzig Jahre nach Veröffentlichung der ersten Auflage des Vorläufers „Bank-Controlling II: Risikopolitik in Kreditinstituten“ erörtert die nun vorliegende, abermals gründlich überarbeitete und erweiterte fünfte Auflage dieses Buches auf Basis des bewährten Aufbaus die für Kreditinstitute zentralen Risiken sowie darauf gerichtete Mess- und Steuerungskonzepte. Neben den klassischen Schwerpunkten des Ausfall- und Marktpreisrisikos wird auch das in der Vergangenheit vernachlässigte Liquiditätsrisiko wieder stärker in den Blickpunkt gerückt. Als methodischer roter Faden dient hierbei das Value-at-Risk-Konzept, das inzwischen eine zentrale Rolle in den Risikomanagementansätzen der kreditwirtschaftlichen Praxis einnimmt.

Dieser Praxisbezug ist für die didaktische Struktur des Buches weiterhin von besonderer Bedeutung. Fallbeispiele erleichtern und vertiefen das Verständnis. Konkrete Einstiege und Schlüsselbegriffe zu Beginn sowie Zusammenfassungen und Arbeitsaufgaben am Ende der Kapitel unterstützen das Selbststudium unserer Studierenden und Leser.

Unser Dank gilt den Studierenden, Dozenten und Praktikern, die zur Weiterentwicklung dieses Kompendiums bankbetrieblicher Anwendungsfelder beigetragen haben. Ganz besonders danken wir unseren Autoren für ihren Einsatz bei der Umsetzung der Anregungen sowie der fachlichen und didaktischen Weiterentwicklung dieses Bandes.

Prof. Dr. Udo Steffens

Präsident und Vorsitzender der Geschäftsführung
der Frankfurt School of Finance & Management

1   Einleitung

Seit den 1970er Jahren sind auf den Finanzmärkten und in den dort tätigen Unternehmen, darunter insbesondere den Kreditinstituten, die vorhandenen Risiken immer stärker in den Vordergrund gerückt. Während dabei zunächst das klassische Ausfallrisiko – insbesondere für Unternehmen und Länder – im Mittelpunkt stand, gerieten in den folgenden Jahrzehnten zudem Marktpreisrisiken und operationelle Risiken in den Fokus. Mit der Subprime- und Finanzmarktkrise seit 2007 rückten darüber hinaus wieder Liquiditätsrisiken und im Zuge der Staatsschuldenkrise auch Länderrisiken sowie schließlich die unter den Risikoarten herrschenden Verbundwirkungen stärker in den Blick. Über die Jahre hinweg wurden folgerichtig die Ansätze zur Messung sowie Steuerung der verschiedenen Risikoarten stetig weiterentwickelt. Zur zentralen Orientierungsgröße wurden hierbei wertorientierte Größen, vom Shareholder Value der Gesamtbank bis hin zum Value-at-Risk einer bestimmten risikobehafteten Position. Spätestens mit Beginn des Konsultationsprozesses um den Regulierungsansatz nach Basel II wurde deutlich, dass die konzeptionelle Fortentwicklung zunehmend auf Erkenntnissen der betriebswirtschaftlichen, aber auch der mathematischen Theorie beruhte und auf dieser Basis nicht nur von den Kreditinstituten, sondern auch von ihren Aufsichtsinstitutionen vorangetrieben wurde. Mittlerweile reichen die zunächst in der Theorie entwickelten Ansätze bis weit in die bankbetriebliche Praxis hinein, was nicht zuletzt an den stetig an Umfang zunehmenden Risikoberichten der Kreditinstitute abgelesen werden kann. Gleichzeitig haben gerade die Krisenprozesse seit 2007 gezeigt, dass von einem idealen Stand des bankbetrieblichen Risikomanagements keine Rede sein kann, sondern eine Fortentwicklung – möglicherweise stellenweise auch ein Zurück zu weniger komplexen Methoden – erforderlich ist. Vor diesem Hintergrund sind grundlegende Kenntnisse zu den für eine Bank relevanten Risikoarten sowie darauf gerichteten Mess- und Steuerungskonzepten für eine große Zahl von Bankbeschäftigten unerlässlich. Ziel dieses Buches ist es daher, die wesentlichen theoretischen Konzepte des Risikomanagements und ihre praxisorientierte Umsetzung zu erläutern sowie ihre Bedeutung für das Gesamtinstitut und seine wertorientierte Steuerung aufzuzeigen.

Hierfür werden nach dieser Einleitung zunächst zwei Grundlagenkapitel vor die Klammer gezogen, die das Risikomanagement insgesamt strukturieren sowie in den aktuellen Kontext der Krisenprozesse seit 2007 einordnen helfen. Die darauf folgenden Kapitel vier bis neun setzen sich mit den wichtigsten Risikoarten auseinander, wobei sie wie bisher konsequent nach Analyse- und Steuerungsansätzen gegliedert werden. Auch 20 Jahre nach Veröffentlichung der ersten Auflage des Vorläufers „Bank-Controlling II: Risikopolitik in Kreditinstituten“ (Schulte, 1996) steht dabei überwiegend die interne Sichtweise des Risikomanagements im Vordergrund. Aufgrund der immer intensiveren Wechselwirkungen werden im Zuge dessen regelmäßig die Konzepte der institutsexternen Bankenaufsicht einbezogen, ohne diese an Umfang wie Komplexität stark zunehmenden Rahmenwerke vollständig darstellen zu wollen. Dies wäre schon aus Platzgründen unmöglich: Allein die Dokumentensammlung, aus denen das Regulierungskonzept „Basel III“ besteht, umfasst gut 4.000 Vorschriften, die auf über 34.000 Seiten ausformuliert sind (vgl. aktuell bei Drost/ Osman, 2015).

Tatsächlich haben insbesondere die Krisen- und die damit verbundenen Regulierungsprozesse auf den Finanzmärkten dafür gesorgt, dass trotz aller guten Vorsätze diese fünfte Auflage nicht früher erscheinen konnte. Wir sind der Frankfurt School, allen voran Frau Dr. Heike Brost und Frau Simone Hoffmann, sehr dankbar dafür, dass unser Schaffensprozess abermals so fachkundig wie nachsichtig begleitet worden ist. Ebenfalls danken möchten wir dem Team des Lehrstuhls für Allgemeine Betriebswirtschaftslehre mit dem Schwerpunkt Investition und Finanzierung an der Technischen Universität Bergakademie Freiberg, hier insbesondere Frau Dipl.-Kffr. Sylvia Richter sowie Herrn Benjamin Aust, MBA, für ihre tatkräftige Unterstützung.

Unseren Dank verbinden wir mit der ebenso herzlichen Bitte an all diejenigen, die ihre Lektüre über dieses erste Kapitel hinaus fortsetzen, uns ihre Anregungen für die nächste Auflage zukommen zu lassen.

Freiberg/Recklinghausen,
im Januar 2016

Univ.-Prof. Dr. Andreas Horsch

Dr. Michael Schulte

2   Überblick zum Risk Management in Kreditinstituten

beispiel.jpg 

Rahmenwerk für das Risikomanagement

Die Vielfältigkeit unseres Geschäftsmodells erfordert es, Risiken effektiv zu identifizieren, zu messen, zu aggregieren und zu steuern sowie die verschiedenen Geschäftsbereiche mit Eigenkapital zu unterlegen. Wir handeln als integrierter Konzern durch unsere Unternehmens- und Geschäftsbereiche sowie Infrastrukturfunktionen. Risiken und Kapital werden mithilfe eines Rahmenwerks von Grundsätzen, Organisationsstrukturen sowie Mess- und Überwachungsprozessen gesteuert, die eng an den Tätigkeiten der Unternehmens- und Geschäftsbereiche ausgerichtet sind:

  • Die Kernaufgaben des Risikomanagements obliegen dem Vorstand, der deren Ausführung und Kontrolle an Senior-Risk-Management-Komitees delegiert. Der Aufsichtsrat überwacht regelmäßig die Risiko- und Kapitalprofile.

  • Wir wirken Risiken auf drei Ebenen entgegen, wobei die Funktionen mit Kundenkontakt, Risikomanagement und Revision unabhängig voneinander agieren.

  • Die Risikostrategie wird vom Vorstand jährlich genehmigt und ist definiert auf Basis unseres konzernweiten Strategie- und Kapitalplans sowie der Risikotoleranz, um Risiko-, Kapital- und Ergebnisziele aufeinander abzustimmen.

  • Konzernweit durchgeführte risikoartenübergreifende Prüfungen sollen sicherstellen, dass robuste Verfahren zur Risikosteuerung und eine ganzheitliche Wahrnehmung von Risiken etabliert sind.

  • Wir steuern Kredit-, Markt-, operationelle, Liquiditäts-, Geschäfts- und Reputationsrisiken durch Risikomanagementprozesse. Modellierungs- und Messansätze zur Quantifizierung von Risiko und Kapitalnachfrage sind über alle bedeutenden Risikoklassen hinweg implementiert. […]“

(Deutsche Bank, 2014, S. 72)

Schlüsselbegriffe

– Risiko, Risikoposition

– Value-at-Risk

– Risikopolitik, Risk Management

– Risikoarten

– Risikoträger bzw. Risikodeckungspotenziale

– Risikosteuerung

– Organisation

Ausgehend vom Risikobegriff werden in diesem Grundlagenkapitel zunächst Value-at-Risk-Konzepte abgeleitet, die heute regelmäßig die Basis für ein integriertes Risikomanagement darstellen. Nach einer Definition der Risikopolitik wird im Anschluss mit dem Phasenschema des Risk Managements eine sinnvolle Strukturierung des Risk-Management-Prozesses vorgestellt. Anschließend erfolgt eine Systematisierung der Risiken nach ihrem Ursache- und Wirkungszusammenhang, um danach eine Gegenüberstellung mit möglichen Risikoträgern vorzunehmen. Der einführende Überblick schließt mit einigen Anmerkungen zu organisatorischen Aspekten des Risk Managements.

2.1   Zum Risikobegriff

Der Begriff des Risikos ist trotz oder gerade angesichts seiner weiten Verbreitung in verschiedensten Wissenschaftsgebieten, der Politik und nicht zuletzt auch der Umgangssprache nicht einheitlich definiert. Dies gilt selbst für die Betriebswirtschaftslehre, auch wenn seit fast 100 Jahren (vgl. Knight, 1921) eine grundlegende Abgrenzung existiert. Die verschiedenen Ansätze lassen sich jedoch weitgehend auf zwei Grundrichtungen zurückführen. Während die entscheidungsorientierte BWL ursachenbezogen auf die Unsicherheit der Zukunft und unvollständige Informationen abstellt, wird in anwendungsorientierten Bereichen der BWL Risiko stärker wirkungsbezogen als Möglichkeit einer Zielverfehlung bzw. eines Verlustes aufgefasst.

Die ursachenbezogene Auffassung knüpft an die Möglichkeit an, dem Eintritt bestimmter (unsicherer) Ereignisse Wahrscheinlichkeiten zuzuordnen. Anknüpfend an der Arbeit von Frank Knight bezeichnet der Oberbegriff der Unsicherheit fundamental unvollständiges Wissen darüber, welche Zielerreichung nach Realisierung bestimmter denkbarer Handlungsalternativen eintreten wird. Risiko ist dann eine idealtypische Unterform insofern, als in dieser Situation Wahrscheinlichkeiten bzw. Erwartungswerte für Handlungskonsequenzen existieren, womit sich die Unsicherheit als Abweichung von bzw. Streuung um einen Erwartungswert angeben lässt (vgl. zum Risikobegriff aus betriebswirtschaftlicher Sicht insbes. Schneider, 1995, hier S. 12). Dabei kann es sich um objektiv messbare Wahrscheinlichkeiten handeln, wie sie etwa von Versicherungsunternehmen aus Schadenstatistiken ermittelt werden können, oder um subjektive Schätzungen, die einzelne oder mehrere Entscheidungsträger aus der Einschätzung einer bestimmten Situation bzw. ihrer Erfahrung ableiten.

Die wirkungsbezogenen Ansätze stellen dagegen die Risikowirkungen in den Vordergrund und fassen Risiko als die Möglichkeit einer negativen Zielverfehlung und die damit in der Regel ebenfalls verbundene Chance als die einer positiven Zielverfehlung auf. Insofern ist der Risikobegriff nur im Zusammenhang mit den zugrunde liegenden (subjektiven) Zielsetzungen und Erwartungen sinnvoll zu interpretieren, da durch das sich darin ausdrückende Anspruchsniveau gleichzeitig das Verhältnis von Risiko und Chance bestimmt wird. Wenn beispielsweise im Kreditgeschäft für das Gesamtinstitut die Zielsetzung einer vollständigen Zahlung von Zins- und Tilgungsleistungen formuliert wird, so steht dem Risiko, doch Ausfälle zu erleiden, keinerlei Chance gegenüber, da kein Kreditnehmer eine Übererfüllung der vertraglichen Vereinbarungen vornehmen wird. Werden aber im Zins Risikoprämien kalkuliert und diese auch am Markt durchgesetzt, so ist es eine durchaus sinnvolle Erwartung für das Gesamtinstitut, dass die tatsächlichen Ausfälle die vereinnahmten Risikoprämien nicht übersteigen. Bei dieser Zielsetzung steht dem Risiko ex post tatsächlich höherer Ausfälle die Chance gegenüber, dass die tatsächlichen Ausfälle niedriger als die vereinnahmten Risikoprämien sind. An diesem Beispiel wird auch die Subjektivität der Risikoabgrenzung deutlich.

Die beiden dargestellten Grundrichtungen stehen indes nicht unabhängig nebeneinander; vielmehr setzt die wirkungsbezogene Interpretation die ursachenbezogene erkennbar voraus. Risiko kann daher wie folgt beschrieben werden:

definition.jpg 

Risiko resultiert ursachenbezogen aus der (quantifizierbaren) Unsicherheit zukünftiger Ereignisse und Handlungsfolgen auf der Basis unvollständiger Informationen und schlägt sich wirkungsbezogen in einer negativen Abweichung von einer festgelegten Zielgröße nieder.

Seit dem Ende der 1990er Jahre spielen diese Ansätze in der Banksteuerung eine dominierende Rolle, und zwar insbesondere im Management von Marktpreisrisiken (vgl. prägnant Wilkens/Völker, 2001, S. 415). Gleichzeitig ist mit der vorstehenden Definition die Annahme einer höchstens eingeschränkten Korrigierbarkeit einer einmal getroffenen Entscheidung verbunden. Die Höhe des Risikos ist dann einerseits abhängig vom Ausmaß der möglichen Zielverfehlungen sowie andererseits von den ihnen jeweils zuzurechnenden Wahrscheinlichkeiten.

Risikomaße sollten daher zum einen Aussagen zu den Eintrittswahrscheinlichkeiten und zum anderen zur Höhe des Risikos erlauben. Während traditionelle Risikomaße (wie Festzinsüberhänge in der Zinsbindungsbilanz oder Berechnungen von Liquiditätskoeffizienten) in der Regel weder die Unsicherheit noch die Auswirkungen eines Risikoeintritts konkret quantifizieren, umfassen moderne Risikomaße, wie etwa Value-at-Risk-Kennzahlen, sowohl Aussagen zur Wahrscheinlichkeit eines Risikoeintritts als auch zu dessen Höhe.

2.2   Value-at-Risk-Konzepte

Die Entwicklung von Value-at-Risk-Konzepten für das unternehmerische Risikomanagement begann erst in den 1990er Jahren (zur Historie vgl. Hull, 2014, S. 222f.). In einer wertorientierten Sichtweise bezieht sich die Unsicherheit primär auf (zahlungswirksame) Überschüsse sowie die resultierenden (Bar-)Werte eines Untersuchungsobjekts (vgl. pointiert z.B. Jorion, 2007, S. 9ff.; aktuell Dörschell/Franken/Schulte, 2012, S. 13f.), sei es eine Einzeltransaktion oder ein Kreditinstitut als Ganzes. Maßgebliche Treiber waren der Wunsch nach möglichst umfassenden Risikomaßen, die nicht nur das quantitative Ausmaß der Zielverfehlung sowie eine Eintrittswahrscheinlichkeit verknüpften, sondern sich auf dieser Basis auch für aggregierende Aussagen bis hin zur Gesamtrisikoposition einer Unternehmung eigneten.

Gerade aufgrund seiner in den letzten Jahren stetig gewachsenen, im Zuge der Finanzmarktkrise daraufhin durchaus kritisch bewerteten Bedeutung erfordert das VaR-Konzept eine sorgfältige Analyse, weswegen nachfolgend die wichtigsten Basisvarianten beschrieben werden.

Auf methodischer Ebene weisen diese VaR-Konzepte zunächst einen gemeinsamen Kern auf: Gesucht ist ein Maß, mit dem die Abhängigkeit der Wertentwicklung einer Vermögensposition von bestimmten Einfluss- bzw. Risikofaktoren umfassend und gleichzeitig zusammenfassend abgebildet werden kann. Um sowohl die Ursache-Wirkungs-Zusammenhänge zwischen Risikofaktor und Vermögensposition als auch die Ungewissheit über die künftige Entwicklung der Risikofaktoren einzufangen, wurden Bausteine der Finanzierungstheorie einerseits sowie der Wahrscheinlichkeitstheorie und Statistik andererseits zusammengeführt.

definition.jpg 

Ausgehend von einem downside-orientierten Risikobegriff, der ein Risiko als negative Abweichung zwischen tatsächlichem und erwartetem Ergebnis versteht, wird das Risikomaß Value at Risk (VaR) definiert als die negative Wertänderung einer Vermögensposition, die in Abhängigkeit von einer unterstellten Verteilungsannahme mit einer bestimmten vorgegebenen Wahrscheinlichkeit in einer bestimmten Periode maximal eintreten kann.

Der VaR stellt damit einen in Geldeinheiten ausgedrückten Schwellenwert dar, den die tatsächlichen Verluste mit der vorgegebenen Wahrscheinlichkeit nicht überschreiten: „VAR summarizes the worst loss over a target horizon with a given level of confidence“ (Jorion, 2007, S. 17; vgl. auch Crouhy/Galai/Mark, 2014, S. 239). Da die Berechnung des VaR abhängig von (einem oder mehreren) bestimmten Risikofaktoren ist, wird seine Höhe maßgeblich beeinflusst von der unterstellten Verteilungsannahme für diese Risikofaktoren und darüber hinaus auch von der getroffenen zeitlichen Abgrenzung („bestimmte Periode“) sowie der gegebenen Vertrauenswahrscheinlichkeit („bestimmte Wahrscheinlichkeit“; vgl. zu diesen Parametern prägnant Hull, 2015, S. 612f.; Steiner/Bruns/Stöckl, 2012, S. 74f.). Die Verteilungsannahme umfasst nicht nur die Zusammenhänge zwischen dem Wert einer Vermögensposition und den betrachteten Risikofaktoren, sondern auch die Interaktion der letztgenannten untereinander. Um auf diese Weise Wertänderungen einzelner Vermögenspositionen, aber auch ganzer Asset-Portfolios zu beurteilen, haben sich insbesondere zwei VaR-Richtungen herausgebildet (vgl. Abbildung 1).

VaR-Konzepte im Überblick
Abbildung_001.jpg

Abbildung 1

Für eine grundlegende Betrachtung empfiehlt sich demnach eine Unterscheidung in

  1. Analytische Modelle, die theoretisch fundierte Verteilungsannahmen (im Idealfall Normalverteilungen, die durch Erwartungswert µ und Standardabweichung σ charakterisiert werden können) für die Risikofaktoren unterstellen und daraus auf die Wertentwicklung der hiervon beeinflussten Vermögensposition schließen sowie

  2. Simulations-Modelle, die mögliche Entwicklungen der Vermögensposition unter Zuhilfenahme bekannter Vergangenheitsdaten oder anderer repräsentativer simulierter Szenarien über die Risikofaktoren ableiten.

Nachfolgend wird zunächst das analytische Grundmodell vorgestellt, das auf Portfolio-Ebene insbesondere zum sogenannten Varianz-Kovarianz-Ansatz weiterentwickelt werden kann. Im Anschluss daran werden die beiden grundlegenden nicht-analytischen Verfahren der Historischen sowie der Monte-Carlo-Simulation erläutert (vgl. für eine ausführliche Übersichtsdarstellung analog Linsmeier/Pearson, 2000). Alle drei Verfahren versuchen, das bestehende aktuelle Risiko der Wertveränderung einer Vermögensposition ausgehend von den Schwankungen bestimmter Risikofaktoren abzuschätzen, sie unterscheiden sich aber entscheidend in der Ableitung eben dieser Schwankungen.

2.2.1   Analytisches Grundmodell

Im analytischen Grundmodell wird davon ausgegangen, dass die zu steuernde Vermögensposition von einem Risikofaktor abhängt und dass dessen Schwankungen sich durch eine bestimmte Verteilungsannahme erfassen und charakterisieren lassen. Mit dem Treffen einer Verteilungsannahme unterstellt der Risikomessende, dass betrachtete Risikofaktoren bzw. Vermögenspositionen für ihn nicht beeinflussbar, sondern Resultate von Zufallsexperimenten sind, deren Verlauf ganz bestimmten Regeln folgt. Basierend hierauf lassen sich dann Wahrscheinlichkeiten für die Ausprägung dieser zufälligen Ergebnisse angeben.

beispiel.jpg 

Für den Wurf eines Würfels würde der Betrachter – sofern er nicht Manipulationen am Spielgerät vermuten muss – von einer Gleichverteilung über die Werte eins bis sechs ausgehen. Bei einem einmaligen Wurf wäre die Wahrscheinlichkeit für das Werfen von sechs Augen mit 1/6 anzusetzen. Im Sinne der Value-at-Risk-Sprache würde dieser Sachverhalt wie folgt formuliert: „Die Augenzahl, die mit einer Wahrscheinlichkeit von 5/6 nicht überschritten wird, lautet fünf.“

Während die Anzahl denkbarer Ausgänge beim Wurf eines Würfels endlich bzw. abzählbar ist, womit es sich um eine diskrete Zufallsvariable handelt, können die Risikofaktoren bzw. Vermögenspositionen des Bankgeschäfts zumindest in bestimmten Bereichen jeden beliebigen Zahlenwert annehmen, womit sie stetige Zufallsvariablen sind.

Dargestellt werden diese durch stetige Funktionen, nämlich ihre Dichte- sowie ihre Verteilungsfunktion.

Die Dichtefunktion f(x) ist das Pendant zur Wahrscheinlichkeitsfunktion einer diskreten Zufallsvariable (diese bestünde im beschriebenen Beispiel aus sechs „Säulen“ der Höhe 1/6 über den denkbaren Merkmalsausprägungen „eins“ bis „sechs“, die auf der waagerechten Achse abzutragen wären). So wie sich bei einer Wahrscheinlichkeitsfunktion die Säulen über den Merkmalsausprägungen zur Gesamtwahrscheinlichkeit von 100% = 1 aufaddieren, beträgt die gesamte Fläche zwischen dem Graphen der Dichtefunktion und der waagerechten Achse 1.

Aufgrund des stetigen Verlaufs können einer Dichtefunktion weniger Punkt- als Intervallinformationen entnommen werden: Die Wahrscheinlichkeit dafür, dass die Zufallsvariable einen Wert annimmt, der im Intervall [x1; x2] liegt, entspricht der Fläche unter dem Funktionsgraphen in exakt diesen Grenzen (vgl. grundlegend etwa Bleymüller/Weißbach, 2015, S. 51). Solche Dichtefunktionen können sehr unterschiedliche Verläufe aufweisen, was sich entsprechend auf die Wahrscheinlichkeiten für bestimmte Ausprägungen auswirkt, wie auch die folgende Abbildung zeigt: Unter der Annahme, dass die Verteilung f(x) gilt, ist die Wahrscheinlichkeit für Werte im Intervall [x1; x2] sehr viel größer (gesamte schraffierte Säule) als bei Gültigkeit der Verteilung g(x) (unterer, dunklerer Abschnitt der schraffierten Säule):

Dichtefunktionen von Zufallsvariablen
Abbildung_002.jpg

Abbildung 2

Analog empirisch ermittelter Häufigkeitsverteilungen (für vergangene Ereignisse) können auch solche Wahrscheinlichkeitsverteilungen (zukünftiger Ausprägungen) der Zufallsvariablen durch bestimmte Parameter charakterisiert werden. Deren wichtigste sind der Lage- sowie der Streuungsparameter. Ersterer beschreibt die Position einer Dichtefunktion bezüglich der Achsen (wie „niedrig oder hoch“, wie weit „links oder rechts“ die Kurve also verläuft), Letzterer ihre Gestalt (wie „schlank oder breit“ die Kurve ausfällt). Bevorzugter Lageparameter einer Verteilung ist der Erwartungswert µ, bevorzugter Streuungsparameter die Varianz σ2 oder ihre Wurzel, die Standardabweichung σ (vgl. einführend hierzu etwa Albrecht/Maurer, 2008, S. 121f.; Bruns/Meyer-Bullerdiek, 2013, S. 10ff.). Bei bestimmten Verteilungen (z.B. Normalverteilungen) reichen diese beiden Parameter sogar aus, um die Dichtefunktion vollständig zu beschreiben. Ausgehend davon ist es dann möglich, bestimmten Schwankungsbereichen der Wertentwicklung auch genaue Wahrscheinlichkeiten zuzuordnen. Umgekehrt kann über die Vorgabe bestimmter für sinnvoll erachteter Vertrauenswahrscheinlichkeiten errechnet werden, welcher absolute Verlust mit dieser Wahrscheinlichkeit nicht überschritten wird. Die daraus berechnete absolute Verlustziffer wird als der VaR auf eben diesem vorgegebenen Wahrscheinlichkeitsniveau bezeichnet. Wie bereits angedeutet, gehört zu den derart eindeutig bestimmbaren Verteilungen insbesondere die Normalverteilung als „wohl die wichtigste statistische Verteilung überhaupt“ (Bleymüller/Weißbach, 2015, S. 73). Hinzu treten bei ihr weitere Eigenschaften, die präzise Aussagen über Wahrscheinlichkeiten für das Unter- oder Überschreiten bestimmter Werte erleichtern, weswegen sie auch im Rahmen genau so ausgerichteter Value-at-Risk-Ansätze im kreditwirtschaftlichen Risikomanagement bevorzugt eingesetzt wird. Die Vorgehensweise des analytischen Grundmodells kann daraufhin wie folgt zerlegt werden (vgl. auch Jorion, 2007, S. 105ff., sowie aktuell Hartmann-Wendels/Pfingsten/Weber, 2015, S. 277ff.):

  1. Der Wert einer Vermögensposition wird als von der Entwicklung eines Risikofaktors (eines bestimmten Marktpreises) abhängige Variable definiert.

  2. Für die denkbaren Ausprägungen dieses Risikofaktors wird eine Normalverteilung zugrunde gelegt. Um hiermit den Verteilungsverlauf der „Zufallsvariable Risikofaktor“ zu beschreiben, werden aufgrund der Besonderheit dieser Verteilungsform nur der Erwartungswert des Risikofaktors (µ) sowie seine Standardabweichung (σ) benötigt.

  3. Es wird die aus Sicht des Risikomanagers zu berücksichtigende Schwankungsbreite des Risikofaktors ermittelt. Hierfür wird ein Konfidenzniveau vorgegeben, das ausdrückt, in welchem Intervall (z.B. „95% aller Fälle“ oder „99% aller Fälle“) die Werte noch als akzeptabel gelten. Der sich daraus ergebende schlechteste noch akzeptable Wert führt zur Berechnung des VaR.

  4. Diese Schwankungsbreite kann über die in 1. definierte Abhängigkeit in die Schwankungsbreite der Vermögensposition transformiert werden. Ablesbar ist der VaR auf dem zuvor definierten Konfidenzniveau im Sinne der „unteren Hälfte“ der nicht vom Konfidenzniveau erfassten Fälle, also von Verlusten, die z.B. „in 95% aller Fälle“ nicht überschritten werden.

Die Dichtefunktion einer jeden Normalverteilung wird beschrieben durch die Funktionsgleichung

bbw_wertorient_banksteuerung-II_kap02_FML-1.jpg

Umgesetzt in eine grafische Darstellung führt diese Gleichung auf die nach Carl Friedrich Gauß benannte, symmetrische Kurve mit einem Maximum (über µ) und zwei Wendepunkten (bei µ – σ sowie µ + σ). Je nach dem für die Verteilung spezifischen ` und s kann diese Kurve noch unterschiedlichste Positionen im Koordinatensystem sowie Gestalten aufweisen. Zu den erwähnten nützlichen Eigenschaften der Normalverteilung gehört jedoch, dass sich jede ihrer Varianten durch eine ganz bestimmte Adjustierung in die Standardnormalverteilung (mit µ = 0 und σ = 1) überführen lässt. Es gilt: Ist die durch X* angegebene Verteilung der Werte x normalverteilt mit µ = µ* und σ = σ*, so ist die durch lineare Transformation resultierende Verteilung Z, deren Werte beschrieben werden durch

bbw_wertorient_banksteuerung-II_kap02_FML-2.jpg

standardnormalverteilt mit µz = 0 und σz = 1. Damit aber lassen sich die Wertetabelle der Verteilungsfunktion der Standardnormalverteilung, nämlich

bbw_wertorient_banksteuerung-II_kap02_FML-3.jpg

und der Funktionsgraf von Z nutzen, um Wahrscheinlichkeitsaussagen über jede beliebige Normalverteilung zu treffen. Die grafische Darstellung von Z zeigt dabei die ebenfalls nach Gauß benannte, charakteristische Gestalt einer Glocke, die analog zum Gros der Literatur auch den folgenden Darstellungen zugrunde liegt (für eine ausführliche Einführung vgl. Matthäus/Matthäus, 2015, S. 427ff.).

Zu den zentralen Eigenschaften der Normalverteilung, die für die VaR-Berechnung nutzbar gemacht werden, zählt die symmetrische Streuung der Werte um den Mittelwert µ. Solche Verteilungen sind durchaus plausibel, sie entstehen insbesondere bei empirischen Erhebungen mit einer ausreichend hohen Zahl von Beobachtungswerten. Die Symmetrie an sich, vor allem aber die (Glocken-)Form der Dichtefunktion ermöglicht es, künftigen Schwankungen des Risikofaktors ganz bestimmte Wahrscheinlichkeiten zuzuordnen: Hierdurch ist etwa die Wahrscheinlichkeit für Werte links von µ ebenso groß wie für Werte rechts davon (µ jeweils eingeschlossen), beide betragen 50%. Bei jeder durch eine µ-σ-Kombination charakterisierten Normalverteilung gelten überdies bestimmbare Wahrscheinlichkeiten dafür, dass angenommene Werte in um µ symmetrischen Intervallen liegen, also etwa „zwischen (µ – x) und (µ + x)“. Nicht zuletzt lässt sich für x dabei ein Vielfaches der Standardabweichung angeben, das Intervall also formulieren als [µ – aσ; µ + aσ]. Insbesondere dann gilt für jede beliebige Normalverteilung – also unabhängig vom konkreten µ bzw. σ (vgl. Albrecht/Maurer, 2008, S. 121) – die gleiche Wahrscheinlichkeit, dass künftige Werte inner- bzw. außerhalb dieses Intervalls liegen.

Dichtefunktion einer normalverteilten Zufallsvariable (Risikofaktor)
Abbildung_003.jpg

Abbildung 3

Werden etwa Intervallgrenzen festgelegt, die um die zweifache Standardabweichung vom Mittelwert entfernt sind, so enthält dieses Intervall [µ – 2σ; µ + 2σ] stets 95,44% der für möglich gehaltenen Werte, während umgekehrt genau (100 – 95,44)% = 4,56% der Werte der Zufallsvariable außerhalb dieses Intervalls liegen. Symmetriebedingt beträgt dann die Wahrscheinlichkeit, dass sich Ausprägungen des Risikofaktors ergeben, die niedriger sind als die durch diesen Bereich festgelegte Untergrenze, die Hälfte von 4,56%, also 2,28%. Durch analoge Überlegungen lassen sich weitere „Eckwerte“ ermitteln (linker Pfeil), die entweder auf ganzzahlige Vielfache von σ (vgl. Kopfzeile der Abb. 4) oder aber „glatte“ Konfidenzniveaus (vgl. letzte Zeile der Abb. 4) abstellen:

Normalverteilung, Konfidenzniveau und Unterschreitungswahrscheinlichkeit
Abbildung_004.jpg

Abbildung 4

Eine VaR-Analyse dreht die oben durch den linken Pfeil angedeutete rechnerische Vorgehensweise insoweit um, als sie Konfidenzniveaus vorgibt („Unter Ansatz einer Wahrscheinlichkeit von x% ...“) und hieraus dem rechten Pfeil entsprechend ableitet, wie sich der betrachtete Risikofaktor dann vermutlich entwickelt („... wird der Marktzins für y-Monats-Gelder um nicht mehr als z% fallen.“).

beispiel.jpg 

Lag der täglich ermittelte 6-Monats-Euribor zuletzt um einen Mittelwert von 1,5% bei einer Standardabweichung von 0,25%, so gilt: Mit einer Wahrscheinlichkeit von 95% wird der 6-Monats-Euribor am nächsten Tag nicht unter 1,5% – 1,65 · 0,25% = 1,0875% fallen.

Die Betrachtung wird im analytischen Grundmodell also zunächst für die künftige Entwicklung des betrachteten Risikofaktors angestellt. Über den zugrunde gelegten Zusammenhang mit der den Risikomanager interessierenden Vermögensposition lässt sich der Zusammenhang dann in eine zweite Normalverteilung, nämlich die des Wertes der Vermögensposition, überführen. Ergibt sich für diese eine mittlere Wertveränderung von 0 EUR, um die die sonstigen denkbaren Wertveränderungen symmetrisch wie in der folgenden Abbildung mit einer Standardabweichung von 10 Mio. EUR streuen, erfolgt eine zweite analoge VaR-Analyse wie folgt: Wird beispielsweise auch hier ausgehend vom heutigen Niveau der Vermögensposition die zweifache Standardabweichung nach oben und unten zugrunde gelegt, so deckt dieser Bereich auch hier 95,44% der für möglich gehaltenen Schwankungen ab, umgekehrt liegen auch hier 4,56% der Werte außerhalb dieses Intervalls. Die Wahrscheinlichkeit dafür, dass sich Vermögenswerte ergeben, die niedriger sind als die durch diesen Bereich festgelegte Untergrenze, beträgt demnach auch hier 2,28%. Der Differenzbetrag zwischen dem heutigen Wert der Vermögensposition und der unteren Grenze des Schwankungsbereichs ist der VaR, also der mit Risiko behaftete Betrag. Im Beispiel der Abbildung 5 beträgt der Value-at-Risk auf diesem Konfidenzniveau (97,72%) demnach genau 20 Mio. EUR.

Ermittlung des Value-at-Risk aus der Dichtefunktion der normalverteilten Vermögensposition
Abbildung_005.jpg

Abbildung 5

Der primäre Vorteil des bis hierher dargestellten analytischen Grundmodells ist darin zu sehen, dass die unterlegte funktionale Abhängigkeit zwischen Risikofaktor und Vermögenswert eine exakte und theoretisch fundierte Kalkulation ermöglicht. Zudem besteht auf dieser Basis die Möglichkeit, den Ansatz den Anforderungen der Praxis gemäß zu modifizieren. Dies gilt insbesondere im Hinblick auf

definition.jpg 

bbw_wertorient_banksteuerung-II_kap02_FML-4.jpg

beispiel.jpg 

Beträgt der Value-at-Risk für zehn Tage VaR10 Tage = 20 Mio. EUR, dann gilt

bbw_wertorient_banksteuerung-II_kap02_FML-5.jpg

= 100 Mio. EUR

Diesen Vorteilen stehen allerdings nicht unerhebliche Nachteile gegenüber. Insbesondere steht und fällt die Aussagekraft des Grundmodells mit der Richtigkeit der Annahmen über die (Normal-)Verteilung des betrachteten Risikofaktors (vgl. dezidiert auch Hartmann-Wendels/Pfingsten/Weber, 2015, S. 283). Folgerichtig empfiehlt es sich, die zugrunde gelegten Verteilungsannahmen revolvierend mit den tatsächlich eintretenden Werten abzugleichen (Backtesting) und gegebenenfalls anzupassen (ausführlich zum Backtesting von VaR-Rechnungen vgl. Jorion, 2007, S. 139ff.). Darüber hinaus gelingt die angenommene Überführung der Verteilung des Risikofaktors in die der Vermögensposition nur dann problemlos, wenn ein linearer Zusammenhang („Vermögensposition = a + b · Risikofaktor“) vorausgesetzt werden kann. Ein solcher ist in der Praxis indes nur in seltenen Fällen gegeben.

Auch der für eine Fristenumrechnung dargestellte Zusammenhang gilt in dieser Form nur, wenn die tatsächliche Verteilung einer Normalverteilung entspricht. Umgekehrt lässt sich zeigen, dass die Umrechnung „mal Wurzel t“ für den Schluss von kurzen auf lange Zeiträume in der Realität zu systematischen Unterschätzungen des Risikos führen kann (vgl. Wegner/ Sievi/Schumacher, 2001, S. 140f.), weil Risikofaktoren häufig eben nicht normalverteilt sind.

Um sich – zumindest teilweise – von dem engen Prämissenkranz der analytischen Modelle zu lösen, wurden parallel VaR-Ansätze entwickelt, die sich nicht auf eine Normalverteilungsannahme, sondern auf Simulationen stützen. Die beiden wichtigsten Varianten hierfür stellen a) die Historische Simulation und b) die Monte-Carlo-Simulation dar.

2.2.2   Simulationsmodelle

Die Historische Simulation kann direkt am Wert einer Vermögensposition (z.B. eines bestimmten Aktienportfolios) ansetzen oder aber am betrachteten Risikofaktor. Eine Historische Simulation direkter Art würde die Wertentwicklung der Vermögensposition für einen zurückliegenden Zeitabschnitt erfassen und die x historisch ermittelten Veränderungsraten auf den heutigen Wert der Vermögensposition (den aktuellen Kurswert des Portfolios) anwenden, woraus sich x „gemäß der Historie“ denkbare neue Kurswerte für das Beispiel-Portfolio ergäben. In vollständiger Form nimmt indes auch die historische Simulation den Weg über den Zusammenhang von Vermögenswert und am Markt beobachtetem Einflussfaktor (vgl. Meyer, 1999, S. 192ff., aktuell auch Schierenbeck/Lister/Kirmße, 2014, S. 413ff.):

  1. Der Wert der betrachteten Vermögensposition (z.B. Kurswert eines Rentenbestandes) wird als Abhängige einer bestimmten Marktpreisänderung interpretiert.

  2. Es wird ein historischer Zeitraum ausgewählt und sinnvoll in Abschnitte unterteilt, für die diese Marktpreisänderung feststellbar ist (Beispiel: Veränderungen des Zinssatzes für Monatsgelder in den letzten 1001 Tagen).

  3. Die ermittelten Änderungsraten werden dann auf die derzeitige Höhe des betrachteten Marktpreises angewendet (im Beispiel ergeben sich 1000 „aufgrund der Historie denkbare“ Höhen, die der Monatszins am Folgetag haben könnte) und dann der Einfluss jedes einzelnen dieser „Mini-Szenarien“ auf den Wert der Vermögensposition überprüft: Im Beispiel ergeben sich 1000 gemäß der Historie denkbare Werte des Rentenbestandes am Folgetag.

  4. Ein Vergleich der historisch simulierten Vermögenswerte mit dem heutigen Vermögenswert ergibt die (hier 1000) denkbaren Wertveränderungen im Sinne von Gewinnen bzw. Verlusten.

  5. Diese Gewinne/Verluste werden dann der Größe nach aufgereiht. Es ergibt sich eine Verteilung wie in der nachfolgenden Abb. 6:

Aus der aufgestellten Tabelle oder dem Graphen der empirischen Verteilungsfunktion kann dann ausgehend von der gesetzten Vertrauenswahrscheinlichkeit der VaR abgelesen werden: Besteht etwa Interesse am VaR mit einer Vertrauenswahrscheinlichkeit von 99%, so würde ermittelt, welche Verlusthöhe auf Rang 990 einer Tabelle von 1000 historisch simulierten Wertveränderungen verzeichnet ist. Dieser Verlust gibt den VaR auf diesem Niveau an.

Historische Simulation
Abbildung_006.jpg

Abbildung 6 (Quelle: Beck/Mende/Stechmeyer-Emden, 2000, S. 440)

Es wird deutlich, dass der Vorteil der historischen Simulation in erster Linie in ihrer einfachen Struktur und Umsetzbarkeit liegt (vgl. Hartmann-Wendels/Pfingsten/Weber, 2015, S. 283). Zudem ermöglicht sie das Einfangen nicht-linearer Zusammenhänge zwischen Risikofaktor und Vermögensposition. Darüber hinaus werden auch die Korrelationen zwischen unterschiedlichen Risikofaktoren implizit berücksichtigt. Ein Nachteil ist, dass dieser empirische Ansatz Vergangenheitsorientierung an die Stelle einer Theoriebasis setzt: Aus Veränderungen, die in früheren Beobachtungsperioden aufgetreten sind, wird „mechanisch“ auf Veränderungen geschlossen, die künftig eintreten könnten. Umgekehrt liegt ein Mangel der Historischen Simulation darin, dass sie keine andere als die rückblickend festgestellte Entwicklung der Risikofaktoren berücksichtigen kann (vgl. auch Hull, 2014, S. 356). Zudem ist der Bezugszeitraum für eine solche Simulation nicht eindeutig definiert und dadurch fehlerund manipulationsanfällig. Die aus „der Historie“ ermittelten Häufigkeiten können daher zu Verteilungsannahmen für die Zukunft verleiten, die von der tatsächlichen Verteilung abweichen – insbesondere dann, wenn der herangezogene historische Zeitraum nicht repräsentativ ist.

beispiel.jpg 

Wurde etwa mit Hilfe des Value-at-Risk-Konzepts das (Marktpreis-)Risiko von Wertveränderungen eines Bestandes an Asset-Backed-Securities zum Jahresanfang 2009 erfasst, hätte eine auf Werte der zwölf Vormonate gestützte historische Simulation wegen der krisenhaften Entwicklung im Jahr 2008 sehr viel höhere Wertveränderungspotenziale bzw. VaR-Werte ergeben als eine über die vorangegangenen zehn Kalenderjahre reichende Simulation.

In grafischer Form lässt sich das Fehlerproblem wie in der nachfolgenden Abbildung verdeutlichen, in der als annahmegemäß richtige Verteilung die Glockenfunktion der Normalverteilung sowie die Säulen einer exemplarisch aus der Historie ermittelten Häufigkeitsverteilung abgetragen sind.

Der VaR auf einem 99%igen Niveau würde sich anhand der Normalverteilungsglocke wie in Kapitel 2.2.1 beschrieben an der Stelle µ – 2,33σ ablesen lassen. Ausgehend von den historischen Daten müsste ein Prozent der Verluste von links (also von den höchsten Verlusten) her kommend abgezählt werden. Ohne die exakten Werte aus der Beispielgrafik bestimmen zu können, zeigt sie doch, dass die Säulen der historischen Wertermittlung im linken Bereich durchweg über der Normalverteilungsglocke liegen, gemessen an der eine historisch basierte Verlusterwartung folglich zu hoch ausfallen würde.

Historische versus normalverteilte Abweichungen
Abbildung_007.jpg

Abbildung 7

Als alleinige Basis eines VaR-gestützten Risikomanagements ist das Verfahren der historischen Simulation aufgrund der starken Abhängigkeit vom konkret gewählten Beobachtungszeitraum daher nur mit Einschränkungen geeignet, weil stets die Gefahr besteht, dass der Beobachtungszeitraum atypische Entwicklungen (nicht) beinhaltet. Auf ihre Weise verzerren aber sowohl integrierte als auch nicht einbezogene Extremereignisse den historischen Datenbestand (vgl. prägnant Crouhy/Galai/Mark, 2014, S. 253f.).

Die Ermittlung von VaR auf Basis der Monte-Carlo-Simulation greift die vorgenannte Kritik auf: Sie unterstellt eine funktionale Abhängigkeit zwischen Vermögensposition und Risikofaktoren (vgl. Wiedemann, 2013, S. 67ff.). Für die denkbaren Ausprägungen der Risikofaktoren legt sie aber per Zufallsgenerator erzeugte – zwingend sind also weder normalverteilte, noch historisch abgeleitete – Verteilungen zugrunde. Die generierten x Zufallszahlen für die (Veränderung der) Risikofaktoren führen über den Basiszusammenhang zu x denkbaren Werten der Vermögensposition (vgl. etwa Hull, 2015, S. 629f.). Auch hier werden die einhergehenden Gewinne/Verluste der Größe nach sortiert, wonach ein Ablesen des VaR nach Vorgabe einer Vertrauenswahrscheinlichkeit wie bei der Historischen Simulation möglich wird. Der Vorteil der Verzichtbarkeit normalverteilter Zusammenhänge und historischer Datenbestände sowie die Möglichkeit, besonders viele Szenarien durchzuspielen, wird von der Monte-Carlo-Simulation allerdings mit spezifischen Nachteilen erkauft: Die Gültigkeit der Annahmen des Zufallsexperiments ist nicht weniger problematisch nachzuweisen als die der Historie, zudem bringt die Methode hohen Rechenund vor allem Überzeugungsaufwand mit sich – da vielen Menschen historische Szenarien trotz allem verlässlicher erscheinen als zufallsgenerierte. Die Stärken der Monte-Carlo-Simulation werden daher vor allem in der Anwendung auf Portfolien mit schwer modellierbaren Verteilungen gesehen (vgl. hierzu ausführlich Ammann/Reich, 2001).

Angesichts positiver Bewertungen der Monte-Carlo-Simulation aus Sicht der Theorie („most powerful method“, Jorion, 2007, S. xiv; vgl. auch Knobloch, 2005, S. 108) fehlt es nicht an prominenten Beispielen für simulationsgestützte VaR-Modelle: In der Deutschen Bank etwa hat ein VaR-Modell Tradition, das vor allem auf der Monte-Carlo-Simulation (nur für ausgewählte Teilportefeuilles auf dem Varianz-Kovarianz-Ansatz) basiert und Value-at-Risk-Ermittlungen für ein Konfidenzniveau von 99% mit einem Zeithorizont von einem Tag durchführt. Da die Bank hiermit primär ihre Marktpreisrisiken steuert, finden sich weitere Ausführungen zu diesem Ansatz im zugehörigen Kapitel 7.1.2.3 dieses Bandes. Die grundlegenden Ausführungen dieses Kapitels werden hingegen durch eine zusammenfassende Bewertung abgerundet.

2.2.3   Zusammenfassende Bewertung

Es ist deutlich geworden, dass die Basisvarianten des VaR-Konzeptes spezifische Stärken und Schwächen sowohl aus theorie- als auch aus praxisorientierter Sicht aufweisen (vgl. dazu ausführlich Linsmeier/Pearson, 2000, S. 57ff., kompakt auch Wilkens/Völker, 2001, S. 420ff.; Hartmann-Wendels/Pfingsten/Weber, 2015, S. 283f.). Ergänzend dazu lassen sich verschiedene (Kritik-)Punkte festhalten, die alle drei Verfahren mehr oder weniger ausgeprägt betreffen.