Die folgenschwerste ökonomische Variable, die nicht direkt beobachtet werden kann
Technische Ansätze zur Schätzung der Potenzialproduktion und zyklischer Schwankungen
Eine der wichtigsten Zahlen in der Geldpolitik ist eine, die nicht direkt beobachtet werden kann. Die Produktionslücke — die Differenz zwischen dem, was die Wirtschaft tatsächlich produziert, und dem, was sie nachhaltig produzieren könnte — bestimmt Inflationsprognosen, prägt Zentralbankentscheidungen und beeinflusst Milliarden von Dollar an Marktpositionierungen. Dennoch sind sich Ökonomen routinemäßig über ihren Wert um 2–3 Prozentpunkte uneinig, und der tatsächliche Wert ist oft erst Jahre später bekannt, wenn Datenrevisionen vorliegen.
Betrachten Sie die praktischen Auswirkungen. War die US-Wirtschaft im Jahr 2016 unterausgelastet mit Wachstumsspielraum, oder bereits voll ausgelastet, wo weitere Stimulierung Inflation erzeugen würde? Die damaligen Schätzungen reichten von −2% (erhebliche Unterauslastung) bis +1% (bereits überhitzt). Diese Divergenz spiegelt keine Nachlässigkeit wider — sie spiegelt die echte Schwierigkeit wider, Fragen zu beantworten wie: Wie viele Menschen sind willens und in der Lage zu arbeiten? Wie produktiv könnten Fabriken bei voller Auslastung sein? Wie schnell verbessert sich die Qualifikationsbasis der Arbeitskräfte? Keine dieser Fragen lässt eine saubere Messung zu.
Warum ist das so wichtig? Weil die Produktionslücke direkt in die Taylor-Regel einfließt, die Benchmark-Formel, die Zentralbanken zur Kalibrierung der Zinssätze verwenden. Wenn die Lücke groß und negativ ist (erhebliche Unterauslastung), verlangt die Taylor-Regel niedrigere Zinsen zur Wachstumsförderung. Wenn die Lücke positiv ist (die Wirtschaft läuft heiß), verlangt die Regel höhere Zinsen zur Eindämmung der Inflation. Während des Inflationsschubs 2021–2022 war dies nicht nur akademisch — einige Ökonomen argumentierten, die Fed hinke hinterher, weil die Produktionslücke positiv geworden sei, während andere behaupteten, es gäbe noch Unterauslastung und die Inflation würde sich als vorübergehend erweisen. Die politische Reaktion hing davon ab, welche Sichtweise richtig war.
Die Produktionslücke — die Abweichung der tatsächlichen Produktion vom Potenzial — ist die folgenschwerste nicht beobachtbare Größe in der Geldpolitik. Anders als Inflation oder Arbeitslosigkeit, die trotz statistischem Rauschen direkt messbar sind, existiert die Potenzialproduktion nur als theoretisches Konstrukt, das aus Annahmen über Technologie, Faktorauslastung und Gleichgewichtsbeschäftigung abgeleitet wird. Dies schafft fundamentale Unsicherheit: Echtzeit-Schätzungen unterscheiden sich regelmäßig um 2–3 Prozentpunkte je nach Methodik, und nachfolgende Datenrevisionen können das Vorzeichen gleichzeitiger Lückenschätzungen umkehren. Die Lücke geht direkt in die Taylor-Regel und ihre Varianten ein, wodurch Messfehler bei der Lücke eine erstrangige Quelle geldpolitischer Fehlkalibrierung darstellen.
Der Zeitraum 2008–2010 veranschaulicht die Tragweite. Die Echtzeit-Schätzungen des Congressional Budget Office implizierten Produktionslücken nahe −7%, was massiven deflationären Druck nahelegte und außerordentliche Akkommodierung rechtfertigte. Spätere Revisionen, die aktualisierte Bewertungen struktureller Schäden am Potenzial einbezogen, reduzierten diese Schätzungen auf −4% bis −5%. Diese Revision um 2–3 Pp. spiegelte echte Unsicherheit darüber wider, ob die Finanzkrise die Produktionskapazität dauerhaft beeinträchtigte oder lediglich zyklische Unterauslastung erzeugte. Wenn das Potenzial stärker fiel als zeitgleich angenommen, war die Politik akkommodierender als beabsichtigt — was möglicherweise zu der Inflation beitrug, die sich Jahre später materialisierte.
Was das bedeutet:
Positive Zahl = Wirtschaft läuft „heiß" (Inflationsrisiko)
Negative Zahl = Wirtschaftliche Unterauslastung (Wachstumsspielraum)
Null = Wirtschaft auf voller nachhaltiger Kapazität
Das Konzept entstand aus einer praktischen Frage in den 1960er Jahren: Wann sollte die Regierung die Wirtschaft stimulieren, und wann sollte sie sich zurückhalten? Arthur Okun, Berater der Kennedy-Regierung, identifizierte eine zuverlässige Beziehung zwischen Arbeitslosigkeit und BIP-Wachstum — wenn die Arbeitslosigkeit um einen Prozentpunkt fiel, wuchs das BIP etwa 3% schneller als der Trend. Dies gab Politikern eine erste Näherung, wie viel Spielraum die Wirtschaft für Expansion hatte. (Diese Beziehung, bekannt als Okunsches Gesetz, bleibt ein zentraler Input für die Taylor-Regel und die Produktionslückenschätzungen auf dieser Seite.)
Die 1970er Jahre brachen den Rahmen. Arbeitslosigkeit und Inflation stiegen gleichzeitig — ein Ergebnis, das mit einfachen Produktionslückenmodellen unvereinbar war. Ökonomen mussten anerkennen, dass sich die Potenzialproduktion selbst verschieben konnte. Eine Reihe von Ölschocks und Produktivitätsverlangsamungen reduzierte die Kapazität der Wirtschaft, aber Politiker, die auf veraltete Potenzialschätzungen vertrauten, stimulierten weiter und erzeugten Inflation statt Wachstum.
Die moderne Schätzung der Produktionslücke versucht, diesen Fehler zu vermeiden, indem sie das Potenzial als bewegliches Ziel behandelt, das sich mit Demografie, Technologie, Kapitalinvestitionen und institutionellen Faktoren entwickelt. Aber das macht die Messung erheblich schwieriger.
Bei jeder FOMC-Sitzung präsentieren die Mitarbeiter der Fed ihre Produktionslückenschätzung. Sie erscheint in den Materialien zu den Wirtschaftsprojektionen und beeinflusst den Dot Plot der zukünftigen Zinserwartungen. Wenn Fed-Vertreter davon sprechen, „datenabhängig" zu sein, meinen sie teilweise, dass sie ihre Einschätzung, wo die Potenzialproduktion liegt, kontinuierlich auf Basis eingehender Informationen über Produktivität, Erwerbsbeteiligung und Kapazitätsauslastung aktualisieren.
Die Märkte achten genau darauf. Wenn die Beschäftigungsgewinne stark bleiben, ohne Inflation auszulösen, revidieren Händler ihre Potenzialschätzungen nach oben — was impliziert, dass die Fed mehr Spielraum hat, die Zinsen niedrig zu halten. Wenn die Produktivität unerwartet beschleunigt (wie in den späten 1990er Jahren mit der Einführung der Internettechnologie), verschieben sich die Potenzialschätzungen und mit ihnen der gesamte erwartete Zinspfad. Die 2010er Jahre sahen erhebliche Abwärtsrevisionen der Potenzialproduktion nach der Finanzkrise, die jahrelange Zinsen nahe null rechtfertigten, die unter früheren Annahmen unverantwortlich erschienen wären.
wobei $Y_t$ die tatsächliche Produktion und $Y_t^*$ die Potenzialproduktion bezeichnet. Diese Lücke geht in die Neukeynesianische Phillips-Kurve ein:
$$\pi_t - \pi^* = \alpha \cdot \text{Gap}_t + \varepsilon_t$$Der Koeffizient $\alpha$ (typischerweise 0,1–0,5) bestimmt die Inflationssensitivität gegenüber zyklischen Schwankungen. Messfehler in der Lücke pflanzen sich direkt in Inflationsprognosen und Politikempfehlungen fort.
Frühe Ansätze (1960er–1970er) beruhten auf einfacher Trendbereinigung: einen linearen oder quadratischen Trend an das BIP anpassen und Abweichungen als Zyklus bezeichnen. Das Okunsche Gesetz lieferte den ersten strukturellen Anker und verband Arbeitslosigkeitslücken über einen geschätzten Koeffizienten mit Produktionslücken. Die Stagflation der 1970er Jahre legte fatale Mängel offen — Angebotsschocks verschoben das Potenzial, aber trendbasierte Methoden konnten Angebots- nicht von Nachfragebewegungen unterscheiden.
Die 1980er brachten Produktionsfunktionsansätze, die das Potenzial in Kapital-, Arbeits- und Gesamtfaktorproduktivitätskomponenten zerlegten. Dies ermöglichte die Einbeziehung struktureller Informationen (Demografie, Investitionen, technologischer Wandel), führte aber neue Messherausforderungen ein: Die Schätzung von NAIRU, Kapitalauslastung und Trendproduktivität beinhaltete jeweils eigene Unsicherheiten.
Die aktuelle Praxis der Zentralbanken betont multivariate Filter (Kalman-Filter unter Einbeziehung von Phillips-Kurven und Okun-Beziehungen) und DSGE-Modelle, die das Potenzial als Gleichgewichtsproduktion bei flexiblen Preisen definieren. Diese Ansätze integrieren ökonomische Theorie mit statistischer Inferenz, bleiben aber empfindlich gegenüber Modellspezifikation. Die Finanzkrise 2008 verdeutlichte die Regime-Unsicherheit: Stellte die Krise einen massiven negativen Nachfrageschock (große negative Lücke) oder eine dauerhafte Zerstörung der Produktionskapazität (kleinere Lücke) dar?
Jüngere Forschung untersucht maschinelle Lernverfahren und Hochfrequenzindikatoren, obwohl fundamentale Identifikationsprobleme bestehen bleiben. Die Lücke bleibt inhärent nicht beobachtbar, was die Validierung erschwert und Meinungsverschiedenheiten unvermeidlich macht.
Aktuelle Schätzungen unter Verwendung der erweiterten multivariaten Methodik im Vergleich zum traditionellen Ansatz nach dem Okunschen Gesetz.
Wobei jede Komponentenlücke berechnet wird als:
Okun-Lücke: $-\beta \times (u_t - u_t^*)$ mit korrigiertem $\beta = 2.5$ (USA), $2.0$ (EU), $2.3$ (UK)
Kapazitätslücke: $(Capacity_t - 82\%) \times 0.5$
Vertrauenslücken: Abweichungen von neutralen Niveaus
Die Produktionslücke basiert auf mehreren ökonomischen Beziehungen, die reale und nominale Variablen verknüpfen:
Wobei:
$\pi_t$ = Aktuelle Inflationsrate
$\pi_t^e$ = Erwartete Inflation
$\alpha$ = Phillips-Kurven-Steigung (typischerweise 0,1–0,5)
$\varepsilon_t$ = Angebotsschock (Ölpreise etc.)
Diese Gleichung erfasst, warum sich Zentralbanken auf die Produktionslücke konzentrieren. Wenn die Wirtschaft über dem Potenzial läuft (positive Lücke), tendiert die Inflation dazu, die Erwartungen zu übersteigen. Wenn sie unter dem Potenzial läuft (negative Lücke), tendiert die Inflation dazu zu fallen. Genaue Produktionslückenschätzungen sind daher für die Kalibrierung der Zinssätze über den Rahmen der Taylor-Regel unerlässlich.
Wobei:
$\beta$ = Okun-Koeffizient (typischerweise 2–3 für die USA)
NAIRU = Inflationsstabile Arbeitslosenquote (Non-Accelerating Inflation Rate of Unemployment)
Ökonomen zerlegen das tatsächliche BIP in Trend- und zyklische Komponenten:
Wobei:
$Y_t$ = Tatsächliches reales BIP
$Y_t^*$ = Potenzielles (Trend-) BIP
$\text{Gap}_t$ = Zyklische Komponente (Produktionslücke in Logarithmen)
Das tatsächliche BIP wird vierteljährlich vom Bureau of Economic Analysis gemeldet. Es ist nicht perfekt — es gibt Revisionen, Saisonbereinigungen und Messprobleme — aber es sind beobachtbare Daten. Das Potenzial-BIP hingegen ist ein theoretisches Konstrukt: das Produktionsniveau, das die Wirtschaft erreichen würde, wenn alle Ressourcen voll und effizient bei nachhaltigen Raten eingesetzt wären. Jede Qualifizierung — „voll", „effizient", „nachhaltig" — beinhaltet Ermessensentscheidungen.
Betrachten Sie die Arbeitskomponente. Ist die Potenzialbeschäftigung 95% der Erwerbsbevölkerung oder 96%? Eine gewisse friktionelle Arbeitslosigkeit existiert immer, wenn Menschen Jobs wechseln. Aber wie viel? Ändert sie sich im Laufe der Zeit, wenn sich die Jobsuchtechnologie verbessert? Was ist mit Menschen, die während einer Rezession den Arbeitsmarkt verlassen haben — sollten sie als Teil des Potenzials gezählt werden oder nicht? Die Antwort ist wichtig: Jeder Fehler von 0,5 Prozentpunkten in der Arbeitslosigkeitskomponente übersetzt sich in etwa einen Prozentpunkt Fehler in der Produktionslücke, was wiederum die Empfehlung der Taylor-Regel für die Zinssätze verschiebt.
Kapital und Produktivität werfen analoge Fragen auf. Während der COVID-Pandemie schlossen einige Unternehmen dauerhaft. Reduzierte das die Potenzialproduktion, oder erhöhte es sie tatsächlich, indem Ressourcen für effizientere Nutzungen freigesetzt wurden? Verschiedene Ökonomen kamen mit verschiedenen Modellen und Annahmen zu divergierenden Schlussfolgerungen. Das ist kein analytisches Versagen — die Fragen sind wirklich mehrdeutig.
Die Potenzialproduktion ist ein Kontrafaktum: das Produktionsniveau, das bei voller Faktorauslastung mit vorherrschender Technologie erreichbar ist. Anders als die tatsächliche Produktion, die einer Beobachtung unter statistischem Rauschen zugänglich ist, existiert das Potenzial nur innerhalb von Modellrahmen. Dies schafft ein Identifikationsproblem: verschiedene Modelle, die verschiedene Annahmen über Produktionstechnologie, Faktormarktgleichgewichte und stochastische Prozesse verkörpern, erzeugen aus identischen tatsächlichen Daten unterschiedliche Potenzialreihen.
Die Echtzeit-Schätzung verschärft die Herausforderung. Orphanides und van Norden (2002) zeigen, dass Produktionslückenschätzungen eine massive Endpunktunsicherheit aufweisen und erheblichen Revisionen unterliegen, wenn neue Daten eintreffen. Für die USA unterscheiden sich Echtzeit- und endgültige Lückenschätzungen häufig um 2–3 Prozentpunkte, gelegentlich mit entgegengesetztem Vorzeichen. Diese revisionsbedingte Unsicherheit untergräbt die auf Lückenschätzungen basierende Politik, da Entscheidungsträger unter durchgängiger Unkenntnis über die zyklische Position der Wirtschaft agieren.
| Methode | Typ | Datenanforderungen | Echtzeit-Leistung | Revisionsstabilität | Nutzung durch Zentralbanken |
|---|---|---|---|---|---|
| Hodrick-Prescott-Filter | Statistisch | Nur BIP | Schlecht | Hohe Revisionen | Benchmark/Gegencheck |
| Produktionsfunktion | Strukturell | Arbeit, Kapital, Produktivität | Gut | Moderate Revisionen | Primäre Methode |
| Multivariater Filter | Hybrid | BIP, Inflation, Arbeitslosigkeit | Gut | Geringe Revisionen | Zunehmend beliebt |
| DSGE-Modelle | Strukturell | Mehrere Makroreihen | Mäßig | Modellabhängig | Forschung/Validierung |
Der Hodrick-Prescott-Filter ist die am weitesten verbreitete Methode zur Schätzung der Produktionslücke, trotz seiner gut dokumentierten Einschränkungen. Er ist rein mechanisch: Füttern Sie ihn mit BIP-Daten, setzen Sie einen Glättungsparameter (Lambda), und heraus kommt eine glatte Trendlinie. Die Lücke zwischen tatsächlichem BIP und diesem Trend ist die Produktionslückenschätzung. Keine Wirtschaftstheorie ist erforderlich, kein Urteil über Arbeitsmärkte oder Produktivität — nur statistische Optimierung.
Diese Einfachheit ist gleichzeitig Stärke und Schwäche. Auf der positiven Seite ist die Berechnung schnell, die Methodik transparent, und Vergleiche zwischen Ländern oder Zeiträumen sind unkompliziert, weil die Methode überall identisch ist. Die Schwäche: Der Filter hat keine Information darüber, was tatsächlich in der Wirtschaft passiert. Er passt einfach eine glatte Kurve durch die Daten. Wenn das BIP aufgrund einer Katastrophe, die die Hälfte des Kapitalstocks zerstörte, um 30% fiel, würde der HP-Filter den Rückgang mechanisch teilweise einer negativen Produktionslücke und teilweise einer Reduzierung des Potenzials zuschreiben, selbst wenn die Zerstörung eindeutig ein vorübergehender Angebotsschock war.
Der Hodrick-Prescott-Filter löst ein rein statistisches Optimierungsproblem: eine Zeitreihe in Trend- und Zykluskomponenten zerlegen, indem eine penalisierte Summe quadratischer Abweichungen minimiert wird. Die Methode erfordert keine ökonomische Struktur — nur die BIP-Reihe selbst — was sie rechnerisch trivial und breit anwendbar macht. Ihre Allgegenwärtigkeit beruht auf dieser Einfachheit, trotz gut dokumentierter Mängel, die sie als Schätzer der Potenzialproduktion fragwürdig erscheinen lassen.
Hamilton (2018) liefert eine nachhaltige Kritik: Der HP-Filter erzeugt künstliche zyklische Dynamiken in differenzstationären Reihen, leidet unter schwerer Endpunktverzerrung (was Echtzeit-Schätzungen unzuverlässig macht) und entbehrt einer ökonomischen Interpretation. Ravn und Uhlig (2002) argumentieren, der Standard-Glättungsparameter (λ=1600 für Quartalsdaten) sei willkürlich gewählt und möglicherweise nicht verallgemeinerbar über Frequenzen oder Länder. Dennoch verwenden Zentralbanken HP-Filter weiterhin als Robustheitschecks, wobei sie die Einschränkungen anerkennen und gleichzeitig die methodische Transparenz schätzen.
Wobei:
$y_t$ = Logarithmus des tatsächlichen BIP
$\tau_t$ = Logarithmus des Trend-(Potenzial-)BIP
$\lambda$ = Glättungsparameter (1600 für Quartalsdaten)
Die Gleichung löst ein unkompliziertes Abwägungsproblem: Finden Sie eine Trendlinie, die zwei konkurrierenden Zielen dient. Der erste Term bestraft Trends, die vom tatsächlichen BIP abweichen — er möchte, dass der Trend die Daten eng verfolgt. Der zweite Term bestraft Trends, die häufig die Richtung ändern — er möchte Glätte. Der Parameter Lambda (λ) bestimmt das relative Gewicht dieser beiden Ziele.
Der Standardwert für Quartalsdaten ist λ = 1600, vorgeschlagen von Hodrick und Prescott basierend auf den Charakteristiken der US-Konjunkturzyklen. Die Wahl war etwas willkürlich. Ein Wert von λ = 800 erzeugt einen reaktiveren Trend, der BIP-Schwankungen enger folgt; λ = 6400 erzeugt einen sehr glatten Trend, der kaum auf kurzfristige Bewegungen reagiert. Verschiedene Zentralbanken verwenden unterschiedliche Werte, und die Wahl beeinflusst die resultierende Produktionslückenschätzung entscheidend — dennoch gibt es keine definitive Antwort darauf, was λ sein sollte.
Der erste Term bestraft Abweichungen von den tatsächlichen Daten; der zweite bestraft Änderungen der Wachstumsrate des Trends (zweite Differenzen). Der Parameter $\lambda$ regelt das Varianzverhältnis zwischen zyklischen und Trendkomponenten. Die Standardkalibrierung verwendet λ=1600 für Quartalsdaten, obwohl dies einer theoretischen Grundlage entbehrt.
Hodrick und Prescott (1997) wählten λ=1600, um die beobachteten Konjunkturzyklusfrequenzen in den US-Nachkriegsdaten abzubilden, wobei sie speziell auf Zyklen von 6–8 Jahren Dauer abzielten. Diese Kalibrierungsstrategie ist nicht allgemein gültig: Das optimale λ sollte mit dem datenerzeugenden Prozess variieren, dennoch wenden Anwender 1600 mechanisch über Länder und Zeiträume hinweg an. Sensitivitätsanalysen zeigen erhebliche Variation der Lückenschätzungen: λ∈[800,6400] erzeugt Spannen von 2–4 Pp. für typische Konjunkturzyklen.
Grundlegender noch zeigt der HP-Filter eine schwere Endpunktverzerrung. Der Filter ist zweiseitig und verwendet zukünftige Daten zur Schätzung aktueller Trends. Am Ende der Stichprobe existieren nur vergangene Daten, was dazu führt, dass das geschätzte Potenzial die tatsächliche Produktion zu eng verfolgt und die Lücke in Echtzeit unterschätzt. Studien, die Echtzeit- mit endgültigen HP-Schätzungen vergleichen, dokumentieren systematische Verzerrungen: Echtzeit-Schätzungen verpassen Wendepunkte und unterschätzen die Lückenvolatilität erheblich. Dies macht HP-Filter besonders problematisch für Politikanalysen, die eine zeitnahe Lückenbewertung erfordern.
BIP in natürliche Logarithmen umrechnen für Prozentinterpretation
Lösen des quadratischen Optimierungsproblems mittels Matrixalgebra
Die Produktionslücke ist die Differenz zwischen tatsächlichem und Trend-BIP
λ = 1600
Höheres λ → Glatterer Trend
Niedrigeres λ → Reaktionsfreudiger auf Daten
Diese Methode konstruiert das Potenzial-BIP von Grund auf unter Verwendung der Produktionstheorie. Sie modelliert die Angebotskapazität der Wirtschaft anhand verfügbarer Inputs — Arbeit, Kapital und technologischer Fortschritt.
Wobei:
$Y_t^*$ = Potenzialproduktion
$A_t^*$ = Totale Faktorproduktivität im Trend
$K_t^*$ = Potenzieller Kapitalstock
$L_t^*$ = Potenzieller Arbeitseinsatz
$\alpha$ = Kapitalanteil am Einkommen (≈0,33)
Verwendet demografische Projektionen, geschätzte NAIRU und geleistete Trendarbeitsstunden
Kumulationsmethode (Perpetual Inventory) mit Abschreibungsrate δ und Trendinvestitionen
Wird häufig mittels HP-Filter oder struktureller Zeitreihenmodelle geschätzt
Multivariate Filter verbinden die Einfachheit statistischer Filter mit ökonomischen Beziehungen. Sie verwenden mehrere Wirtschaftsvariablen gleichzeitig, um robustere Schätzungen zu erhalten, die weniger anfällig für Revisionen sind.
Wobei:
$y_t$ = Logarithmiertes reales BIP
$\pi_t$ = Inflationsrate
$u_t$ = Arbeitslosenquote
Sterne (*) bezeichnen Trendkomponenten
Anstatt BIP-Daten isoliert zu betrachten, nutzen multivariate Filter bekannte ökonomische Zusammenhänge. Sinkende Arbeitslosigkeit signalisiert typischerweise eine positive Produktionslücke; steigende Inflation deutet darauf hin, dass die Wirtschaft überhitzen könnte. Indem alle diese Informationen gleichzeitig einbezogen werden — zusammen mit der Phillips-Kurve und den Okunschen Beziehungen, die auch der Taylor-Regel zugrunde liegen — liefert die Methode Schätzungen, die weniger revisionsanfällig und in Echtzeit zuverlässiger sind.
Die Produktionslücke folgt einem AR(1)-Prozess, das Potenzial folgt einem Random Walk mit Drift
Phillips-Kurve und Okunsches Gesetz verknüpfen Beobachtbare mit der nicht beobachtbaren Lücke
Verwendung des Kalman-Filters zur Schätzung nicht beobachtbarer Zustände (Lücke, Potenzial) anhand der Beobachtbaren
DSGE-Modelle bieten den theoretisch konsistentesten Ansatz zur Schätzung der Produktionslücke. Sie modellieren die gesamte Wirtschaft als Gleichgewichtsergebnis optimierender Akteure und liefern eine natürliche Definition der Potenzialproduktion als flexibles Preisgleichgewicht.
Wobei:
Erste Gleichung: Dynamische IS-Kurve
Zweite Gleichung: Neukeynesianische Phillips-Kurve
$\sigma$ = Intertemporale Substitutionselastizität
$\kappa$ = Phillips-Kurven-Steigung
In DSGE-Modellen wird die Produktionslücke als die Differenz zwischen der tatsächlichen Produktion und dem Niveau definiert, das bei flexiblen Preisen herrschen würde:
wobei $y_t^{flex}$ das kontrafaktische Produktionsniveau bei flexiblen Preisen darstellt. Dies liefert ein theoretisch konsistentes Maß, das direkt mit der Wohlfahrts- und Politikanalyse verknüpft ist.
Einfach vs. Erweitert:
Politische Auswirkung: Genauere Produktionslücken erzeugen angemessenere Empfehlungen der Taylor-Regel und besser kalibrierte geldpolitische Leitlinien.
| Zentralbank | Einfaches Okun (%) | Erweitertes Multivariat (%) | Differenz (Pp.) | Vertrauensniveau | Datenquellen |
|---|---|---|---|---|---|
| 🇺🇸 Federal Reserve | -1.25 | -0.25 | +1.00 | Hoch | 4 Indikatoren |
| 🇪🇺 Europäische Zentralbank | -1.4 | -0.8 | +0.60 | Mittel | 3 Indikatoren |
| 🇬🇧 Bank of England | -0.46 | -0.46 | 0.00 | Mittel | 1 Indikator |
Die Produktionslücke ist ein zentraler Input für den Rahmen der Taylor-Regel. Die oben beschriebenen erweiterten multivariaten Schätzungen liefern einen genaueren Lücken-Input für die geldpolitische Analyse als einfache Okun-basierte Berechnungen.
Wobei $\text{Gap}_{enhanced}$ die multivariate Berechnung anstelle einfacher Okun-Schätzungen verwendet. Siehe die Seite zur Taylor-Regel-Methodik für das vollständige Rahmenwerk.