Versionen im Vergleich

Schlüssel

  • Diese Zeile wurde hinzugefügt.
  • Diese Zeile wurde entfernt.
  • Formatierung wurde geändert.

Jede Doktorarbeit wird mehrere statistische Modelle prüfen. Daher wird man von einfachen Standardmodellen zu immer komplexeren Modellen wechseln. Doch wo hört man auf? Welches Modell passt noch zu meinen Daten? Die Beantwortung dieser Frage ist oft entscheidend für den Ausgang der Doktorarbeit, und der Kandidat sollte in der Lage sein, hierauf eine eigene Antwort zu finden. Die Bestimmung eines geeigneten Modells ist keine leichte Aufgabe. Sie steht unter dem Verdikt: ''All models are wrong! But some are more useful than others.''

Inhaltsverzeichnis

Inhalt
maxLevel2
excludeInhaltsverzeichnis|Bildergalerie

Das Bestimmtheitsmaß R2 von INWT

Worum es eigentlich geht

Wikipedia Artikel zu dem Bestimmtheitsmaß

Das R2 ist ein Gütemaß der linearen Regression. Die lineare Regression beschreibt den Zusammenhang zwischen einer oder mehreren sog. unabhängigen (oder erklärenden) Variablen und einer abhängigen Variablen. Handelt es sich um eine Regression mit einer unabhängigen Variablen, so spricht man von einer einfachen Regression, bei mehreren unabhängigen Variablen, von einer multiplen Regression. Das R2 gibt an, wie gut die unabhängige(n) Variable(n) geeignet sind, die Varianz der abhängigen zu erklären (die Varianz bezeichnet die Streuung einer Variablen um ihren Mittelwert). Das R2 liegt immer zwischen 0% (unbrauchbares Modell) und 100% (perfekte Modellanpassung). Zu beachten ist, dass das R2 ein Gütemaß zum Beschreiben eines linearen Zusammenhangs darstellt (s. Teil 2: Was ist das eigentlich, ein R2?).

Das R2 lässt sich leicht interpretieren als der Anteil der Varianz der abhängigen Variablen (erklärte Variable), der durch die unabhängigen Variablen (erklärende Variablen) erklärt werden kann. Das dahinterliegende Konzept ist die Varianzzerlegung (s. Teil 3: Die Varianzzerlegung).

Ein Kritikpunkt am R2 ist die Möglichkeit durch Aufnahme zahlreicher (auch unsinniger) Variablen in die Regression das R2 in die Höhe zu treiben (engl. "kitchen sink regression"). Das bedeutet, die Varianz der abhängigen Variablen wird nahezu perfekt erklärt. Gleichzeitig befinden sich so viele Variablen im Modell, dass nicht mehr von einer vereinfachten Abbildung eines Zusammenhangs gesprochen werden kann. Dies widerspricht dem Sparsamkeitsprinzip (engl. "Occam‘s razor") nach dem ein Modell nur notwendige Variablen beinhalten sollte. Ein Gütemaß, welches beides, Modellanpassung und Sparsamkeit in Betracht zieht, ist das sogenannte korrigierte R2 (auch: adjustiertes, bereinigtes oder angepasstes R2). Es nimmt in der Regel einen geringeren Wert als das einfache R2 an und kann in manchen Fällen sogar negativ werden (s. Teil 4: Das korrigierte R2 ).

Neben dem oben vorgestellten einfachen und korrigierten R2 existieren weitere Gütemaße. Dazu zählen das Pseudo-R2, welches hauptsächlich für komplexere Modelle genutzt wird (hierarchische Modelle, generalisierte lineare Modelle,… s. Teil XXX), oder Informationkriterien basierend auf log-Likelihood Schätzungen (AIC, BIC, … s. Teil XXX). Letztere dienen vornehmlich dem Vergleich von Modellen.

Die Frage danach, bei welchem Wert des R2 es sich um ein akzeptables Modell handelt, lässt sich nicht pauschal beantworten. Die übliche Größenordnung des R2 variiert je nach Anwendungsgebiet. Ebenso sind für Modelle auf Mikro- und Makroebene (also für Daten unterschiedlichen Aggregationsgrads) unterschiedliche R2 zu erwarten. Generell ist die Aussagekraft von Modellen mit geringem R2 nicht zwangsläufig schlecht (s. Teil 5: Wie hoch muss mein R2 sein?).

Anker
was-ist-r2
was-ist-r2
Was ist das eigentlich, ein R2?

Panel
titleDefinition

Das R2 ist ein Gütemaß der linearen Regression. Doch was bedeutet das? In der praktischen Arbeit mit Daten gibt es meist eine bestimmte gemessene Größe (abhängige Variable y), deren Schwankung (Varianz) mit Hilfe anderer Größen (unabhängige Variablen x) erklärt werden soll. Je nach Anzahl an unabhängigen Variablen handelt es sich um eine einfache Regression (eine unabhängige Variable) oder eine multiple Regression (mehrere unabhängige Variablen). Häufig wird aufgrund des ermittelten Zusammenhangs eine Vorhersage (oder Prognose) für die abhängige Variable erstellt.

Das R2 ist ein Gütemaß der linearen Regression. Doch was bedeutet das? In der praktischen Arbeit mit Daten gibt es meist eine bestimmte gemessene Größe (abhängige Variable y), deren Schwankung (Varianz) mit Hilfe anderer Größen (unabhängige Variablen x) erklärt werden soll. Je nach Anzahl an unabhängigen Variablen handelt es sich um eine einfache Regression (eine unabhängige Variable) oder eine multiple Regression (mehrere unabhängige Variablen). Häufig wird aufgrund des ermittelten Zusammenhangs eine Vorhersage (oder Prognose) für die abhängige Variable erstellt.

Beispiele sind:

  • die Erklärung des Gewichts einer Person (y) durch die Körpergröße (x),
  • die Vorhersage der Reaktionszeit (y) durch die Dosierung eines Medikaments (x),
  • die verkaufte Menge an Eis (y) in Abhängigkeit der Tageshöchsttemperatur (x).

Eine einzelne Beobachtung y i lässt sich dann berechnen als die Summe aus dem vorhergesagten Prognosewert für y von Beobachtung i und der Abweichung zwischen beobachtetem und vom Modell vorhergesagten Wert ei (Fehler bzw. Residuum):

Cds mathjax display
LaTexy_i=\hat{y_i} + e_i
. \(y_i=\hat{y_i} + e_i\)

$$y_i=\hat{y_i} + e_i$$

Die Frage ist, wie gut die unabhängigen Variablen geeignet sind, die Varianz der abhängigen zu erklären bzw. deren Werte vorherzusagen. Hier kommt das R2 ins Spiel. Es ist eine Maßzahl die nicht kleiner als 0 und nicht größer als 1 werden kann. Da das R2 ein Anteilswert ist, wird es auch häufig in Prozent angegeben.

Formel zur Berechnung des R2:

Cds mathjax display
LaTexR^2 = \frac{\sum_{i=1}^{n}{(\hat{y_i}-\bar{y})^2}}{\sum_{i=1}^{n}{(y_i-\bar{y})^2}} = \frac{\text{erklärte Variation}}{\text{Gesamtvariation}}

oder

Cds mathjax display
LaTexR^2 = 1 - \frac{\sum_{i=1}^{n}{e_i^2}}{\sum_{i=1}^{n}{(y_i-\bar{y})^2}} = 1 - \frac{\text{unerklärte Variation}}{\text{Gesamtvariation}}

wobei n die Anzahl der Beobachtungen ist.

Wenn eine Regression ein R2 nahe 0 besitzt, bedeutet dies, dass die gewählten unabhängigen Variablen nicht gut geeignet sind, die abhängige Variable vorherzusagen. Man spricht dann auch von einer schlechten Modellanpassung ("poor model fit"). Die folgende Grafik veranschaulicht diesen Fall für eine einfache Regression.

Abb.1 Schlechte Modellanpassung

Die schwarzen Punkte stellen die gemessene Größe y dar; die rote Linie veranschaulicht die durch das Modell bzw. die unabhängige Variable vorhergesagten Werte für y.

Formal ausgedrückt bedeutet ein R2 von 0:

Cds mathjax display
LaTex\sum_{i=1}^{n}{(y_i-\bar{y})^2} = \sum_{i=1}^{n}{e_i^2}
bzw. Gesamtvariation = unerklärte Variation, wobei n die Anzahl der Beobachtungen ist.

Besitzt eine Regression ein R2 nahe 1, bedeutet dies, dass die unabhängigen Variablen gut geeignet sind, die abhängige Variable vorherzusagen. Das Modell besitzt eine gute Anpassungsgüte ("good model fit"). Dieser Fall ist in der folgenden Grafik für eine einfache Regression veranschaulicht:

 

Abb.2 Gute Modellanpassung

Die schwarzen Punkte stellen die gemessene Größe y dar; die rote Linie veranschaulicht die durch das Modell bzw. die unabhängige Variable vorhergesagten Werte vorhergesagter Wert für y.

Formal ausgedrückt bedeutet ein R2 von 1:

Cds mathjax display
LaTex\sum_{i=1}^{n}{e_i^2} = 0
bzw. unerklärte Variation = 0, wobei n die Anzahl der Beobachtungen ist. In diesem Fall lägen alle Punkte genau auf der Regressionsgerade. Das Modell wäre perfekt im Sinne, dass die unabhängigen Variablen der abhängige Variable vollständig erklären. Ein solches Modell erstellt eine "perfekte" Prognose.

Die beiden Grafiken weisen auf einen entscheidenden Aspekt des R2 hin: Das R2 ist ein Gütemaß zum Beschreiben eines linearen Zusammenhangs. Im ersten Fall liegt ein quadratischer Zusammenhang zwischen unabhängiger und abhängiger Variable vor, daher bietet die einfache lineare Regression keine Möglichkeit die beobachteten Werte zu erklären. Neben der Verwendung einer komplizierteren Modellklasse, bestünde eine einfache Lösung darin, als erklärende Variable x2 statt x zu verwenden.

Im zweiten Fall liegt ein linearer Zusammenhang zwischen unabhängiger und abhängiger Variable vor. Diese Beziehung lässt sich durch die lineare Regression hervorragend bestimmen; das R2 ist nahe 1.

Die folgende Grafiksammlung zeigt verschiedene Streudiagramme in Abhängigkeit des Wertes des R2. Je eher die Datenpunkte auf einer Linie liegen, desto höher ist das R2. Streuen die Datenpunkte ohne Zusammenhang im Raum, liegt das R2 nahe 0.

Abb.3 Verschiedene Streudiagramme

Ein Aspekt, der zur Beliebtheit des R2 entscheidend beigetragen hat, ist seine einfache Interpretation: Das R2 gibt den Anteil der Varianz der abhängigen Variablen an, der durch die unabhängigen Variablen erklärt werden kann. Im Beispiel des linearen Zusammenhangs erklärt die Variable x also rund 93% der Varianz der Variablen y. Es sei darauf hingewiesen, dass die Höhe des R2 je nach Fachrichtung und Analyseebene stark variieren kann. Teil 5 der Artikelserie thematisiert diesen Aspekt und beantwortet, wie hoch ein "gutes" R2 sein sollte bzw. sein kann.

Fazit

Das R2 ist ein Gütemaß der linearen Regression. Es gibt an, wie gut die unabhängigen Variablen geeignet sind, die Varianz der abhängigen zu erklären. Das R2 liegt immer zwischen 0% (unbrauchbares Modell) und 100% (perfekte Modellanpassung). Zu beachten ist, dass das R2 ein Gütemaß zum Beschreiben eines linearen Zusammenhangs darstellt. Es lässt sich leicht interpretieren als der Anteil der Varianz der abhängigen Variablen (erklärte Variable), der durch die unabhängigen Variablen (erklärende Variablen) erklärt werden kann.

Anhänge
uploadfalse
patterns.*pdf, .*ppt, .*xls, .*txt

Anker
varianzzerlegung
varianzzerlegung
Die Varianzzerlegung

Das R2 ist ein Gütemaß der linearen Regression (s. Teil 1 und Teil 2 der Artikelserie über das Bestimmtheitsmaß). Ein wichtiges Konzept zum Verstehen des Bestimmtheitsmaß R2 ist die Varianzzerlegung.

Allein unter Kenntnis der gemessenen Größe y ist die naivste Vorhersage bzw. Schätzung für eine neue Beobachtung yi die man anstellen kann, der Mittelwert eben jener Größe Mittelwert von y (i bezeichnet in diesem Fall eine spezielle Beobachtung). Die Varianz einer Variablen beschreibt in diesem Sinne, die Abweichungen der Beobachtungen vom Mittelwert. Durch Hinzunahme einer oder mehrerer unabhängiger Variablen, können wir die Vorhersage der abhängigen Variablen verbessern, indem das Wissen um den Zusammenhang eben dieser Variablen mit y in die Prognose einbezogen wird. Es resultiert eine neue Regressionsgerade, die den wahren Beobachtungen näher kommt. Trotzdem bleibt in der Praxis immer ein Rest an Varianz, der auch durch die unabhängigen Variablen nicht erklärt werden kann. Die Abweichung einer Beobachtung von der Regressionsgeraden nennt sich Fehler bzw. Residuum ei.

Die folgende Grafik veranschaulicht dieses Konzept anhand einer einfachen Regression:

Abb.4 Abweichung

Die schwarzen Punkte stellen die gemessene Größe yi dar, die horizontale Linie kennzeichnet den Mittelwert von y der abhängigen Variablen und die geneigte Linie veranschaulicht die durch das Modell bzw. die unabhängige Variable vorhergesagten Werte Prognosewert von y.

  • Die vertikale orangene Linie gibt die Gesamtabweichung einer beispielhaft ausgewählten Beobachtung yi zum Mittelwert von y an – diesen Fehler würden wir machen, wenn wir mit dem Mittelwert von y die entsprechende Beobachtung yi vorhersagen würden.
  • Erklärte Abweichung: Die vertikale blaue Linie kennzeichnet die Abweichung der Regressionsgeraden zum Mittelwert – diesen Fehler können wir durch Hinzunahme der unabhängigen Variablen x vermeiden.
  • Unerklärte Abweichung/Residuum: Die vertikale rote Linie gibt die Abweichung der speziellen Beobachtung yi zur Regressionsgeraden an (Residuum ei) – diesen Teil der Abweichung können wir auch durch Hinzunahme der unabhängigen Variablen x nicht vermeiden. Dabei ist zu beachten, dass die Residuen zufällig um die Regressionsgerade streuen sollten. Tun sie das nicht, ist von einer Fehlspezifikation des Modells auszugehen.

Das Prinzip der Varianzzerlegung spiegelt sich auch in der Formel zur Berechnung des R2 wider:

Cds mathjax display
LaTexR^2 = \frac{\sum_{i=1}^{n}{(\hat{y_i}-\bar{y})^2}}{\sum_{i=1}^{n}{(y_i-\bar{y})^2}} = \frac{\text{erklärte Variation}}{\text{Gesamtvariation}}

oder

Cds mathjax display
LaTexR^2 = 1 - \frac{\sum_{i=1}^{n}{e_i^2}}{\sum_{i=1}^{n}{(y_i-\bar{y})^2}} = 1 - \frac{\text{unerklärte Variation}}{\text{Gesamtvariation}}

wobei n die Anzahl der Beobachtungen ist.

Fazit

Die naivste Vorhersage eines Merkmals von einer bestimmten unbekannten Beobachtung ist der Mittelwert über das Merkmal aller vorhandenen Beobachtungen. Die Nutzung der Information aus zusätzlichen (unabhängigen) Variablen im Rahmen eines Regressionsmodells kann helfen, diese Schätzung zu verfeinern und somit genauere Vorhersagen (Prognosen) zu treffen. Diese Verbesserung des Modells lässt sich am Bestimmtheitsmaß R2 festmachen. Allerdings stimmen vorhergesagter Wert und beobachteter Wert in den seltensten Fällen exakt überein. In der Praxis bleibt immer eine Restabweichung des Punktes von der Regressionsgeraden – das Residuum. Bei einer korrekten Spezifikation des Modells sollten die Residuen zufällig um die Regressionsgerade streuen. Das R2 nutzt das Konzept der Varianzzerlegung. Es besagt, dass sich die Varianz der abhängigen Variablen in erklärte Varianz und nicht erklärte Varianz (Residualvarianz) zerlegen lässt.

Info
titleBemerkung 1

Gibt es hier Informationen, die gegeben werden sollen?

 

 

 

Anker
korrigiertes-r2
korrigiertes-r2
Das korrigierte R2

Trotz des eingängigen Prinzips des R2s, existieren einige Kritikpunkte daran. Einer davon betrifft die Ignoranz des R2 gegenüber der Anzahl an aufgenommenen unabhängigen Variablen. Es besteht nämlich die Möglichkeit durch Aufnahme zahlreicher (auch unsinniger) Variablen in die Regression das R2 in die Höhe zu treiben (engl. kitchen sink regression). Das Modell wird dadurch immer unübersichtlicher, instabiler und komplexer, während sich die Prognosegüte häufig sogar verschlechtert. Neben der Anforderung an ein Modell so viel Varianz der abhängigen Variablen wie möglich zu erklären, sollte es auch so "schlank" wie möglich sein. Das bedeutet, im Vergleich zweier Modelle, die das gleiche R2 jedoch unterschiedliche Anzahlen an unabhängigen Variablen besitzen, ist nach dem Sparsamkeitsprinzip (engl. "Occam’s Razor") dasjenige zu bevorzugen, welches weniger unabhängige Variablen besitzt.

Ein Gütemaß, welches beides, Modellanpassung und Sparsamkeit berücksichtigt, ist das sogenannte korrigierte R2 (auch: adjustiertes, bereinigtes oder angepasstes R2). Es besteht aus dem Wert des einfachen R2 welcher mit einem "Strafterm" belegt wird. Daher nimmt das korrigierte R2 in der Regel einen geringeren Wert als das einfache R2 an und kann in manchen Fällen sogar negativ werden. Die "Strafe" steigt mit der Anzahl der unabhängigen Variablen. Durch Hinzunahme einer neuen Variablen kann das Modell im Sinne des korrigierten R2 nur dann verbessert werden, wenn der zusätzliche Erklärungsgehalt den Strafterm mehr als ausgleicht.

Formel des korrigierten R2:

Cds mathjax display
LaTexR^2_{korr} = 1 - ( 1-R^2)*\frac{n-1}{n-p-1}
, wobei n die Anzahl der Beobachtungen ist und p die Anzahl der unabhängigen Variablen. Die "Strafe" für zusätzliche Variablen fällt insbesondere bei geringem Stichprobenumfang (n) hoch aus.

In der folgenden Tabelle ist zu sehen wie sich das normale R2 mit jeder hinzugenommenen Variablen erhöht. Das korrigierte R2 hingegen steigt zunächst an und fällt dann ab einer Variablenanzahl von drei wieder ab. Sein Wert liegt im Beispiel immer unter dem des normalen R2.

Anzahl Variablen im ModellR2korrigiertes R2
10,6810,670
20,7080,686
30,7260,694
40,7290,686
50,7320,676
60,7330,663

Neben dem oben vorgestellten einfachen und korrigierten R2 existieren weitere Gütemaße. Dazu zählen das Pseudo-R2, welches hauptsächlich für komplexere Modelle genutzt wird (hierarchische Modelle, generalisierte lineare Modelle,…), oder Informationkriterien basierend auf log Likelihood-Schätzungen (AIC, BIC, …). Letztere dienen vornehmlich dem Vergleich von Modellen und werden u.a. bei der Variablenselektion verwendet.

Fazit

Zur Beurteilung der Güte von linearen Regressionsmodellen bietet es sich an, das korrigierte R2 zu betrachten. Es ist zwar nicht direkt wie das normale R2 als Prozentsatz an erklärter Varianz der abhängigen Variablen zu interpretieren, berücksichtigt und bestraft aber die Anzahl an unabhängigen Variablen im Modell. Prinzipiell gilt: je höher das korrigierte R2, desto besser passt das Modell auf die Daten.

 

Anker
wie-hoch-muss
wie-hoch-muss
Wie hoch muss mein R2 sein?

Eine typische Frage in der statistischen Beratung ist die folgende: "Wie hoch muss mein R2 sein?" "Das kommt darauf an…!" ist die Antwort. So unbefriedigend diese Antwort auch ist, gerade in Bezug auf das R2 könnte sie wahrer nicht sein.

Je nach Disziplin sind unterschiedliche Größen des R2 üblich. In Bereichen wie dem klassischen Marketing, in denen es hauptsächlich darum geht, menschliches Verhalten zu erklären bzw. vorherzusagen, sind meist geringe R2 (deutlich kleiner 50%) zu erwarten. In anderen Bereichen wie bspw. der Physik, sind weit höhere R2 die Regel. Dies ist wenig überraschend, da auf das menschliche Verhalten zahlreiche und häufig nicht direkt messbare Einflüsse wirken. In der Physik hingegen werden oft Zusammenhänge zwischen wenigen exakt messbaren Größen untersucht. Dies geschieht zusätzlich meist unter experimentellen Bedingungen, unter denen sich Störeinflüsse minimieren lassen.

Ähnliches lässt sich über die Auswirkung der Analyseebene auf das R2 sagen: Vorhersagen auf der Mikroebene sind schwieriger, da sie sich auf das Verhalten einzelner Personen/Untersuchungseinheiten beziehen. Findet allerdings eine Modellanpassung auf Makroebene statt, so fällt diese oft besser aus. Der dahinterliegende Mechanismus lässt sich grob wie folgt beschreiben: Vorhersagefehler, die z.B. aufgrund der Komplexität des menschlichen Verhaltens auf der Mikroebene existieren, kommen im Idealfall nicht systematisch zustande. D.h. es handelt sich sowohl um positive als auch negative Abweichungen von der Regressionsgeraden. Die Varianzaufklärung hingegen ist systematisch. Werden Vorhersagen, die auf Individualebene getroffen wurden aggregiert, so kompensieren sich zunehmend die unsystematischen Fehler zwischen den Individuen und die systematische Tendenz in die „richtige Richtung“ tritt im Aggregat immer deutlicher hervor.

Der Effekt der Aggregation beim Übergang von der Mikro- auf die Makro-Ebene soll an einem Beispiel illustriert werden: Die Daten zeigen das R2 eines Modells, welches die Anzahl der Kundenkontakte in einem Support-Center prognostizieren soll. Ziel ist eine bedarfsgerechte Personalplanung, die gewährleistet, dass Kundenanfragen kurzfristig bearbeitet werden können. Während Unterbesetzung zu Wartezeiten für die Kunden führt, sind zu hohe Kosten - und somit Unwirtschaftlichkeit - die Konsequenz einer Überbesetzung. Die x-Achse zeigt die Aggregation. Im linken Teil wird für jeden einzelnen Kunden prognostiziert, ob und ggf. wie oft er den Kontakt sucht. Das R2 ist in diesem Fall mit ca. 10\% nach gängigen Erwartungen eher gering. Für die Personalplanung spielt es jedoch im Idealfall keine Rolle, welcher Kunde eine Anfrage stellt. Wichtig ist - solange jeder Mitarbeiter die Anfragen aller Kunden bearbeiten kann - nur die Gesamtzahl der Anfragen. Wird auf der selben Datenbasis eine Prognose für die Anzahl der von allen (in diesem Beispiel sind es 500) Kunden generierten Supportanfragen geschätzt, so erreicht dieses ein R2 von über 95% (rechter Teil der Grafik). Die Fälle zwischen Mikro- (links) und Makro-Ebene (rechts) stellen Mischszenarien dar: Sind die Supportmitarbeiter in Teams eingeteilt, die jeweils so weit spezialisiert sind, dass sie nur die Anfragen bestimmter Kunden beantworten können, müssen separate Modelle für die einzelnen Kundengruppen bzw. Teams geschätzt werden. Der mittlere Teil der Grafik zeigt, wie sich das R2 in diesem Fall in Abhängigkeit von der Zahl der zusammengafassten Kunden entwickelt.

Abb.5 Veränderung des R2

Während auf der Mikro-Ebene - je nach Datenlage - in vielen Fällen bereits ein R2 von 10% als gut gelten kann, erwarten viele bei stärker aggregierten Daten ein R2 von 40%-80% oder sogar mehr. Es bleibt zu erwähnen, dass ein Modell mit geringem R2 - selbst bei stärker aggregierten Daten - nicht nutzlos sein muss, da die Alternative dazu oft gar kein Modell darstellt, was einem R2 von 0 entspricht. Im übertragenen Sinne bedeutet das, dass eine systematische Prognose auf Basis eines Modells mit beschränktem R2 oft schon besser ist als eine unsystematische Planung, die ausschließlich auf Bauchgefühl setzt.

Fazit

Die übliche Größenordnung des R2 variiert je nach dem um welches Anwendungsgebiet es sich handelt. Ebenso sind für Modelle auf Mikro- und Makroebene unterschiedliche R2 zu erwarten. Generell ist die Aussagekraft von Modellen mit geringem R2 nicht zwangsläufig schlecht.

 

Bildergalerie

Galerie
excludeLabeltest
columns3
sortname
titleBildergallerie