Die ANCOVA oder auch Kovarianzanalyse ist eine statistische Methode, bei der ähnlich wie bei der ANOVA oder Varianzanalyse eine metrische abhängige Variable auf Unterschied zwischen Gruppen untersucht wird. Im Gegensatz zur ANOVA wird in der ANCOVA aber ein zusätzlicher metrischer Faktor – auch genannt Kovariate – mit ins Modell aufgenommen.

Die ANCOVA oder Kovarianzanalyse ist demnach eine Erweiterung der ANOVA um eine metrische Kovariate.

Wann wird die ANCOVA verwendet?

Die ANCOVA wird dann verwendet, wenn das Hauptziel der Analyse die Untersuchung eines Gruppeneffekts ist auf eine metrische Variable ist (genauso wie bei der ANOVA) und zusätzlich für einen metrischen Faktor (die Kovariate) kontrolliert werden soll. Diese Kovariate ist metrisch und nicht Teil der Fragestellung (es interessiert nicht der Effekt der Kovariate). Es ist aber bekannt, dass die Kovariate einen Einfluss auf die abhängige Variable hat und für diesen Einfluss soll kontrolliert werden (der Einfluss wird „heraus gerechnet“).

Der Vorteil in so einem ANCOVA-Modell ist dann, dass

  1. Störvariablen eliminiert werden und
  2. die Varianz innerhalb der Gruppen reduziert wird.

Dadurch wird es leichter, den eigentlich interessierenden Gruppeneffekt zu untersuchen.

Welche Voraussetzungen hat die Kovarianzanalyse?

Als Erweiterung der ANOVA hat die ANCOVA zunächst mal die gleichen Voraussetzungen wie die ANOVA. Es muss also folgendes erfüllt sein:

  • Normalverteilung der Residuen und
  • Varianzhomogenität.

Zusätzlich hat die ANCOVA weitere Voraussetzungen, die mit der Kovariate zu tun haben. Diese müssen also hier zusätzlich geprüft werden.

1. Die Kovariate ist unabhängig vom Gruppeneffekt

Die Kovariate muss unabhängig vom Gruppenfaktor sein. Dies kannst Du prüfen, indem Du Dir die Kovariate deskriptiv gruppiert nach dem Gruppenfaktor ansiehst. Du rechnest also Mittelwerte, Standardabweichungen, Konfidenzintervalle aus. Das kannst Du zusätzlich auch grafisch darstellen. Wenn sich die Werte zwischen den Gruppen nicht deutlich unterscheiden, ist diese Voraussetzung erfüllt. Du kannst auch einen Test auf Lageunterschied rechnen, aber denk daran, dass der p-Wert sehr von der Fallzahl abhängt und Du bei großer Fallzahl auch schon kleine Unterschiede als signifikant nachweisen wirst!

2. Homogenität der Regressionssteigungen

Die Beziehung zwischen der Kovariate und der abhängigen Variable soll in jeder der Gruppen gleich sein. Das prüfst Du am besten, indem Du ein gruppiertes Streudiagramm mit Regressionsgeraden erstellst. Als Variablen verwendest Du die Kovariate (z.B. an die x-Achse) und die abhängige Variable (z.B. an die y-Achse) und gruppierst nach der Gruppenvariable (z.B. durch unterschiedliche Farben). Zusätzlich lässt Du für jede Gruppe die Regressionsgerade einzeichnen. Wenn die Steigung der Regressionsgeraden überall gleich ist (wenn die Regressionsgeraden annähernd parallel verlaufen), ist diese Voraussetzung erfüllt.