Meta-Analyse

In der Statistik verbindet eine Meta-Analyse die Ergebnisse von mehreren Studien, die eine Reihe zusammenhängender Forschungshypothesen richten. In seiner einfachsten Form ist das normalerweise durch die Identifizierung eines allgemeinen Maßes der Wirkungsgröße, deren ein gewogener Mittelwert die Produktion einer Meta-Analyse sein könnte. Die Gewichtung könnte mit Beispielgrößen innerhalb der individuellen Studien verbunden sein. Mehr allgemein gibt es andere Unterschiede zwischen den Studien, die zugelassen werden müssen, aber das allgemeine Ziel einer Meta-Analyse ist, die wahre Wirkungsgröße im Vergleich mit einer weniger genauen Wirkungsgröße stärker zu schätzen, die in einer einzelnen Studie unter einer gegebenen einzelnen Menge von Annahmen und Bedingungen abgeleitet ist.

Meta-Analysen sind häufig, aber nicht immer, wichtige Bestandteile eines systematischen Rezensionsverfahrens. Zum Beispiel kann eine Meta-Analyse auf mehreren klinischen Proben mit einer ärztlichen Behandlung geführt werden, um ein besseres Verstehen dessen zu erhalten, wie gut die Behandlung arbeitet. Hier ist es günstig, der Fachsprache zu folgen, die durch die Kollaboration von Cochrane verwendet ist, und "Meta-Analyse" zu verwenden, um sich auf statistische Methoden zu beziehen, Beweise zu verbinden, andere Aspekte der 'Forschungssynthese' oder 'Beweis-Synthese' wie sich verbindende Information von qualitativen Studien für den allgemeineren Zusammenhang von systematischen Rezensionen verlassend.

Geschichte

Die erste Meta-Analyse wurde von Karl Pearson 1904 in einem Versuch durchgeführt, das Problem der reduzierten statistischen Macht in Studien mit kleinen Beispielgrößen zu überwinden; das Analysieren der Ergebnisse von einer Gruppe von Studien kann genauere Datenanalyse erlauben. Jedoch ist die erste Meta-Analyse aller begrifflich identischen Experimente bezüglich eines besonderen Forschungsproblems, und geführt von unabhängigen Forschern, als die 1940-Buchlänge-Veröffentlichung Außersinnliche Wahrnehmung nach sechzig Jahren, authored von Herzog-Universitätspsychologen J. G. Pratt, J. B. Rhine und Partnern identifiziert worden. Das hat eine Rezension von 145 Berichten über BESONDERS Experimente veröffentlicht von 1882 bis 1939 umfasst, und hat eine Schätzung des Einflusses von unveröffentlichten Papieren auf der gesamten Wirkung (das Dateischublade-Problem) eingeschlossen. Obwohl Meta-Analyse in der Epidemiologie und Beweis-basierten Medizin heute weit verwendet wird, wurde eine Meta-Analyse einer ärztlichen Behandlung bis 1955 nicht veröffentlicht. In den 1970er Jahren wurden hoch entwickeltere analytische Techniken in der Bildungsforschung eingeführt, mit der Arbeit von Gene V. Glass, Frank L. Schmidt und John E. Hunter anfangend.

Der Begriff "Meta-Analyse" wurde von Gene V. Glass ins Leben gerufen, der der erste moderne Statistiker war, um den Gebrauch der Meta-Analyse zu formalisieren, und als der moderne Gründer der Methode weit anerkannt wird. Das englische Online-Wörterbuch von Oxford verzeichnet den ersten Gebrauch des Begriffes im statistischen Sinn als 1976 durch Glass. Die statistische Theorie Umgebungsmeta-Analyse wurde durch die Arbeit von Nambury S. Raju, Larry V. Hedges, Harris Cooper, Ingram Olkin, John E. Hunter, Jacob Cohen, Thomas C. Chalmers, Robert Rosenthal und Frank L. Schmidt außerordentlich vorgebracht.

Vorteile der Meta-Analyse

Vorteile der Meta-Analyse (z.B über klassische Literaturrezensionen, einfache gesamte Mittel von Wirkungsgrößen usw.) schließen ein:

  • Shows, wenn die Ergebnisse verschiedener sind als, was von der Beispielungleichheit erwartet wird
  • Abstammung und statistische Prüfung von gesamten Faktoren / Wirkungsgröße-Rahmen in zusammenhängenden Studien
  • Generalisation zur Bevölkerung von Studien
  • Fähigkeit, für die Schwankung zwischen den Studien zu kontrollieren
  • Einschließlich Vorsitzender, um Schwankung zu erklären
  • Höher hat statistische Macht, eine Wirkung zu entdecken, als in 'n=1 Studienprobe' nach Größen geordnet
  • Geschäft mit Informationsüberlastung: die hohe Zahl von Artikeln veröffentlicht jedes Jahr.
  • Es verbindet mehrere Studien und wird deshalb weniger unter Einfluss lokaler Ergebnisse sein, als einzelne Studien sein werden.
  • Macht es möglich sich zu zeigen, ob eine Veröffentlichungsneigung besteht.

Nachteile und Schwächen

Eine Meta-Analyse von mehreren kleinen Studien sagt die Ergebnisse einer einzelnen großen Studie besonders in einem Feld wie Medizin nicht voraus, wo Ergebnisse aufrichtig unvorhersehbar sind. Einige haben behauptet, dass eine Schwäche der Methode ist, dass Quellen der Neigung von der Methode nicht kontrolliert werden. Eine gute Meta-Analyse schlecht bestimmter Studien wird noch auf schlechte Statistik gemäß Robert Slavin hinauslaufen. Slavin hat behauptet, dass nur methodisch ausgereifte Studien in eine Meta-Analyse, eine Praxis eingeschlossen werden sollten, die er 'beste Beweis-Meta-Analyse nennt. Andere Meta-Analytiker würden schwächere Studien einschließen, und eine Studienniveau-Prophet-Variable hinzufügen, die die methodologische Qualität der Studien widerspiegelt, um die Wirkung der Studienqualität auf der Wirkungsgröße zu untersuchen. Jedoch hat Glas behauptet, dass die bessere Annäherung Abweichung in der Studienprobe bewahrt, ein so breites Netz werfend, wie möglich, und dass methodologische Selektionskriterien unerwünschte Subjektivität einführen, den Zweck der Annäherung vereitelnd.

Dateischublade-Problem

Eine andere Schwäche der Methode ist das schwere Vertrauen auf veröffentlichten Studien, die übertriebene Ergebnisse schaffen können, weil es sehr hart ist, Studien zu veröffentlichen, die keine bedeutenden Ergebnisse zeigen. Für jedes gegebene Forschungsgebiet kann man nicht wissen, wie viele Studien geführt, aber nie berichtet worden sind und die Ergebnisse weg abgelegt.

Dieses Dateischublade-Problem läuft auf den Vertrieb von Wirkungsgrößen hinaus, die beeinflusst, verdreht oder völlig abgeschnitten werden, einen ernsten Leitzins-Scheinbeweis schaffend, in dem die Bedeutung der veröffentlichten Studien überschätzt wird. Zum Beispiel, wenn es fünfzig Tests gab, und nur zehn Ergebnisse bekommen haben, dann ist das echte Ergebnis so um nur 20 % bedeutend, wie es erscheint, außer dass die anderen 80 % für das Veröffentlichen nicht vorgelegt, oder von Herausgebern als langweilig ausgeworfen wurden. Das sollte ernstlich betrachtet werden, wenn man die Ergebnisse einer Meta-Analyse interpretiert.

Das kann mit einem Trichter-Anschlag vergegenwärtigt werden, der ein Streuungsanschlag der Beispielgröße und Wirkungsgrößen ist. Es gibt mehrere verfügbare Verfahren, die versuchen, für das Dateischublade-Problem, einmal identifiziert, solcher als schätzend auf die Kürzung von einem Teil des Vertriebs von Studieneffekten zu korrigieren.

Methoden, um Veröffentlichung zu entdecken, sind umstritten gewesen, weil sie normalerweise niedrige Macht für die Entdeckung der Neigung haben, sondern auch falschen positives unter einigen Verhältnissen schaffen können. Zum Beispiel können kleine Studieneffekten, worin methodologische Unterschiede zwischen kleineren und größeren Studien bestehen, Unterschiede tatsächlich Größen zwischen Studien verursachen, die Veröffentlichungsneigung ähneln. Jedoch können kleine Studieneffekten so für die Interpretation von Meta-Analysen problematisch sein, und die Befehlsform ist auf meta-analytischen Autoren, um potenzielle Quellen der Neigung zu untersuchen. Eine Tandem-Methode, um Veröffentlichungsneigung zu analysieren, ist angedeutet worden, um falsche positive Fehlerprobleme zu kürzen und darauf hinzuweisen, dass 25 % von Meta-Analysen in den psychologischen Wissenschaften Veröffentlichungsneigung haben können. Jedoch bleiben niedrige Macht-Probleme wahrscheinlich strittig, und Bewertungen der Veröffentlichungsneigung können niedriger bleiben als der wahre Betrag.

Die meisten Diskussionen der Veröffentlichungsneigung konzentrieren sich auf Zeitschriftenmethoden, in denen Veröffentlichungsraten statistisch bedeutenden findet, sind höher als für unbedeutende Ergebnisse. Jedoch zweifelhafte Forscher-Methoden wie das Überarbeiten statistischer Modelle bis wird Bedeutung erreicht kann auch eine Neigung zu statistisch bedeutenden Ergebnissen fördern, die hohe Neigung für Forscher erlauben, ihren eigenen Glauben zu bestätigen. Vorausgesetzt, dass, verschieden von Zeitschriftenmethoden, zweifelhafte Forscher-Methoden nicht sind, verschwört sich notwendigerweise Beispielgröße-Abhängiger, und so kaum auf dem Trichter zu demonstrieren, und geht so unentdeckt durch die meisten Veröffentlichungsneigungsentdeckungsmethoden zurzeit im Gebrauch.

Andere Schwächen sind das Paradox von Simpson (zwei kleinere Studien können in einer Richtung und der Kombinationsstudie in der entgegengesetzten Richtung hinweisen); das Codieren einer Wirkung ist subjektiv; die Entscheidung, eine besondere Studie einzuschließen oder zurückzuweisen, ist subjektiv; es gibt zwei verschiedene Weisen, Wirkung zu messen: Korrelation oder standardisierter Mittelunterschied; die Interpretation der Wirkungsgröße ist rein willkürlich; es ist nicht bestimmt worden, wenn die statistisch genaueste Methode, um Ergebnisse zu verbinden, das feste, das zufällige oder die Qualitätswirkungsmodelle ist; und, für die Medizin, ist die zu Grunde liegende Gefahr in jeder studierten Gruppe von bedeutender Wichtigkeit, und dort ist nicht Weise allgemein vereinbart, die Gefahr zu beschweren.

Gefahren der geTagesordnungssteuerten Neigung

Die strengste Schwäche und der Missbrauch der Meta-Analyse kommen häufig vor, wenn die Person oder Personen, die die Meta-Analyse tun, eine wirtschaftliche, soziale oder politische Tagesordnung wie der Durchgang oder Misserfolg der Gesetzgebung haben. Jene Personen mit diesen Typen der Tagesordnung haben eine hohe Wahrscheinlichkeit, um Meta-Analyse wegen der persönlichen Neigung zu missbrauchen. Zum Beispiel werden zur Tagesordnung des Autors günstige Forscher wahrscheinlich ihre Studienkirsche aufpicken lassen, während diejenigen, die nicht günstig sind, ignoriert oder als "nicht glaubwürdig" etikettiert werden. Außerdem können die begünstigten Autoren selbst beeinflusst oder bezahlt werden, um Ergebnisse zu erzeugen, die ihre gesamten politischen, sozialen oder wirtschaftlichen Absichten auf Weisen wie das Auswählen kleiner günstiger Dateien und nicht Verbinden größerer ungünstiger Dateien unterstützen.

Wenn eine Meta-Analyse von einer Person oder Organisation mit einer Neigung geführt wird oder gewünschtes Ergebnis vorher bestimmt hat, sollte es als hoch Verdächtiger behandelt werden oder eine hohe Wahrscheinlichkeit zu haben, "Trödel-Wissenschaft" zu sein. Von einer Integritätsperspektive sollten Forscher mit einer Neigung Meta-Analyse vermeiden und einen weniger für den Missbrauch anfälligen (oder unabhängig) Form der Forschung verwenden.

Eine 2011-Studie, die getan ist, um mögliche Konflikte von Interessen an zu Grunde liegenden für medizinische Meta-Analysen verwendeten Forschungsstudien bekannt zu geben, hat 29 Meta-Analysen nachgeprüft und hat gefunden, dass Konflikte von Interessen an den Studien, die den Meta-Analysen unterliegen, selten bekannt gegeben wurden. Die 29 Meta-Analysen haben 11 aus allgemeinen Medizin-Zeitschriften eingeschlossen; 15 aus Spezialisierungsmedizin-Zeitschriften, und drei von der Datenbank von Cochrane von Systematischen Rezensionen. Die 29 Meta-Analysen haben eine Anhäufung von kontrollierten Proben von 509 randomized (RCTs) nachgeprüft. Dieser haben 318 RCTs Finanzierungsquellen mit 219 (69 %) geförderter Industrie angezeigt. Der 509 RCTs, 132 berichteten Autor-Interessenkonflikt-Enthüllungen, mit 91 Studien das (69-%-)-Freigeben der Industrie Finanzbande mit einem oder mehr Autoren. Die Information wurde jedoch selten in den Meta-Analysen widerspiegelt. Nur zwei (7 %) haben RCT finanziell unterstützende Quellen gemeldet, und niemand hat RCT Bande der Autor-Industrie gemeldet. Die Autoren haben "ohne Anerkennung von COI wegen der Industriefinanzierung oder Autor-Industrie aufgehört Finanzbande von RCTs, der in Meta-Analysen, das Verstehen von Lesern und Abschätzung der Beweise von der Meta-Analyse eingeschlossen ist, können in Verlegenheit gebracht werden."

Schritte in einer Meta-Analyse

1. Formulierung des Problems

2. Suche der Literatur

3. Auswahl an Studien ('Integrationskriterien')

  • Gestützt auf Qualitätskriterien, z.B die Voraussetzung von randomization und in einer klinischen Probe blendend
  • Auswahl an spezifischen Studien auf einem gut angegebenen Thema, z.B der Behandlung des Brustkrebses.
  • Entscheiden Sie, ob unveröffentlichte Studien eingeschlossen werden, um Veröffentlichungsneigung (Dateischublade-Problem) zu vermeiden

4. Entscheiden Sie, welchen abhängigen Variablen oder zusammenfassenden Maßnahmen erlaubt wird. Zum Beispiel:

  • Unterschiede (getrennte Daten)
  • Mittel (dauernde Daten)
  • Der g von Hecken ist ein populäres zusammenfassendes Maß für dauernde Daten, das standardisiert wird, um Skala-Unterschiede zu beseitigen, aber er vereinigt einen Index der Schwankung zwischen Gruppen:

:: in dem die bösartige Behandlung ist, ist die Kontrolle bösartig, die vereinte Abweichung.

5. Musterauswahl (sieh folgenden Paragrafen)

Um Richtlinien zu melden, sieh das Bevorzugte Sachen wegen Systematischer Rezensionen und Meta-Analysen (PRISMA) Behauptung Melden

Meta-Analyse-Modelle

1. Festes Wirkungsmodell

Das feste Wirkungsmodell stellt einen gewogenen Mittelwert der Studienschätzungen, die Gewichte zur Verfügung, die das Gegenteil der Abweichung der Studienschätzung sind. So bekommen größere Studien größere Gewichte als kleinere Studien, und wenn die Studien innerhalb der Meta-Analyse durch eine sehr große Studie beherrscht werden, erhält sie im Wesentlichen das ganze Gewicht, und kleinere Studien werden ignoriert. Das ist nicht so schlecht, wenn sich Studienwirkungsgrößen nur durch den Stichprobenfehler unterscheiden, aber sobald Heterogenität da ist, dann muss das durch das Modell verantwortlich gewesen werden, und eines der anderen Modelle sollte unten verwertet werden

2. Zufälliges Effekten-Modell

Ein allgemeines Modell, das verwendet ist, um verschiedenartige Forschung zu synthetisieren, ist das zufällige Effekten-Modell der Meta-Analyse. Das ist einfach der gewogene Mittelwert des

Wirkungsgrößen einer Gruppe von Studien. Das Gewicht, das in diesem angewandt wird

der Prozess der belasteten Mittelwertbildung mit einer zufälligen Effekten-Meta-Analyse ist

erreicht in zwei Schritten: Schritt 1: Umgekehrte Abweichung, die beschwert

Schritt 2: Ungewichtung dieser umgekehrten Abweichungsgewichtung durch die Verwendung eines

zufälliger Effekten-Abweichungsbestandteil (REVC), der einfach aus dem abgeleitet wird

Ausmaß der Veränderlichkeit der Wirkungsgrößen der zu Grunde liegenden Studien. Dieser

Mittel dass das größere diese Veränderlichkeit tatsächlich Größen (sonst bekannter

als Heterogenität), das größere können die Ungewichtung und das einen Punkt erreichen

wenn das zufällige Effekten-Meta-Analyse-Ergebnis einfach der un - wird

Wirkungsgröße des gewogenen Mittelwertes über die Studien. Am anderen Extrem, wenn alle Wirkungsgrößen ähnlich sind (oder Veränderlichkeit überschreitet Stichprobenerhebung nicht

Fehler), kein REVC wird angewandt und der zufällige Effekten-Meta-Analyse-Verzug

zu einfach einer festen Wirkungsmeta-Analyse (nur umgekehrte Abweichungsgewichtung).

Das Ausmaß dieser Umkehrung ist allein von zwei Faktoren:1 abhängig. Heterogenität von precision2. Heterogenität der Wirkungsgröße

Da es gar keinen Grund gibt, dass ein automatisch anzunehmen

die größere Veränderlichkeit in Studiengrößen oder Wirkungsgrößen zeigt automatisch an

eine fehlerhafte größere Studie oder zuverlässigere kleinere Studien, der re -

der Vertrieb von Gewichten unter diesem Modell trägt keine Beziehung wozu

diese Studien müssen sich bieten. Tatsächlich gibt es keinen Grund warum die Ergebnisse von

eine Meta-Analyse sollte mit dieser Methode der Umkehrung des vereinigt werden

umgekehrter Abweichungsgewichtungsprozess der eingeschlossenen Studien. Als solcher, der

Änderungen im Gewicht, das durch dieses Modell (zu jeder Studie) eingeführt ist, laufen auf einen hinaus

vereinte Schätzung, die keine mögliche Interpretation haben kann und so trägt

keine Beziehung damit, was die Studien wirklich anbieten müssen.

Um das Problem weiter zusammenzusetzen, schlagen einige Statistiker vor, dass wir eine Schätzung nehmen, die keine Bedeutung hat und schätzen Sie einen Vorhersagezwischenraum darum. Das ist mit der Einnahme einer zufälligen Annahme an der Wirksamkeit einer Therapie und unter dem falschen Glauben verwandt, dass es bedeutungsvoller Versuch ist, sich auf seiner Interpretation auszubreiten. Leider gibt es keine statistische Manipulation, die gesunden Menschenverstand ersetzen kann. Während Heterogenität wegen zu Grunde liegender wahrer Unterschiede in Studieneffekten sein könnte, ist es mehr als wahrscheinlich, dass solche Unterschiede durch den systematischen Fehler verursacht werden. Das Bestes, das wir tun können, in Bezug auf Heterogenität zu richten, soll die Liste von Studien und Versuch nachschlagen (von der umgekehrten Abweichung) gestützt auf Unterschieden in Beweisen der Neigung aber nicht Wirkungsgröße oder Präzision unzubeschweren, die Folgen dieser Misserfolge sind.

3. Qualitätseffekten-Modell

Einige Forscher führen eine neue Annäherung an die Anpassung an die Zwischenstudienveränderlichkeit ein, indem sie einen relevanten Bestandteil (Qualität) vereinigen, die sich zwischen Studien zusätzlich zum auf den Intrastudienunterschieden gestützten Gewicht unterscheidet, der in jedem festen Effekten-Meta-Analyse-Modell verwendet wird. Die Kraft der Qualitätseffekten-Meta-Analyse ist, dass sie verfügbaren methodologischen Beweisen erlaubt, über die subjektive zufällige Wahrscheinlichkeit verwendet zu werden, und dadurch hilft, die zerstörende Lücke zu schließen, die zwischen Methodik und Statistik in der klinischen Forschung geöffnet hat. Um das zu tun, hat sich eine Korrektur für die Qualität angepasst das Gewicht der Ith-Studie hat gerufen taui wird eingeführt. Das ist eine Zusammensetzung, die auf der Qualität anderer Studien außer der Studie unter der Rücksicht gestützt ist, und wird verwertet, um angepasste auf angepassten Gewichten der Qualität anderer Studien gestützte Gewichte der Qualität neu zu verteilen. Mit anderen Worten, wenn Studie ich bin von guter Qualität und anderen Studien, von schlechter Qualität ist, hat sich ein Verhältnis ihrer Qualität angepasst Gewichte wird mathematisch neu verteilt, um mich zu studieren, es mehr Gewicht zur gesamten Wirkungsgröße gebend. Als Studienzunahme qualitativ wird Neuverteilung progressiv weniger und hört auf, wenn alle Studien von vollkommener Qualität sind. Dieses Modell ersetzt so die unhaltbaren Interpretationen, die an der Literatur Überfluss haben und eine Software verfügbar ist, um diese Methode weiter zu erforschen

Meta-Rückwärts-Gehen

Meta-Rückwärts-Gehen ist ein in der Meta-Analyse verwendetes Werkzeug, um den Einfluss von Vorsitzender-Variablen auf der Studienwirkungsgröße mit auf das rückwärts Gehen gegründeten Techniken zu untersuchen. Meta-Rückwärts-Gehen ist an dieser Aufgabe wirksamer, als Standardtechniken des rückwärts Gehens sind.

Anwendungen in der modernen Wissenschaft

Moderne statistische Meta-Analyse verbindet wirklich mehr als gerade die Wirkungsgrößen von einer Reihe von Studien. Es kann prüfen, wenn die Ergebnisse von Studien mehr Schwankung zeigen als die Schwankung, die wegen der Stichprobenerhebung verschiedener Forschungsteilnehmer erwartet wird. Wenn das, Studieneigenschaften wie Maß-Instrument verwendet, Bevölkerung probiert der Fall ist, oder Aspekte des Designs der Studien codiert werden. Diese Eigenschaften werden dann als Prophet-Variablen verwendet, um die Überschwankung in den Wirkungsgrößen zu analysieren. Einige methodologische Schwächen in Studien können statistisch korrigiert werden. Zum Beispiel ist es möglich, Wirkungsgrößen oder Korrelationen für die Neigung nach unten wegen des Maß-Fehlers oder der Beschränkung von Kerbe-Reihen zu korrigieren.

Meta-Analyse kann mit dem einzeln-unterworfenen Design sowie den Gruppenforschungsdesigns getan werden. Das ist wichtig, weil viel von der Forschung über niedrige Ereignis-Bevölkerungen mit einzeln-unterworfenen Forschungsdesigns getan worden ist. Beträchtlicher Streit besteht für die passendste meta-analytische Technik für die einzelne unterworfene Forschung.

Meta-Analyse führt zu einer Verschiebung der Betonung von einzelnen Studien bis vielfache Studien. Es betont die praktische Wichtigkeit von der Wirkungsgröße statt der statistischen Bedeutung von individuellen Studien. Diese Verschiebung im Denken ist "das meta-analytische Denken" genannt worden. Die Ergebnisse einer Meta-Analyse werden häufig in einem Waldanschlag gezeigt.

Ergebnisse von Studien werden mit verschiedenen Annäherungen verbunden. Eine Annäherung, die oft in der Meta-Analyse in der Gesundheitsfürsorge-Forschung verwendet ist, wird 'umgekehrte Abweichungsmethode' genannt. Die durchschnittliche Wirkungsgröße über alle Studien wird als ein belasteter bösartiger geschätzt, wodurch die Gewichte der umgekehrten Abweichung jedes Wirkungsvorkalkulatoren von Studien gleich sind. Größere Studien und Studien mit der weniger zufälligen Schwankung werden größeres Gewicht gegeben als kleinere Studien. Andere einheitliche Methoden schließen die Methode des Kaminaufsatzes-Haenszel ein

und die Methode von Peto.

Eine neue Annäherung an das Studieren des Einflusses, den Gewichtung von Schemas auf Ergebnissen haben kann, ist durch die Konstruktion des Ernstes vorgeschlagen worden, der ein spezieller Fall der kombinatorischen Meta-Analyse ist.

Unterzeichnet Differenzial-kartografisch darzustellen, ist eine statistische Technik, um Studien auf Unterschieden in der Gehirntätigkeit oder Struktur zu meta-analysieren, die neuroimaging Techniken wie fMRI, VBM oder HAUSTIER verwendet hat.

Siehe auch

  • Newcastle-Ottawa Skala
  • Das Melden der Neigung
  • Rezensionszeitschrift
  • Sekundäre Forschung
  • Studienheterogenität
  • Systematische Rezension
  • Küfer, H. & Hecken, L.V. (1994). Das Handbuch der Forschungssynthese. New York: Russell Sage.
  • Cornell, J. E. & Mulrow, C. D. (1999). Meta-Analyse. In:H. J. Adèr & G. J. Mellenbergh (Hrsg.). Forschungsmethodik im sozialen, dem Verhaltens- und den Lebenswissenschaften (Seiten 285-323). London: Weiser.
  • Normanne, S.-L. T. (1999). Tutorenkurs in Biostatistics. Meta-Analyse: Formulierung, das Auswerten, das Kombinieren und der Bericht. Statistik in der Medizin, 18, 321-359.
  • Sutton, A.J. Jones, D.R. Abrams, K.R. Sheldon, T.A. & Lied, F. (2000). Methoden für die Meta-Analyse in der Medizinischen Forschung. London: John Wiley. Internationale Standardbuchnummer 0-471-49066-0
  • Higgins JPT, Green S (Redakteure). Handbuch von Cochrane für Systematische Rezensionen der Interventionsversion 5.0.1 [aktualisierter September 2008]. Die Kollaboration von Cochrane, 2008. Verfügbar von www.cochrane-handbook.org

Weiterführende Literatur

  • . Erforscht zwei sich abhebende Ansichten: Stellt Meta-Analyse "objektive, quantitative Methoden zur Verfügung, um Beweise von getrennten, aber ähnlichen Studien" oder bloß "statistischen Tricks zu verbinden, die machen unberechtigte Annahmen im Produzieren von grob vereinfachten Verallgemeinerungen aus einem Komplex von ungleichen Studien"?
  • Wilson, D. B., & Lipsey, M. W. (2001). Praktische Meta-Analyse. Tausend Eichen: Weiser-Veröffentlichungen. Internationale Standardbuchnummer 0-7619-2168-0
  • O'Rourke, K. (2007) Gerade die Geschichte vom Kombinieren der Information: Das Nachforschen und Synthetisieren, was vielleicht in klinischen Beobachtungen oder Studien über die Wahrscheinlichkeit üblich ist. Oxford: Universität Oxfords, Abteilung der Statistik. Gibt technisches Hintergrundmaterial und Details auf "Eine historische Perspektive auf der Meta-Analyse" in den Verweisungen zitiertes Papier.
  • Owen, A. B. (2009). "Die wieder besuchte Meta-Analyse von Karl Pearson". Annalen der Statistik, 37 (6B), 3867-3892. Ergänzender Bericht.
  • Ellis, Paul D. (2010). Das Wesentliche Handbuch zu Wirkungsgrößen: Eine Einführung in die Statistische Macht, Meta-Analyse und die Interpretation von Forschungsergebnissen. Das Vereinigte Königreich: Universität von Cambridge Presse. Internationale Standardbuchnummer 0-521-14246-6
  • Bonett, D.G. (2009). Meta-analytische Zwischenraum-Bewertung für standardisierte und unstandardisierte Mittelunterschiede, Psychologische Methoden, 14, 225-238.

Links

,

Software

ist

Rivendell / Adam unerbittliche Leben!
Impressum & Datenschutz