Statistik

Statistik ist die Studie der Sammlung, Organisation, Analyse und Interpretation von Daten. Es befasst sich mit allen Aspekten davon, einschließlich der Planung der Datenerfassung in Bezug auf das Design von Überblicken und Experimenten.

Ein Statistiker ist jemand, der besonders in den für die erfolgreiche Anwendung der statistischen Analyse notwendigen Denkarten gut versiert ist. Solche Leute haben häufig diese Erfahrung durch das Arbeiten in einigen einer breiten Zahl von Feldern gewonnen. Es gibt auch genannte mathematische Statistik einer Disziplin, die Statistik mathematisch studiert.

Die Wortstatistik, wenn sie sich auf die wissenschaftliche Disziplin bezieht, ist einzigartig, weil in der "Statistik eine Kunst ist." Das sollte mit dem statistischen Wort nicht verwirrt sein, sich auf eine Menge (solcher als bösartig oder mittler) berechnet von einer Reihe von Daten beziehend, deren Mehrzahl-Statistik ist ("das statistisch scheint falsch", oder "diese Statistiken verführen").

Spielraum

Einige denken, dass Statistik ein mathematischer Körper der Wissenschaft ist, die der Sammlung, Analyse, Interpretation oder Erklärung und Präsentation von Daten gehört, während andere es als einen Zweig der Mathematik betroffen mit dem Sammeln und der Interpretation von Daten betrachten. Wegen seiner empirischen Wurzeln und seines Fokus auf Anwendungen, wie man gewöhnlich betrachtet, ist Statistik eine verschiedene mathematische Wissenschaft aber nicht ein Zweig der Mathematik. Viele Statistiken sind nichtmathematisch: Das Sicherstellen, dass Datenerfassung in einem Weg übernommen wird, der gültigen Beschlüssen erlaubt, gezogen zu werden; das Codieren und das Archivieren Daten, so dass Information behalten und nützlich für internationale Vergleiche der offiziellen Statistik gemacht wird; der Bericht von Ergebnissen und zusammengefassten Daten (Tische und Graphen) auf Weisen, die zu denjenigen verständlich sind, die von ihnen Gebrauch machen müssen; das Einsetzen von Verfahren, die die Gemütlichkeit der Volkszählungsinformation sichern.

Statistiker verbessern die Qualität von Daten mit dem Design von Experimenten und Überblick-Stichprobenerhebung. Statistik stellt auch Werkzeuge für die Vorhersage zur Verfügung und das Verwenden von Daten und statistischen Modellen voraussagend. Statistik ist auf ein großes Angebot an akademischen Disziplinen, einschließlich Naturwissenschaften und Sozialwissenschaften, Regierung und Geschäfts anwendbar. Statistische Berater sind verfügbar, um Hilfe für Organisationen und Gesellschaften ohne direkten Zugang zum für ihre besonderen Probleme wichtigen Gutachten zur Verfügung zu stellen.

Statistische Methoden können verwendet werden, um eine Datenerfassung zusammenzufassen oder zu beschreiben; das wird beschreibende Statistik genannt. Das ist in der Forschung nützlich, wenn es die Ergebnisse von Experimenten mitteilt. Außerdem können Muster in den Daten in einem Weg modelliert werden, der für Zufälligkeit und Unklarheit in den Beobachtungen verantwortlich ist, und dann verwendet wird, um Schlussfolgerungen über den Prozess oder die Bevölkerung zu ziehen, die wird studiert; das wird zu folgernde Statistik genannt. Schlussfolgerung ist ein Lebenselement des wissenschaftlichen Fortschritts, da es ein Mittel zur Verfügung stellt, um Schlüsse aus Daten zu ziehen, die der zufälligen Schwankung unterworfen sind. Um die Vorschläge zu beweisen, die weiter untersuchen werden, werden die Beschlüsse ebenso als ein Teil der wissenschaftlichen Methode geprüft. Beschreibende Statistik und Analyse der neuen Daten neigen dazu, mehr Auskunft betreffs der Wahrheit des Vorschlags zu geben.

Beschreibende Statistik und die Anwendung der zu folgernden Statistik (a.k.a. prophetische Statistik) zusammen umfassen angewandte Statistik. Theoretische Statistik betrifft beide die logischen Argumente, die Rechtfertigung von Annäherungen an die statistische Schlussfolgerung ebenso unterliegen, mathematische Statistik umfassend. Mathematische Statistik schließt nicht nur die Manipulation des Wahrscheinlichkeitsvertriebs ein, der notwendig ist, um Ergebnisse abzuleiten, die mit Methoden der Bewertung und Schlussfolgerung, sondern auch verschiedenen Aspekte der rechenbetonten Statistik und des Designs von Experimenten verbunden sind.

Statistik ist nah mit der Wahrscheinlichkeitstheorie verbunden, mit der sie häufig gruppiert wird; der Unterschied ist grob, dass in der Wahrscheinlichkeitstheorie man von den gegebenen Rahmen einer Gesamtbevölkerung anfängt, Wahrscheinlichkeiten abzuleiten, die Proben, aber statistischen Interferenzbewegungen in der entgegengesetzten Richtung, induktiven Schlussfolgerung von Proben bis die Rahmen einer größeren oder ganzen Bevölkerung gehören.

Geschichte

Das frühste Schreiben auf der Statistik wurde in einem betitelten Buch des 9. Jahrhunderts gefunden: "Manuskript bei der Entzifferung Kryptografischer Nachrichten", geschrieben von Al-Kindi (801-873 CE). In seinem Buch hat Al-Kindi ein Detaillieren dessen gegeben, wie man Statistik und Frequenzanalyse verwendet, um encrypted Nachrichten zu entziffern, war das die Geburt sowohl der Statistik als auch cryptanalysis gemäß Ibrahim Al-Kadi.

Einige Gelehrte stellen den Ursprung der Statistik bis 1663 mit der Veröffentlichung von Natürlichen und Politischen Beobachtungen laut der Rechnungen der Sterblichkeit durch John Graunt genau fest. Frühe Anwendungen des statistischen Denkens haben um die Bedürfnisse nach Staaten gekreist, Politik auf demografische und wirtschaftliche Daten, folglich seine stat-Etymologie zu stützen. Das Spielraum der Disziplin der Statistik hat sich am Anfang des 19. Jahrhunderts verbreitert, um die Sammlung und Analyse von Daten im Allgemeinen einzuschließen. Heute wird Statistik in der Regierung, dem Geschäft, und den Naturwissenschaften und den Sozialwissenschaften weit verwendet.

Seine mathematischen Fundamente wurden im 17. Jahrhundert mit der Entwicklung der Wahrscheinlichkeitstheorie von Blaise Pascal und Pierre de Fermat gelegt. Wahrscheinlichkeitstheorie ist aus der Studie von Glücksspielen entstanden. Die Methode von kleinsten Quadraten wurde zuerst von Carl Friedrich Gauss 1794 beschrieben. Der Gebrauch von modernen Computern hat groß angelegte statistische Berechnung beschleunigt, und hat auch mögliche neue Methoden gemacht, die unpraktisch sind, um manuell zu leisten.

Übersicht

In der Verwendung der Statistik zu einem wissenschaftlichen, industriellen oder gesellschaftlichen Problem ist es notwendig, mit einer Bevölkerung oder Prozess zu beginnen, studiert zu werden. Bevölkerungen können verschiedene Themen wie "alle Personen sein, die in einem Land" oder "jedem Atom leben, das einen Kristall zusammensetzt". Eine Bevölkerung kann auch aus Beobachtungen eines Prozesses in verschiedenen Zeiten mit den Daten von jeder Beobachtung zusammengesetzt werden, die als ein verschiedenes Mitglied der gesamten Gruppe dient. Über diese Art "der Bevölkerung" gesammelte Daten setzen ein, was eine Zeitreihe genannt wird.

Aus praktischen Gründen hat eine gewählte Teilmenge der Bevölkerung gerufen eine Probe wird — im Vergleich mit dem Kompilieren von Daten über die komplette Gruppe (eine Operation genannt Volkszählung) studiert. Sobald eine Probe, die die Bevölkerung vertretend ist, bestimmt wird, werden Daten für die Beispielmitglieder in einer experimentellen oder Beobachtungseinstellung gesammelt. Das Daten kann dann der statistischen Analyse unterworfen werden, zwei zusammenhängenden Zwecken dienend: Beschreibung und Schlussfolgerung.

  • Beschreibende Statistik fasst die Bevölkerungsdaten durch das Beschreiben zusammen, was in der Probe numerisch oder grafisch beobachtet wurde. Numerische Deskriptoren schließen Mittel- und Standardabweichung für dauernde Datentypen ein (wie Höhen oder Gewichte), während Frequenz und Prozentsatz nützlicher sind, in Bezug auf kategorische Daten (wie Rasse) zu beschreiben.
  • Zu folgernde Statistik verwendet Muster in den Beispieldaten, um Schlussfolgerungen über die vertretene Bevölkerung zu ziehen, für Zufälligkeit verantwortlich seiend. Diese Schlussfolgerungen können die Form annehmen: das Antworten auf ja/no Fragen über die Daten (Hypothese-Prüfung), das Schätzen numerischer Eigenschaften der Daten (Bewertung), das Beschreiben von Vereinigungen innerhalb der Daten (Korrelation) und das Modellieren von Beziehungen innerhalb der Daten (zum Beispiel, mit der Regressionsanalyse). Schlussfolgerung kann sich bis zu die Vorhersage, Vorhersage und Bewertung von unbemerkten Werten entweder in oder vereinigt mit der Bevölkerung ausstrecken, die wird studiert; es kann Extrapolation und Interpolation der Zeitreihe oder Raumdaten einschließen, und kann auch Datenbergwerk einschließen.

Das Konzept der Korrelation ist für die potenzielle Verwirrung besonders beachtenswert, die es verursachen kann. Die statistische Analyse einer Datei offenbart häufig, dass zwei Variablen (Eigenschaften) der Bevölkerung unter der Rücksicht dazu neigen, sich zusammen zu ändern, als ob sie verbunden wurden. Zum Beispiel könnte eine Studie des jährlichen Einkommens, das auch auf das Alter des Todes schaut, finden, dass arme Leute dazu neigen, kürzere Leben zu haben, als reichliche Leute. Wie man sagt, werden die zwei Variablen aufeinander bezogen; jedoch können sie oder können nicht die Ursache von einander sein. Die Korrelationsphänomene konnten durch ein Drittel, vorher unberücksichtigtes Phänomen verursacht werden, hat eine versteckte Variable oder Verwechseln-Variable genannt. Deshalb gibt es keine Weise, die Existenz einer kausalen Beziehung zwischen den zwei Variablen sofort abzuleiten. (Sieh, dass Korrelation Verursachung nicht einbezieht.)

Für eine Probe, die als ein Handbuch zu einer kompletten Bevölkerung zu verwenden ist, ist es wichtig, dass es aufrichtig ein Vertreter dieser gesamten Bevölkerung ist. Vertretende Stichprobenerhebung versichert, dass die Schlussfolgerungen und Beschlüsse von der Probe bis die Bevölkerung als Ganzes sicher erweitert werden können. Ein Hauptproblem liegt in der Bestimmung des Ausmaßes, in dem die gewählte Probe wirklich vertretend ist. Statistik bietet Methoden an, zu schätzen und für jeden zufälligen trending innerhalb der Probe und Datenerfassungsverfahren zu korrigieren. Es gibt auch Methoden des Versuchsplanes für Experimente, die diese Probleme am Anfang von einer Studie vermindern können, seine Fähigkeit stärkend, Wahrheiten über die Bevölkerung wahrzunehmen.

Zufälligkeit wird mit der mathematischen Disziplin der Wahrscheinlichkeitstheorie studiert. Wahrscheinlichkeit wird in der "mathematischen Statistik" (wechselweise, "statistische Theorie") verwendet, um den ausfallenden Vertrieb der Beispielstatistik und, mehr allgemein, die Eigenschaften von statistischen Verfahren zu studieren. Der Gebrauch jeder statistischen Methode ist gültig, wenn das System oder die Bevölkerung unter der Rücksicht die Annahmen der Methode befriedigen.

Der Missbrauch der Statistik kann feine aber ernste Fehler in der Beschreibung und Interpretation — fein im Sinn erzeugen, der sogar Fachleuten erfahren hat, machen solche Fehler, und ernst im Sinn, dass sie zu verheerenden Entscheidungsfehlern führen können. Zum Beispiel mögen Sozialpolitik, medizinische Praxis und die Zuverlässigkeit von Strukturen Brücken alle verlassen sich auf den richtigen Gebrauch der Statistik. Sieh unten für die weitere Diskussion.

Selbst wenn statistische Techniken richtig angewandt werden, können die Ergebnisse schwierig sein, für diejenigen zu dolmetschen, die an Gutachten Mangel haben. Die statistische Bedeutung einer Tendenz in den Daten — der das Ausmaß misst, in dem eine Tendenz durch die zufällige Schwankung in der Probe verursacht werden konnte — kann oder kann mit keinem intuitiven Sinn seiner Bedeutung übereinstimmen. Der Satz von grundlegenden statistischen Sachkenntnissen (und Skepsis), dass sich Leute mit Information in ihren täglichen Leben richtig befassen müssen, wird statistische Lese- und Schreibkundigkeit genannt.

Statistische Methoden

Experimentelle und Beobachtungsstudien

Ein gemeinsames Ziel für ein statistisches Forschungsprojekt ist, Kausalität zu untersuchen, und insbesondere einen Schluss auf der Wirkung von Änderungen in den Werten von Propheten oder unabhängigen Variablen auf abhängigen Variablen oder Antwort zu ziehen. Es gibt zwei Haupttypen von kausalen statistischen Studien: experimentelle Studien und Beobachtungsstudien. In beiden Typen von Studien wird die Wirkung von Unterschieden einer unabhängigen Variable (oder Variablen) auf dem Verhalten der abhängigen Variable beobachtet. Der Unterschied zwischen den zwei Typen liegt darin, wie die Studie wirklich geführt wird. Jeder kann sehr wirksam sein.

Eine experimentelle Studie ist mit Einnahme-Maßen des Systems unter der Studie, Manipulierung des Systems und dann Einnahme von zusätzlichen Maßen mit demselben Verfahren verbunden, um zu bestimmen, ob die Manipulation die Werte der Maße modifiziert hat. Im Gegensatz ist eine Beobachtungsstudie mit experimenteller Manipulation nicht verbunden. Statt dessen werden Daten gesammelt, und Korrelationen zwischen Propheten und Antwort werden untersucht.

Experimente

Die grundlegenden Schritte eines statistischen Experimentes sind:

  1. Die Planung der Forschung, einschließlich der Entdeckung der Zahl dessen wiederholt von der Studie mit der folgenden Information: einleitende Schätzungen bezüglich der Größe von Behandlungseffekten, alternativen Hypothesen und der geschätzten experimentellen Veränderlichkeit. Die Rücksicht der Auswahl an experimentellen Themen und der Ethik der Forschung ist notwendig. Statistiker empfehlen, dass Experimente (mindestens) eine neue Behandlung mit einer Standardbehandlung oder Kontrolle vergleichen, um eine unvoreingenommene Schätzung des Unterschieds in Behandlungseffekten zu erlauben.
  2. Design von Experimenten, mit blockierend, um den Einfluss zu reduzieren, Variablen und randomized Anweisung von Behandlungen zu Themen zu verwechseln, um unvoreingenommene Schätzungen von Behandlungseffekten und experimentellem Fehler zu erlauben. In dieser Bühne schreiben die Experimentatoren und Statistiker das experimentelle Protokoll, das die Leistung des Experimentes führen soll und das die primäre Analyse der experimentellen Angaben angibt.
  3. Das Durchführen des Experimentes im Anschluss an das experimentelle Protokoll und das Analysieren der Daten im Anschluss an das experimentelle Protokoll.
  4. Weiter die Datei in sekundären Analysen untersuchend, um neue Hypothesen für die zukünftige Studie anzudeuten.
  5. Das Dokumentieren und das Präsentieren der Ergebnisse der Studie.

Experimente auf dem menschlichen Verhalten haben spezielle Sorgen. Die berühmte Studie von Hawthorne hat Änderungen zum Arbeitsumfeld am Werk von Hawthorne von Western Electric Company untersucht. Die Forscher haben sich für die Bestimmung interessiert, ob vergrößerte Beleuchtung die Produktivität der Montageband-Arbeiter vergrößern würde. Die Forscher haben zuerst die Produktivität im Werk gemessen, haben dann die Beleuchtung in einem Gebiet des Werks modifiziert und haben überprüft, ob die Änderungen in der Beleuchtung Produktivität betroffen haben. Es hat sich herausgestellt, dass sich Produktivität tatsächlich (unter den experimentellen Bedingungen) verbessert hat. Jedoch wird die Studie heute für Fehler in experimentellen Verfahren, spezifisch für den Mangel an einer Kontrollgruppe und Blindheit schwer kritisiert. Die Hawthorne Wirkung bezieht sich auf die Entdeckung, dass sich ein Ergebnis (in diesem Fall, Arbeiter-Produktivität) wegen der Beobachtung selbst geändert hat. Diejenigen in der Studie von Hawthorne sind produktiver geworden, nicht weil die Beleuchtung geändert wurde, aber weil sie beobachtet wurden.

Beobachtungsstudie

Ein Beispiel einer Beobachtungsstudie ist dasjenige, das die Korrelation zwischen Rauchen und Lungenkrebs erforscht. Dieser Typ der Studie verwendet normalerweise einen Überblick, um Beobachtungen über das Gebiet von Interesse zu sammeln, und führt dann statistische Analyse durch. In diesem Fall würden die Forscher Beobachtungen sowohl von Rauchern als auch von Nichtrauchern vielleicht durch eine Studie der Fall-Kontrolle sammeln, und dann nach der Zahl von Fällen des Lungenkrebses in jeder Gruppe suchen.

Niveaus des Maßes

Es gibt vier Hauptniveaus des in der Statistik verwendeten Maßes: nominell, Ordnungs-, Zwischenraum und Verhältnis. Jeder dieser

haben Sie verschiedene Grade der Nützlichkeit in der statistischen Forschung. Verhältnis-Maße haben sowohl einen bedeutungsvollen Nullwert als auch die Entfernungen zwischen verschiedenen definierten Maßen; sie stellen die größte Flexibilität in statistischen Methoden zur Verfügung, die verwendet werden können, für die Daten zu analysieren. Zwischenraum-Maße haben bedeutungsvolle Entfernungen zwischen definierten Maßen, aber der Nullwert ist (als im Fall mit der Länge und den Temperaturmaßen im Celsius- oder Fahrenheit) willkürlich. Ordnungsmaße haben ungenaue Unterschiede zwischen Konsekutivwerten, aber haben eine bedeutungsvolle Ordnung zu jenen Werten. Nominelle Maße haben keine bedeutungsvolle Reihe-Ordnung unter Werten.

Weil Variablen, die sich nur nominellen oder Ordnungsmaßen anpassen, numerisch nicht vernünftig gemessen werden können, manchmal werden sie zusammen als kategorische Variablen gruppiert, wohingegen Verhältnis und Zwischenraum-Maße zusammen als quantitative Variablen gruppiert werden, die entweder getrennt oder, wegen ihrer numerischen Natur dauernd sein können.

Schlüsselbegriffe in der Statistik gebraucht

Ungültige Hypothese

Die Interpretation der statistischen Information kann häufig die Entwicklung einer ungültigen Hypothese einschließen, in der die Annahme ist, dass, was auch immer vorgeschlagen wird, weil eine Ursache keine Wirkung auf die Variable hat, die wird misst.

Die beste Illustration für einen Anfänger ist die durch ein Schwurgerichtsverfahren gestoßene Kategorie. Die ungültige Hypothese, H, behauptet, dass der Angeklagte unschuldig ist, wohingegen die alternative Hypothese, H, behauptet, dass der Angeklagte schuldig ist. Die Anklage kommt wegen des Verdachts der Schuld. Der H (Status quo) steht entgegen H und wird aufrechterhalten, wenn H durch Beweise "außer angemessenen Zweifeln" nicht unterstützt wird. Jedoch "bezieht Misserfolg, H zurückzuweisen", in diesem Fall Unschuld, aber bloß nicht ein, dass die Beweise ungenügend waren, um zu verurteilen. So akzeptiert die Jury H nicht notwendigerweise, aber scheitert, H zurückzuweisen. Während man keine ungültige Hypothese "beweisen" kann, kann man prüfen, wie nahe es dazu ist, wahr mit einem Macht-Test zu sein, der für Fehler des Typs II prüft.

Fehler

Wenn man

aus einer ungültigen Hypothese arbeitet, werden zwei grundlegende Formen des Fehlers anerkannt:

  • Fehler des Typs I, wo die ungültige Hypothese falsch zurückgewiesen wird, "falsch positiv" gebend.
  • Fehler des Typs II, wo die ungültige Hypothese scheitert, zurückgewiesen zu werden, und ein wirklicher Unterschied zwischen Bevölkerungen, werden verpasst, eine "falsche Verneinung" gebend.

Fehler bezieht sich auch auf das Ausmaß, in dem sich individuelle Beobachtungen in einer Probe von einem Hauptwert, wie die Probe oder bösartige Bevölkerung unterscheiden. Viele statistische Methoden bemühen sich, den mittel Fehler zu minimieren, und diese werden "Methoden von kleinsten Quadraten genannt."

Maß-Prozesse, die statistische Daten erzeugen, sind auch dem Fehler unterworfen. Viele dieser Fehler werden als zufälliger (Geräusch-) oder systematisch (Neigung) klassifiziert, aber andere wichtige Typen von Fehlern (z.B, Fehler, solcher als, wenn ein Analytiker falsche Einheiten meldet) können auch wichtig sein.

Zwischenraum-Bewertung

Die meisten Studien werden nur Beispielteil einer Bevölkerung, und so sind die Ergebnisse die ganze Bevölkerung nicht völlig vertretend. Irgendwelche Schätzungen, die bei der Probe nur erhalten sind, kommen dem Bevölkerungswert näher. Vertrauensintervalle erlauben Statistikern auszudrücken, wie nah die Beispielschätzung den wahren Wert in der ganzen Bevölkerung vergleicht. Häufig werden sie als 95-%-Vertrauensintervalle ausgedrückt. Formell ist ein 95-%-Vertrauensintervall für einen Wert eine Reihe, wo, wenn die Stichprobenerhebung und Analyse unter denselben Bedingungen wiederholt wurden (einen verschiedenen dataset nachgebend), der Zwischenraum das wahre (Bevölkerung) Wert 95 % der Zeit einschließen würde. Das deutet nicht an, dass die Wahrscheinlichkeit, dass der wahre Wert im Vertrauensintervall ist, 95 % ist. Von der frequentist Perspektive hat solch ein Anspruch Sinn nicht sogar, weil der wahre Wert nicht eine zufällige Variable ist. Entweder der wahre Wert ist oder ist nicht innerhalb des gegebenen Zwischenraums. Jedoch ist es wahr, dass bevor irgendwelche Daten probiert und ein Plan dafür gegeben werden, wie das Vertrauensintervall gebaut wird, ist die Wahrscheinlichkeit 95 %, die noch, um berechneter Zwischenraum zu sein, den wahren Wert bedecken werden: An diesem Punkt sollen die Grenzen des Zwischenraums noch zufällige Variablen beobachtet werden. Eine Annäherung, die wirklich einen Zwischenraum nachgibt, der interpretiert werden kann als, eine gegebene Wahrscheinlichkeit zu haben, den wahren Wert zu enthalten, soll einen glaubwürdigen Zwischenraum von der Statistik von Bayesian verwenden: Diese Annäherung hängt von von einer verschiedenen Weise ab zu interpretieren, was durch "die Wahrscheinlichkeit" gemeint wird, die als eine Wahrscheinlichkeit von Bayesian ist.

Bedeutung

Statistiken geben selten eine einfache Typ-Antwort Yes/No auf die Frage hat von ihnen gefragt. Interpretation läuft häufig auf das Niveau der statistischen Bedeutung hinaus, die auf die Zahlen angewandt ist, und bezieht sich häufig auf die Wahrscheinlichkeit eines Werts, der genau die ungültige Hypothese (manchmal gekennzeichnet als der P-Wert) zurückweist.

Mit Bezug auf die statistische Bedeutung bedeutet nicht notwendigerweise, dass das Gesamtergebnis in echten Weltbegriffen bedeutend ist. Zum Beispiel in einer großen Studie eines Rauschgifts kann es gezeigt werden, dass das Rauschgift eine statistisch bedeutende, aber sehr kleine vorteilhafte Wirkung, solch hat, dass das Rauschgift kaum dem Patienten auf eine erkennbare Weise helfen wird.

Beispiele

Einige wohl bekannte statistische Tests und Verfahren sind:

  • Analyse der Abweichung (ANOVA)
  • Chi-karierter Test
  • Korrelation
  • Faktorenanalyse
  • Mann-Whitney U
  • Mean Square hat Abweichung beschwert (MSWD)
  • Produktmoment-Korrelationskoeffizient von Pearson
  • Regressionsanalyse
  • Der Rangkorrelationskoeffizient von Spearman
  • Der T-Test des Studenten
  • Zeitreihe-Analyse

Spezialdisziplinen

Statistische Techniken werden in einer breiten Reihe von Typen der wissenschaftlichen und sozialen Forschung verwendet, einschließlich: biostatistics, rechenbetonte Biologie, rechenbetonte Soziologie, Netzbiologie, Sozialwissenschaft, Soziologie und soziale Forschung. Einige Felder der Untersuchung verwenden angewandte Statistik so umfassend, dass sie Fachsprache spezialisiert haben. Diese Disziplinen schließen ein:

,

Außerdem gibt es besondere Typen der statistischen Analyse, die auch ihre eigene Spezialfachsprache und Methodik entwickelt haben:

  • Stiefelstrippe & Klappmesser, das wiederausfällt
  • Statistik von Multivariate
  • Statistische Klassifikation
  • Statistische Überblicke
  • Strukturierte Datenanalyse (Statistik)
  • Strukturgleichung, modellierend
  • Überleben-Analyse
  • Statistik in verschiedenen Sportarten, besonders Baseball und Kricket

Statistiken bilden ein Schlüsselbasiswerkzeug im Geschäft und ebenso verfertigend. Es wird verwendet, um Maß-Systemveränderlichkeit, Kontrollprozesse (als in der statistischen Prozesssteuerung oder SPC) zu verstehen, um Daten zusammenzufassen, und datengesteuerte Entscheidungen zu treffen. In diesen Rollen ist es ein Schlüsselwerkzeug, und vielleicht das einzige zuverlässige Werkzeug.

Statistische Computerwissenschaft

Die schnellen und anhaltenden Zunahmen in der Rechenmacht, die aus der zweiten Hälfte des 20. Jahrhunderts anfängt, haben einen wesentlichen Einfluss auf die Praxis der statistischen Wissenschaft gehabt. Früh waren statistische Modelle fast immer von der Klasse von geradlinigen Modellen, aber starke Computer, die mit passenden numerischen Algorithmen verbunden sind, haben ein vergrößertes Interesse an nichtlinearen Modellen (wie Nervennetze) sowie die Entwicklung von neuen Typen, wie verallgemeinerte geradlinige Modelle und Mehrniveau-Modelle verursacht.

Vergrößerte Rechenmacht hat auch zur wachsenden Beliebtheit rechenbetont intensiver Methoden geführt, die auf der Wiederstichprobenerhebung, wie Versetzungstests und die Stiefelstrippe gestützt sind, während Techniken wie Gibbs, der ausfällt, von mehr ausführbaren Modellen von Bayesian Gebrauch gemacht haben. Die Computerrevolution hat Implikationen für die Zukunft der Statistik mit der neuen Betonung auf "der experimentellen" und "empirischen" Statistik. Eine Vielzahl sowohl des allgemeinen als auch speziellen Zwecks statistische Software ist jetzt verfügbar.

Missbrauch

Es gibt eine allgemeine Wahrnehmung, dass statistische Kenntnisse allzu oft durch die Entdeckung von Weisen absichtlich missbraucht werden, nur die Daten zu interpretieren, die dem Moderator günstig sind. Ein Misstrauen und Missverständnis der Statistik werden mit dem Kostenvoranschlag vereinigt, "Es gibt drei Arten von Lügen: Liegt, verdammt, liegt und Statistik".

Wenn verschiedene Studien scheinen, einander zu widersprechen, dann kann das Publikum kommen, um solchen Studien zu misstrauen. Zum Beispiel kann eine Studie darauf hinweisen, dass eine gegebene Diät oder Tätigkeit Blutdruck erheben, während ein anderer vorschlagen kann, dass es Blutdruck senkt. Die Diskrepanz kann aus feinen Schwankungen im Versuchsplan, wie Unterschiede in den geduldigen Gruppen oder Forschungsprotokollen entstehen, die vom Nichtexperten nicht leicht verstanden werden. (Mediaberichte lassen gewöhnlich diese Lebenskontextinformation völlig wegen seiner Kompliziertheit weg.)

Durch die Auswahl (oder Zurückweisung oder das Ändern) einer bestimmten Probe können Ergebnisse manipuliert werden. Solche Manipulationen brauchen nicht böswillig oder gewunden zu sein; sie können aus unbeabsichtigten Neigungen des Forschers entstehen. Die Graphen, die verwendet sind, um Daten zusammenzufassen, können auch irreführend sein.

Tiefere Kritiken kommen aus der Tatsache, dass die Hypothese, die Annäherung, weit verwendet und in vielen Fällen prüft, die durch das Gesetz oder die Regulierung erforderlich sind, eine Hypothese (die ungültige Hypothese) zwingt, "bevorzugt" zu werden, und auch scheinen kann, die Wichtigkeit von geringen Unterschieden in großen Studien zu übertreiben. Ein Unterschied, der hoch statistisch bedeutend ist, kann noch keiner praktischen Bedeutung sein. (Sieh Kritik der Hypothese-Prüfung und Meinungsverschiedenheit über die ungültige Hypothese.)

Eine Antwort ist durch das Geben einer größeren Betonung auf dem P-Wert als das einfache Melden, ob eine Hypothese am gegebenen Niveau der Bedeutung zurückgewiesen wird. Der P-Wert zeigt jedoch die Größe der Wirkung nicht an. Ein anderer zunehmend einheitliche Methode soll Vertrauensintervalle melden. Obwohl diese von denselben Berechnungen wie diejenigen von Hypothese-Tests oder P-Werten erzeugt werden, beschreiben sie sowohl die Größe der Wirkung als auch die Unklarheit, die es umgibt.

Statistik hat für die Mathematik oder die Künste gegolten

Traditionell ist Statistik mit Zeichnungsschlussfolgerungen mit einer halbstandardisierten Methodik beschäftigt gewesen, die "erforderlich war", in den meisten Wissenschaften erfahrend. Das hat sich mit dem Gebrauch der Statistik in zu nichtfolgernden Zusammenhängen geändert. Was einmal als ein trockenes Thema betrachtet wurde, das in vielen Feldern als eine Grad-Voraussetzung genommen ist, wird jetzt enthusiastisch angesehen. Am Anfang verlacht von einigen mathematischen Puristen wird es jetzt als wesentliche Methodik in bestimmten Gebieten betrachtet.

  • In der Zahlentheorie können Streuungsanschläge von durch eine Vertriebsfunktion erzeugten Daten mit vertrauten in der Statistik verwendeten Werkzeugen umgestaltet werden, um zu Grunde liegende Muster zu offenbaren, die dann zu Hypothesen führen können.
  • Methoden der Statistik einschließlich prophetischer Methoden in der Vorhersage, werden mit der Verwirrungstheorie und fractal Geometrie verbunden, um Videoarbeiten zu schaffen, die, wie man betrachtet, große Schönheit haben.
  • Die Prozess-Kunst von Jackson Pollock hat sich auf künstlerische Experimente verlassen, wodurch der zu Grunde liegende Vertrieb in der Natur künstlerisch offenbart wurde. Mit dem Advent von Computern wurden Methoden der Statistik angewandt, um solchen Vertrieb gesteuerte natürliche Prozesse zu formalisieren, um bewegende Videokunst zu machen und zu analysieren.
  • Methoden der Statistik können aussagend in der Leistungskunst, als in einem Kartenkunststück verwendet werden, das auf einem Prozess von Markov gestützt ist, der nur etwas von der Zeit arbeitet, deren Gelegenheit mit der statistischen Methodik vorausgesagt werden kann.
  • Statistik kann verwendet werden, um Kunst, als in der statistischen oder stochastischen von Iannis Xenakis erfundenen Musik aussagend zu schaffen, wo die Musik mit der Leistung spezifisch ist. Obwohl dieser Typ des Künstlertums, wie erwartet, nicht immer herauskommt, benimmt es sich wirklich auf Weisen, die voraussagbare und stimmbare Verwenden-Statistik sind.

Siehe auch

  • Wörterverzeichnis der Wahrscheinlichkeit und Statistik
  • Notation in der Wahrscheinlichkeit und Statistik
  • Liste von Statistikartikeln
  • Liste von akademischen statistischen Vereinigungen
  • Liste von nationalen und internationalen statistischen Dienstleistungen
  • Liste von wichtigen Veröffentlichungen in der Statistik
  • Liste von statistischen Universitätsberatenzentren
  • Liste von statistischen Paketen (Software)
  • Fundamente der Statistik
  • Offizielle Statistik
  • Liste von Statistikern

Stanley Kubrick / Schwedische Sprache
Impressum & Datenschutz