Stochastik in der Schule - Online-Archiv
 

Band 22 Heft 2: Gerhard König: Bibliographische Rundschau

Bigalke, Anton; Köhler, Norbert (Hrsg.): Mathematik 13.1, Grundkurs Berlin: Cornelsen, 2001
Lehrbuch zu den Themen: Grundlagen der Wahrscheinlichkeitsrechnung, Bedingte Wahrscheinlichkeiten, Zufallsgrößen, Binomialverteilung, Testen von Hypothesen. Der Text wird in einem zweispaltigen Druckformat angeboten, wobei Lehrtexte und Lösungsstrukturen links angeordnet sind, Beweisdetails, Skizzen und Rechnungen dagegen meist rechts. Wichtige Methoden und Begriffe werden auf der Basis anwendungsnaher und durchgerechneter Beispiele eingeführt. Am Schluss des Schulbuches sind wichtige Formeln und Definitionen zur Stochastik neben den wichtigsten Tabellen zusammengestellt.
Bigalke, Anton; Köhler, Norbert (Hrsg.): Mathematik 13.1, Leistungskurs Berlin: Cornelsen, 2001
Lehrbuch zu den Themen: Grundlagen der Wahrscheinlichkeitsrechnung, Bedingte Wahrscheinlichkeiten, Zufallsgrößen, Binomialverteilung, Normalverteilung, Beurteilende Statistik, Testen von Hypothesen. Der Text wird in einem zweispaltigen Druckformat angeboten, wobei Lehrtexte und Lösungsstrukturen links angeordnet sind, Beweisdetails, Skizzen und Rechnungen dagegen meist rechts. Wichtige Methoden und Begriffe werden auf der Basis anwendungsnaher und durchgerechneter Beispiele eingeführt. Am Schluss des Schulbuches sind wichtige Formeln und Definitionen zur Stochastik neben den wichtigsten Tabellen zusammengestellt.
Dufner, Julius; Jensen, Uwe; Schumacher, Erich: Statistik mit SAS Stuttgart: Teubner, 2002 (2., völlig neu bearbeitete Auflage)
Nach einer Einführung in SAS (Statistical Analysis System) an Beispielen der beschreibenden Statistik werden grundlegende Verfahren und einige fortgeschrittene statistische Methoden betrachtet. Die zu Grunde liegenden Modelle werden formuliert und deren praktische Durchführung mittels SAS an Beispielen demonstriert. Besonderer Wert wird auf die statistische Interpretation des Outputs gelegt.
Kestler, Franz: Abi-Countdown Wahrscheinlichkeitsrechnung Leistungskurs München: Manz, 2001 (3., aktualisierte Auflage)
Lernhilfe zur Abi-Vorbereitung mit kurzer Wiederholung der Definitionen und Sätze und Aufgaben zur Vertiefung des Verständnisses und zum Festigen des Wissens. Ferner: Originalaufgaben aus Klausuren sowie ein "Testabitur". Zu den Übungsaufgaben gibt es ausführliche Lösungswege zur selbständigen Leistungskontrolle.
Köller, Olaf; Watermann, Rainer; Baumert, Jürgen: Skalierung der Leistungstests in PISA. Deutsches PISA-Konsortium (Hrsg.): PISA 2000, Basiskompetenzen von Schülerinnen und Schülern im internationalen Vergleich. Opladen: Leske und Buderich, 2001
Wie in vergangenen internationalen Schulleistungsstudien (z.B. TIMSS) basieren die in PISA verwendeten Modelle zur Bestimmung individueller Leistungsscores auf der Item Response Theory (IRT) (vgl. Fischer&Molenaar, 1995; Hambelton&Swaminathan, 1989; Kubinger, 1989; Rost, 1996). Im Deutschen spricht man üblicherweise von der Probabilistischen Testtheorie, deren bekanntester Vertreter das Rasch-Modell (Rasch, 1960) ist. Ein Vorzug der IRT-Modelle gegenüber der Klassischen Testtheorie (Lord&Novick, 1968) liegt darin, dass sich Personen, auch wenn sie unterschiedliche Aufgaben bearbeitet haben, in ihren Leistungen auf einer gemeinsamen Skala abbilden lassen. Diese Eigenschaft ist für PISA von entscheidender Bedeutung, da das Testkonzept des Multi-Matrix Sampling vorsieht, einzelne Schüler nur relativ wenige Testaufgaben vorzugeben, gleichzeitig jedoch durch mehrere Testversionen Stoffgebiete breit abzudecken. Im Folgenden soll das in PISA verwendete Skalierungsverfahren dargestellt werden. Die Basis bildet das eindimensionale Rasch-Modell.
Meyer, Dietrich: Der Test nach Kolmogorow und Smirnow MU, Der Mathematikunterricht 48 (2002) 2, 45-61
Ein zentrales Problem der Beurteilenden Statistik ist es, zu testen, wie gut eine theoretisch angenommene Verteilung einer Grundgesamtheit mit der Wirklichkeit übereinstimmt. Häufig trifft man Annahmen über die Verteilung der Grundgesamtheit und möchte diese bestätigt oder widerlegt wissen. Wir gehen also von einem theoretischen Modell (oder mehreren) aus und entnehmen der zugrunde liegenden Grundgesamtheit eine Stichprobe. Abweichungen der Stichprobe vom Modell gibt es immer, und wir prüfen, ob diese eher zufällig oder signifikant sind. Erweist sich nämlich ein Modell als gut, so ergibt dies eine brauchbare Arbeitshypothese, mit der wir weiter arbeiten können. Andernfalls verwerfen wir das Modell. Bei diskreten Verteilungen der Grundgesamtheit verwendet man als Anpassungstest den bewährten Chi-Quadrat-Test (siehe z.B. Meyer , MU 2/1999). Bei stetigen Verteilungen ist dieser Test auch möglich, setzt aber i.a. höheren Stichprobenumfang voraus. Von den russischen Mathematikern A.N. Kolmogorow und W.I. Smirnow stammt ein Anpassungstest, der mit relativ kleinen Stichproben auskommt, und nur für stetige Verteilungen der Grundgesamtheit verwendbar ist. Dieser Test wird im Beitrag erläutert. Unterrichtliche Voraussetzungen sind Kenntnis stetiger Verteilungen wie Gleichverteilung und Gamma-Verteilungen, Dichtefunktion und (kumulative) Verteilungsfunktion, Grundlagen statistischen Testens (siehe den entsprechenden Aufsatz in diesem Heft).
Meyer, Sabine; Menge, Jan: Erwartungswert und Standardabweichung MU, Der Mathematikunterricht 48 (2002) 2, 4-8
Zum Arbeiten mit binomialverteilten Zufallsgrößen sind die Entitäten E(X) und V(X) bzw. sigma(X) unabdingbar. Während sich E(X) relativ natürlich in eine schülernormale Vorstellungswelt einpassen lässt, sperrt sich di Definition zu s(X). Hierzu werden einige Überlegungen angestellt. In jedem Fall findet man jedoch sehr selten eine Herleitung dieser wichtigen Größen für Binomialverteilungen. Für die Leistungs- und Grundkursarbeit könnte die Ausarbeitung hilfreich sein. Die dargelegte Beweisidee liegt als frei manipulierbares MS-Word-Dokument an der Internetadresse http://www.schuloffice.de zum kostenfreien Herunterladen und Benutzen vor.
Meyer, Wolfgang; Meyer, Dietrich: Elementare Testverfahren MU, Der Mathematikunterricht 48 (2002) 2, 9-22
Bevor irgendwelche Massenartikel ausgeliefert werden, müssen sie geprüft werden. Häufig ist eine totale Prüfung unmöglich, sie kann zu kostspielig sein (was dann zum Preis zugerechnet würde) oder es muss gar eine 'zerstörende Prüfung' vorgenommen werden (z.B. Testen der Lebensdauer von Batterien oder Prüfen des Metallgehalts bei Erzen). Man führt daher 'stichprobenartige' Tests durch. Mit solchen Testverfahren befasst sich dieser Artikel. Voraussetzungen sind zunächst die Binomial-, später die Gauß-Verteilung.
Meyer, Wolfgang; Meyer, Dietrich: Computereinsatz bei statistischen Testverfahren MU, Der Mathematikunterricht 48 (2002) 2, 23-31
Wenn man die Testverfahren des Aufsatzes 'Elementare Testverfahren' dieses MU-Heftes praktisch unterrichtet, zeigt sich, dass diese rechnerisch aufwendig werden können, auch bei relativ kleinen Stichproben. Nehmen wir geringfügige Änderungen vor wie z.B. geringe Stichprobenerhöhungen, Änderungen der Fehlerbedingungen oder neue Hypothesen über Parameter p, gerät die Durchführung oft zeitaufwendig. Und gerade Variationen sind reizvoll, um Stichprobenpläne zu optimieren. Aber bei zu hohem Zeitbedarf verlieren die Schüler die Lust. Und dagegen bietet sich Computereinsatz an, der im Beitrag beschrieben wird. Exemplarisch eingesetzt haben die Autoren Excel als Beispiel für Tabellenkalkulation und Mathcad als Beispiel für ein CAS-System.
Menge, Jan: Wilcoxon-Tests im Leistungskursunterricht MU, Der Mathematikunterricht 48 (2002) 2,32-44
Im Leistungsfach Stochastik werden traditionellerweise Hypothesentestverfahren behandelt. Dazu wird in der Regel die Binomialverteilung oder - für Näherungen - die Normalverteilung eingesetzt. Bereits eine Erweiterung auf andere Wahrscheinlichkeitsverteilungen findet man selten in den Schulbüchern. Dabei ist es andererseits wünschenswert, die Grundideen des Testens in ganz unterschiedlichen Zusammenhängen anzubieten, um vor allem den Anforderungsbereich Transfer bereits in unterrichtlichen Situationen verwirklichen zu können. Hier bieten sich Wilcoxon-Tests an, da sie parallele Grundgedanken der binomialen Hypothesentestsituationen an völlig anders gearteten Realsituationen ausnutzen.
Scheid, Harald: Stochastik - kurz gefasst, Grundkurs Stuttgart: Klett, 2001
Kompakte Darstellung des Stoffes zur systematischen Wiederholung ohne Aufgaben. Beispiele werden nur dort eingestreut, wo sie zum besseren Verstehen des Stoffes beitragen sollten. Besonderes Gewicht liegt auf der beschreibenden Statistik und ihren Anwendungen.
Scheid, Harald: Stochastik - kurz gefasst, Leistungskurs Stuttgart: Klett, 2001
Kompakte Darstellung des Stoffes zur systematischen Wiederholung ohne Aufgaben. Beispiele werden nur dort eingestreut, wo sie zum besseren Verstehen des Stoffes beitragen sollten. Es werden nicht nur Kernthemen eines Leistungskurses berücksichtigt, sondern auch einige in den Lehrplänen vorgeschlagenen Zusatzthemen.
Azizi Ghanbari, Sharam: Einführung in die Statistik für Sozial- und Erziehungswissenschaftler Heidelberg: Springer, 2002
Das vorliegende Lehrbuch ist nahezu ausschließlich der deskriptiven Statistik gewidmet. Inhalt: 1. Empirische Häufigkeitsverteilungen (Häufigkeit und Verteilung, in Klassen eingeteilte Merkmale, graphische Darstellungen), 2. Maßzahlen eindimensionaler Verteilungen (Lageparameter, Dispersionsparameter), 3. Maßzahlen zweidimensionaler Verteilungen (bivariate Verteilungen, Korrelation bei Intervallniveau und Ordinaleniveau, Zusammenhangsmasse nominaler Daten), 4. lineare Einfachregression (Anpassen von Kurven, Methode der kleinsten Quadrate, Regressions- und Korrelationskoeffizient, Varianz um und auf der Regressionsgeraden).
Weber, Karlheinz; Zillmer, Wolfgang: Stochastik Berlin: paetec, 2001
Lehrbuch und Schulbuch zu den Themen: Zufallsexperimente samt Einführung in den Wahrscheinlichkeitsbegriff, Gleichverteilung und Zählregeln, Bedingte Wahrscheinlichkeiten, Zufallsgrößen, Binomialverteilung und zentraler Grenzwertsatz (dazu komplexe Aufgaben und Projektideen), Testen von Hypothesen und Anwendungen aus verschiedenen Bereichen. In die Stoffdarstellung integriert ist das Nutzen von Grafikrechnern mit Computeralgebrasystemen als Hilfsmittel beim Lösen von einigen mathematischen und Anwendungsproblemen. Viele Praxisbezüge.