Vraag:
Statistische gevolgtrekking wanneer de steekproef de populatie "is"
pbneau
2010-09-13 23:35:24 UTC
view on stackexchange narkive permalink

Stel je voor dat je moet rapporteren over het aantal kandidaten dat jaarlijks een bepaalde test aflegt. Vanwege de specificiteit van de doelpopulatie lijkt het bijvoorbeeld nogal moeilijk om het geobserveerde succespercentage af te leiden van een bredere populatie. U kunt dus overwegen dat deze gegevens de hele populatie vertegenwoordigen.

Zijn de resultaten van tests die erop wijzen dat de verhoudingen tussen mannen en vrouwen echt verschillen? Lijkt een test die waargenomen en theoretische verhoudingen vergelijkt, correct, aangezien u een hele populatie beschouwt (en niet een steekproef)?

Vijf antwoorden:
ars
2010-09-14 00:30:10 UTC
view on stackexchange narkive permalink

De meningen hierover kunnen verschillen, maar ik zou de populatiegegevens als een steekproef behandelen en een hypothetische populatie aannemen, en dan op de gebruikelijke manier conclusies trekken. Een manier om hierover na te denken is dat er een onderliggend gegevensgeneratieproces is dat verantwoordelijk is voor de verzamelde gegevens, de "populatie" -verdeling.

In uw specifieke geval is dit misschien nog logischer omdat u in de toekomst cohorten zult hebben. Dan bestaat uw populatie in feite uit cohorten die de test ook in de toekomst doen. Op deze manier kunt u rekening houden met op tijd gebaseerde variaties als u gegevens van meer dan een jaar heeft, of kunt u proberen rekening te houden met latente factoren via uw foutenmodel. Kortom, u kunt rijkere modellen ontwikkelen met meer verklarende kracht.

Ik kwam net dit bericht tegen van A Gelman, * Hoe verschilt statistische analyse bij het analyseren van de hele populatie in plaats van een steekproef? *, Http://j.mp/cZ1WSI. Een goed uitgangspunt voor uiteenlopende meningen over het concept van een "superpopulatie".
@chl: interessant - herinnert me eraan dat Gelman een discussie had over eindige / superpopulatie-inferentie die vergelijkbaar is met vaste- / willekeurige effecten in zijn paper over ANOVA [http://www.stat.columbia.edu/~gelman/research/published /econanova3.pdf].
+1 Ik ben hier net weer op teruggekomen (via google). Ik denk dat je antwoord perfect is.
Joris Meys
2010-09-14 01:12:57 UTC
view on stackexchange narkive permalink

Eigenlijk, als je echt zeker weet dat je de hele populatie hebt, is het zelfs niet nodig om op statistieken in te gaan. Dan weet je precies hoe groot het verschil is, en is er geen enkele reden om het nog te testen. Een klassieke fout is het gebruik van statistische significantie als "relevante" significantie. Als u een steekproef van de populatie hebt genomen, is het verschil wat het is.

Aan de andere kant, als u uw hypothese herformuleert, kunnen de kandidaten worden gezien als een steekproef van mogelijke kandidaten, wat statistische toetsing mogelijk maakt . In dit geval zou je in het algemeen testen of mannen en vrouwen verschillen op de test die voorhanden is.

Zoals ars zei, kun je tests van meerdere jaren gebruiken en tijd als een willekeurige factor toevoegen. Maar als u echt geïnteresseerd bent in de verschillen tussen deze kandidaten op deze specifieke test, kunt u de generalisatie niet gebruiken en is testen zinloos.

Brett
2010-09-14 23:15:21 UTC
view on stackexchange narkive permalink

Traditioneel wordt statistische inferentie onderwezen in de context van kanssteekproeven en de aard van steekproeffout. Dit model vormt de basis voor de significantietoets. Er zijn echter andere manieren om systematische afwijkingen aan het toeval te modelleren en het blijkt dat onze parametrische (steekproefgebaseerde) tests doorgaans een goede benadering zijn van deze alternatieven.

Parametrische tests van hypothesen zijn gebaseerd op steekproeftheorie om schattingen van waarschijnlijke fouten te produceren. Als een steekproef van een bepaalde grootte uit een populatie wordt genomen, maakt kennis van de systematische aard van steekproeven testen en betrouwbaarheidsintervallen zinvol. Bij een populatie is de steekproeftheorie gewoon niet relevant en zijn tests niet zinvol in de traditionele zin. Inferentie is nutteloos, er valt niets af te leiden, er is gewoon het ding ... de parameter zelf.

Sommigen omzeilen dit door een beroep te doen op superpopulaties die de huidige volkstelling vertegenwoordigt. Ik vind deze oproepen niet overtuigend - parametrische tests zijn gebaseerd op kanssteekproeven en de kenmerken ervan. Een populatie op een bepaald moment kan een steekproef zijn van een grotere populatie in tijd en plaats. Ik zie echter geen enkele manier waarop men legitiem zou kunnen beweren dat dit een willekeurige (of meer in het algemeen enige vorm van een waarschijnlijkheids) steekproef is. Zonder een waarschijnlijkheidssteekproef zijn de steekproeftheorie en de traditionele logica van testen gewoonweg niet van toepassing. U kunt net zo goed testen op basis van een gemakssteekproef.

Het is duidelijk dat we, om testen te accepteren wanneer we een populatie gebruiken, de basis van die testen moeten achterwege laten bij steekproefprocedures. Een manier om dit te doen is door het nauwe verband te herkennen tussen onze steekproeftheoretische tests - zoals t, Z en F - en randomisatieprocedures. Randomisatietests zijn gebaseerd op de beschikbare steekproef. Als ik verzamel gegevens over het inkomen van mannen en vrouwen, het waarschijnlijkheidsmodel en de basis voor onze foutenschattingen zijn herhaalde willekeurige toewijzingen van de werkelijke gegevenswaarden. Ik kon waargenomen verschillen tussen groepen vergelijken met een verdeling op basis van deze randomisatie. (We doen dit trouwens de hele tijd in experimenten, waarbij de willekeurige steekproef uit een populatiemodel zelden geschikt is).

Nu blijkt dat steekproeftheoretische tests vaak goede benaderingen zijn van randomisatie testen. Dus uiteindelijk denk ik dat tests van populaties nuttig en zinvol zijn binnen dit raamwerk en kunnen helpen om systematische en toevallige variatie te onderscheiden - net als bij steekproefgebaseerde tests. De logica die wordt gebruikt om daar te komen, is een beetje anders, maar heeft niet veel invloed op de praktische betekenis en het gebruik van tests. Het kan natuurlijk beter zijn om gewoon direct randomisatie- en permutatietests te gebruiken, aangezien ze gemakkelijk beschikbaar zijn met al onze moderne rekenkracht.

+1 voor de verstandige discussie; een paar punten echter. Inferentiële machinerie is niet beschikbaar voor populatieanalyse, maar in veel gevallen van modellering zou ik me afvragen of men ooit * de * populatiegegevens heeft om mee te beginnen - vaak is het niet erg moeilijk om gaten te porren. Het is dus niet * altijd * een oproep aan een superpopulatie als middel om gevolgtrekkingen in te zetten. In plaats van "superpopulatie", is de betere manier om aan te nemen dat er gegevens worden gegenereerd die bijvoorbeeld de betreffende cohorten van jaar tot jaar testen. Dat is waar de stochastische component ontstaat.
Ik denk dat er hier geen meningsverschil is, behalve het gebrek aan inferentiële machinerie voor populatieanalyse. Randomisatietests zijn van toepassing op populaties en kunnen redelijkerwijs testen of het gegevensgeneratieproces waarschijnlijk het gevolg is van een willekeurig genererend proces versus een systematisch genererend proces. Ze gaan niet uit van willekeurige steekproeven en zijn een vrij directe test van kans versus systematische variatie. Onze traditionele tests doen het toevallig redelijk goed voor hen.
Dat is waar over: "gebrek aan inferentiële machines". Onzorgvuldige bewoordingen van mijn kant, vooral omdat ik het punt dat u maakte over randomisatietests in uw antwoord leuk vond.
Sorry. Ik heb moeite om te begrijpen hoe ik permutaties zou berekenen en welke conclusies ik ervoor kan trekken.
Is bootstrapping geen geldig alternatief?Hoe lost bootstrapping de noodzaak om een van deze aannames te maken niet op?
dca
2016-06-19 22:43:18 UTC
view on stackexchange narkive permalink

Stel dat de resultaten aangeven dat kandidaten verschillen op basis van geslacht. Het aandeel van degenen die de tests hebben voltooid, is bijvoorbeeld als volgt: 40% vrouw en 60% man. Om het voor de hand liggende te suggereren: 40% is anders dan 60%. Wat nu belangrijk is, is om te beslissen: 1) uw populatie van belang; 2) hoe uw observaties zich verhouden tot de populatie van interesse. Hier zijn enkele details over deze twee kwesties:

  1. Als uw populatie van interesse alleen de kandidaten zijn die u heeft geobserveerd (bijv. De 100 kandidaten die zich in 2016 voor een universiteit hebben aangemeld), hoeven geen statistische significantietests te rapporteren. Dit komt omdat uw populatie van interesse volledig is samengesteld ... het enige waar u om geeft, zijn de 100 kandidaten waarover u volledige gegevens heeft. Dat wil zeggen, 60% is, punt, anders dan 40%. Het soort vraag waarop dit antwoord is: waren er geslachtsverschillen in de populatie van 100 die van toepassing was op het programma? Dit is een beschrijvende vraag en het antwoord is ja.

  2. Veel belangrijke vragen gaan echter over wat er in verschillende instellingen zal gebeuren. Dat wil zeggen, veel onderzoekers willen trends over het verleden bedenken die ons helpen de toekomst te voorspellen (en vervolgens te plannen). Een voorbeeldvraag in dit verband zou zijn: hoe waarschijnlijk is het dat toekomstige tests van kandidaten verschillen naargelang het geslacht? De populatie van interesse is dan breder dan in scenario # 1 hierboven. Op dit punt is een belangrijke vraag die gesteld moet worden: zijn uw waargenomen gegevens waarschijnlijk representatief voor toekomstige trends? Dit is een inferentiële vraag, en op basis van de informatie die door de originele poster is verstrekt, is het antwoord: we weten het niet.

Kortom, welke statistieken u rapporteert, zijn afhankelijk van op het type vraag dat u wilt beantwoorden.

Nadenken over basisonderzoeksontwerp kan het nuttigst zijn (probeer hier: http://www.socialresearchmethods.net/kb/design.php). Nadenken over superpopulaties kan van pas komen als je meer geavanceerde informatie wilt (hier is een artikel dat kan helpen: http://projecteuclid.org/euclid.ss/1023798999#ui-tabs-1).

James
2010-09-14 19:58:43 UTC
view on stackexchange narkive permalink

Als je wat je meet, beschouwt als een willekeurig proces, dan zijn statistische tests inderdaad relevant. Neem bijvoorbeeld 10 keer een munt omdraaien om te zien of het eerlijk is. Je krijgt 6 koppen en 4 staarten - wat concludeer je?

Ik begrijp niet echt hoe de conclusie die u bereikte over het opgooien van een munt, verband houdt met de gestelde vraag. Misschien kun je op dat punt een beetje uitbreiden? Statistische tests lijken relevant in de mate dat ze helpen om de waargenomen resultaten af ​​te leiden voor een grotere populatie, of het nu een referentiepopulatie of een algemene populatie is. De vraag lijkt hier te zijn: gezien het feit dat de steekproef gedurende een vaste periode (hier een jaar) dicht bij de populatie van testpersonen staat, is klassieke gevolgtrekking dan de juiste manier om tot een beslissing te komen over mogelijke verschillen op individueel niveau?
@chl Ja, maar het lijkt erop dat OP probeert een onderliggende kans op succes af te leiden. De tests vergelijken de waargenomen verhoudingen met de theoretische verdeling om te bepalen of er een verschil is voor een bepaald betrouwbaarheidsniveau. U test op elke vorm van willekeur, niet alleen op willekeur bij steekproeven.


Deze Q&A is automatisch vertaald vanuit de Engelse taal.De originele inhoud is beschikbaar op stackexchange, waarvoor we bedanken voor de cc by-sa 2.0-licentie waaronder het wordt gedistribueerd.
Loading...