Inligting

Besluit tussen chi-kwadraat en t-toets

Besluit tussen chi-kwadraat en t-toets


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Ek is altyd so verward of ek 'n chi -vierkantstoets of 'n t -toets moet doen in die somme wat my biostatiese onderwyser gegee het. Het iemand 'n eenvoudige reël om dit te besluit?


Dit is 'n baie subtiele vraag en ek moedig u aan om die Wikipedia-artikels oor hierdie verskillende onderwerpe (t-toets, chi-kwadraat-toets, p-waarde, ens.) Te lees, omdat die skrywers hard gewerk het om algemene wanopvattings oor hierdie algemeen gebruikte statistiese toetse te bekamp. . Hier is 'n taamlik oorvereenvoudigde reël vir hierdie verskillende toetse:

  1. t-toets: Gebruik wanneer jy kyk na die beteken van verskillende bevolkings. U wil byvoorbeeld bepaal of die verskil in die gemiddelde gene -uitdrukkingsvlak tussen behandelde en onbehandelde selle anders is, of die gene -ekspressievlak van selle in 'n sekere omgewing verskil van wat u sou verwag in 'n nulhipotese. Aannames: Jy neem aan dat die bevolkings waarna jy kyk, normaal versprei is. Die variansie van die populasies is nie bekend nie (dit sal 'n Z-toets wees), maar daar word aanvaar dat die variansie van elke populasie dieselfde is. Ten slotte, vir die t-toets om te werk, word aanvaar dat die monsters van die data uit die twee populasies onafhanklik is.
  2. $ chi^2 $ toets: Verskeie moontlikhede hiervoor. Die algemeenste in biologie is die Pearson $ chi^2 $ -toets, wat gebruik word as u kyk kategoriese data, soos die aantal ertjieplante met wit of pers blomme en ronde of gerimpelde sade, en probeer om te sien of die aantal individue in elke kategorie ooreenstem met een of ander nulhipotese (soos die getal in elke kategorie wat jy sou verwag as die gene vir blomkleur en saadvorm is nie gekoppel nie). Aannames: Die datapunte is lukraak en onafhanklik van die bevolking versamel, en u het 'n redelike groot aantal monsters.

Ek sou dit haat om 'n groot fout te begaan, so redigeer asseblief my antwoord en/of lewer u eie bydrae as u dink dat ek hierdie onderwerpe heeltemal verkeerd voorstel!


Addisionele inligting

T-toets

Soos A.Kennard gesê t-toets word toegepas wanneer die ewekansige veranderlike normaal versprei word. Hoe om te weet wat normaalweg versprei word, is 'n relevante vraag. Gereelde maatstawwe wat een of ander toevallige metingsfout ervaar, word normaalweg versprei. Die gemiddelde waardes wat uit verskillende monsters beraam word (die eksperiment wat die monster genereer, mag hê enige verspreiding) volg die normale verspreiding. Byvoorbeeld, die gemiddelde tydsinterval van 'n radioaktiewe verval- die interval self word eksponensieel versprei, maar die gemiddelde van die gemiddelde vervalinterval sal normaalweg versprei word. Jy kan redeneer dat dit weer 'n metingsfout is wat lei tot variasie in die gemiddelde waarde wat in verskillende monsters bereken is. Dit word die sentrale limietstelling.

'N Normale verspreiding het twee parameters- gemiddeld en variansie, dit wil sê dat jy hierdie waardes vooraf moet ken om 'n normale verspreiding te bou. 'n Eenvormige verspreiding het geen parameters nie - dit beteken nie dat eenvormig verspreide steekproewe geen gemiddelde of variansie het nie (in hierdie geval is gemiddelde en variansie steekproefeienskappe nie verspreidingsparameters nie). 'n T-toets of z-toets word gedoen om te sien of 'n steekproef 'n verteenwoordiger van 'n gegewe normaalverspreiding is. Dit beteken weer dat die berekende gemiddelde en variansie gelykstaande is aan die ooreenstemmende verspreidingsparameters. In die geval van z-toets, ken u die populasievariansie (verspreidingsparameter). Jy kan vra hoe kan enigiemand moontlik vooraf die bevolkingsafwyking weet. 'n Voorbeeld is 'n geval waarin jy reeds die foutkoers van jou meettoestel ken (kan deur die vervaardiger verskaf word of uit sy ontwerp geïnterpreteer word).

$ chi^2 $ toets

Daar is verskeie variante van die $ chi^2 $ toets. Maar wat algemeen tussen hulle is, is waarna hulle verwys $ chi^2 $ verspreiding. Afwykings, wat altyd positief is, kan nie normaalverspreid wees nie. Dit volg op $ chi^2 $ verspreiding. Die F-toets vir afwykings gebruik die verhouding van die $ chi^2 $ statistiek van die twee ewekansige veranderlikes wat afwykings aandui. Selfs in die Pearson $chi^2$-toets is die toetsstatistiek 'n som van vierkante wat dit altyd positief maak. Trouens, hierdie $chi^2$ verspreiding word ook in t-toets gebruik. Soos . Kennard het gesê dat een van die aannames van die t-toets is dat die populasieverskeidenheid onbekend is, maar dat dit gelyk is. Aangesien bevolkingsafwyking onbekend is, moet dit uit die steekproef geraam word. Soos met alle ramings, het u nie 'n vaste waarde nie, maar 'n reeks aanvaarbare waardes val in sekere vertrouensintervalle. T-verspreiding is basies 'n gemiddelde van verskeie normale verdelings met afwykingswaardes wat val in die toegelate vertrouensinterval van 'n $ chi^2 $ verspreiding.

Dit is nie nodig dat kategoriese data deur $chi^2$ toets getoets moet word nie. Muntgooi -eksperiment gee aanleiding tot 'n kategoriese, maar dit kan getoets word aan 'n binominale verspreiding. Die $ chi^2 $ -toets kan dus vir kategoriese data gebruik word, maar dit is nie die enigste toets nie.

Bottomline: 'n statistiek getoets deur 'n $chi^2$-toets het $chi^2$ verspreiding as die steekproefverspreiding daarvan. Die statistiek behoort 'n kwadraat/som van vierkante te wees- iets wat nooit 'n negatiewe waarde kan hê nie. Miskien is dit die rede waarom dit $ chi $ genoem word vierkantig.


Dit is waar dat T-toets gebruik word as u afhanklike veranderlike numeries is en Chi-Square-toets word gebruik as u 'n kategoriese veranderlike ontleed. Maar hoe gaan dit hiermee:

U het 'n kategoriese reaksie (0,1) op 'n veldtog. 1 wat die produk gekoop het en 0 wat dit nie gedoen het nie. As u die antwoorde in u toetsgroep en kontrolegroep opsom en dit volgens hul onderskeie bevolkingsgrootte verdeel, kan ons sê dat u so iets kry - 0,23% reaksietempo in toetsgroep en 0,01% reaksietempo in kontrolegroep.

Kan jy nie T-Test gebruik om te sien of hierdie antwoordkoerse verskil nie? Indien wel, laat my dan herinner dat hierdie veranderlikes kategories was (0,1), maar ons het hulle steeds as numeries gebruik.

Al wat ek wil sê, is dat as ons reaksietempo's of persentasies vergelyk, T-toetse gebruik kan word, ongeag of die afhanklike veranderlike karakter of numeries is.

Sachin


Wat is die verskil tussen 'n T-toets en 'n ANOVA?

Hierdie tutoriaal verduidelik die verskil tussen a t-toets en 'n ANOVA, saam met wanneer om elke toets te gebruik.

T-toets

A t-toets word gebruik om te bepaal of daar 'n statisties beduidende verskil tussen die gemiddeldes van twee groepe is of nie. Daar is twee tipes t-toetse:

1. Onafhanklike monsters t-toets. Dit word gebruik wanneer ons die verskil tussen die gemiddeldes van twee groepe wil vergelyk en die groepe is heeltemal onafhanklik van mekaar.

Navorsers wil byvoorbeeld weet of dieet A of dieet B mense help om meer gewig te verloor. 100 mense wat lukraak toegewys is, word aan dieet A toegewys. Nog 100 mense wat lukraak toegewys is, word aan dieet B. Na drie maande teken navorsers die totale gewigsverlies vir elke persoon aan. Om te bepaal of die gemiddelde gewigsverlies tussen die twee groepe aansienlik verskil, kan navorsers 'n onafhanklike monster t-toets uitvoer.

2. Gepaarde monsters t-toets. Dit word gebruik as ons die verskil tussen die middele van twee groepe wil vergelyk en waar elke waarneming in een groep met een waarneming in die ander groep gekoppel kan word.

Gestel byvoorbeeld 20 studente in 'n klas neem 'n toets, bestudeer dan 'n sekere gids en neem dan die toets weer. Om die verskil tussen die tellings in die eerste en tweede toets te vergelyk, gebruik ons ​​'n gepaarde t-toets, want vir elke student kan hul eerste toetstelling met hul tweede toetstelling gepaar word.

Vir 'n t-toets om geldige resultate te lewer, moet die volgende aannames nagekom word:

  • Willekeurig: 'N ewekansige steekproef of ewekansige eksperiment moet gebruik word om data vir beide monsters te versamel.
  • Normaal: Die steekproefverspreiding is normaal of ongeveer normaal.

As aan hierdie aannames voldoen word, is dit veilig om 'n t-toets te gebruik om die verskil tussen die middele van twee groepe te toets.


Hoe om monstergrootte in dierestudies te bereken?

Berekening van steekproefgrootte is een van die belangrikste komponente van die ontwerp van enige navorsing, insluitend dierstudies. As 'n navorser 'n minder aantal diere kies, kan dit 'n beduidende verskil ontbreek, selfs al bestaan ​​dit in die populasie, en as daar meer diere gekies word, kan dit lei tot onnodige vermorsing van hulpbronne en kan dit tot etiese kwessies lei. In hierdie artikel het ons, op grond van die hersiening van die literatuur wat deur ons gedoen is, 'n paar metodes van steekproefberekeninge vir dierstudies voorgestel.

Hoeveel diere moet ek vir my studie gebruik? Dit is een van die mees verwarrende vrae waarmee 'n navorser te kampe het. Te klein steekproefgrootte kan die werklike effek van die eksperiment misloop, en te groot steekproefgrootte sal onnodige vermorsing van hulpbronne en diere tot gevolg hê. [1] Kwessie van steekproefgrootte is voldoende uitgelig vir die kliniese proewe en kliniese studies, maar nie veel ondersoek in die geval van dierestudies in gepubliseerde literatuur nie. Dit is baie belangrik om jong navorsers en nagraadse studente te leer oor die belangrikheid en metodes van steekproefberekening. Om hierdie kwessie van steekproefgrootte in dierstudies te verduidelik, het ons besluit om na verskillende beskikbare artikels oor die steekproefgrootte in dierstudies te soek. Ons het PubMed -soektogte gedoen deur verskillende MeSH -terme te gebruik, soos ȁ voorbeeldgrootte, ” ȁvoorbeeldgrootteberekeninge, ” ȁ dierstudies ” ens., En die kombinasies daarvan. Ons het ook verskeie artikels deur Google en Google Scholar deursoek. Ons het ook op verskillende webwerwe gesoek wat verband hou met diernavorsing (http: // www. 3rs-reduction.co.uk/html/6__power_and_sample_size.html, http://www.acuc.berkeley.edu/, http: // www. bu.edu/orccommittees/iacuc/policies-and-guidelines/sample-size-calculations/, http://www.ucd.ie/researchethics/etc.). Eerste skrywer lees alle beskikbare literatuur en 'n begrip oor die konsep word in oorleg met die tweede skrywer gemaak. Hier verduidelik ons ​​kortliks die metode van steekproefberekeninge in dierstudies op grond van 'n oorsig van die literatuur wat deur ons uitgevoer is.

Basies is daar twee metodes vir steekproefgrootteberekening in dierestudies. Die mees gewilde en mees wetenskaplike metode is die berekening van die steekproefgrootte deur kraganalise. [2] Elke poging moet aangewend word om die steekproefgrootte volgens hierdie metode te bereken. Hierdie metode is soortgelyk aan die metode wat gebruik word vir die berekening van steekproefgrootte vir kliniese proewe en kliniese studies. Eenvoudige berekening kan met die hand uitgevoer word met behulp van een of ander formule [Bylae 1], maar vir komplekse berekeninge kan statistiese sagteware gebruik word of hulp van 'n statistikus kan gesoek word. Om die steekproefgrootte deur middel van kraganalise te bereken, moet 'n navorser kennis en inligting hê oor hierdie konsepte:

Effekgrootte: Dit is die verskil tussen die gemiddelde van twee groepe (kwantitatiewe data) of proporsies van gebeure in twee groepe (kwalitatiewe data). 'N Navorser moet voor die aanvang van die studie besluit hoeveel minimum verskil tussen twee groepe as klinies beduidend beskou kan word. Die idee oor klinies beduidende verskil tussen die groepe moet verkieslik geneem word uit voorheen gepubliseerde studies [2,3,4,5]

Standaardafwyking: Standaardafwyking meet veranderlikheid binne die steekproef. Inligting oor standaardafwyking is slegs nodig in die geval van kwantitatiewe veranderlikes. Inligting oor die standaardafwyking van 'n bepaalde veranderlike kan uit voorheen gepubliseerde studies geneem word. As daar nie so 'n studie beskikbaar is nie, moet die outeur eers 'n loodsstudie doen en standaardafwyking kan bereken word uit die loodsstudie [2,3,4,5]

Tipe 1 -fout: dit word gemeet aan die betekenisvlak, wat gewoonlik op die vlak van 5% (P = 0.05). Dit is 'n willekeurige waarde en kan volgens die navorsingsvraag [2,3,4,5] verminder of verhoog word

Krag: Die krag van 'n studie is die waarskynlikheid om 'n effek te vind wat die studie wil vind. Dit kan tussen 80% en selfs 99% gehou word, afhangende van die navorsingsvraag, maar gewoonlik word dit op 80% [2,3,4,5] gehou

Rigting van effek (een of twee sterte): As 'n navorser die effek van 'n intervensie wil ondersoek, kan die werklike effek wat in die monster waargeneem word, in dieselfde rigting wees as wat die navorser gedink het, of dit kan teenoorgestelde wees. As navorser voel dat die effek in beide rigtings kan wees, moet hy tweesterttoets gebruik en as hy sterk rede het om te glo dat die effek in een rigting lê, kan hy een sterttoets gebruik. In diernavorsing word twee toetse gewoonlik gebruik [2]

Statistiese toetse: Vir die berekening van steekproefgrootte is dit belangrik om 'n idee te hê van statistiese toetse wat op data toegepas moet word. Vir eenvoudige statistiese toetse soos Studente t-toets of Chi-kwadraat toets kan handmatige berekening op grond van formule uitgevoer word [Bylaag], maar vir komplekse toetse soos ANOVA of nie-parametriese toetse is hulp van 'n statistikus of gebruik van sagteware nodig [ 2,4]

Verwagte uitputting of dood van diere: Finale monstergrootte moet aangepas word vir verwagte uitputting. Gestel 'n navorser verwag 'n afname van 10%, dan moet die steekproefgrootte wat deur formule of sagteware bereken word, met 0,9 gedeel word om die werklike steekproefgrootte te kry. Gestel steekproefgrootte bereken deur sagteware is 10 diere per groep en navorser verwag 10% slytasie dan sal sy finale steekproefgrootte 11 diere per groep wees (10/0.9 = 11.11). Net so, vir 20% slytasie moet steekproefgrootte deur 0,8 gedeel word.[5] Dit kan verduidelik word in die vorm van gestruktureerde formule, d.w.s.

Gekorrigeerde monstergrootte = Voorbeeldgrootte/ (1 − [% attrition/ 100])

Ons stel voor die gebruik van vrylik aflaaibare sagteware G Power (Faul, Erdfelder, Lang en Buchner, 2007) vir steekproefgrootte berekening. Hierdie sagteware is ook ewe goed vir die berekening van steekproefgrootte vir kliniese toetse. Hierdie sagteware kan gebruik word vir eenvoudige sowel as komplekse steekproefgrootte berekeninge.[6] G Power kan die monstergrootte bereken op grond van vooraf ontwerpte effekgrootte op klein, medium en groot verskil tussen die groepe op grond van Cohen se beginsels. [7] Inligting oor ander vrylik beskikbare sagteware en sakrekenaars vir steekproefgrootteberekening word in Bylaag 2 gegee. Meer komplekse steekproefgroottes sal meer gesofistikeerde sagteware benodig soos “nQuery adviseur” of “MINITAB.”

Tweede metode van berekening is 'n kru metode gebaseer op wet van dalende opbrengs. Hierdie metode word die ȁhulpbronvergelyking ” -metode genoem. [2,8,9] Hierdie metode word gebruik as dit nie moontlik is om die effekgrootte aan te neem nie, om 'n idee te kry van standaardafwyking, aangesien geen vorige bevindings beskikbaar is nie of as veelvuldige eindpunte word gemeet of komplekse statistiese prosedure word vir analise gebruik. Hierdie metode kan ook gebruik word in sommige verkennende studies waar toetsing van hipotese nie die primêre doel is nie, maar navorser stel net daarin belang om enige vlak van verskil tussen groepe te vind.

Volgens hierdie metode word 'n waarde 𠇎” gemeet, wat niks anders as die mate van vryheid van variansieanalise (ANOVA) is nie. Die waarde van E behoort tussen 10 en 20. As E minder as 10 is, verhoog die toevoeging van meer diere die kans om 'n meer betekenisvolle resultaat te kry, maar as dit meer as 20 is, vergroot die toevoeging van meer diere nie die kans om betekenisvol te word nie resultate. Alhoewel hierdie metode op ANOVA gebaseer is, is dit van toepassing op alle diere-eksperimente. Enige steekproefgrootte wat E tussen 10 en 20 hou, moet as voldoende beskou word. E kan gemeet word deur die volgende formule:

E = Totale aantal diere − Totale aantal groepe

Gestel 'n navorser wil die effek van 'n geneesmiddel sien en hy het vyf groepe (een groep as kontrole en vier groepe verskillende dosisse van die middel) met 10 rotte elk gemaak. In hierdie geval sal E wees

E = 50 − 5 = 45, wat meer as 20 is, daarom is die steekproefgrootte in hierdie eksperiment meer as wat nodig is. As die steekproefgrootte egter vyf per groep is, sal E 20 wees, wat die aanvaarbare limiet is en daarom as voldoende steekproefgrootte beskou kan word.

Hierdie metode is maklik, maar dit kan nie so robuust beskou word as 'n kraganalise metode nie.

Ons wil navorsers voorstel om 'n stelling in te sluit oor metode van berekening van steekproefgrootte en regverdiging van steekproefgrootte in die manuskrip wat hulle wil publiseer. Diere in navorsing: Verslagdoening in vivo eksperimente riglyn beveel die insluiting van 'n stelling aan wat die regverdiging noem van die steekproefgrootte wat in navorsing gebruik word en detail van die metode van berekening van steekproefgrootte.[10] Alle komponente van steekproefgrootte-berekening, soos effekgrootte, tipe 1- en tipe 2-fout, een-/twee-sterttoets, standaardafwyking, ens., moet gerapporteer word in manuskrip wat vir publikasie gestuur word soos dit vir die kliniese navorsing voorgestel word.[11 ] 'N Tekort aan hulpbronne (begroting, mannekrag), tydsbeperking, ens. Kan nie as 'n geldige regverdiging vir die besluit oor die grootte van die steekproef beskou word nie. Baie navorsers beskou ses diere per groep as voldoende steekproefgrootte, maar nadat ons beskikbare literatuur oor hierdie kwessie nagegaan het, het ons tot die gevolgtrekking gekom dat hierdie idee van ses diere per groep min wetenskaplike en statistiese basis het. Hierdie is 'n kort beskrywing en lesers word versoek om meer hulpbronne beskikbaar te lees vir 'n beter begrip van verskeie konsepte wat verband hou met die steekproefgrootte berekening in dierestudies.


VERANDERLIKES

Veranderlike is 'n kenmerk wat wissel van een individu tot 'n ander individu. [3] Veranderlikes soos lengte en gewig word gemeet aan die een of ander skaal, dra kwantitatiewe inligting oor en word as kwantitatiewe veranderlikes genoem. Geslag en oogkleur gee kwalitatiewe inligting en word kwalitatiewe veranderlikes genoem [3] [Figuur 1].

Klassifikasie van veranderlikes

Kwantitatiewe veranderlikes

Kwantitatiewe of numeriese data word onderverdeel in diskrete en deurlopende metings. Diskrete numeriese data word as 'n heelgetal aangeteken, soos 0, 1, 2, 3, en#x02026 (heelgetal), terwyl deurlopende data enige waarde kan aanneem. Waarnemings wat getel kan word, vorm die diskrete data en waarnemings wat gemeet kan word, vorm die kontinue data. Voorbeelde van diskrete data is die aantal episodes van respiratoriese arrestasies of die aantal herintubasies in 'n intensiewe sorgeenheid. Net so is voorbeelde van deurlopende data die seriële glukosevlakke in die serum, gedeeltelike suurstofdruk in arteriële bloed en die slukdermstemperatuur.

'N Hiërargiese skaal met toenemende presisie kan gebruik word om die data waar te neem en op te neem wat gebaseer is op kategoriese, ordinale, interval- en verhoudingskale [Figuur 1].

Kategoriese of nominale veranderlikes is ongeordend. Die data word bloot in kategorieë geklassifiseer en kan nie in enige spesifieke volgorde gerangskik word nie. As daar slegs twee kategorieë bestaan ​​(soos by geslag manlik en vroulik), word dit 'n digotome (of binêre) data genoem. Die verskillende oorsake van herintubasie in 'n intensiewe sorgeenheid as gevolg van obstruksie van die boonste lugweë, verswakte opruiming van afskeidings, hipoksemie, hiperkapnië, longoedeem en neurologiese inkorting is voorbeelde van kategoriese veranderlikes.

Ordinale veranderlikes het 'n duidelike ordening tussen die veranderlikes. Die geordende data mag egter nie gelyke tussenposes hê nie. Voorbeelde is die status van die American Society of Anesthesiologists of Richmond-roering-sedasie-skaal.

Intervalveranderlikes is soortgelyk aan 'n ordinale veranderlike, behalwe dat die intervalle tussen die waardes van die intervalveranderlike ewe groot is. 'N Goeie voorbeeld van 'n intervalskaal is die Fahrenheit -graadskaal wat gebruik word om temperatuur te meet. Met die Fahrenheit -skaal is die verskil tussen 70 ° en 75 ° gelyk aan die verskil tussen 80 ° en 85 °: Die meeteenhede is gelyk in die hele reeks van die skaal.

Verhoudingsskale is soortgelyk aan intervalskale, omdat gelyke verskille tussen skaalwaardes gelyke kwantitatiewe betekenis het. Verhoudingsskale het egter ook 'n ware nulpunt, wat hulle 'n bykomende eienskap gee. Die stelsel van sentimeter is byvoorbeeld 'n voorbeeld van 'n verhoudingsskaal. Daar is 'n ware nulpunt en die waarde van 0 cm beteken 'n volledige afwesigheid van lengte. Die tirominale afstand van 6 cm by 'n volwassene kan twee keer groter wees as 'n kind by wie dit 3 cm mag wees.


Wanneer moet u die z-toets versus t-toets gebruik?

Hoe weet ek wanneer om die t-toets in plaas van die z-toets te gebruik?

Omtrent elke statistiekstudent wat ek al ooit onderrig het, het my op 'n stadium hierdie vraag gevra. Toe ek vir die eerste keer begin leer, sou ek verduidelik dat dit van die probleem afhang, en ek begin ronddwaal oor die sentrale limietstelling totdat hulle oë blink. Toe besef ek dat dit makliker is om te verstaan ​​as ek net 'n vloeidiagram maak. So, hier is dit!

Dit hang basies van vier dinge af:

  1. Of ons nou werk met 'n gemiddelde (byvoorbeeld "37 studente") of 'n verhouding (bv. "15% van alle studente").
  2. Of ons weet die bevolking standaardafwyking ( (sigma) ). In die werklike lewe doen ons dit gewoonlik nie, maar statistiekkursusse dra graag probleme by waar ons dit doen.
  3. Of die bevolking normaalweg versprei is. Dit is veral belangrik as u klein steekproefgroottes hanteer.
  4. Die grootte van ons monster. Die magiese getal is gewoonlik 30 - hieronder word dit as 'n 'klein' monster beskou, en 30 of hoër word as 'groot' beskou. As die steekproefgrootte groot is, sê die sentrale limietstelling dat ons ons nie hoef te bekommer oor die vraag of die populasie normaal versprei is nie.

Wanneer jy aan 'n statistiekwoordprobleem werk, is dit die dinge waarna jy moet kyk. Proporsieprobleme is nooit t-toetsprobleme nie - gebruik altyd z! U moet egter seker maak dat (np_ <0> ) en (n (1-p_ <0>) ) albei groter is as 10, waar (n ) u steekproefgrootte en (p_ < 0>) is jou veronderstelde bevolkingsverhouding. Dit beteken basies dat die bevolkingsverhoudings (byvoorbeeld % mans en % vroulik) albei groot genoeg moet wees, sodat hulle voldoende in die steekproef verteenwoordig sal word.

Oor die algemeen sal die probleem jou uitdruklik vertel of die populasie standaardafwyking bekend is - as hulle dit nie sê nie, neem aan dat dit onbekend is. Dieselfde geld vir 'n normaalverspreide populasie - as hulle nie sê "aanvaar die populasie is normaalverspreid", of iets in daardie effek nie, dan Moenie maak net die aanname. Gelukkig maak dit nie saak as die steekproefgrootte groot genoeg is nie!

Begin vandag met 'n statistiekdosent by IU!

Hou van hierdie artikel? Kyk na meer plasings oor Statistiek.

Bloomington Tutors & copy 2013 - 2021 bedien studente in Bloomington, Indiana, 47405. Stel u belang om saam met ons te werk? Doen vandag aansoek. Moet ons ons kontak? Besoek ons ​​kontakbladsy of sms/bel ons by (812) 269-2380. Kyk na College Park Tutors vir tutoriale aan die University of Maryland (UMD).

Bepalings en voorwaardes · Privaatheidsbeleid · Gesondheid en Veiligheid
Hierdie werf word deur reCAPTCHA beskerm en Google se privaatheidsbeleid en -diensbepalings is van toepassing.
Ons is nie verbonde aan Indiana University (IU) of Ivy Tech nie.


Chi-kwadraat toets vs. Logistiese regressie: Is 'n fyner toets beter?

Hallo Karen,
Ek is 'n MPH-student in biostatistiek en ek is nuuskierig oor die gebruik van regressie vir toetse van assosiasies in toegepaste statistiese analise. Hoekom is die gebruik van regressie, of logistiese regressie “beter” as om tweeveranderlike analise soos Chi-kwadraat te doen?

Ek het baie studies in my nagraadse studies gelees, en dit lyk asof die helfte van die studies Chi-Square gebruik om te toets of daar 'n verband tussen veranderlikes is, en die ander helfte, wat net lus is om fancy te wees, het ingewikkelde regressie. -aangepas vir 'n beheerde model. Maar die eindresultate blyk dieselfde te wees. Ek het saam met 'n paar professionele persone gewerk wat sê eenvoudig is beter, en dat dit goed is om Chi- Square te gebruik, maar ek het saam met ander professore gewerk wat daarop aandring om modelle te bou. Dit lyk ook soveel eenvoudiger om chi-square te doen as u hoofsaaklik kategoriese analise doen.

Dit lyk nie asof my professore my 'n eenvoudige regverdiging kan gee nie
antwoord, so ek het gedink ek’d vra jou. Ek geniet dit om u webwerf te lees en is van plan om aan u webinars deel te neem.

Dankie!

Gee, dankie. Ek sien uit daarna om u op die webinars te sien.

Volgens u vraag is daar 'n aantal verskillende redes waarom ek gesien het.

U het reg dat daar baie situasies is waarin 'n gesofistikeerde (en ingewikkelde) benadering en 'n eenvoudige benadering ewe goed werk, en alles anders is gelyk, beter is eenvoudig.

Natuurlik kan ek nie sê waarom iemand 'n spesifieke metode in 'n spesifieke studie gebruik sonder om dit te sien nie, maar ek kan 'n paar redes raai.

Ek is seker daar is 'n vooroordeel onder navorsers om ingewikkeld te raak, want selfs wanneer joernale sê dat hulle eenvoudig wil hê, is die fancy goed so blink en mooi en word dit meer aanvaar. Hoofsaaklik omdat dit kommunikeer (op 'n sekere vlak) dat u gesofistikeerde statistieke verstaan ​​en die kontrolevariabels nagegaan het, is dit nie nodig dat beoordelaars besware daarteen het nie. En of enige van hierdie is eintlik waar, ek’m seker mense bekommerd wees oor dit.

Om kontroles in te sluit is werklik belangrik in baie verhoudings. Die paradoks van Simpson, waarin 'n verhouding homself omkeer sonder die regte kontroles, gebeur werklik.

Nou kan jy debatteer dat logistieke regressie is’t die beste hulpmiddel. As al die veranderlikes, voorspellers en uitkomste kategories is, is 'n log-lineêre analise die beste hulpmiddel. 'N Log-lineêre analise is 'n uitbreiding van Chi-kwadraat.

Dit gesê, ek persoonlik het nog nooit log-lineêre modelle intuïtief gevind om te gebruik of te interpreteer nie. Dus, as ek die keuse kry, sal ek logistiese regressie gebruik. My persoonlike filosofie is dat as twee gereedskap redelik is, en die een so stomp is, dat u gehoor dit nie sal verstaan ​​nie, die makliker een.

Dit bring ons terug by die chi-square. Hoekom nie net die eenvoudigste van alles gebruik nie?

'n Chi-kwadraattoets is eintlik 'n beskrywende toets, soortgelyk aan 'n korrelasie. Dit is nie 'n modelleringstegniek nie, dus is daar geen afhanklike veranderlike nie. Die vraag is dus, wil jy die sterkte van 'n verhouding beskryf of wil jy die determinante van 'n model van en die waarskynlikheid van 'n uitkoms voorspel?

Dus, selfs in 'n baie eenvoudige, tweeveranderlike model, as u 'n afhanklike veranderlike eksplisiet wil definieer en voorspellings wil maak, is 'n logistieke regressie gepas.


3 Antwoorde 3

Daar is 'n rede waarom die 'tweestert-chi-kwadraat' selde gebruik word: as u 'n $ chi^2 $ -toets vir gebeurlikheidstabelle doen, is die toetsstatistiek (sonder die kontinuïteitskorreksie):

waar $ o_$ is die waargenome tellings in sel $i,j$ en $e_$ is die verwagte seltelling in sel $ i, j $. Onder relatief swak aannames kan aangetoon word dat $ X^2 $ ongeveer 'n $ chi^2 $ verdeling volg met $ 1 $ vryheid (dit is vir 'n 2x2 tafel soos in u geval).

As jy onafhanklikheid tussen die ry- en kolomveranderlike (wat $H_0$ is) aanvaar, dan is die $e_$ word geskat uit die marginale waarskynlikhede.

Dit is net vir 'n kort inleiding tot $chi^2$ vir gebeurlikheidstabelle. Die belangrikste ding is dat die teller van elke term in $X^2$ die vierkantig verskil tussen die 'waargenome tellings' en die 'verwagte tellings'. Dus of $o_ < e_$ of $ o_ & gt e_$ maak geen verskil nie in die resultaat vir $X^2$.

Die $chi^2$-toets vir gebeurlikheidstabel toets dus of die waarnemings óf kleiner óf groter is as wat verwag is! So dit is 'n tweesydige toets selfs al is die kritieke gebied word in een (die regter) stert gedefinieer van die $ chi^2 $ -verdeling.

Die punt is dus dat die $ chi^2 $ -toets 'n tweesydige toets is (dit kan waardes $ o_ verwerp$ wat óf te klein óf te groot is), maar dit gebruik 'n eensydige kritieke streek (die regte tou van $chi^2$).

Hoe moet u u resultaat interpreteer: as $ H_0: text <'ryveranderlike en kolomveranderlike onafhanklik is'> $, dan is die waarskynlikheid om 'n waarde wat minstens so ekstreem is as die berekende $ X^2 $, 0,059 te waarneem. Dit word die p-waarde van die toets genoem.

(Let daarop dat 'onafhanklik' deur bogenoemde 'óf te hoog óf te laag' insluit.)

Om iets te kan 'besluit', moet u eers 'n betekenisvlak kies. Dit is 'n 'risiko wat u aanvaar vir die maak van tipe I -foute'. Die betekenisvlak van $ 5 \%$ word algemeen gebruik.

Jy sal nou die nulhipotese verwerp wanneer die p-waarde (0.059) kleiner is as die gekose betekenisvlak (0.05). Dit is nie so vir u tafel nie, so u sal nie verwerp $ H_0 $ teen 'n betekenisvlak van $ 5 \%$.

Wat jou vraag onderaan betref, moet jy sê (maar in jou voorbeeld is dit nie die geval nie): die p-waarde is laer as of gelyk aan die gekose betekenisvlak van 0.05, so die $H_0$ word verwerp en ons kom tot die gevolgtrekking dat die rye en kolomveranderlikes afhanklik is. (maar, soos gesê, in jou voorbeeld is die p-waarde hoër as die 0.05 betekenisvlak).

Miskien moet u ook kyk na die misverstand van 'n P-waarde ?.


Die chi-kwadraattoets: 'n Voorbeeld van werk met rye en kolomme in SAS

As 'n algemene reël, wanneer SAS-programmeerders data ry vir ry wil manipuleer, gryp hulle na die SAS DATA-stap. As die berekening kolomstatistiek vereis, is die SQL -prosedure ook nuttig. As beide ry- en kolombewerkings nodig is, is die SAS/IML -taal 'n kragtige toevoeging tot die gereedskapskas van 'n SAS -programmeerder.

Ek is onlangs aan hierdie feit herinner toe 'n SAS-programmeerder (moontlik 'n student) gevra het hoe om 'n klassieke chi-kwadratietoets met die hand uit te voer vir assosiasie in 'n tweerigting-frekwensietabel. Die berekening vereis dat die middele oor rye en afwaartse kolomme bereken word, en die student sukkel met die implementering van die berekeninge in die DATA -stap. Hierdie artikel illustreer hoe SAS/IML die rysgewyse en kolomsgewyse berekeninge in die klassieke chi-kwadraattoets kan vereenvoudig.

Die chi-square toets vir assosiasie in PROC FREQ

In SAS is die maklike manier om die chi-square-toets vir assosiasie te bereken, deur PROC FREQ te gebruik. Die volgende data is van verskeie voorbeelde in die PROC FREQ dokumentasie. Die data toon die haarkleur en oogkleur van 762 Europese kinders. Die oproep na PROC FREQ bereken die chi-kwadraattoets en 'n kruistabulasie wat die waargenome waarde, verwagte waardes (onder die hipotese dat haarkleur en oogkleur onafhanklik is) en afwykings, wat die "waargeneem minus verwagte" waardes is, vertoon :

In die oog-vir-haartabel bevat elke sel drie waardes. Die eerste waarde is die waargenome seltelling, die tweede waarde is die verwagte seltelling (met inagneming van onafhanklikheid), en die derde waarde is hul verskil, wat soms die 'afwyking' genoem word. Die toetsstatistiek en p-waarde vir die chi-kwadraat-toets word in rooi omskryf. Die toetsstatistiek is 20.92. Die waarskynlikheid om die waarde van 'n ewekansige trekking van 'n chi-kwadraatverdeling met 8 vryheidsgrade waar te neem, is 0,0073. Omdat die waarskynlikheid so klein is, verwerp ons die nietige hipotese dat haarkleur en oogkleur onafhanklik is.

Bereken die chi-kwadraattoets "handmatig" in SAS

Die chi-kwadraattoets op 'n 3 x 4-tabel is eenvoudig genoeg om met die hand te bereken, maar gestel jy wil SAS gebruik om die getalle wat PROC FREQ produseer te valideer of weer te gee? Dit is 'n goeie programmeringsoefening vir studente om seker te maak dat hulle die berekeninge verstaan. Die PROC FREQ -dokumentasie bied die formule vir die toetsstatistiek deur die vergelyking te gebruik

waar nij is die waargenome telling in ry i en kolom j en eij is the expected count, but there is nothing like programming a formula to ensure understanding.

    for each row and column, and the grand mean for all cells.
  1. Use an outer product to form the table of expected values from the mean vectors.
  2. Compute the test statistic by using elementwise matrix operations. to compute the p-value.

Notice that the program does not contain any loops, although the formulas contain double summations over the elements of the table. This is an example of "vectorizing" the computations, which means writing the computations as vector or matrix computations rather than scalar operations in a loop.

You can see that the 'Expected' matrix matches the PROC FREQ output for the expected values for each cell. Similarly, the 'Deviance' matrix matches the PROC FREQ output for the difference between observed and expected values. The test statistic is the sum of the ratios of the squared deviances and the expected values. A call to the CDF function computes the p-value.

In summary, you can use the high-level SAS/IML language to implement basic statistical tests such as the chi-square test for association in a two-way frequency table. Such an exercise enables students to understand the details of elementary statistical tests. For programmers who know the statistical details but who are new to the SAS/IML language, this short exercise provides a way to gain proficiency with vectorized programming techniques.

About Author

Rick Wicklin, PhD, is a distinguished researcher in computational statistics at SAS and is a principal developer of PROC IML and SAS/IML Studio. His areas of expertise include computational statistics, simulation, statistical graphics, and modern methods in statistical data analysis. Rick is author of the books Statistical Programming with SAS/IML Software en Simulating Data with SAS.

1 Comment

Rick,
I think the following code is more readable.

proc iml
cName = <"black" "dark" "fair" "medium" "red">
rName = <"blue" "brown" "green">
C = < 6 51 69 68 28,
16 94 90 94 47,
0 37 69 55 38>
colMarg = C[+, ]/c[+] /* margin probability of each column */
rowMarg = C[ ,+]/c[+] /* margin probability of each row */
expect=(rowMarg*colMarg)#c[+]


Inleiding

In hypothesis testing a decision between two alternatives, one of which is called the null hypothesis and the other the alternative hypothesis, must be made. As an example, suppose you are asked to decide whether a coin is fair or biased in favor of heads. In this situation the statement that the coin is fair is the null hypothesis while the statement that the coin is biased in favor of heads is the alternative hypothesis. To make the decision an experiment is performed. For example, the experiment might consist of tossing the coin 10 times, and on the basis of the 10 coin outcomes, you would make a decision either to accept the null hypothesis or reject the null hypothesis (and therefore accept the alternative hypothesis). So, in hypothesis testing acceptance or rejection of the null hypothesis can be based on a decision rule. As an example of a decision rule, you might decide to reject the null hypothesis and accept the alternative hypothesis if 8 or more heads occur in 10 tosses of the coin.

The process of testing hypotheses can be compared to court trials. A person comes into court charged with a crime. A jury must decide whether the person is innocent (null hypothesis) or guilty (alternative hypothesis). Even though the person is charged with the crime, at the beginning of the trial (and until the jury declares otherwise) the accused is assumed to be innocent. Only if overwhelming evidence of the person's guilt can be shown is the jury expected to declare the person guilty--otherwise the person is considered innocent.

Errors

In the jury trial there are two types of errors: (1) the person is innocent but the jury finds the person guilty, and (2) the person is guilty but the jury declares the person to be innocent. In our system of justice, the first error is considered more serious than the second error. These two errors along with the correct decisions are shown in the next table where the jury decision is shown in bold on the left margin and the true state of affairs is shown in bold along the top margin of the table.


With respect to hypothesis testing the two errors that can occur are: (1) the null hypothesis is true but the decision based on the testing process is that the null hypothesis should be rejected, and (2) the null hypothesis is false but the testing process concludes that it should be accepted. These two errors are called Type I and Type II errors. As in the jury trial situation, a Type I error is usually considered more serious than a Type II error. The probability of a Type I error is denoted by the Greek letter alpha and is also called the significance level of the test, while the probability of a Type II error is denoted by the Greek letter beta. The next table is analogous to the previous table with the decision reached in hypothesis testing shown in bold along the left margin and the true situation shown in bold along the top margin of the table.

Assumptions

In a jury trial the person accused of the crime is assumed innocent at the beginning of the trial, and unless the jury can find overwhelming evidence to the contrary, should be judged innocent at the end of the trial. Likewise, in hypothesis testing, the null hypothesis is assumed to be true, and unless the test shows overwhelming evidence that the null hypothesis is not true, the null hypothesis is accepted.

Voorbeeld

Suppose that you are trying to decide whether a coin is fair or biased in favor of heads. The null hypothesis is H0: the coin is fair (i.e., the probability of a head is 0.5), and the alternative hypothesis is Ha: the coin is biased in favor of a head (i.e. the probability of a head is greater than 0.5). To make this problem easier, assume that the alternative hypothesis is Ha: the probability of a head is 0.7. You are allowed to toss the coin only 10 times, and on the basis of the outcomes, make your decision.

The next graphs show Type I and Type II errors made in testing a null hypothesis of the form H0:p=p0 against H1:p=p1 where p1>p0. In these graphs n is taken to be 10. The red outlined bars show the probability distribution of the number of heads under the assumption that the null hypothesis (fair coin or p=0.5) is true , while the blue shaded bars show the probability distribution of the number of heads under the assumption that the null hypothesis is false (and p=0.7) . The decision rule is based on a critical value--if the number of heads is greater than or equal to this critical value, the null hypothesis is rejected--otherwise the null hypothesis is accepted. At the top of each graph you find the null, H0, and alternative, Ha, hypotheses, the critical value (CV) ranging from 6 to 10, Alpha, the probability of a Type I error, and Beta, the probability of a Type II error. These errors are show by the red and blue shadings, respectively.

Decreasing the Probability of a Type II Error (beta) Without Increasing the Probability of a Type I Error (alpha)

The previous example shows that decreasing the probability of a Type I error leads to an increase in the probability of a Type II error, and vice versa. How probability of a Type I error be held at some (preferably small level) while decreasing the probability of a Type II error? The next series of graphs show that this can be done by using a larger n, that is by increasing the number of coin tosses. An increase in n can be viewed as increasing the sample size for the experiment. In the middle graph of the series of five graphs shown above, the probability of a Type I error, alpha, is approximately 0.05. Suppose the coin was tossed 30 times instead of 10 times. With 30 tosses you would want the critical value to be some number greater than 15. Suppose that 20 is used as the critical value, that is, if 20 or more heads occur in the 30 tosses you would reject the null hypothesis that the coin is fair and accept the alternative hypothesis that the coin is biased in favor of heads (in this situation, we are looking at the alternative that the probability of a head is p=0.7). The next graph displays the results with the probability distribution of the number of heads under the assumption that the null hypothesis is true shown in red , and the probability distribution of the number of heads under the assumption that the null hypothesis is false (and the probability of a head is 0.7) is displayed in blue .

Notice that the probability of a Type I error is approximately 0.05, while the probability of a Type II error is approximately 0.27. Contrast this with the situation when the coin was tossed 10 times--from the middle graph of that series of graphs, alpha is approximately 0.05 but beta, the probability of a Type II error, is about 0.62.

The P-Value Approach to Hypothesis Testing

In the previous examples, a critical value was used in each of the situations in which a coin was tested for fairness. Although it was not explained how the critical value was selected in those examples, the critical value is usually chosen so that the test will have a small probability of Type I error. The values usually used for alpha, the probability of a Type I error, are 0.10, 0.05, or 0.01. Recall that alpha is also called the significance level. These are called 10%, 5%, or 1%, respectively, significance levels.

In the p-value approach neither a significance level nor a critical value are determined before the experiment is carried out or the sample taken. The null and alternative hypotheses are stated, and the experiment is run. A statistic is computed from the outcome of the experiment--the p-value is the probability of the observed outcome or something more extreme than the observed outcome, computed under the assumption that the null hypothesis is true. The determination of an outcome being more extreme than the observed outcome is based on the null and alternative hypotheses. Examples of this will be shown later.

For now, go back to the coin tossing experiment where the null hypothesis is that the coin is fair (p=0.5) and the alternative hypothesis is that the coin is biased in favor of heads (p>0.5). Suppose the coin is tossed 10 times and 8 heads are observed. Since the alternative hypothesis is p>0.5, more extreme values are numbers of heads closer to 10. So, to compute the p-value in this situation, you need only compute the probability of 8 or more heads in 10 tosses assuming the coin is fair. But, the number of heads in 10 tosses of a coin assuming that the coin is fair has a binomial distribution with n=10 and p=0.5. The p-value is P[8 heads] + P[9 heads] + P[10 heads]. From the binomial probability distribution, P[8 heads]=0.044, P[9 heads]=0.01, and P[10 heads]=0.001. Thus the p-value is 0.044+0.010+0.001=0.055.

Now that the p-value is computed, how do you decide whether to accept or reject the null hypothesis? Since the p-value is simply the probability of getting the observed number of heads under the assumption that the null hypothesis is true, if this probability is small, it is unlikely that the null hypothesis is true. So 'small' p-values lead to rejection of the null hypothesis. But 'small' is not defined. The definition of small is up to the reader--if in the opinion of the reader, the p-value is small, the null hypothesis is rejected, while larger values would cause the null hypothesis to be accepted. In statistical practice, 'small' values are usually 0.10, 0.05, or 0.01. In the coin tosses above, the p-value is 0.055, and if a 'small' p-value for you is 0.05, you would fail to reject the null hypothesis, that is, you would say 8 heads in 10 tosses is not enough evidence to conclude that the coin is not fair.

One and Two Tail Tests

In each of the coin tests shown above, the null hypotheses was H0: coin is fair (p=0.5) and the alternative hypothesis was Ha: coin is biased toward heads (p>0.5). With these hypotheses the null hypothesis would only rejected if the number of heads in 10 coin tosses was some number greater than 5. For example, you might reject the null only if you observe 9 or 10 heads in the 10 tosses. The 'rejection region' (shown as the red bars in the above graphs) lies in the right tail of the distribution of the number of heads in 10 tosses of a fair coin. This is a one-tail rejection region or one-tail test. Note that the 'greater than' symbol (>) in Ha points toward the rejection region.

If you were testing H0: coin is fair (p=0.5) against the alternative hypothesis Ha: coin is biased toward tails (p<0.5), you would only reject the null hypothesis in favor of the alternative hypothesis if the number of heads was some number less than 5. For example, you might decide to reject H0 and accept Ha if the number of heads was 2 or fewer. Then the rejection region would lie in the left-hand tail of the probability distribution as shown by the shaded portion of the next graph. This is again a one-tail test. The 'less than' symbol (<) points toward the rejection region.

On the other hand if you were testing H0: coin is fair (p=0.5) against the alternative hypothesis Ha: coin is not fair (p not equal to 0.5), you would reject the null hypothesis in favor of the alternative hypothesis if the number of heads was some number much less than 5 or some number much greater than 5. For example, you might decide to reject H0 and accept Ha if the number of heads was 2 or fewer or 8 or more. Then the rejection region would lie in both tails of the probability distribution of the number of heads. This is shown by the shaded portion of the next graph. This is a two-tail test with rejection regions in both tails.

Specific Hypothesis Tests

Summary of the p-value method

  • Determine the null and alternative hypotheses
  • Determine the test statistic
  • Take a random sample of size n and compute the value of the test statistic
  • Determine the probability of observed value or something more extreme than the observed value of the test statistic (more extreme is based on the null and alternative hypotheses). This is the p-value.
  • Reject the null hypothesis if the p-value is 'small.' (Where a significance level is give for the test, 'small' is usually meant to be any p-value less than or equal to the significance level)

For a population mean with known population standard deviation

(1) Sample is random
(2) If the sample is small (n<30), the population is normal or close to normal.

For a population mean with unknown population standard deviation

(1) Sample is random
(2) If the sample is small (n<30), the population is normal.

For a population proportion

(1) Sample is random
(2) Sample is large (n is 30 or more)
(3) x is the number of sample elements that have the characteristic


Confidence Intervals and Levels

Die vertrouensinterval is the plus-or-minus figure usually reported in newspaper or television opinion poll results. For example, if you use a confidence interval of 4 and 47% percent of your sample picks an answer you can be “sure” that if you had asked the question of the entire relevant population between 43% (47-4) and 51% (47+4) would have picked that answer.

Die vertroue vlak tells you how sure you can be. It is expressed as a percentage and represents how often the true percentage of the population who would pick an answer that lies within the confidence interval. The 95% confidence level means you can be 95% certain the 99% confidence level means you can be 99% certain. Most researchers work for a 95% confidence level.

When you put the confidence level and the confidence interval together, you can say that you are 95% sure that the true percentage of the population is between 43% and 51%.

Factors that Affect Confidence Intervals
The confidence interval is based on the margin of error. There are three factors that determine the size of the vertrouensinterval for a given vertroue vlak. Hierdie is: steekproefgrootte, persentasie en population size.

Steekproefgrootte
The larger your sample, the more sure you can be that their answers truly reflect the population. This indicates that for a given vertroue vlak, the larger your sample size, the smaller your vertrouensinterval. However, the relationship is not linear (i.e., doubling the sample size does not halve the confidence interval).

Persentasie
Your accuracy also depends on the percentage of your sample that picks a particular answer. If 99% of your sample said “Yes” and 1% said “No” the chances of error are remote, irrespective of sample size. However, if the percentages are 51% and 49% the chances of error are much greater. It is easier to be sure of extreme answers than of middle-of-the-road ones.

When determining the sample size needed for a given level of accuracy you must use the worst case percentage (50%). You should also use this percentage if you want to determine a general level of accuracy for a sample you already have. To determine the confidence interval for a specific answer your sample has given, you can use the percentage picking that answer and get a smaller interval.

Population Size
How many people are there in the group your sample represents? This may be the number of people in a city you are studying, the number of people who buy new cars, etc. Often you may not know the exact population size. This is not a problem. The mathematics of probability proves the size of the population is irrelevant, unless the size of the sample exceeds a few percent of the total population you are examining. This means that a sample of 500 people is equally useful in examining the opinions of a state of 15,000,000 as it would a city of 100,000. For this reason, the sample calculator ignores the population size when it is “large” or unknown. Population size is only likely to be a factor when you work with a relatively small and known group of people .

Let wel:
The confidence interval calculations assume you have a genuine random sample of the relevant population. If your sample is not truly random, you cannot rely on the intervals. Non-random samples usually result from some flaw in the sampling procedure. An example of such a flaw is to only call people during the day, and miss almost everyone who works. For most purposes, the non-working population cannot be assumed to accurately represent the entire (working and non-working) population.

Most information on this page was obtained from The Survey System


  • This table is designed to help you choose an appropriate statistical test for data with two or more dependent variables .
  • Hover your mouse over the test name (in the Toets column) to see its description.
  • Die Methodology column contains links to resources with more information about the test.
  • Die How To columns contain links with examples on how to run these tests in SPSS, Stata, SAS, R and MATLAB.
  • The colors group statistical tests according to the key below:

* This is a user-written add-on

This page was adapted from the UCLA Statistical Consulting Group. We thank the UCLA Institute for Digital Research and Education (IDRE) for permission to adapt and distribute this page from our site.


Kyk die video: Statistiek met Daphne - Chi-kwadraat handmatig berekenen! (Junie 2022).


Kommentaar:

  1. Lyle

    Which gracefully topic

  2. Scelftun

    Dit stem absoluut saam. Idee uitstekend, dit stem saam met jou.

  3. Mukazahn

    Dit - is absurd.

  4. Abeodan

    Filosofies so ...

  5. Hildbrand

    This will have a different idea just by the way



Skryf 'n boodskap