Kuten me kaikki tiedämme, logistisen regressiomallin arvioimiseksi on kaksi tapaa, ja ne testaavat hyvin erilaisia asioita

  1. Ennakoiva voima:

    Hanki tilasto, joka mittaa kuinka hyvin voit ennakoida riippuvan muuttujan riippumattomien muuttujien perusteella. Tunnetut Pseudo R ^ 2 ovat McFadden (1974) ja Cox ja Snell (1989).

  2. Mukavuuden tilastot

    Testi kertoo, voisitko tehdä vieläkin paremmin tekemällä mallista monimutkaisemman, mikä todellisuudessa testaa, onko epälineaarisuuksia tai vuorovaikutuksia, jotka olet unohtanut.

Olen toteuttanut molemmat mallit mallissani, joka lisäsi asteen ja vuorovaikutuksen
jo:

 >summary(spec_q2) Call: glm(formula = result ~ Top + Right + Left + Bottom + I(Top^2) + I(Left^2) + I(Bottom^2) + Top:Right + Top:Bottom + Right:Left, family = binomial()) Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) 0.955431 8.838584 0.108 0.9139 Top 0.311891 0.189793 1.643 0.1003 Right -1.015460 0.502736 -2.020 0.0434 * Left -0.962143 0.431534 -2.230 0.0258 * Bottom 0.198631 0.157242 1.263 0.2065 I(Top^2) -0.003213 0.002114 -1.520 0.1285 I(Left^2) -0.054258 0.008768 -6.188 6.09e-10 *** I(Bottom^2) 0.003725 0.001782 2.091 0.0366 * Top:Right 0.012290 0.007540 1.630 0.1031 Top:Bottom 0.004536 0.002880 1.575 0.1153 Right:Left -0.044283 0.015983 -2.771 0.0056 ** --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 (Dispersion parameter for binomial family taken to be 1) Null deviance: 3350.3 on 2799 degrees of freedom Residual deviance: 1984.6 on 2789 degrees of freedom AIC: 2006.6 

ja ennustettu teho on kuten alla, MaFadden on 0,4004 ja arvon välillä 0,2 ~ 0,4 on otettava huomioon, että malli sopii hyvin (Louviere et al (2000), Domenich ja McFadden (1975)):

 > PseudoR2(spec_q2) McFadden Adj.McFadden Cox.Snell Nagelkerke McKelvey.Zavoina Effron Count Adj.Count 0.4076315 0.4004680 0.3859918 0.5531859 0.6144487 0.4616466 0.8489286 0.4712500 AIC Corrected.AIC 2006.6179010 2006.7125925 

ja sopivuuden tilastot:

 > hoslem.test(result,phat,g=8) Hosmer and Lemeshow goodness of fit (GOF) test data: result, phat X-squared = 2800, df = 6, p-value < 2.2e-16 

Ymmärrykseni mukaan GOF testaa seuraavaa null- ja vaihtoehtoista hypoteesia:

 H0: The models does not need interaction and non-linearity H1: The models needs interaction and non-linearity 

Koska mallini lisäsivät vuorovaikutusta, jo epälineaarisuus ja p-arvon osoittama H0 on hylättävä, joten I päädyin siihen tulokseen, että mallini tarvitsee vuorovaikutusta, ei-lineaarisuutta. Toivottavasti tulkintani on oikea ja kiitos kaikesta etukäteen annetusta kiitoksesta, kiitos.

Kommentit

vastaus

On käsiteltävä useita asioita.

  • $ R ^ 2 $ mittaa itsessään ei koskaan mittaa sopivuuden hyvyyttä; ne mittaavat pääasiassa ennustavaa syrjintää. Soveltuvuuden hyvyys syntyy vain vertaamalla $ R ^ 2 $ rikkaamman mallin $ R ^ 2 $: een.
  • Hosmer-Lemeshow -testi on tarkoitettu yleiseen kalibrointivirheeseen, ei erityiseen sopivuuden puutteeseen, kuten toisen asteen vaikutukset. Siinä ei oteta asianmukaisesti huomioon yliasennusta, se on mielivaltainen roskakorien valinnassa ja kvantiilien laskentamenetelmässä, ja sen teho on usein liian alhainen.
  • Näistä syistä Hosmer-Lemeshow-testiä ei enää suositella. Hosmer et ai. On parempi d.f. sopivuuden omnibus -testi, toteutettu R rms -paketissa residuals.lrm.
  • Sinun tapauksessasi sopivuus voi arvioidaan testaamalla yhdessä (”kappaletestissä”) kaikkien neliö- ja vuorovaikutustermien osuus.
  • Mutta suosittelen mallin määrittelemistä, jotta se mahtuisi todennäköisemmin eteenpäin (etenkin rentouttavat lineaarisuusoletukset regressiospinneillä) ja käynnistyshihnan avulla estimoimalla yliasennus ja saamaan yliasennuksella korjattu korkean resoluution sileä kalibrointikäyrä absoluuttisen tarkkuuden tarkistamiseksi. Nämä tehdään käyttämällä R rms -pakettia.

Viimeisestä kohdasta pidän parempana filosofiaa, jonka mukaan mallit ovat joustavia (kuten näyte rajoittaa) koko) ja että keskitymme enemmän ”sopivuuteen” kuin ”sopivuuden puutteeseen”.

Kommentit

  • Vain yksi asia: most $ R ^ 2 $ -mittausta verrataan sovitettua mallia ” täydelliseen malliin ”, joka saa ennusteen oikein jokaiselle tietueelle tekemättä df: tä / ylisuuri säätö. +1 minulta.
  • Kyllä, se on ’ vain sitä, että emme koskaan toivoa olevamme täydellisiä, joten en soita $ 1 – R ^ {2} $ puutetta sopivuus.

Vastaa

Lähettäjä Wikipedia :

Testi arvioi, vastaavatko havaitut tapahtumaprosentit odotettua tapahtumanopeutta mallipopulaation alaryhmissä vai eivät. Hosmer – Lemeshow -testi tunnistaa alaryhmät nimenomaisesti sovitettujen riskiarvojen desileiksi. Malleja, joiden odotetut ja havaitut tapahtumatasot alaryhmissä ovat samanlaisia, kutsutaan hyvin kalibroiduiksi.

Sen merkitys: kun malli on rakennettu pisteyttämään malliasi tarkistaa, onko se jakautunut 10 desiileihin samanlainen kuin todelliset tapahtumien hinnat.

Joten hypoteesit ovat

  • $ H_0 $: Todelliset ja ennustetut tapahtumaprosentit ovat samanlaiset 10: ssä desiilit
  • $ H_1 $: ne ovat samoja

Siksi jos p -arvo on pienempi kuin.05, ne eivät ole hyvin jakautuneita, ja sinun on tarkennettava malliasi.

Toivottavasti tämä vastaa joihinkin kyselyihisi.

Vastaa

Tämä on melko kiistanalaista @FrankHarrellin vastauksen jälkeen, mutta H – L -testin fani johtaisi tästä tuloksesta, että huolimatta toisen asteen termien sisällyttäminen & joitain 2. kertaluvun vuorovaikutuksia, malli silti osoitti merkittävää sopivuuden puutetta, & että ehkä vielä monimutkaisempi malli olisi sopiva. Testaat uudelleen tarkalleen valitsemasi mallin, ei yksinkertaisempi 1. asteen malli.

† Se ei ole täydellinen 2. asteen malli — on kolme vuorovaikutukset.

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *