Forum

Nome Utente:
Password:
Riconoscimi automaticamente
 Tutti i Forum
 Laboratorio
 Bioinformatica e Biostatistica
 Normality Test
 Nuova Discussione  Nuovo Sondaggio Nuovo Sondaggio
 Rispondi Aggiungi ai Preferiti Aggiungi ai Preferiti
Cerca nelle discussioni
I seguenti utenti stanno leggendo questo Forum Qui c'è:

Aggiungi Tag Aggiungi i tag

Quanto è utile/interessante questa discussione:

Autore Discussione  

_Gabriele_
Nuovo Arrivato



13 Messaggi

Inserito il - 20 marzo 2013 : 10:17:39  Mostra Profilo  Visita l'Homepage di _Gabriele_ Invia a _Gabriele_ un Messaggio Privato  Rispondi Quotando
Salve,
come sempre l'analisi statistica mi fa impazzire. Il dilemma è questo ho una serie di dati (ppm di elementi in tracce) e molti hanno una distribuzione normale. Per curiosità ho però ho voluto applicare 2 test di normalità Anderson-Darling e Shapiro-Wilk. Ora spesso Anderson mi segnala la normalità, mentre shapiro no evento che mi aspettavo visto che il secondo è spesso dato come più potente. In alcuni campioni, però, succedete l'inverso!?!? ….
Domanda:
Se shapiro è più potente perché alcune volte, anche se poche, risulta un dato normale in tale test e non in quello di Anderson?
Per i campioni non normali ho provato ad applicare un Log10 per vedere se riuscivo a normalizzarli, ma non ci sono riuscito.
Domanda:
Devo rinunciare ad una analisi Parametrica?

chick80
Moderatore

DNA

Città: Edinburgh


11491 Messaggi

Inserito il - 20 marzo 2013 : 16:27:33  Mostra Profilo  Visita l'Homepage di chick80 Invia a chick80 un Messaggio Privato  Rispondi Quotando
Le risposte in questa pagina ti saranno utili

http://stats.stackexchange.com/questions/2492/is-normality-testing-essentially-useless

Sinceramente io lascerei perdere i test di normalità e farei piuttosto un'analisi esploratoria guardando l'istogramma dei valori o il loro Q-Q plot.

Sei un nuovo arrivato?
Leggi il regolamento del forum e presentati qui

My photo portfolio (now on G+!)
Torna all'inizio della Pagina

TMax
Utente Junior

TMax

Prov.: BG
Città: Capriate


270 Messaggi

Inserito il - 21 marzo 2013 : 11:31:14  Mostra Profilo  Visita l'Homepage di TMax Invia a TMax un Messaggio Privato  Rispondi Quotando
E' già stato sollevato in passato questa problematica relativa alla normalità dei dati.
In realtà non sono i dati che devono essere normali, ma le popolazioni da cui provengono.
E 'normale' deve essere l'errore casuale del modello adottato.
Quindi oltre al suggerimento di chick 80, a mio parere se ci sono plausibili motivi per pensare che le popolazioni da cui originano i tuoi dati sono 'normali' vale la pena fare un modello e valutare la distribuzione dei residui. Se sono normali vai avanti, al contrario dovrai scegliere se fare trasformazioni dei dati o usare modelli non parametrici.


Max
Torna all'inizio della Pagina

_Gabriele_
Nuovo Arrivato



13 Messaggi

Inserito il - 21 marzo 2013 : 12:53:43  Mostra Profilo  Visita l'Homepage di _Gabriele_ Invia a _Gabriele_ un Messaggio Privato  Rispondi Quotando
Intanto grazie per le risposte illuminanti, inoltre, chiedo scusa per la domanda già sollevata da ora farò più attenzione nella ricerca dei topic già discussi.
Ancora grazie.

P.S. Hai ragione TMax ma si presume, forse erroneamente, che se i dati sono normali lo sono anche quelli della popolazione di derivazione, almeno così mi è stato spiegato.
Torna all'inizio della Pagina

TMax
Utente Junior

TMax

Prov.: BG
Città: Capriate


270 Messaggi

Inserito il - 21 marzo 2013 : 13:27:48  Mostra Profilo  Visita l'Homepage di TMax Invia a TMax un Messaggio Privato  Rispondi Quotando
Se consideri che, è difficile dimostrare che i dati osservati hanno una distribuzione normale
diventa difficile quindi affermare che la popolazione di provenienza sia normale.
Si deve quindi ragionare in termini di plausibilità (nel nostro caso, biologica) se la popolazione di origine dei dati è o non è normale.
Se non ricordo male Alvan R. Feinstein, nel suo libro Elementi di Statistica Medica, afferma che non ci sono valide ragioni per affermare che i fenomeni biologici seguono una distribuzione normale.
Per capire questa affermazione bisogna ricordare che la distribuzione normale è una distribuzione di errori di misura, cioè la distribuzione dei valori ottenuti misurando molte volte lo stesso misurando con lo stesso strumento di misura. Questa procedura sperimentale, genera stocasticamente dei risultati che Gauss descrisse con la funzione nota a tutti della distribuzione 'normale' degli errori.
Misurare un particolare misurando in soggetti differenti non è analogo a misurare il misurando nello stesso soggetto infinite volte. Che poi la distribuzione di fenomeni biologici, abbia una forma che ricorda una campana, è solo una coincidenza. La forma a campana è comune a molte distribuzioni, in specifiche condizioni, che non sono affatto 'normali'. La stessa distribuzione di Poisson con ad esempio lambda=10 ha una forma a campana che può essere confusa con una distribuzione normale, ma è una distribuzione generata da un processo stocastico differente da quello che genera la distribuzione di Gauss.

L'analisi dei residui di un modello invece è trattabile opportunamente come una distribuzione gaussiana perchè difatti descrive l'errore di misura compiuto dal modello adattatato nel stimare il valore atteso. E' quindi una vera distribuzione gaussiana, ecco perchè ha senso verificare in quel caso l'aderenza o meno alla distribuzione di Gauss, sempre considerando i limiti dei test di normalità, ma almeno in quel caso abbiamo la certezza che siamo di fronte a dati generati da un processo probabilistico del tipo gaussiano.

Max

Torna all'inizio della Pagina
  Discussione  

Quanto è utile/interessante questa discussione:

 Nuova Discussione  Nuovo Sondaggio Nuovo Sondaggio
 Rispondi Aggiungi ai Preferiti Aggiungi ai Preferiti
Cerca nelle discussioni
Vai a:
MolecularLab.it © 2003-18 MolecularLab.it Torna all'inizio della Pagina