但是卡方檢定有個嚴重的缺點,就是對樣本數太敏感,或者說,卡方檢定比較適用於大樣本的檢定上,對於小樣本,卡方檢定的辨識能力實在不高,因為對於小樣本,即使我們構造了一個距離事實很遠的理論模型,由於小樣本的緣故,我們只能得出一個很小的卡方值,所以擬合值比較可能及格;相對的,對於特別大的樣本,卡方檢定的辨識能力又過份強大,十分容易就會棄卻一個和事實其實差距甚小的理論模型,這樣就使得結構方程模型在進行「擬合指標」的檢查時,出現了一些有待解決的問題。在過去一二十年當中,許多學者對這個問題分別提出了個別的解決方案,因此也就造就了許多種不同類型的「擬合指標」,來取代卡方檢定的擬合檢查。不過這些擬合指標,大多還是以卡方檢定為基礎來進行改良,並不是十分劃時代的變革。這些指標,最主要可以分成以下這三大類,這當然不是完整的歸納,事實上還不斷的有學者在提出新的擬合指標出來,但是明白了這三大類指標,對於只想要認識和應用「結構方程模型」的初學者來說,應該也已經很足夠了。
(1) 絕對擬合指標 (absolute fit indices)
絕對擬合指標的計算方式,就是直接拿我們所猜想、所設定的「理論模型」,去和「飽和模型 (saturated model)」相比較。所謂「飽和模型」就是考慮了所有的變量間可能出現的所有情形的模型,模型中所有變量之間不論是兩兩成對的、以至於多變量間同時發生的交互作用,全部都被納入構造模型的考量之內,也就是說,已經涵蓋了真實世界中所有的可能狀態,因此其自由度已經全部用盡,以致自由度為0,這是所有模型中最複雜,最龐大的模型類型。所以如果我們的理論模型居然和這個最完整的飽和模型若合符節,那麼當然就代表我們的猜想和這個真實的世界「絕對擬合」啦。常用的「絕對擬合指標」除了卡方值外,還有GFI及 AGFI,他們的推薦值一般要大於0.9才算及格。這類指標最大的問題就是容易受到樣本數的影響,樣本數太小時,估計不可靠,樣本數太大時,又太容易顯著,所以飽受學者批評。
(2) 增量擬合指標 (incremental fit indices)
增量擬合指標的計算方式,就是拿「理論模型」,去和「基準模型 (base model)」相比較,來看看兩個模型是否存在顯著差異。所謂基準模型,剛好和前述的飽和模型相反,也就是單純將變量擺在一起,但是排除變量間任何可能相關的模型,因此這是所有模型中最不擬合的模型類型。將理論模型和基準模型相互比較,可以看出理論模型比基準模型要更好多少,看看模型的擬合度改進了多少,這就是「增量」的概念,所增的量就是擬合的量。常用的「增量擬合指標」有NFI、NNFI、CFI、和IFI等,他們的推薦值一般要大於0.9才算及格。
(3) 簡潔擬合指標 (parsimony fit indices)
上述兩種擬合指標都只考慮單一理論模型的好壞,而沒考慮到模型比較時,不同的理論模型間,究竟哪個更好的問題。這時除了上述兩種擬合指標需要加以考慮外,還需要引入模型的「簡潔原則 (parsimony)」,認為參數偏多的模型就是較差的模型。計算方法是利用前述的「增量擬合指標」,乘上一個「簡潔比例 (parsimony ratio)」,來產生一個新的指標,就稱為「簡潔擬合指標」。這個「簡潔比例」有幾種不同的算法,不過在概念上簡單說來,就是兩個模型「自由度」的比例(理論模型的自由度/基準模型的自由度),所以如果理論模型愈複雜(愈接近飽和模型),模型的自由度就愈少,這個「簡潔比例」就愈小,使得所計算出來的「簡潔擬合指標」明顯地低於原本的「增量擬合指標」。反之,如果理論模型愈精簡,則其自由度愈接近「基準模型」,因此所計算出來的「簡潔擬合指標」和「增量擬合指標」便不至於有明顯差異。常用的「簡潔擬合指標」包括PNFI(愈大愈好,在不做模型比較時,一般的推薦值以大於0.5為及格;在做模型比較時,希望兩模型間至少存在0.06以上的差別)、PGFI(愈大愈好,一般的推薦值以大於0.5為及格)、AIC(愈小愈好)、和Normed chi-square(亦即卡方值除以自由度的值。如果小於1,表示受樣本數影響,估計可能有偏差;一般推薦值介於1和2之間)。
那一刻,我升起風馬,不為祈福,只為守候你的到來。 那一天,閉目在經殿香霧中,驀然聽見,你頌經中的真言。 那一月,我搖動所有的轉經筒,不為超度,只為觸摸你的指尖。 那一年,磕長頭匍匐在山路,不為覲見,只為貼著你的溫暖。 那一世,轉山轉水轉佛塔啊,不為修來生,只為途中與你相見。 《倉央嘉措》
2007年10月12日 星期五
結構方程模型的基本觀念 (12)
訂閱:
張貼留言 (Atom)
沒有留言:
張貼留言