請用此 Handle URI 來引用此文件:
http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/65473
標題: | 一致性量測中隨機期望修正量之合理性 Study on appropriateness of interrater chance-corrected agreement coefficients |
作者: | Yan-Ling Kuo 郭晏伶 |
指導教授: | 陳宏(Hung Chen) |
關鍵字: | 一致性量測係數,kappa係數,AC1統計量,隨機期望修正量,潛在類別,評分者,隨機評分, interrater agreement coefficient,kappa coefficient,AC1 statistic,chance-corrected,latent classes,raters,random rating, |
出版年 : | 2012 |
學位: | 碩士 |
摘要: | 在行為研究中,量化由不同評分者(raters)或量測設備所給的評分結果間之等同性成為重要的研究課題。對於一個被評分者(object) 來說,不同的評分者可能會給予不同的評分結果(ratings)。因此,探討評分者之間的可靠性成為一個重要討論議題。實際上,研究者想要知道所有的評分者在評分時其行為是否一致。Cohen 在1960年提出kappa 係數(κ),一個藉由修正兩位評分者之間由於隨機所造成一致評分而得到的一致性量測係數(interrater agreement coefficient)。而κ 係數也被廣泛的使用在量化兩個評分者間類別尺度的評分結果。然而在文獻研究中,κ 係數由於受到潛在類別(latent classes)的比例影響(base rate)、或是無法合理的修正評分者對於不同的潛在類別有不同的評分行為而被詬病。Gwet 在2008 年的文章中,根據兩個評分者間的評分行為,提出一個新的評分者間之評分模型(Gwet's model)以及其一致性量測係數稱為AC1統計量(γ1)。
De Mast於2007年指出,合理的一致性量測係數κ* 應藉由修正其隨機期望量所造成的一致性(chance-corrected agreement)。在本文中,我們考慮兩種不同的評分者評分行為模型:隨機評分模型(random rating model)和部分隨機評分模型(Gwet's model)。在各模型之下,使用漸進理論分析來探討κ 和γ1 兩個一致性量測係數是否為κ* 的一致性估計量(consistent estimate),並且分別與κ* 比較其表現行為。 On behavioural research applications, it often needs to quantify the homogeneity of agreement between responses given by two (or more) raters or between two (or more) measurement devices. For a given object, it can receive different ratings from different raters. The reliability among raters becomes an important issue. In particular, investigators would like to know whether all raters classify objects in a consistent manner. Cohen (1960) proposed kappa coefficient, κ, for correcting the chance agreement among two raters. κ is widely used in literature for quantifying agreement among the raters on a nominal scale. However, Cohen's kappa coefficient has been criticized for the illness prevalence or base rate in the particular population under study or irrelevant of rater's rating abilities for latent classes. Gwet (2008) proposed an alternative agreement based on interrater reliability called AC1 statistic, γ1. De Mast (2007) suggested an appropriate chance-corrected interrater agreement coefficient κ* by correcting the agreement due to chance. In this thesis, we use asymptotic analysis to evaluate whether κ or γ1 is a consistent estimate of κ* when both raters adopt random rating model or Gwet's model (2008) and compare the performances of κ and γ1 with κ*. |
URI: | http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/65473 |
全文授權: | 有償授權 |
顯示於系所單位: | 數學系 |
文件中的檔案:
檔案 | 大小 | 格式 | |
---|---|---|---|
ntu-101-1.pdf 目前未授權公開取用 | 414.14 kB | Adobe PDF |
系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。