Inter-rater agreement in sleep stage classification between centers with different backgrounds

ZusammenfassungFragestellungUnterschiede in der visuellen Schlafauswertung zwischen einem klinischen Zentrum (Universität Marburg, UMA) und zwei Zentren mit Forschungshintergrund (Deutsches Zentrum für Luft- und Raumfahrt, DLR und Universität Dortmund, UDO) sollten bestimmt werden. Die neuen AASM Regeln zur Schlafstadienklassifikation wurden bezüglich ihrer Eignung zur Erhöhung der Übereinstimmung in der Schlafstadienauswertung überprüft.Patienten und MethodenJedes Zentrum trug mit 20 Nächten bei. Alle 60 Nächte (37 Probanden, 9 weiblich, mittleres Alter ± Standardabweichung = 41.8 ± 16.1 Jahre) wurden von jedem Zentrum nach Rechtschaffen und Kales ausgewertet. 20 Probanden wurden auf Schlafapnoe untersucht. Die übrigen Versuchspersonen nahmen an Verkehrslärmwirkungsstudien teil und waren schlafgesund.ErgebnisseLaut kappa-Statistik war die Übereinstimmung zwischen den Zentren in 38 % exzellent, in 62 % mäßig bis gut und niemals schlecht. kappa-Durchschnittswerte sanken in der Reihenfolge REM, Wach, Stadium 2, Tiefschlaf (Stadium 3 und Stadium 4 kombiniert), Stadium 4, Stadium 1 und Stadium 3. Die in den verschiedenen Schlafstadien verbrachte Zeit war positiv mit kappa-Werten korreliert. Paarweise Vergleiche zeigten, dass UDO signifikant schlechter in Stadium 1 übereinstimmte. Für die übrigen Schlafstadien konnten jedoch keine signifikanten Unterschiede zwischen den Zentren gefunden werden. Venn-Diagramme zeigten, dass UDO tendenziell mehr Wach und UMA tendenziell mehr Stadium 4 alleine klassifizierten.SchlussfolgerungenInsgesamt waren die Unterschiede zwischen den Zentren gering ausgeprägt. Sowohl durch paarweise kappa-Vergleiche zwischen mehreren Zentren/Auswertern als auch durch Venn-Diagramme können systematische Abweichungen einzelner Zentren/ Auswerter aufgedeckt werden, und diese sollten anschließend vertiefendes Training erhalten. Die neuen AASM-Regeln zur Schlafstadienklassifikation werden die Übereinstimmung in der Auswertung vermutlich erhöhen, was zukünftige Studien jedoch erst noch zeigen müssen.SummaryQuestion of the studyTo investigate inter-rater agree- ment between scorers from three centers with clinical (Marburg University, UMA) or research (German Aerospace Center, DLR and Dortmund University, UDO) backgrounds. Additionally, sleep scoring rules of the new AASM manual for the scoring of sleep and associated events were reviewed regarding possible implications for inter-rater agreement.Patients and methodsEach of three centers contributed 20 nights. All 60 nights (37 subjects, 9 female, mean age ± sd = 41.8 ± 16.1 years) were scored by each center according to the rules of Rechtschaffen and Kales. Twenty subjects underwent obstructive sleep apnea (OSA) diagnosis, the remaining subjects participated in studies on the effects of traffic noise on sleep and were free of intrinsic sleep disorders.ResultsAccording to kappa statistics, inter-rater agreement between the three centers was excellent in 38 %, fair to good in 62 % and never poor. Mean kappa values decreased in the order rapid eye movement sleep, wake, stage 2, slow wave sleep, stage 4, stage 1 and stage 3. Time spent in the different sleep stages was positively correlated with kappa values. Pairwise comparisons revealed that agreement on stage 1 was significantly worse for UDO, but concerning all other stages none of the centers deviated significantly from the other two. Analyses of Venn diagrams showed tendencies of UDO for scoring wake alone and of UMA for scoring stage 4 alone.ConclusionsDifferences between clinical and research centers were overall minor. Pairwise kappa comparisons of several centers/scorers as well as Venn diagrams may detect systematic deviances of single centers/ scorers that consequently should receive additional training. The revised AASM rules for sleep scoring will most likely increase inter-rater agreement, but future studies will have to prove this.

[1]  R Ferri,et al.  Comparison between the results of an automatic and a visual scoring of sleep EEG recordings. , 1989, Sleep.

[2]  S. Kubicki,et al.  Sleep EEG evaluation: a comparison of results obtained by visual scoring and automatic analysis with the Oxford sleep stager. , 1989, Sleep.

[3]  D. Rapoport,et al.  Interobserver agreement among sleep scorers from different centers in a large dataset. , 2000, Sleep.

[4]  Interrater-Reliabilität visueller Schlafstadienklassifikation nach Rechtschaffen- und Kales-Regeln: Review und methodische Erwägungen , 2001 .

[5]  S. Chokroverty,et al.  The visual scoring of sleep in adults. , 2007, Journal of clinical sleep medicine : JCSM : official publication of the American Academy of Sleep Medicine.

[6]  M Kurachi,et al.  Agreement of Visual Scoring of Sleep Stages among Many Laboratories in Japan: Effect of a Supplementary Definition of Slow Wave on Scoring of Slow Wave Sleep , 1993, The Japanese journal of psychiatry and neurology.

[7]  N. Collop Scoring variability between polysomnography technologists in different sleep laboratories. , 2002, Sleep medicine.

[8]  J. R. Landis,et al.  The measurement of observer agreement for categorical data. , 1977, Biometrics.

[9]  J. Fleiss Measuring nominal scale agreement among many raters. , 1971 .

[10]  S. Redline,et al.  Reliability of scoring respiratory disturbance indices and sleep staging. , 1998, Sleep.

[11]  T. Penzel,et al.  Reliablität der visuellen Schlafauswertung nach Rechtschaffen und Kales von acht Aufzeichnungen durch neun Schlaflabore , 2003 .

[12]  Barbara Griefahn,et al.  Noise emitted from road, rail and air traffic and their effects on sleep , 2006 .

[13]  Mathias Basner,et al.  Aircraft noise effects on sleep: application of the results of a large polysomnographic field study. , 2006, The Journal of the Acoustical Society of America.

[14]  A. Schlögl,et al.  Interrater reliability between scorers from eight European sleep laboratories in subjects with different sleep disorders , 2004, Journal of sleep research.

[15]  Mathias Basner,et al.  Effects of nocturnal aircraft noise on sleep structure , 2005 .

[16]  A. Muzet,et al.  Sleep stage scoring using the neural network model: comparison between visual and automatic analysis in normal subjects and patients. , 1996, Sleep.

[17]  E. Wolpert A Manual of Standardized Terminology, Techniques and Scoring System for Sleep Stages of Human Subjects. , 1969 .

[18]  T. Perneger What's wrong with Bonferroni adjustments , 1998, BMJ.

[19]  A. Chesson,et al.  The American Academy of Sleep Medicine (AASM) Manual for the Scoring of Sleep and Associated Events: Rules, Terminology and Technical Specifications , 2007 .

[20]  Jacob Cohen A Coefficient of Agreement for Nominal Scales , 1960 .