ZusammenfassungFragestellungUnterschiede in der visuellen
Schlafauswertung zwischen einem
klinischen Zentrum (Universität
Marburg, UMA) und zwei Zentren
mit Forschungshintergrund
(Deutsches Zentrum für Luft- und
Raumfahrt, DLR und Universität
Dortmund, UDO) sollten bestimmt
werden. Die neuen AASM
Regeln zur Schlafstadienklassifikation
wurden bezüglich ihrer
Eignung zur Erhöhung der Übereinstimmung
in der Schlafstadienauswertung
überprüft.Patienten und MethodenJedes Zentrum trug
mit 20 Nächten bei. Alle 60 Nächte
(37 Probanden, 9 weiblich, mittleres
Alter ± Standardabweichung =
41.8 ± 16.1 Jahre) wurden von jedem
Zentrum nach Rechtschaffen
und Kales ausgewertet. 20 Probanden
wurden auf Schlafapnoe
untersucht. Die übrigen Versuchspersonen
nahmen an Verkehrslärmwirkungsstudien
teil und waren
schlafgesund.ErgebnisseLaut
kappa-Statistik war die Übereinstimmung
zwischen den Zentren
in 38 % exzellent, in 62 % mäßig
bis gut und niemals schlecht.
kappa-Durchschnittswerte sanken
in der Reihenfolge REM, Wach,
Stadium 2, Tiefschlaf (Stadium 3
und Stadium 4 kombiniert), Stadium
4, Stadium 1 und Stadium 3.
Die in den verschiedenen Schlafstadien
verbrachte Zeit war positiv
mit kappa-Werten korreliert. Paarweise
Vergleiche zeigten, dass UDO
signifikant schlechter in Stadium 1
übereinstimmte. Für die übrigen
Schlafstadien konnten jedoch keine
signifikanten Unterschiede zwischen
den Zentren gefunden werden.
Venn-Diagramme zeigten,
dass UDO tendenziell mehr Wach
und UMA tendenziell mehr Stadium
4 alleine klassifizierten.SchlussfolgerungenInsgesamt waren
die Unterschiede zwischen den
Zentren gering ausgeprägt. Sowohl
durch paarweise kappa-Vergleiche
zwischen mehreren Zentren/Auswertern
als auch durch Venn-Diagramme
können systematische
Abweichungen einzelner Zentren/
Auswerter aufgedeckt werden, und
diese sollten anschließend vertiefendes
Training erhalten. Die neuen
AASM-Regeln zur Schlafstadienklassifikation
werden die Übereinstimmung
in der Auswertung vermutlich
erhöhen, was zukünftige
Studien jedoch erst noch zeigen
müssen.SummaryQuestion of the studyTo investigate inter-rater agree-
ment between scorers from three
centers with clinical (Marburg University,
UMA) or research (German
Aerospace Center, DLR and
Dortmund University, UDO) backgrounds.
Additionally, sleep scoring
rules of the new AASM manual
for the scoring of sleep and associated
events were reviewed regarding
possible implications for inter-rater agreement.Patients and methodsEach of three centers contributed
20 nights. All 60 nights (37
subjects, 9 female, mean age ± sd
= 41.8 ± 16.1 years) were scored
by each center according to the
rules of Rechtschaffen and Kales.
Twenty subjects underwent obstructive
sleep apnea (OSA) diagnosis,
the remaining subjects
participated in studies on the effects
of traffic noise on sleep and
were free of intrinsic sleep disorders.ResultsAccording to kappa
statistics, inter-rater agreement
between the three centers was excellent
in 38 %, fair to good in 62 %
and never poor. Mean kappa values
decreased in the order rapid
eye movement sleep, wake, stage 2,
slow wave sleep, stage 4, stage 1 and
stage 3. Time spent in the different
sleep stages was positively correlated
with kappa values. Pairwise
comparisons revealed that agreement
on stage 1 was significantly
worse for UDO, but concerning all
other stages none of the centers deviated
significantly from the other
two. Analyses of Venn diagrams
showed tendencies of UDO for
scoring wake alone and of UMA for
scoring stage 4 alone.ConclusionsDifferences between clinical and
research centers were overall minor.
Pairwise kappa comparisons
of several centers/scorers as well
as Venn diagrams may detect systematic
deviances of single centers/
scorers that consequently should
receive additional training. The revised
AASM rules for sleep scoring
will most likely increase inter-rater
agreement, but future studies will
have to prove this.
[1]
R Ferri,et al.
Comparison between the results of an automatic and a visual scoring of sleep EEG recordings.
,
1989,
Sleep.
[2]
S. Kubicki,et al.
Sleep EEG evaluation: a comparison of results obtained by visual scoring and automatic analysis with the Oxford sleep stager.
,
1989,
Sleep.
[3]
D. Rapoport,et al.
Interobserver agreement among sleep scorers from different centers in a large dataset.
,
2000,
Sleep.
[4]
Interrater-Reliabilität visueller Schlafstadienklassifikation nach Rechtschaffen- und Kales-Regeln: Review und methodische Erwägungen
,
2001
.
[5]
S. Chokroverty,et al.
The visual scoring of sleep in adults.
,
2007,
Journal of clinical sleep medicine : JCSM : official publication of the American Academy of Sleep Medicine.
[6]
M Kurachi,et al.
Agreement of Visual Scoring of Sleep Stages among Many Laboratories in Japan: Effect of a Supplementary Definition of Slow Wave on Scoring of Slow Wave Sleep
,
1993,
The Japanese journal of psychiatry and neurology.
[7]
N. Collop.
Scoring variability between polysomnography technologists in different sleep laboratories.
,
2002,
Sleep medicine.
[8]
J. R. Landis,et al.
The measurement of observer agreement for categorical data.
,
1977,
Biometrics.
[9]
J. Fleiss.
Measuring nominal scale agreement among many raters.
,
1971
.
[10]
S. Redline,et al.
Reliability of scoring respiratory disturbance indices and sleep staging.
,
1998,
Sleep.
[11]
T. Penzel,et al.
Reliablität der visuellen Schlafauswertung nach Rechtschaffen und Kales von acht Aufzeichnungen durch neun Schlaflabore
,
2003
.
[12]
Barbara Griefahn,et al.
Noise emitted from road, rail and air traffic and their effects on sleep
,
2006
.
[13]
Mathias Basner,et al.
Aircraft noise effects on sleep: application of the results of a large polysomnographic field study.
,
2006,
The Journal of the Acoustical Society of America.
[14]
A. Schlögl,et al.
Interrater reliability between scorers from eight European sleep laboratories in subjects with different sleep disorders
,
2004,
Journal of sleep research.
[15]
Mathias Basner,et al.
Effects of nocturnal aircraft noise on sleep structure
,
2005
.
[16]
A. Muzet,et al.
Sleep stage scoring using the neural network model: comparison between visual and automatic analysis in normal subjects and patients.
,
1996,
Sleep.
[17]
E. Wolpert.
A Manual of Standardized Terminology, Techniques and Scoring System for Sleep Stages of Human Subjects.
,
1969
.
[18]
T. Perneger.
What's wrong with Bonferroni adjustments
,
1998,
BMJ.
[19]
A. Chesson,et al.
The American Academy of Sleep Medicine (AASM) Manual for the Scoring of Sleep and Associated Events: Rules, Terminology and Technical Specifications
,
2007
.
[20]
Jacob Cohen.
A Coefficient of Agreement for Nominal Scales
,
1960
.