Expanding the Notion of Assessment Shell: From Task Development Tool to Instrument for Guiding the Process of Science Assessment Development

En este articulo discutimos las limitaciones y ventajas del uso de templetes. Un templete es un conjunto de instrucciones para desarrollar ejercicios; su fin es abatir el costo y el tiempo de desarrollo de los examenes. Los templetes no permiten generar ejercicios intercambiables desde el punto de vista estadistico. Sin embargo, cuando sus instrucciones son precisas y se entrena a los autores de pruebas para usarlos adecuadamente, los templetes permiten generar ejercicios de estructura y apariencia similarares. Basados en nuestra experiencia y en nuestro trabajo de investigacion, discutimos las ventajas de usar templetes como: (a) herramientas para desarrollar pruebas de respuesta construida, (b) documentos que formalizan las propiedades estructurales de los ejercicios; (c) ambientes para la creacion de ejercicios que permiten estandarizar y simplificar los formatos de respuesta para los estudiantes; y (d) herramientas conceptuales que regulan el proceso de desarrollo de examenes. En este articulo tambien advertimos de posibles usos inapropiados de los templetes.

[1]  Steve A. Schneider,et al.  Management of scoring sessions in alternative assessment: the computer-assisted scoring approach , 1999, Comput. Educ..

[2]  Maria Araceli Ruiz-Primo,et al.  Note On Sources of Sampling Variability in Science Performance Assessments , 1999 .

[3]  Guillermo Solano-Flores,et al.  On the development and evaluation of a shell for generating science performance assessments , 1999 .

[4]  Irvin R. Katz A SOFTWARE TOOL FOR RAPIDLY PROTOTYPING NEW FORMS OF COMPUTER‐BASED ASSESSMENTS , 1997 .

[5]  Edward H. Haertel,et al.  Generalizability Analysis for Performance Assessments of Student Achievement or School Effectiveness , 1997 .

[6]  Stephen P. Klein,et al.  The Cost of Science Performance Assessments in Large-Scale Testing Programs , 1997 .

[7]  Gary W. Phillips,et al.  Technical Issues in Large-Scale Performance Assessment. , 1996 .

[8]  J. Lagowski National Science Education Standards , 1995 .

[9]  S. Messick The Interplay of Evidence and Consequences in the Validation of Performance Assessments , 1994 .

[10]  R. Shavelson,et al.  Sampling Variability of Performance Assessments. , 1993 .

[11]  G. Solano-Flores,et al.  Item Structural Properties as Predictors of Item Difficulty and Item Association , 1993 .

[12]  R. Shavelson Performance Assessments: Political Rhetoric and Measurement Reality , 1992 .

[13]  Susan R. Goldman,et al.  Evaluation of Procedure-Based Scoring for Hands-On Science Assessment , 1992 .

[14]  Pamela R. Aschbacher Performance Assessment: State Activity, Interest, and Concerns , 1991 .

[15]  Thomas M. Haladyna,et al.  A technology for test-item writing , 1981 .

[16]  Wells HivelyII,et al.  A “UNIVERSE‐DEFINED” SYSTEM OF ARITHMETIC ACHIEVEMENT TESTS1 , 1968 .

[17]  L. Cronbach,et al.  THEORY OF GENERALIZABILITY: A LIBERALIZATION OF RELIABILITY THEORY† , 1963 .

[18]  Buenos Aires,et al.  Revista Electrónica de Investigación Educativa , 2003 .

[19]  Frank Serafini THE NATIONAL BOARD FOR PROFESSIONAL TEACHING STANDARDS , 2002 .

[20]  L. Crocker Assessing Content Representativeness of Performance Assessment Exercises , 1997 .

[21]  Steven M. Downing,et al.  Test Item Development: Validity Evidence From Quality Assurance Procedures , 1997 .

[22]  D. Nuttall,et al.  Performance Assessment: The Message from England. , 1992 .

[23]  J. O'neil Putting Performance Assessment to the Test. , 1992 .

[24]  Bert F. Green,et al.  Performance assessment for the workplace , 1991 .

[25]  Descriptors Educational,et al.  of Educational Measurement , 1988 .

[26]  John R. Bormuth,et al.  On the theory of achievement test items , 1970 .