http://www.qrplanet.com/generador/qr_img.php?d=Http%3A%2F%2Fcdeporte.rediris.es%2Frevista%2Frevista58%2Fartescala566.htm+&e=M&color=000000&s=3Castejón Oliva, F.J.; Santos Pastor, M.L. y Palacios Picos, A. (2015) Cuestionario sobre metodología y evaluación en formación inicial en educación física / Questionnaire on Methodology and Assessment in Physical Education Initial Training. Revista Internacional de Medicina y Ciencias de la Actividad Física y el Deporte, vol. 15 (58) pp. 245-267. Http://cdeporte.rediris.es/revista/revista58/artescala566.htm

DOI: http://dx.doi.org/10.15366/rimcafd2015.58.004

 

Texto en PDF

English version PDF

 

ORIGINAL

 

CUESTIONARIO SOBRE METODOLOGIA Y EVALUACIÓN EN FORMACIÓN INICIAL EN EDUCACIÓN FÍSICA

 

QUESTIONNAIRE ON METHODOLOGY AND ASSESSMENT IN PHYSICAL EDUCATION INITIAL TRAINING

 

Castejón Oliva, F.J.1; Santos Pastor, M.L.2 y Palacios Picos, A.3

 

1Universidad Autónoma de Madrid. Departamento de Educación Física, Deporte y Motricidad Humana. Profesor Titular (javier.castejon@uam.es)

2Universidad Autónoma de Madrid. Departamento de Educación Física, Deporte y Motricidad Humana. Profesora Titular (marisa.santos@uam.es)

3Universidad de Valladolid. E.U. Magisterio de Segovia. Catedrático de Escuela Universitaria (palacios@psi.uva.es)

 

Financiación: Este trabajo forma parte del Proyecto de investigación Ref. EDU 2010-19637 del Plan Nacional de Proyectos I+D+i (2008-2011).

 

Código UNESCO / UNESCO code: 5801.07 Métodos Pedagógicos / Teaching methods.

Clasificación del Consejo de Europa / Council of Europe classification: 5. Didáctica y metodología / Didactic and methodology.

 

Recibido 27 de marzo de 2012  Received  March 27, 2012

Aceptado 24 de junio de 2013  Accepted June 24, 2013

 

RESUMEN

 

Este artículo describe el proceso de validación de una escala para conocer las percepciones sobre metodologías participativas y de evaluación formativa de estudiantes universitarios de titulaciones de Educación Física. Se ha realizado un proceso de validación de contenido, comprensión y fiabilidad del cuestionario en tres fases: En la primera, de validación de expertos con seis jueces expertos en evaluación universitaria; en la segunda, de validación de la comprensión, con una muestra de 50 estudiantes; en la tercera, de fiabilidad y validación general, con 892 estudiantes universitarios de 10 universidades españolas. Los resultados han mostrado la fiabilidad del instrumento y la confirmación con el análisis factorial. La escala resulta ser un instrumento válido para ayudar al profesorado a analizar las percepciones de los estudiantes en relación con las metodologías participativas y la evaluación formativa. Se espera que sea una herramienta eficaz para orientar el cambio y la mejora en la docencia universitaria.

 

PALABRAS CLAVE: Cuestionario, Validación, Evaluación formativa, Metodología participativa, Formación inicial, Educación física, Educación superior.

 

ABSTRACT

 

This article describes the validation process of a scale aimed at knowing the perceptions regarding participative methodologies and the formative evaluation of Physical Education university students. We have undertaken a process of validation of the contents, comprehensibility and reliability of the questionnaire in three stages: In the first one, expert validation with six expert judges in university evaluation; in the second, comprehensibility validation with a sample of 50 students; in the third, reliability and general validation, with 892 university students from 10 Spanish universities. Results show the reliability of the instrument and the confirmation with the factorial analysis. The scale has turned out to be a useful instrument to help teachers analyse students' perceptions regarding participative methodologies and formative evaluation. We hope it becomes a useful tool to redirect modifications and improvements in university teaching.

 

KEYWORDS: Questionnaire, Validation, Formative assessment, Participative methodology, Initial training, Physical education, Higher education.

 

 

INTRODUCCIÓN

 

En los últimos años es notorio el interés por generar cambios en la docencia universitaria tanto en sus objetivos y finalidades, como en los planteamientos metodológicos y de la evaluación de los procesos de enseñanza-aprendizaje, tal como se anuncia en los objetivos del Consejo Europeo de Lisboa 2000 (Consejo Europeo, 2000; EEES, 2009). Se reclama una mejora en la implementación metodológica y en la aplicación de sistemas de evaluación diferenciados (Vázquez, 2008) con un fin de excelencia universitaria (Villa, 2008), una excelencia que debe cuestionarse cuando “alrededor del 80% de la evaluación que se emplea por todo el mundo se realiza en forma de exámenes y trabajos” (Brown y Glasner, 2007, p. 8).

 

Con el desarrollo de los grados universitarios tras la aprobación de los nuevos planes de estudio, hay una marcada propuesta de cambio en cuanto a la enseñanza universitaria. Entre los aspectos relevantes y significativos de este cambio se encuentra la metodología (Biggs, 2006; Tejedor, 2003) que, guiado por la idea de la búsqueda de la excelencia universitaria, supone: (a) proponer una metodología participativa, en el sentido de que se vincula con el aprendizaje activo (Millis, 2010; Meyer y Jones, 1993); (b) promover una comunicación entre profesorado y alumnado que incluye procesos reflexivos para conocer, comprender, analizar, aplicar, sintetizar y evaluar (Black y Wiliam, 2009; Huber, 2008); (c) establecer vínculos entre teoría y práctica, e integrar conocimientos para dar sentido a lo aprendido (Cano-González, 2009; Huber, 2008); (d) buscar diferentes formas de organización de los estudiantes y sus tareas (Marín-García, Miralles-Insa, García-Sabater, y Vidal-Carreras, 2008); y (e) usar instrumentos y soportes tecnológicos de la información (Cano-González, 2009).

 

En este nuevo marco, la evaluación debe vincularse con el concepto de evaluación formativa así podremos comprobar los resultados del proceso de aprender y no sólo los resultados que tratan la evaluación como sinónimo de calificación; además, se convertirá en un elemento de mejora y ayuda para el alumnado y para el profesorado (MacMillan, 2007; Pérez, Julián, y López-Pastor, 2009).

 

Los estudios resaltan que la valoración y la percepción de los estudiantes sobre el proceso de enseñanza-aprendizaje, no deja de ser una forma de que el propio profesorado mejore en su docencia (Marsh, 1987, 2007; Marsh y Roche, 1997), y parece necesario que se deba profundizar en ello como clave de la calidad en la enseñanza (Villa, 2008). La forma en la que los estudiantes entienden su propio aprendizaje, está condicionada por sus propias creencias sobre cómo aprenden las personas (Tippin, Lafreniere, y Page, 2012), pero también es fruto de cómo ellos mismos adquieren el conocimiento con la experiencia de su propia formación (Irons, 2008).

 

No obstante, son escasos los trabajos dedicados a la percepción del alumnado sobre los procesos de evaluación. Podemos resaltar las aportaciones de Marsh (1982) con el Estudents’ Evaluations of Educational Quality (SEEQ), cuyo trabajo considera ocho aspectos relacionados con las metodologías docentes y la evaluación formativa: (a) relación aprendizaje y su valor; (b) entusiasmo del instructor; (c) interacción del grupo; (d) informes individuales; (e) relación entre organización, claridad y amplitud de evidencias; (f) relación entre exámenes y notas; (g) lecturas y documentos de trabajo; y (h) relación entre carga de trabajo y dificultad.

 

Los estudios previos sobre la metodología y la enseñanza universitaria se centraron en la denominada enseñanza eficaz, cuyas claves eran: el interés y motivación del profesorado, el respeto por el ritmo de aprendizaje de los estudiantes, el disponer de objetivos claros, controlar los progresos del alumnado y aprender de los propios estudiantes (Race, 2007); sin olvidar otros factores centrado en la personalidad del profesorado (Feldman, 1986; Murray, Rushton, y Paunnem, 1990).

 

Otro estudio que se ha basado en los sistemas de evaluación de aprendizaje que utilizan los profesores es el Shortened Experiences of Teaching and Learning Questionnaire (SETLQ) (University of Edinburgh, 2001). Por su parte, Biggs (1987) se apoya en el estilo de aprendizaje de los estudiantes y el contexto de enseñanza; los trabajos de Entwistle y colaboradores (Entwistle, Hanley, y Hounsell, 1979; Entwistle y Peterson, 2004; Entwistle, Tait, y McCune, 2000) con el Approaches and Study Skills Inventory for Students (originalmente diseñado por Ramsden y Entwistle, 1981) muestran diferencias en cómo se entiende el estudio y el aprendizaje (Cano-García y Justicia-Justicia, 1994). En todos ellos se resalta como idea compartida una clara relación entre el contexto, la actividad propuesta, el contenido, los resultados deseados y la propia predisposición de los estudiantes (Bain, 2005; Cabrera y La Nasa, 2002).

 

De cualquier manera, el interés del profesorado por conocer su propia práctica supone atender, entre otros aspectos, a cómo plantear la enseñanza y la evaluación, sin tener que pasar por controles institucionales (Fuentes-Medina y Herrero, 1999; Stenhouse, 1987; Knight, 2005; Leathwood y Phillips, 2000; Ramos y Ortiz, 2010).

 

En el caso concreto de la formación inicial del profesorado se ha reclamado una mayor atención a las metodologías y sistemas de evaluación empleados en la docencia universitaria, precisamente porque se está formando a los futuros docentes (Gimeno, 2012).

 

Pero los trabajos sobre el tema son escasos. Incluso en aquellos estudios en los que se han utilizado cuestionarios sobre metodologías participativas y evaluación formativa, han sido generalmente más como medios que como fines, dedicando escasos recursos a sus características psicométricas. Palacios y López-Pastor (2013) desarrollan una Escala de Actitudes hacia la Evaluación Formativa y Participación del Alumnado (EAEF-PA) cuyo objetivo es medir las actitudes del alumnado hacia el empleo que hacen los docentes sobre la evaluación formativa. Y Gutiérrez-García, Pérez-Pueyo, Pérez-Gutiérrez, y Palacios-Picos (2011) elaboran un cuestionario dedicado a la evaluación formativa del alumnado donde comprueban la participación del alumnado en la evaluación, percepción de uso de estrategias y técnicas metodológicas, desarrollo de la clase y la valoración de competencias profesionales del docente.

 

No obstante y como venimos diciendo, pese a la importancia de poder disponer de información sobre el cambio posible hacia sistemas metodológicos más ricos y hacia sistemas de evaluación más formativos, actualmente no se disponen de instrumentos válidos y fiables de consulta de percepción de esos cambios, al menos en la opinión de uno de los elementos claves en estos procesos como son los alumnos.

 

OBJETIVO

 

Nuestro objetivo se ha centrado en diseñar y validar una escala de percepción sobre metodologías participativas y evaluación formativa (EMPEF) que nos permita valorar cómo metodología y evaluación son percibidas por los estudiantes durante su formación inicial, y el grado de satisfacción que se tiene con su puesta en práctica para conseguir los aprendizajes.

 

 

MÉTODO

 

Diseño

 

Se ha realizado un proceso de validación de contenido, comprensión y fiabilidad del cuestionario en tres fases. Una primera en la que se realiza con expertos en la materia, una segunda en la que se realiza un estudio piloto con el fin de concretar el cuestionario, y una tercera fase en la que se aplica el cuestionario a un grupo mayoritario de estudiantes de distintas universidades (Figura I).

 

 

FIGURA1.jpg

Figura I.- Fases del proceso, personas implicadas y técnicas estadísticas utilizadas para la elaboración del EMPEF.

 

Participantes

 

En la primera fase han participado seis jueces expertos en evaluación universitaria. Llevan impartiendo docencia durante más de 10 años en universidades públicas, en la titulación de maestro especialista en EF y en la titulación de Licenciado en Ciencias de la Actividad Física y Deporte. Todos tienen el grado de doctor y han publicado artículos y libros sobre evaluación formativa y metodologías participativas en docencia universitaria. Esta selección ha sido intencional.

 

En la segunda fase, cuyo objetivo es obtener la validez de comprensión y un primer avance de la fiabilidad del instrumento, se ha seleccionado de forma intencionada a 50 estudiantes universitarios matriculados en distintos cursos de las dos carreras habituales en EF: maestro especialista en EF y licenciados en Ciencias de la Actividad Física y Deporte. La selección de esta muestra fue intencional.

 

La implementación de la tercera fase se realizó con una población de 892 estudiantes universitarios de 10 universidades españolas, que ofertaban los estudios de Maestro y Licenciatura de Ciencias de la Actividad Física y Deporte. La población cubría todos los cursos de cada titulación.

 

Procedimiento

 

 Se proporcionó el cuestionario al grupo de expertos para comprobar el grado de coincidencia/divergencia de los términos utilizados y la valoración de las preguntas de los diferentes apartados, lo que configuró una primera versión del cuestionario. Esta primera versión fue administrada a un grupo de 50 estudiantes, representativos de la población final de estudio, lo que permitió comprobar la comprensión de los términos, la validez de campo, así como su fiabilidad y su consistencia interna. En una tercera fase, la versión final del cuestionario se aplicó a la muestra total de estudiantes, con los correspondientes permisos y manteniendo su anonimato en todo momento.

 

ANÁLISIS DE DATOS

 

Con la matriz de datos final, se extrajeron los factores del cuestionario de metodología participativa y evaluación formativa en la docencia universitaria mediante un Análisis Factorial Exploratorio (AFE) usando el programa estadístico SPSS 18.0. El método de extracción de factores utilizado fue el de componentes principales con rotación ortogonal (Varimax). Así mismo, se revisó la fiabilidad de la escala mediante el estadístico Alpha de Cronbach. Para constatar de forma más precisa la validez se realizó un Análisis Factorial Confirmatorio (AFC) mediante el programa informático Lisrel 8.6.

 

RESULTADOS

 

Primera fase: Validez de contenido

 

Para constatar la validez de contenido de la escala, las preguntas fueron definidas siguiendo los criterios de relevancia y representatividad con relación a la población a la que se dirigía y su dominio específico (Latiesa, 2000; Losada y López-Feal, 2003) y tomando en consideración trabajos anteriores relacionados con el tema (Fernández-Pérez, 1989; Gutiérrez-García et al., 2011; Palacios y López-Pastor, 2013; Prieto, 2007; Tejedor, 1998; Trillo, 2005; Trillo y Porto, 1999). Tras los correspondientes ajustes, se pasó a los expertos la escala inicial, previo consentimiento en la participación y su autorización. En una pequeña presentación se les indicaba el objetivo que se pretende con el cuestionario. Los expertos valoraron su grado de acuerdo con cada una de las preguntas de la escala según un baremo comprendido entre 1 y 4 (conformidad valores 3 y 4, y disconformidad valores 1 y 2). En el caso de disconformidad, se solicitaba una respuesta alternativa. Si no había alternativa alguna, se eliminaba la pregunta de la escala. De esta forma se obtenía el grado de precisión y corrección para la redacción de cada uno de los ítems.

 

El mayor desacuerdo se produjo a la hora de diferenciar entre metodología y evaluación (siguiendo la propuesta del concepto de “enseñanza alineada” de Biggs, 2006). Por ejemplo, uno de los evaluadores expertos (se mantiene su anonimato con claves) dice que:

 

¿Saben lo estudiantes lo que es esto que se les pregunta? ¿Conocen el significado de tanto concepto? Sin embargo, en este apartado de evaluación echo en falta otros importantes: ‘te devuelven –los profesores- los trabajos corregidos en un plazo breve de tiempo’; ‘se permite re-elaborar un trabajo o documento y volver a entregarlo’, etc. (EvExp1).

 

También hubo dudas en cuanto a la redacción de algunas preguntas relacionadas con el alcance de la evaluación (en una sola materia o en varias):

 

Se supone que el cuestionario es para evaluar la asignatura, no el plan o el centro. Aunque sí se considera interesante plantear esto, para ver el nivel de coordinación interna (puede ser interesante), entonces cambiaría ligeramente el texto: “Existen similitudes con los sistemas de evaluación de otras asignaturas de este mismo centro” (EvExp3).

 

Por otro lado, nuestra intención era utilizar una escala tipo Likert de 5 alternativas (de 1 a 5), pero todos los expertos sugirieron utilizar valores de 0 a 4, “puesto que la percepción y la medida son más correctas, así el equivalente a nada-ninguna mejor con el 0 que con el 1” (EvExp4).

 

Segunda fase: Validez de comprensión

 

Con las modificaciones realizadas en el apartado anterior, se pasó la prueba a dos grupos de 50 estudiantes, la mitad de la titulación de Maestro especialista en Educación Física y la otra de la licenciatura de Ciencias de la Actividad Física y el Deporte. En todos los casos se les solicitó y pidió permiso para participar en este trabajo. El objetivo en esta fase era comprobar si el tipo de preguntas era adecuado y el grado de comprensión de los enunciados. También se pretendía comprobar la duración total de la escala y si se encontraba dentro de límites aceptables para este tipo de pruebas.

 

La tarea de los alumnos consistía en puntuar el grado de comprensión que tenían respecto a los ítems ofrecidos. Para llegar a un grado de comprensión cualitativo del cuestionario, se les pedía que anotaran las dudas, las preguntas y las sugerencias. Se solicitó, por último, que indicaran qué ítems no entendían. Aquellas respuestas que eran anotadas con No sabe/No contesta (Ns/Nc) por más de un 5% de la muestra eran eliminadas directamente. Por otro lado, aquellas preguntas que ofrecían valores con la misma respuesta por encima del 90%, también eran eliminados. De esta forma se conseguía utilizar preguntas que discriminaran para valoraciones bajas o elevadas.

 

Así mismo, se realizó un análisis de la fiabilidad, para comprobar la consistencia de la medida cuando es repetido en diferentes ocasiones. Para el cálculo de la fiabilidad se ha utilizado el Coeficiente Alpha de Cronbach. Los resultados obtenidos en esta segunda fase son bastante elevados. Para toda la escala se alcanza un índice de fiabilidad de 0,92.

 

Para el cálculo de la fiabilidad en esta etapa no se incluyeron las preguntas 1 (con tres subpreguntas, una sobre negociación y otras dos sobre competencias), 14, 15 y 16 pues se tratan de preguntas independientes del constructo que se pretende medir (percepción de metodologías participativas y evaluación formativa) pero que aportan una valiosa información. Sus enunciados y resultados obtenidos en esta segunda fase los resumimos en la tabla I.

 

Preguntas

Porcentajes

Nada

Poco

Bastante

Mucho

Ns/Nc

Ítem 1a. ¿Se ha negociado el programa de la asignatura al comienzo del curso?

10,4

25,0

27,1

16,7

20,8

Ítem 1b. ¿La metodología utilizada en la asignatura te ha ayudado a adquirir competencias profesionales?

6,6

20,6

40,0

32,2

0,6

Ítem 1c. ¿La evaluación que se ha planteado favorece la adquisición de las competencias profesionales?

7,2

21,5

45,3

24,4

1,6

Ítem 14. Señala la satisfacción global en relación con la asignatura

6,4

25,5

36,2

19,1

12,8

Ítem 15. Señala la satisfacción global en relación con la evaluación de la asignatura

2,1

10,4

31,3

29,2

27,0

Ítem 16. Señala cuál es el grado de dificultad de la asignatura

8,6

32,2

39,8

3,8

15,6

 

Tabla I. Distribución de las respuestas sobre las preguntas no relacionadas directamente con el constructo que representa el cuestionario.

 

El ítem 1 refleja la negociación del programa, y se considera importante su presencia por la necesidad de comprobar si hay una negociación entre profesorado y alumnado. Los ítems 14, 15 y 16 reflejan valoraciones globales de la asignatura que se podrían tener en cuenta por si se pueden calcular correlaciones entre evaluación y metodología con ese grado de dificultad expresado. Al final del cuestionario se deja una pregunta abierta para que el alumnado pueda hacer algún comentario u observación.

 

Tercera fase: Fiabilidad y validez final

 

Una vez cerrado el cuestionario tal y como se desprende del estudio piloto de la segunda fase, fue cumplimentado por un conjunto amplio de estudiantes con el fin de comprobar su validez y fiabilidad. Como hemos comentado anteriormente, en esta tercera fase han participado 892 estudiantes de 10 universidades en las titulaciones de Magisterio y de la Licenciatura en Ciencias de la Actividad Física y Deporte. En todos los casos, se solicita y concede el permiso para poder participar en el estudio (profesorado, universidad y estudiantes).

 

El grupo se distribuye con un mayor porcentaje de hombres (55,1%) que de mujeres (44,9) y con una edad media de 21 años y 6 meses. La mayoría de los estudiantes que contestaron a los cuestionarios tenía un alto índice de asistencia y por ello, podemos decir que la información que proporcionan sugiere un conocimiento de lo que se hace a diario en las clases, tanto en metodología como en evaluación.

 

Escala de Metodologías Participativas. Con el total de la muestra se pasó a calcular de nuevo los índices de fiabilidad de la Escala de Metodologías Participativas basándonos en el Alfa de Cronbach. Como podemos comprobar en la Tabla II, el valor de 0,84 obtenido permite asegurar unas medidas de alta fiabilidad. Se decidió mantener todos los ítems originales de la escala pues la eliminación de cualquiera de ellos no producía un aumento significativo en el valor de la fiabilidad final.

 

Alfa de Cronbach

Alfa de Cronbach basada en los elementos tipificados

Nº de elementos

,838

,845

24

Tabla II. Índice de fiabilidad de la Escala de Metodologías Participativas

 

Asegurada la fiabilidad de la escala, se pasó al análisis de sus factores implícitos mediante un Análisis Factorial de Componentes Principales (AFCP). Los resultados de este análisis los resumimos en la Tabla III. Se obtienen valores adecuados tanto en el índice KMO de 0,807 como en el test de esfericidad de Barlett (p>,00).

 


 

Componente

Factores

1

2

3

4

5

6

7

03. Recensiones de artículos o libros

,683

 

 

 

 

 

 

F1

Metodologías basadas en informes y diarios escritos

04. Informes

,673

 

 

 

 

 

 

02. Diario o fichas de sesiones

,593

 

 

 

 

 

 

01. Cuadernos de campo

,574

 

 

 

 

 

 

09. Consultar bibliografía

,521

 

 

 

 

 

 

06. Cuaderno o similar para la toma de apuntes

,511

 

 

 

 

 

 

02. Se ha permitido preguntar dudas en las clases

 

,806

 

 

 

 

 

F2

Métodos que potencian las relaciones humanas

01. Se ha favorecido un clima de clase positivo

 

,763

 

 

 

 

 

03. Las tutorías se han utilizado para resolver dudas sobre el desarrollo de la asignatura

 

,587

 

 

 

 

 

04. Se han utilizado medios audiovisuales para el desarrollo de las clases (transparencias, presentaciones, vídeos, etc.)

 

 

,796

 

 

 

 

F3

Metodologías clásicas con soporte Audiovisual y de las TICs

05. Plataformas virtuales

 

 

,657

 

 

 

 

07. En las clases se han utilizado exposiciones orales para las explicaciones y se tomaban apuntes

 

 

,564

 

 

 

 

06. Lección magistral

 

 

,526

 

 

 

 

02. Seminario

 

 

 

,834

 

 

 

F4

Técnicas expositivas

03. Estudio de casos

 

 

 

,722

 

 

 

11. Mesas redondas

 

 

 

,595

 

 

 

05. La asignatura se han acompañado de prácticas que ayudaban a entender mejor la posterior labor profesional

 

 

 

 

,740

 

 

F5

Uso de prácticas profesionales

10. Observación de prácticas docentes

 

 

 

 

,685

 

 

06. Se han utilizado estrategias metodológicas variadas

 

 

 

 

,495

 

 

07. Tertulias dialógicas

 

 

 

 

 

,792

 

F6

Metodologías discursivas

08. Debates

 

 

 

 

 

,754

 

01. Proyectos tutelados

 

 

 

 

 

 

,666

F7

Técnicas metodológicas grupales

05. Aprendizaje colaborativo

 

 

 

 

 

 

,591

04. Aprendizaje basado en problemas / resolución de problemas

 

 

 

 

 

 

,410

Autovalores

12,15

3,72

2,03

1,58

1,23

1,15

1,01

 

% Varianza explicada

31,98

9,79

5,36

4,17

3,24

3,02

2,64

 

% Varianza explicada acumulada

31,98

41,77

47,14

51,32

54,56

57,59

60,23

 

KMO: ,807

Prueba Esfericidad de Barlett: Chi-cuadrado aproximado: 3808,87. gl. 276; sig: ,000

Tabla III. Análisis Factorial de la Escala de Metodologías Participativas

 

El primero de los factores del cuestionario (F1), es el que explica la mayor cantidad de varianza (32%); tiene cargas significativas en cinco preguntas relacionadas con la elaboración de recensiones e informes, con las consultas bibliográficas, así como con la realización de diarios y cuadernos de campo; por todo ello, hemos denominado a este factor Metodologías basadas en informes y diarios escritos.

 

El segundo de los factores, que explicaría el 10% del total de la varianza de la escala, tiene un fuerte componente interpersonal con altas cargas factoriales en las preguntas siguientes: “se ha permitido preguntar dudas en la clase”, “se ha favorecido un clima de clase positivo” y “las tutorías se han realizado para resolver dudas sobre el desarrollo de la asignatura”. Se ha denominado a este factor Metodologías que potencian las relaciones interpersonales.

 

El tercer factor (F3) tiene cargas en aspectos tales como la utilización de medios audiovisuales para el desarrollo de las clases y del desarrollo de lecciones magistrales. Por ello, hemos denominado a este factor Metodologías clásicas con soporte audiovisual y de las TICs; explica un 4% de la varianza total.

 

El cuarto factor (F4) lo hemos denominado Técnicas metodológicas expositivas innovadoras y estudio de casos por tener valores significativos en preguntas relacionadas con la utilización de estas estrategias de estudio, con los seminarios y con las mesas redondas.

 

Los factores 5 y 6 tienen valores en dos únicos ítems cada uno y con una varianza explicada del 3% cada uno. El primero de los señalados, tiene un claro componente práctico como estrategias metodológicas con valores significativos en las preguntas: “la asignatura se han acompañado de prácticas que ayudaban a entender mejor la posterior labor profesional” y en “la observación de prácticas docentes”. Por su parte, el segundo de los factores indicados (F6) tiene cargas elevadas en el uso de “tertulias dialógicas” y “debates”, razón por la cual le hemos denominado al factor Metodologías discursivas.

 

El último de los factores, con un autovalor superior a 1, explica el 3% de la varianza total y, correlaciona de manera importante con tres ítems cuales son: “la realización de proyectos tutelados”, “el aprendizaje colaborativo” y “el aprendizaje basado en resolución de problemas”. Por ello, lo hemos denominado Técnicas metodológicas grupales.

 

Para asegurar la validez de contenido, se ha realizado un Análisis Factorial Confirmatorio (AFC) de los siete factores antes descritos. Los índices obtenidos a partir de la matriz de covarianzas, presentaron ajustes satisfactorios: tanto en el índice RMSEA = 0.078, como en el GFI = 0.88, como en los restantes valores de ajuste del modelo (Tabla IV).

 

Modelo

S-B(Chi-cuadrado) (gl) (p)

GFI

RMSEA

NFI

NNFI

CFI

AGFI

AIC

Factores Escala
(siete factores)

1358,91 (231)(P = .00)

,88

,078

,86

,86

,88

,84

10194,78

Tabla IV. Evaluación del modelo de siete factores de las Escalas de Metodologías Participativas mediante AFC

 

Escala de sistemas de evaluación. Como hiciéramos con la Escala de Metodologías Participativas, se ha realizado el análisis de la fiabilidad de la Escala de Sistemas Evaluación mediante el Alfa de Cronbach, cuyos resultados resumimos en la Tabla V.

 

 

Alfa de Cronbach

Alfa de Cronbach basada en los elementos tipificados

Nº de elementos

,839

,868

38

Tabla V. Índice de fiabilidad de la Escala de Sistemas de Evaluación

 

El Alfa obtenido de 0.83 permite concluir que estamos ante una escala con un índice de fiabilidad muy alto. Como sucediera con la escala anterior, se decidió no eliminar ninguno de los 38 ítems de la escala original pues de dicha eliminación no se obtenían valores significativamente mayores en la escala total.

 

El Análisis Factorial de Componentes Principales (AFCP) obtuvo seis factores que explicarían el 60% de la varianza total de la escala. Tanto el índice de KMO de .087 como la prueba de esfericidad de Barlett (p>.00), indican la pertinencia de este análisis y la significatividad estadística de su resultados (Tabla VI).

 

 

Componente

Factores

1

2

3

4

5

6

11. Se aprende mucho más(*)

,799

 

 

 

 

 

F1

Evaluación orientada a los procesos de aprendizaje

09. Permite aprendizajes funcionales

,779

 

 

 

 

 

10. Genera aprendizajes significativos

,776

 

 

 

 

 

12. Mejora la calidad de los trabajos exigidos

,774

 

 

 

 

 

08. Mejora la tutela académica (seguimiento y ayuda al alumno)

,765

 

 

 

 

 

06. El alumno está más motivado, el proceso de aprendizaje es más motivador

,746

 

 

 

 

 

07. La calificación es más justa.

,743

 

 

 

 

 

14. Evalúa todos los aspectos posibles

,733

 

 

 

 

 

13. Hay interrelación entre teoría y práctica

,673

 

 

 

 

 

15. Hay retroalimentación y posibilidad de corregir errores en documentos y actividades

,650

 

 

 

 

 

04. El estudiante realiza un aprendizaje activo

,649

 

 

 

 

 

16. Se da un seguimiento más individualizado

,629

 

 

 

 

 

01. Ofrece alternativas a todos los estudiantes

,628

 

 

 

 

 

17. Requiere más responsabilidad

,611

 

 

 

 

 

03. Está centrado en el proceso, importancia del trabajo diario

,575

 

 

 

 

 

02. Hay un contrato previo, negociado y consensuado del sistema de evaluación

,559

 

 

 

 

 

05. Se plantea el trabajo en equipo de forma colaborativa

,504

 

 

 

 

 

11. Es injusto frente a otros procesos de evaluación

 

,713

 

 

 

 

F2

Anti-evaluación

10. Genera inseguridad e incertidumbre, dudas sobre que hay que realizar

 

,698

 

 

 

 

12. Las correcciones han sido poco claras

 

,670

 

 

 

 

09. El proceso es más complejo y, a veces, poco claro

 

,664

 

 

 

 

13. La valoración del trabajo es subjetiva

 

,592

 

 

 

 

02. Se utilizaban procesos de evaluación formativa (el profesor corregía las actividades y/o documentos, informando sobre cómo mejorar y corregir los errores)

 

 

,748

 

 

 

F3

Evaluación formativa

03. Las observaciones realizadas sobre los trabajos y/o actividades demandadas, podía derivar en su repetición para mejorarlos

 

 

,745

 

 

 

01. Se realizaban procesos de evaluación continua (evaluaciones de actividades y/o documentos durante el desarrollo de la asignatura)

 

 

,665

 

 

 

07. Se puede acumular mucho trabajo al final

 

 

 

,751

 

 

F4

Evaluación no planificada

08. Existe una desproporción trabajo/créditos

 

 

 

,640

 

 

05. Exige un mayor esfuerzo

 

 

 

,574

 

 

06. Existe dificultad para trabajar en grupo

 

 

 

,548

 

 

01. Exige una asistencia obligatoria y activa

 

 

 

 

,817

 

F5

Evaluación basada en la asistencia

03. Exige continuidad

 

 

 

 

,715

 

04. Se utilizaba un portafolios o carpeta individual para entregar materiales

 

 

 

 

 

,826

F6

Evaluación basada en Portafolios

05. Se utilizaba un portafolios grupal o carpeta colaborativa para entregar materiales

 

 

 

 

 

,748

07. Han existido similitudes con los sistemas de evaluación de otras asignaturas de este mismo centro

 

 

 

 

 

,560

Autovalores

12,15

3,72

2,04

1,58

1,23

1,15

 

% Varianza explicada

31,98

9,79

5,36

4,17

3,24

3,02

 

% Varianza explicada acumulada

31,98

41,77

47,14

51,32

54,56

57,59

 

KMO: ,807

Prueba Esfericidad de Barlett: Chi-cuadrado aproximado: 3808,87. gl. 276; sig: ,000

 

Tabla VI. Análisis Factorial de la Escala de Sistemas de Evaluación (No se listan los 4 ítems con valores factoriales menores de 0,35)

 

El primero de los factores, el más numeroso con pesos factoriales en un total de 19 preguntas, explica el 32% de la varianza total. Pese a la heterogeneidad que presentan estas preguntas (sistemas de evaluación que favorecen el aprendizaje y el aprendizaje significativo, mejora de las relaciones interpersonales y didácticas, utilización de procesos de evaluación formativa, etc.), tienen en común el que bien podrían ser indicadores de una Evaluación orientada a los procesos de aprendizaje.

 

En el segundo de los factores se obtienen las correlaciones más elevadas en las preguntas: el sistema de evaluación empleado es injusto frente a otros procesos de evaluación, genera inseguridad e incertidumbre, con correcciones poco claras y con procesos igualmente confusos y con una alta carga de subjetividad en las valoraciones. Por todo ello, le hemos denominado Anti-evaluación.

 

El tercer factor explica el 5% de la varianza total del cuestionario con correlaciones elevadas en las preguntas: se utilizaban procesos de evaluación formativa, las observaciones realizadas sobre los trabajos y/o actividades demandadas podrían derivar en su repetición para mejorarlas; se ha identificado el factor como Evaluación Formativa.

 

El cuarto de los factores encontrados tendría que ver con cuatro preguntas del cuestionario relacionadas con una inadecuada organización temporal de los procesos de evaluación, con una percepción elevada de asignación de recursos para evaluar así como una cierta incapacidad para trabajar con el equipo educativo; por estas razones hemos denominado a este factor Evaluación no planificada. Explica algo más del 4% de la varianza total.

 

El quinto factor posee valores en dos únicas preguntas cuales son: exige una asistencia obligatoria y activa, y exige continuidad; por lo que identificamos el factor como Evaluación basada en la asistencia.

 

El sexto y último factor tiene que ver, sobre todo, con el uso de portafolios o carpetas tanto individuales como colaborativas, por lo que denominamos a este factor Evaluación basada en portafolios; explica el 3% de la varianza total del cuestionario.

 

Como hiciéramos con la escala anterior, se realizó un Análisis Factorial Confirmatorio (AFC) con el total de preguntas de la Escala de Sistemas de Evaluación y los resultados de los seis factores antes analizados. Ahora como antes, todos los indicadores de dicho análisis indicaron un buen ajuste del modelo y, por tanto, de la existencia de esos factores a los que nos venimos refiriendo (Tabla VII).

 


Modelo

S-B(Chi-cuadrado) (gl) (p)

GFI

RMSEA

NFI

NNFI

CFI

AGFI

AIC

Factores Escala (seis factores)

2687,03 (545)(P = 0,00)

,84

,070

,95

,96

,084

,81

46310,71

Tabla VII. Evaluación del modelo de seis factores de la Escala de Sistemas de Evaluación mediante AFC

 

DISCUSIÓN Y CONCLUSIONES

 

            El objetivo de la escala EMPEF para valorar cómo son percibidas por profesorado y alumnado la metodología participativa y la evaluación formativa en la formación inicial en Educación Física ha sido confirmado por el análisis factorial exploratorio.

 

Los resultados muestran una estructura de siete factores en el caso de la metodología y de seis en la evaluación. El hecho de no tener como referencia otros estudios que respondan a los mismos aspectos que la escala aquí presentada es una de las carencias que puede asumirse, pero es cierto que aquellos trabajos que aportan información sobre temas de metodología y evaluación en general no profundizan en la misma medida que el EMPEF. Por ejemplo, el SETLQ (University of Edinburgh, 2001) contiene preguntas referidas a objetivos y congruencias (5), elecciones sobre contenidos (2), enseñanza y aprendizaje (5), feedback (5), evaluación comprensiva (2), motivación y entusiasmo (4), interés por el curso (2), que no corresponden a los mismos factores de nuestro estudio. También se diferencia de las propuestas de Entwistle y colaboradores (Entwistle, Hanley, y Hounsell, 1979; Entwistle y Peterson, 2004; Entwistle, Tait, y McCune, 2000) con el Approaches and Study Skills Inventory for Students pues preferiblemente lo usan para el tipo de aprendizaje conseguido (profundo, estratégico y superficial), aunque contiene algunas preguntas sobre enseñanza y evaluación, pero no relacionadas con los conceptos de metodología participativa y evaluación formativa. Es el trabajo de Gutiérrez-García et al. (2011) el que sí contiene algunos ítems que pueden relacionarse con el EMPEF, además de que su población de estudio también es de formación inicial en educación física. Así, en metodología contiene 17 ítems, pero no queda claro que correspondan con el mismo concepto de metodología participativa que aquí se ha expuesto. Sí incluye evaluación formativa, y aquí hay que remarcar que los resultados, en las preguntas que tienen un mismo sentido al que tiene el EMPEF, muestran resultados semejantes.

 

En suma, el EMPEF puede ser aplicado por el profesorado para comprobar las percepciones de los estudiantes sobre metodologías participativas y evaluación formativa e identificar los beneficios y las dificultades de la puesta en práctica de planteamientos innovadores en relación con la metodología y la evaluación. Es lo suficientemente extenso como para abarcar estos aspectos de la enseñanza y ha mostrado la validez necesaria para aplicarse en la formación inicial en las titulaciones de Educación Física. Las líneas de investigación que pueden desarrollarse con la aplicación de este instrumento pueden ayudar al profesorado para comprobar cómo es su docencia y su evaluación, pudiendo centrarse en los indicadores que debe mejorar.

 

REFERENCIAS BIBLIOGRÁFICAS

 

Bain, K. (2005). Lo que hacen los mejores profesores universitarios. Valencia: Universidad de Valencia.

Black, P., y Wiliam, D. (2009). Developing the theory of formative assessment. Assessment, Evaluation and Accountability, 21(1), 5-31. http://dx.doi.org/10.1007/s11092-008-9068-5

Biggs, J. (1987). Student approaches to learning and studying. Research monograph. Melbourne: Australian Council for Educational Research. Recuperado de http://www.eric.ed.gov/ERICWebPortal/search/detailmini.jsp?_nfpb=true&_&ERICExtSearch_SearchValue_0=ED308201&ERICExtSearch_SearchType_0=no&accno=ED308201

Biggs, J. (2006). Calidad del aprendizaje universitario (2ª ed.). Madrid: Narcea.

Brown, S., y Glasner, A. (Eds.) (2007). Evaluar en la Universidad. Problemas y nuevos enfoques. Madrid: Narcea.

Cabrera, A.F., y La Nasa, S. (2002). Sobre los métodos de ense-anza en la Universidad y sus efectos. Diez lecciones aprendidas. En C. Adelman (Ed.), Nuevas miradas sobre la universidad (pp. 63-88). Buenos Aires: Universidad Nacional de Tres de Febrero.

Cano-García, F., y Justicia-Justicia, F. (1994). Learning strategies, styles and approaches: an analysis of their interrelationships. Higher Education, 27, 239-260. http://dx.doi.org/10.1007/BF01384091

Cano-González, R. (2009). Tutoría universitaria y aprendizaje por competencias. ¿Cómo lograrlo? REIFOP, 12(1), 181-204. Recuperado de http://www.aufop.com

Consejo Europeo (2000). Conclusiones de la presidencia. Recuperado de http://www.europarl.europa.eu/summits/lis1_es.htm

EEES. (2009). Declaración de Leuven/Louvain-la-Neuve, 28-29 April 2009. Recuperado de http://www.eees.es/pdf/Leuven_Louvain-la-Neuve_Communique_April_2009.pdf

Entwistle, N., Hanley, M. y Hounsell, D. (1979). Identifying distinctive approaches to studying. Higher Education, 8(4), 365-380. http://dx.doi.org/10.1007/BF01680525

Entwistle, N. J., y Peterson, E. R. (2004). Conceptions of learning and knowledge in higher education: Relationships with study behaviour and influences of learning environments. International Journal of Educational Research, 41, 407-428.
http://dx.doi.org/10.1016/j.ijer.2005.08.009

Entwistle, N., Tait, H., y McCune, V. (2000). Patterns of response to approaches to studying inventory across contrasting groups and contexts. European Journal of Psychology of Education, 15(1), 33-48. http://dx.doi.org/10.1007/BF03173165

Feldman, K. A. (1986). The perceived instructional effectiveness of college teachers as related to their personality and attitudinal characteristics: A review and synthesis. Research in Higher Education, 234, 129-213.
http://dx.doi.org/10.1007/bf00991885

Fernández Pérez, M. (1989). Así ense-a nuestra Universidad: Hacia la construcción crítica de una didáctica universitaria. Madrid: Editorial Complutense.

Fuentes-Medina, M. E., y Herrero, J. R. (1999). Evaluación docente: Hacia una fundamentación de la autoevaluación. Revista Electrónica Interuniversitaria de Formación del Profesorado, 2(1). Recuperado de http://www.uva.es/aufor/publica/revelfor/99-v2n1.htm

Gimeno, J. (2012). ¿Por qué habría de renovarse la ense-anza en la Universidad? En J.B. Martínez (Coord.), Innovación en la universidad. Prácticas, políticas y retóricas (pp. 27-51). Barcelona: Graó.

Gutiérrez-García, C., Pérez-Pueyo, A., Pérez-Gutiérrez, M., y Palacios-Picos, A. (2011). Percepciones de profesores y alumnos sobre la ense-anza, evaluación y desarrollo de competencias en estudios universitarios de formación de profesorado. Cultura y Educación, 23(4), 499-514.
http://dx.doi.org/10.1174/113564011798392451

Huber, G.L. (2008). Aprendizaje activo y metodologías educativas. Revista de Educación, número extraordinario, 59-81.

Irons, A. (2008). Enhancing Learning through Formative Assessment and Feedback. New York: Routledge.

Knight, P.T. (2005). El profesorado de educación superior. Madrid: Narcea.

Latiesa, M. (2000). Validez y fiabilidad de las observaciones sociológicas. En M. García Ferrando, J. Ibá-ez, y F. Alvira (Comps.), El análisis de la realidad social. Métodos y técnicas de investigación (pp. 409-443). Madrid: Alianza.

Leathwood, C., y Phillips, D. (2000). Developing curriculum evaluation research in higher education: Process, politics and practicalities. Higher Education, 40, 313-330. http://dx.doi.org/10.1023/A:1004183527173

Losada, J. L., y López-Feal, R. (2003). Métodos de investigación en ciencias humanas y sociales. Madrid: Thomson.

McMillan, J. H. (ed.) (2007). Formative Classroom Assessment. Theory into Practice. New York: Teachers College Press.

Marín-García, J. A., Miralles-Insa, C., García-Sabater, J. J., y Vidal-Carreras, P. I. (2008) Ense-ando Administración de Empresas con docencia basada en el trabajo en equipo de los estudiantes: Ventajas, inconvenientes y propuestas de actuación. Intangible Capital, 4(2), 143-165.

Marsh, H. W. (1982). SEEQ: A reliable, valid, and useful instrument for collecting students' evaluations of university teaching. British Journal of Educational Psychology, 52, 77-95. http://dx.doi.org/10.1111/j.2044-8279.1982.tb02505.x

Marsh, H. W. (1987). Students' evaluations of university teaching: Research findings, methodological issues, and directions for future research. International Journal of Educational Research, 11, 253-388 (whole issue).
http://dx.doi.org/10.1016/0883-0355(87)90001-2

Marsh, H. W. (2007). Students' evaluations of university teaching: Dimensionality, reliability, validity, potential biases, and usefulness. En R. P. Raymond, y J. C. Smart (Eds.), The scholarship of teaching and learning in higher education: An evidence-based perspective (pp. 319-383). Dordrecht, The Netherlands: Springer http://dx.doi.org/10.1007/1-4020-5742-3_9

Marsh, H. W., y Roche, L. A. (1997). Making students' evaluations of teaching effectiveness effective. The critical issues of validity, bias, and utility. American Psychologist, 52(11), 1187-1197. http://dx.doi.org/10.1037/0003-066X.52.11.1187

Meyer, C., y Jones, T. B. (1993). Promoting active learning: Strategies for the college classroom. San Francisco: Jossey-Bass.

Millis, B. (ed.) (2010). Cooperative Learning in Higher Education: Across the Disciplines, Across the Academy. Sterling: Stylus Publishing.

Murray, H. G., Rushton, J. P., y Paunnem, S. V. (1990). Teacher personality traits and student instructional ratings in six types of university courses. Journal of Educational Psychology, 82(2), 250-261. http://dx.doi.org/10.1037/0022-0663.82.2.250

Palacios, A. y López-Pastor, V. (2013). Haz lo que yo digo pero no lo que yo hago: sistemas de evaluación del alumnado en la formación inicial del profesorado. Revista de Educación, 361, 279-305.

Pérez, Á., Julián, J. A., y López-Pastor, V. M. (2009). Evaluación formativa y compartida en el Espacio Europeo de Educación Superior. En V.M. López-Pastor, (coord.), Evaluación formativa y compartida en Educación Superior (pp. 19-43). Madrid: Narcea.

Prieto, L. (2007). Autoeficacia del profesor universitario: eficacia percibida y práctica docente. Madrid: Narcea.

Race, P. (2007). The Lecturer's Toolkit: A practical guide to assessment, learning and teaching. New York: Routledge.

Ramos, F., y Ortiz, M. (2010). Una experiencia de auto-evaluación de profesorado: teoría y práctica. Exedra, 4, 81-107.

Ramsden, P., y Entwistle N.J. (1981). Effects of academic departments on students' approaches to studying. British Journal of Educational Psychology, 51(3), 368-383. http://dx.doi.org/10.1111/j.2044-8279.1981.tb02493.x

Stenhouse, L. (1987). La investigación como base de la ense-anza. Madrid: Morata.

Tejedor, F. (Dir.) (1998). Las estrategias utilizadas por los profesores universitarios para la evaluación del aprendizaje de los alumnos. Madrid: CIDE (informe).

Tejedor, F. (2003). Un modelo de evaluación del profesorado universitario. Revista de Investigación Educativa, 21(1), 157-182.

Tippin, G.K., Lafreniere, K.D., y Page, S. (2012). Student perception of academic grading: Personality, academic orientation, and effort. Active Learning in Higher Education, 13(1), 51-61. http://dx.doi.org/10.1177/1469787411429187

Trillo, F. (2005). La evaluación de los estudiantes universitarios. El caso de la Universidad de Santiago de Compostela. Santiago de Compostela: Universidad de Santiago de Compostela.

Trillo, F., y Porto, M. (1999). La percepción de los estudiantes sobre su evaluación en la universidad. Un estudio en la Facultad de Ciencias de la Educación. Innovación Educativa, 9, 55-75.

University of Edinburgh (2001). ProjectETL. Shortened Experiences of Teaching and Learning Questionnaire (SETLQ). Disponible en www.etl.tla.ed.ac.uk/docs/SETLQscoring.pdf

Vázquez, J. A. (2008). La organización de las ense-anzas de grado y postgrado. Revista de Educación, número extraordinario, 23-39.

Villa, A. (2008). La excelencia docente. Revista de Educación, número extraordinario, 177-212.

 

 

 

 

Referencias totales / Total references: 48 (100%)                                

Referencias propias de la revista / Journal's own references: 0 (0%)

 

 

Rev.int.med.cienc.act.fís.deporte - vol. 15 - número 58 - ISSN: 1577-0354


 

CUESTIONARIO SOBRE METODOLOGÍA PARTICIPATIVA Y EVALUACIÓN FORMATIVA

 

Con el fin de estudiar la metodología y la evaluación utilizadas en la asignatura, te pedimos que respondas con sinceridad a las siguientes preguntas. El cuestionario es ANÓNIMO, garantizando su CONFIDENCIALIDAD. Gracias por tu colaboración

 

Estudios ya cursados

Bachiller

Formación profesional

Diplomatura

Licenciatura

Otros

 

Sexo

Hombre

Mujer

     Edad

 

Veces que te has matriculado en la asignatura

 

 

Porcentaje aproximado de clases de la asignatura a las que has asistido

No he asistido a las clases

Menos del 25%

Entre 25 y 50%

Entre 50 y 75%

Entre 75 y 90%

Más del 90%

 

 

1.- ¿Se ha negociado el programa de la asignatura al comienzo del curso?

No/Nada

Poco

Algo

Bastante

Mucho

Ns/Nc*

*No sabe/No contesta

 

2.- ¿La metodología utilizada en la asignatura te ha ayudado a adquirir competencias profesionales?

No/Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

 

3.- ¿La evaluación que se ha planteado favorece la adquisición de las competencias profesionales?

No/Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

 

4.- ¿Cuánto se han utilizado a lo largo de la asignatura las siguientes metodologías y estrategias?

01.  Proyectos tutelados

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

02.  Seminario

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

03.  Estudio de casos

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

04.  Aprendizaje basado en problemas / resolución de problemas

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

05.  Aprendizaje colaborativo

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

06.  Lección magistral

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

07.  Tertulias dialógicas

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

08.  Debates

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

09.  Consultar bibliografía

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

10.  Observación de prácticas docentes

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

11.  Mesas redondas

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

 

5.- ¿Cuánto has empleado en la asignatura los siguientes instrumentos?

01.  Cuadernos de campo

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

02.  Diario o fichas de sesiones

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

03.  Recensiones de artículos o libros

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

04.  Informes

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

05.  Plataformas virtuales

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

06.  Cuaderno o similar para la toma de apuntes

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

 

6.- Indica las veces que se han cumplido las siguientes afirmaciones durante la asignatura:

01.  Se ha favorecido un clima de clase positivo

Nunca

Pocas

Algunas

Bastantes

Muchas

Ns/Nc

02.  Se ha permitido preguntar dudas en las clases

Nunca

Pocas

Algunas

Bastantes

Muchas

Ns/Nc

03.  Las tutorías se han utilizado para resolver dudas sobre el desarrollo de la asignatura

Nunca

Pocas

Algunas

Bastantes

Muchas

Ns/Nc

04.  Se han utilizado medios audiovisuales para el desarrollo de las clases (transparencias, presentaciones, vídeos, etc.)

Nunca

Pocas

Algunas

Bastantes

Muchas

Ns/Nc

05.  La asignatura se han acompañado de prácticas que ayudaban a entender mejor la posterior labor profesional

Nunca

Pocas

Algunas

Bastantes

Muchas

Ns/Nc

06.  Se han utilizado estrategias metodológicas variadas

Nunca

Pocas

Algunas

Bastantes

Muchas

Ns/Nc

07.  En las clases se han utilizado exposiciones orales para las explicaciones y se tomaban apuntes

Nunca

Pocas

Algunas

Bastantes

Muchas

Ns/Nc

 

7.- Con respecto al sistema de evaluación en general, indica las veces que se han cumplido las siguientes afirmaciones durante la asignatura:

01.  Se realizaban procesos de evaluación continua (evaluaciones de actividades y/o documentos durante el desarrollo de la asignatura)

Nunca

Pocas

Algunas

Bastantes

Muchas

Ns/Nc

02.  Se utilizaban procesos de evaluación formativa (el profesor corregía las actividades y/o documentos, informando sobre cómo mejorar y corregir los errores)

Nunca

Pocas

Algunas

Bastantes

Muchas

Ns/Nc

03.  Las observaciones realizadas sobre los trabajos y/o actividades demandadas, podía derivar en su repetición para mejorarlos

Nunca

Pocas

Algunas

Bastantes

Muchas

Ns/Nc

04.  Se utilizaba un portafolios o carpeta individual para entregar materiales

Nunca

Pocas

Algunas

Bastantes

Muchas

Ns/Nc

05.  Se utilizaba un portafolios grupal o carpeta colaborativa para entregar materiales

Nunca

Pocas

Algunas

Bastantes

Muchas

Ns/Nc

06.  Se explicaban previamente los criterios de calidad de las diferentes actividades, trabajos o exámenes

Nunca

Pocas

Algunas

Bastantes

Muchas

Ns/Nc

07.  Han existido similitudes con los sistemas de evaluación de otras asignaturas de este mismo centro

Nunca

Pocas

Algunas

Bastantes

Muchas

Ns/Nc

 

8.- Con relación al tipo de examen, indica si en la asignatura se utiliza:

01.  Examen oral

Si

No

Ns/Nc

02.  Examen escrito de desarrollo (con preguntas largas, desarrollo de un tema, etc.)

Si

No

Ns/Nc

03.  Examen con preguntas cortas

Si

No

Ns/Nc

04.  Examen tipo test

Si

No

Ns/Nc

05.  Examen práctico (resolución de problemas, planteamiento de actividades, etc.)

Si

No

Ns/Nc

06.  No hay examen

Si

No

Ns/Nc

 

9.- Con relación a la calificación de la asignatura, indica si:

01.  La calificación proviene únicamente del examen final

Si

No

Ns/Nc

02.  La calificación final proviene del examen final y algún trabajo individual

Si

No

Ns/Nc

03.  La calificación proviene del examen final y otros instrumentos (cuadernos, recensiones, trabajos en grupo, etc.)

Si

No

Ns/Nc

04.  La calificación final es la suma de las notas de los exámenes parciales realizados

Si

No

Ns/Nc

05.  La calificación se obtiene sin exámenes

Si

No

Ns/Nc

06.  El sistema y los criterios de calificación se explican al principio de la asignatura y son conocidos

Si

No

Ns/Nc

07.  La calificación que pone el profesor está justificada

Si

No

Ns/Nc

08.  A pesar de realizar diferentes trabajos teórico-prácticos, el examen tenía un peso definitivo en la nota final (si no se superaba el examen no se superaba la asignatura)

Si

No

Ns/Nc

09.  Han existido trabajos teórico-prácticos (no exámenes) que han tenido un peso definitivo en la nota final (si no se superaban no se superaba la asignatura)

Si

No

Ns/Nc

 

10.- Con respecto a la participación de los alumnos en el proceso de evaluación y calificación de la asignatura, indica si:

01.  Los alumnos realizan una valoración de su propio trabajo (autoevaluación)

Si

No

Ns/Nc

02.  Los alumnos evalúan los trabajos de sus compañeros (coevaluación)

Si

No

Ns/Nc

03.  La calificación final es consensuada entre el profesor y el alumno (calificación dialogada)

Si

No

Ns/Nc

04.  Los propios alumnos emitían una calificación de manera justificada (autocalificación)

Si

No

Ns/Nc

 

11.- ¿En qué medida crees que la asignatura desarrolla las siguientes competencias profesionales?

01.  Organizar y animar situaciones de aprendizaje

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

02.  Gestionar la progresión de los aprendizajes

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

03.  Elaborar y poner en práctica estrategias de atención a la diversidad

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

04.  Implicar al alumnado en su aprendizaje y en la vida del centro

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

05.  Trabajar en equipo con otros docentes

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

06.  Participar en la gestión del centro escolar

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

07.  Informar e implicar a las familias

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

08.  Utilizar las tecnologías de la información y la comunicación

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

09.  Afrontar los deberes y dilemas éticos de la profesión

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

10.  Establecer procesos de evaluación formativa

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

 

12.- Señala si estás de acuerdo con las siguientes afirmaciones relativas al sistema de evaluación de la asignatura:

01.  Ofrece alternativas a todos los estudiantes

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

02.  Hay un contrato previo, negociado y consensuado del sistema de evaluación

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

03.  Está centrado en el proceso, importancia del trabajo diario

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

04.  El estudiante realiza un aprendizaje activo

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

05.  Se plantea el trabajo en equipo de forma colaborativa

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

06.  El alumno está más motivado, el proceso de aprendizaje es más motivador

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

07.  La calificación es más justa

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

08.  Mejora la tutela académica (seguimiento y ayuda al alumno)

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

09.  Permite aprendizajes funcionales

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

10.  Genera aprendizajes significativos

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

11.  Se aprende mucho más

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

12.  Mejora la calidad de los trabajos exigidos

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

13.  Hay interrelación entre teoría y práctica

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

14.  Evalúa todos los aspectos posibles

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

15.  Hay retroalimentación y posibilidad de corregir errores en documentos y actividades

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

16.  Se da un seguimiento más individualizado

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

17.  Requiere más responsabilidad

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

 

13.- Señala si estás de acuerdo con las siguientes afirmaciones relativas al sistema de evaluación de la asignatura:

01.  Exige una asistencia obligatoria y activa

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

02.  Tiene una dinámica de trabajo poco conocida, falta de hábito

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

03.  Exige continuidad

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

04.  Hay que comprenderlo previamente

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

05.  Exige un mayor esfuerzo

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

06.  Existe dificultad para trabajar en grupo

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

07.  Se puede acumular mucho trabajo al final

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

08.  Existe una desproporción trabajo/créditos

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

09.  El proceso es más complejo y, a veces, poco claro

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

10.  Genera inseguridad e incertidumbre, dudas sobre que hay que realizar

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

11.  Es injusto frente a otros procesos de evaluación

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

12.  Las correcciones han sido poco claras

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

13.  La valoración del trabajo es subjetiva

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

14.  Exige participar en mi propia evaluación (autoevaluarse)

Nada

Poco

Algo

Bastante

Mucho

Ns/Nc

 

14.- Señala la satisfacción global en relación con la asignatura 

 

Nada satisfecho/a

Poco satisfecho/a

Medianamente satisfecho/a

Bastante satisfecho/a

Muy satisfecho/a

Ns/Nc

 

15.- Señala la satisfacción global en relación con la evaluación de la asignatura 

 

Nada satisfecho/a

Poco satisfecho/a

Medianamente satisfecho/a

Bastante satisfecho/a

Muy satisfecho/a

Ns/Nc

 

16.- ¿Cuál es el grado de dificultad de la asignatura?

 

Nada difícil

Poco difícil

Medianamente difícil

Bastante difícil

Muy difícil

Ns/Nc

 

¿Quieres realizar alguna observación o comentario en relación a la asignatura o a este cuestionario? (puedes utilizar el espacio que creas conveniente tanto aquí como en el reverso del folio)

 

-GRACIAS POR TU COLABORACIÓN    -

 

 

 

 

Rev.int.med.cienc.act.fís.deporte - vol. 15 - número 58 - ISSN: 1577-0354