Análisis de encuestas docentes de Pensamiento Computacional (PC)
con foco en género, período 2018 a 2023
Prólogo
El primer objetivo de este documento es analizar las brechas de género en la percepción docente sobre interés y rendimientos de niñas y varones, en el curso de pensamiento computacional (PC).
Tablero de indicadores de equidad de género
Indicador de brecha de género: riesgo relativo (RR)
El riesgo relativo es un indicador que permite comparar la probabilidad de que ocurra un evento en un grupo en relación con otro. En el caso de la medición de las brechas de género en el ecosistema STEM de Ceibal, se calcula el RR como el cociente entre la probabilidad de que las mujeres participen y la probabilidad de que los varones participen en un contexto específico, teniendo en cuenta el número total de mujeres y varones involucrados.
Ventajas
Este indicador sirve tanto para variables continuas (como puntajes obtenidos en pruebas) como para variables discretas (cantidad de personas que participan).1
Además, es posible calcular intervalos de confianza y así obtener la significancia estadística de cada indicador, respecto del grupo objetivo.
Cómo interpretar estas cifras
Si el indicador mide cantidad de personas
Un valor de 0.5 indica que por cada docente que piensa que una niña es mejor en términos relativos que un varón, hay dos docentes que piensan que un varón es mejor.
Si el indicador mide puntajes
Un valor de 0.5 en Bebras, por ejemplo, indica que en promedio los varones obtienen el doble del puntaje que las niñas.
Si las brechas de género son favorables a varones, están en verde. Cuando son favorables a las niñas, están en amarillo.
Un segundo objetivo de este documento es empalmar las diferentes versiones del formulario, de manera que se pueda analizar toda la serie desde 2018.
En este documento analizamos las encuestas de percepciones docentes sobre Pensamiento Computacional (PC), desde 2018 a 2023, haciendo foco en las diferencias de género del alumnado.
Desde 2018 a 2021 se preguntaba de manera comparada la percepción docente sobre interés, rendimiento y aprendizajes de niñas y varones. Por ejemplo, se preguntaba:
El trabajo en Pensamiento Computacional es más desarrollado...
- Mucho más en los niños
- Más en los niños
- Igual
- Más en las niñas
- Mucho más en las niñas
- No sabe / No contesta
En 2022 hubo un cambio en el formulario docente y se pasó a preguntar por separado la percepción docente sobre los mismos temas. La modalidad de preguntas es la siguiente:
Teniendo en cuenta su experiencia en el programa de Pensamiento Computacional califique el nivel de desarrollo de los siguientes temas en las NIÑAS:
- Programación
- Resolución de problemas
- Trabajo grupal
- Organización
- Evaluación de los resultados
- Adquisición de conocimientos nuevos
- Participación durante las clases
- Utilización de CREA
- Interés por aprender
y luego las mismas preguntas para varones
Para poder comparar las encuestas de percepciones docentes desde el inicio del programa de Pensamiento Computacional, en 2023 realizamos dos módulos de encuestas:
en el
módulo Apreguntamos de manera comparada las percepciones docentes sobre interés, rendimiento y aprendizajes de niñas y varonesen el
módulo Bpreguntamos por separado la percepción docente (sobre los mismos temas) para el grupo de niñas y el de varones.
Realizamos tres formularios:
En el formulario 1, le enviamos a 600 docentes el conjunto de preguntas, donde primero aparecía el módulo A, y luego el módulo B.
En el formulario 2 le enviamos también a 600 docentes el conjunto de preguntas, pero en primer lugar aparecía el módulo B (preguntas por separado) y luego el módulo A.
En el formulario 3, le enviamos al resto de la base de datos solamente el módulo B (primero a 300 docentes de la muestra, y luego al resto de los docentes, que no forman parte de las personas que recibieron el formulario A ni el B). Un total de 1902 docentes recibieron el formulario tres.
En los capítulos de análisis presentamos algunas gráficas (todavía en formato borrador) de las diferentes versiones de la encuesta 2023.2
El antiguo indicador de brechas no era útil para comparar puntajes obtenidos.↩︎
A partir del 27/2/2024, luego de la reunión con el equipo de PC (Camila Porto y Alar Urruticoechea) resolvimos adaptar la metodología de análisis de ellos para el cálculo de las brechas. Este presente documento comienza a actualizarse. Al 28 de febrero 2023 están actualizadas las versiones
completade 2023 y la de 2022. También están calculadas las correspondencias con las bases de 2021 y 2020. Todavía falta actualizar el cálculo en las versiones 1 y 2 de 2023, con 232 y 262 observaciones, respectivamente.↩︎