DANIEL FERNANDO FRANCO BELTRÁN - …repository.udistrital.edu.co/bitstream/11349/5106/1... ·...
-
Upload
nguyenminh -
Category
Documents
-
view
220 -
download
0
Transcript of DANIEL FERNANDO FRANCO BELTRÁN - …repository.udistrital.edu.co/bitstream/11349/5106/1... ·...
PROTOTIPO WEB RESPONSIVO PARA LA APLICACIÓN DE ACTIVIDADES DE
EVALUACIÓN EN LOS PROCESOS DE ENSEÑANZA – APRENDIZAJE DE LA
EDUCACIÓN BÁSICA Y MEDIA
DANIEL FERNANDO FRANCO BELTRÁN
UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS
FACULTAD DE INGENIERÍA
PROYECTO CURRICULAR DE INGENIERÍA DE SISTEMAS
BOGOTÁ D.C.
2016
PROTOTIPO WEB RESPONSIVO PARA LA APLICACIÓN DE ACTIVIDADES DE
EVALUACIÓN EN LOS PROCESOS DE ENSEÑANZA – APRENDIZAJE DE LA
EDUCACIÓN BÁSICAY MEDIA
DANIEL FERNANDO FRANCO BELTRÁN
Monografía para optar al título de
Ingeniero de Sistemas
Director
Ing. Julio Barón Velandia
Profesor Facultad de Ingeniería
UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS
FACULTAD DE INGENIERÍA
PROYECTO CURRICULAR DE INGENIERÍA DE SISTEMAS
BOGOTÁ D.C.
2016
Nota de aceptación
____________________________
____________________________
____________________________
____________________________
____________________________
____________________________
Firma de Jurado
Bogotá D.C., Noviembre 16 de 2016
DEDICATORIA
A mi familia
Agradezco infinitamente a mi familia, especialmente a mi mamá y hermano, por su apoyo
constante y aliento en los momentos difíciles, permitiéndome alcanzar los objetivos que
me he propuesto hasta el día de hoy.
AGRADECIMIENTOS
Al ingeniero Julio Barón Velandia, director de este trabajo de grado, por las gestiones
realizadas, sus aportes y guía oportuna, que permitieron la realización de este trabajo.
Al ingeniero Jhon Herrera Cubides, revisor de este trabajo de grado, quien con sus
observaciones y correcciones encaminó este proyecto en la dirección adecuada.
Al Colegio San Francisco de Asís IED, en cabeza del Doctor Dumer Antonio Pedraza, por
permitir el acceso a la institución educativa, la disposición de espacios físicos, académicos
y recursos tecnológicos disponibles para llevar a cabo la prueba del producto obtenido.
A la profesora Ana Cecilia Beltrán, asesora pedagógica de este proyecto, quien aportó sus
conocimientos y criterios para definir y moldear los elementos que componen este
producto, así como sus gestiones para aplicarlo en un contexto pedagógico real.
Al profesor Juan Carlos Muñoz, profesor participante en la prueba del producto, quien
brindó los espacios académicos y recursos tecnológicos necesarios para llevar a cabo estas
pruebas, así como sus aportes que contribuyeron al refinamiento del producto.
A los estudiantes de los cursos 604 y 704 del Colegio San Francisco de Asís, jornada tarde,
por su disposición para participar en las pruebas propuestas, así como sus sinceras
opiniones respecto al producto generado.
A mis familiares, amigos, colegas y allegados, quienes brindaron sus conceptos, puntos de
vistas, recomendaciones y consejos para la realización de este trabajo, así como la
generación y refinamiento del producto obtenido.
6
TABLA DE CONTENIDO
1. INTRODUCCIÓN ................................................................................................................. 16
2. PLANTEAMIENTO DEL PROBLEMA .............................................................................. 17
3. OBJETIVOS .......................................................................................................................... 18
3.1 OBJETIVO GENERAL ................................................................................................. 18
3.2 OBJETIVOS ESPECÍFICOS ......................................................................................... 18
4. JUSTIFICACIÓN .................................................................................................................. 19
5. MARCO REFERENCIAL .................................................................................................... 20
5.1 EL PROCESO DE ENSEÑANZA – APRENDIZAJE .................................................. 20
5.1.1 La formación ........................................................................................................... 20
5.1.2 Actores de la formación .......................................................................................... 21
5.1.3 Elementos para la formación .................................................................................. 22
5.1.4 Fases de la formación.............................................................................................. 22
5.2 LA EVALUACIÓN EN EL PROCESO DE ENSEÑANZA – APRENDIZAJE .......... 23
5.2.1 Taxonomía de Bloom .............................................................................................. 24
5.2.2 Pirámide de Miller .................................................................................................. 25
5.2.3 Tipos de evaluación ................................................................................................ 26
5.2.4 Técnicas e instrumentos de evaluación ................................................................... 28
5.3 LAS TIC EN EL PROCESO DE ENSEÑANZA – APRENDIZAJE ............................ 30
5.3.1 Modelo MITICA ..................................................................................................... 30
5.3.2 Modelo SAMR ........................................................................................................ 31
5.3.3 Entornos virtuales de aprendizaje ........................................................................... 33
5.4 PROCESOS DE EVALUACIÓN CON TIC ................................................................. 33
5.4.1 Evaluar con los EVA .............................................................................................. 33
5.4.2 Otras opciones para evaluar con las TIC ................................................................ 34
5.5 FORMATOS PARA CREACIÓN DE SOFTWARE .................................................... 36
5.5.1 Web responsiva ....................................................................................................... 38
6. METODOLOGÍA .................................................................................................................. 39
7
6.1 ASIGNACIÓN DE ROLES SCRUM ............................................................................ 39
6.2 DINÁMICA DE TRABAJO SCRUM ........................................................................... 39
6.2.1 Desarrollo del prototipo .......................................................................................... 40
6.2.2 Prueba del prototipo ................................................................................................ 40
7. EL INSTRUMENTO DE EVALUACIÓN ........................................................................... 41
7.1 ESTRUCTURA .............................................................................................................. 41
7.1.1 Preguntas ................................................................................................................. 41
7.1.2 Logros ..................................................................................................................... 43
7.2 CALIFICACIÓN ............................................................................................................ 43
7.2.1 Calificación para las preguntas ............................................................................... 43
7.2.2 Descuento o penalización para las preguntas .......................................................... 44
7.2.3 Calificación para la evaluación ............................................................................... 45
7.3 RETROALIMENTACIÓN ............................................................................................ 45
7.3.1 Informes grupales.................................................................................................... 46
7.3.2 Informes individuales.............................................................................................. 47
7.4 MECÁNICAS CON EVENTOS DE ARRASTRAR Y SOLTAR ................................ 48
7.4.1 Descripción de eventos ........................................................................................... 48
7.4.2 Creación de evaluaciones ........................................................................................ 51
7.4.3 Presentación de evaluaciones .................................................................................. 52
8. DESARROLLO DEL PROTOTIPO ..................................................................................... 54
8.1 ELECCIÓN DE TECNOLOGÍAS ................................................................................. 54
8.1.1 Persistencia de datos ............................................................................................... 54
8.1.2 Frontend .................................................................................................................. 55
8.1.3 Backend................................................................................................................... 57
8.2 MODELO DE DATOS .................................................................................................. 58
8.2.1 Usuario .................................................................................................................... 59
8.2.2 Galería ..................................................................................................................... 59
8.2.3 Pregunta .................................................................................................................. 60
8.2.4 Evaluación............................................................................................................... 64
8
8.2.5 Resultado................................................................................................................. 65
8.3 REQUERIMIENTOS DEL SISTEMA .......................................................................... 66
8.3.1 Requerimientos funcionales .................................................................................... 66
8.3.2 Requerimientos no funcionales ............................................................................... 67
8.4 DISEÑO DE BACKEND............................................................................................... 67
8.4.1 Diagrama de despliegue .......................................................................................... 68
8.4.2 División de responsabilidades en la arquitectura cliente – servidor ....................... 69
8.4.3 Diagramas de secuencia para operaciones más representativas ............................. 70
8.5 DISEÑO DE FRONTEND............................................................................................. 76
8.5.1 Usabilidad ............................................................................................................... 76
8.5.2 Patrones y recomendaciones para diseños responsivos .......................................... 77
8.5.3 Mockups .................................................................................................................. 78
8.6 PRODUCTO GENERADO ........................................................................................... 87
8.6.1 Página principal del aplicativo ................................................................................ 87
8.6.2 Perfiles de usuario ................................................................................................... 88
8.6.3 Módulo de gestión de multimedia........................................................................... 89
8.6.4 Módulo de gestión de preguntas ............................................................................. 91
8.6.5 Módulo de gestión de evaluaciones ........................................................................ 95
8.6.6 Módulo de presentación de evaluaciones ............................................................... 97
8.6.7 Módulo de resultados e informes .......................................................................... 100
9. PRUEBA EN INSTITUCIÓN EDUCATIVA .................................................................... 103
9.1 TRÁMITES ANTE LA INSTITUCIÓN...................................................................... 103
9.2 CRONOGRAMA DE ACTIVIDADES ....................................................................... 104
9.3 SESIONES DE CONTEXTUALIZACIÓN................................................................. 104
9.3.1 Entorno de trabajo ................................................................................................. 105
9.3.2 Contextualización con docentes ............................................................................ 106
9.3.3 Contextualización con estudiantes ........................................................................ 106
9.4 SESIONES DE PRUEBA ESPECÍFICA ..................................................................... 110
9.4.1 Entorno de trabajo ................................................................................................. 110
9.4.2 Prueba específica con curso 604 ........................................................................... 113
9
9.4.3 Primera sesión para prueba específica con curso 704 ........................................... 120
9.4.4 Segunda sesión para prueba específica con curso 704 .......................................... 124
10. CONCLUSIONES ............................................................................................................... 129
11. TRABAJOS FUTUROS ...................................................................................................... 131
12. BIBLIOGRAFÍA ................................................................................................................. 132
13. ANEXOS ............................................................................................................................. 138
10
LISTA DE TABLAS
Tabla 1. Enseñanza y Aprendizaje según corrientes educativas. .................................................. 20
Tabla 2. Fases de la formación. .................................................................................................... 23
Tabla 3. Niveles de la taxonomía revisada de Bloom. .................................................................. 25
Tabla 4. Tipos de evaluación según el ámbito temporal. .............................................................. 27
Tabla 5. Clasificación de las técnicas de evaluación. ................................................................... 28
Tabla 6. Técnicas y herramientas de evaluación. ......................................................................... 29
Tabla 7. Preguntas más comunes para pruebas escritas. ............................................................... 29
Tabla 8. Ejes del modelo MITICA. .............................................................................................. 31
Tabla 9. Categorías del modelo SAMR. ....................................................................................... 32
Tabla 10. Principales tipos de preguntas para evaluación en los EVA. ........................................ 34
Tabla 11. Ventajas y desventajas de aplicaciones nativas y web. ................................................ 37
Tabla 12. Roles SCRUM para el proyecto.................................................................................... 39
Tabla 13. Objetivos propuestos para cada sprint. ......................................................................... 40
Tabla 14. Actividades realizadas en cada Sprint .......................................................................... 40
Tabla 15. Propósitos de los tipos de pregunta incorporados. ........................................................ 41
Tabla 16. Elementos compartidos por los tipos de preguntas. ...................................................... 42
Tabla 17. Elementos específicos para los tipos de preguntas. ...................................................... 42
Tabla 18. Elementos que definen un logro. .................................................................................. 43
Tabla 19. Parámetros para determinar la nota de una pregunta. ................................................... 44
Tabla 20. Parámetros para determinar la nota de cada uno de los tipos de preguntas. ................. 44
Tabla 21. Parámetros para determinar el descuento en una pregunta. .......................................... 45
Tabla 22. Parámetros para determinar el descuento de cada uno de los tipos de preguntas. ........ 45
Tabla 23. Información para retroalimentación de resultados por pregunta. ................................. 47
Tabla 24. Manipulación de componentes de la evaluación con eventos de arrastrar y soltar. ..... 51
Tabla 25. Creación y modificación de preguntas con eventos de arrastrar y soltar. ..................... 52
Tabla 26. Resolución de preguntas con eventos de arrastrar y soltar. .......................................... 53
Tabla 27. Entidades definidas para el modelo de datos. ............................................................... 58
Tabla 28. Entidad Usuario del modelo de datos. .......................................................................... 59
Tabla 29. Entidad Galería del modelo de datos. ........................................................................... 59
11
Tabla 30. Entidad Pregunta del modelo de datos. ......................................................................... 60
Tabla 31. Entidad Evaluación del modelo de datos. ..................................................................... 64
Tabla 32. Entidad Resultado del modelo de datos. ....................................................................... 65
Tabla 33. Estructura de la respuesta del estudiante. ..................................................................... 65
Tabla 34. Requerimientos funcionales del sistema. ...................................................................... 66
Tabla 35. Requerimientos no funcionales. .................................................................................... 67
Tabla 36. Requerimientos mínimos de software para el funcionamiento del aplicativo. ............. 68
Tabla 37. Distribución de módulos y responsabilidades. ............................................................. 69
Tabla 38. Componentes del estándar ISO/IEC 9126 para el análisis de la usabilidad. ................ 77
Tabla 39. Patrones de diseño para la web responsiva. .................................................................. 77
Tabla 40. Recomendaciones y buenas prácticas en sitios web del mercado. ............................... 78
Tabla 41. Trámites y documentos realizados a la institución educativa. .................................... 104
Tabla 42. Características técnicas de servidor y clientes en entorno local. ................................ 105
Tabla 43. Inquietudes de los docentes respecto al aplicativo. .................................................... 106
Tabla 44. Resultados de encuesta # 1 para estudiantes. .............................................................. 108
Tabla 42. Características técnicas de servidor y clientes en el entorno de la nube. .................... 112
Tabla 45. Resultados de encuesta # 2 para estudiantes. .............................................................. 115
Tabla 46. Impresiones de los estudiantes de 604 sobre la experiencia. ...................................... 116
Tabla 47. Resultados encuesta aplicada a docente Ana Cecilia Beltrán. .................................... 117
Tabla 48. Resultados encuesta aplicada a docente Juan Carlos Muñoz. .................................... 125
LISTA DE FIGURAS
Figura 1. Taxonomía de Bloom y su actualización....................................................................... 24
Figura 2. Pirámide de Miller ......................................................................................................... 26
Figura 3. Modelo MITICA. .......................................................................................................... 31
Figura 4. Modelo SAMR. ............................................................................................................. 32
Figura 5. Primer movimiento para aplicación de eventos de arrastrar y soltar. ............................ 49
Figura 6. Segundo movimiento para aplicación de eventos de arrastrar y soltar. ........................ 50
Figura 7. Modelo de datos no relacional propuesto para el aplicativo. ........................................ 58
Figura 8. Estructura de los elementos multimedia. ....................................................................... 60
Figura 9. Estructura de los elementos que conforman las preguntas. ........................................... 61
Figura 10. Estructura de las preguntas de base común. ................................................................ 61
Figura 11. Estructura de las preguntas de correlación. ................................................................. 62
Figura 12. Estructura de las preguntas de opción múltiple. .......................................................... 62
Figura 13. Estructura de las preguntas de ordenamiento. ............................................................. 63
Figura 14. Estructura de las preguntas de verdadero o falso. ....................................................... 63
Figura 15. Estructura para asignación de puntajes y logros.......................................................... 64
Figura 16. Diagrama de despliegue para el aplicativo propuesto. ................................................ 68
Figura 17. Diagrama de secuencia para creación de elementos multimedia. ............................... 71
Figura 18. Diagrama de secuencia para creación de preguntas. ................................................... 72
Figura 19. Diagrama de secuencia para creación de evaluaciones. .............................................. 73
Figura 20. Diagrama de secuencia para presentación de evaluaciones. ....................................... 74
Figura 21. Diagrama de secuencia para consulta de resultados como docente. ........................... 75
Figura 22. Diagrama de secuencia para consulta de resultados como estudiante. ........................ 76
Figura 23. Estructura base del aplicativo para computadores y laptops. ...................................... 78
Figura 24. Estructura base del aplicativo para dispositivos móviles ............................................ 79
Figura 25. Distribución de columnas para computadores y laptops. ............................................ 80
Figura 26. Distribución de columnas para dispositivos móviles .................................................. 80
Figura 27. Uso de acordeón en computadores y laptops. ............................................................. 81
Figura 28. Uso de acordeón en dispositivos móviles. ................................................................... 82
Figura 29. Uso de ventanas emergentes en computadores y laptops. ........................................... 83
13
Figura 30. Uso de ventanas emergentes en dispositivos móviles. ................................................ 83
Figura 31. Cambio de texto en los botones por íconos en computadores y laptops. .................... 84
Figura 32. Cambio de texto en los botones por íconos en dispositivos móviles. ......................... 84
Figura 33. Uso de íconos para acompañar elementos de una página en computadores y laptops. 85
Figura 34. Uso de íconos para acompañar elementos de una página en dispositivos móviles. .... 85
Figura 35. Incorporación de íconos para indicar resultados en computadores y laptops. ............ 86
Figura 36. Incorporación de íconos para indicar resultados en dispositivos móviles. .................. 86
Figura 37. Página principal del aplicativo .................................................................................... 87
Figura 38. Página de inicio para usuarios de tipo docente. ........................................................... 88
Figura 39. Página de inicio para usuarios de tipo docente. ........................................................... 89
Figura 40. Ejemplo de galería de usuario con elementos. ............................................................ 90
Figura 41. Ejemplo de formulario para creación de textos. .......................................................... 90
Figura 42. Ejemplo de gestor de carga de archivos. ..................................................................... 91
Figura 43. Ejemplo de formulario para creación de preguntas de base común. ........................... 92
Figura 44. Ejemplo de formulario para creación de preguntas de correlación ............................. 93
Figura 45. Ventana emergente para manejo de categorías en preguntas de correlación. ............. 93
Figura 46. Ejemplo de formulario para creación de preguntas de opción múltiple. ..................... 94
Figura 47. Ejemplo de formulario para creación de preguntas de ordenamiento. ........................ 94
Figura 48. Ejemplo de formulario para creación de preguntas de verdadero o falso. .................. 95
Figura 49. Ejemplo de formulario para creación de evaluaciones. ............................................... 96
Figura 50. Ejemplo de pregunta de base común vista por un estudiante. ..................................... 97
Figura 51. Ejemplo de pregunta de correlación vista por un estudiante. ...................................... 98
Figura 52. Ventana emergente para indicar respuesta en preguntas de correlación. .................... 98
Figura 53. Ejemplo de pregunta de opción múltiple vista por un estudiante. ............................... 99
Figura 54. Ejemplo de pregunta de ordenamiento vista por un estudiante. .................................. 99
Figura 55. Ejemplo de pregunta de verdadero o falso vista por un estudiante. .......................... 100
Figura 56. Ejemplo de informe individual de resultados. ........................................................... 101
Figura 57. Ejemplo de informe grupal de resultados. ................................................................. 102
Figura 58. Entorno de red para la sesión de contextualización. .................................................. 105
Figura 59. Entorno de trabajo para la prueba específica. ............................................................ 111
Figura 60. Información consola OpenShift. ................................................................................ 112
14
Figura 61. Información consola mLab. ....................................................................................... 112
Figura 62. Participantes en primera sesión de prueba específica. ............................................... 113
Figura 63. Lectura colectiva de texto en la prueba específica con curso 604. ............................ 114
Figura 64. Vista panorámica de la prueba específica con curso 604. ......................................... 114
Figura 65. Error obtenido durante en la sesión de prueba específica con curso 704. ................. 120
Figura 66. Reporte de estado del servicio de OpenShift. ............................................................ 123
Figura 67. Reporte de estado del servicio de mLab. ................................................................... 123
Figura 68. Error detectado en la segunda sesión de prueba específica con curso 704. .............. 128
LISTA DE ANEXOS
Anexo 1. Historias de usuario para el proyecto. ......................................................................... 138
Anexo 2. Descripción de requerimientos funcionales ................................................................ 140
Anexo 3. Descripción de requerimientos no funcionales ........................................................... 152
Anexo 4. Plan de pruebas realizadas al prototipo. ...................................................................... 154
Anexo 5. Carta de solicitud institucional emitida por el CERI. .................................................. 156
Anexo 6. Carta de solicitud a título personal. ............................................................................. 157
Anexo 7. Autorización de padres de familia. .............................................................................. 159
Anexo 8. Informe final presentado a la institución educativa. ................................................... 160
Anexo 9. Evaluación para tutorial guiado. .................................................................................. 162
Anexo 10. Evaluación para familiarización del aplicativo. ........................................................ 164
Anexo 11. Encuesta # 1 para estudiantes. ................................................................................... 170
Anexo 12. Encuesta # 2 para estudiantes. ................................................................................... 171
Anexo 13. Encuesta # 1 para docentes........................................................................................ 172
Anexo 14. Evaluación de Español para prueba específica con curso 604. ................................. 174
Anexo 15. Resultados de evaluación de Español aplicada al curso 604. .................................... 179
Anexo 16. Evaluación de Tecnología para prueba específica con curso 704. ............................ 182
Anexo 17. Resultados de evaluación de Tecnología aplicada al curso 704. ............................... 189
16
1. INTRODUCCIÓN
La incorporación de las TIC a los procesos de enseñanza – aprendizaje cambió la forma de
realizar sus actividades, incluso ha transformado la concepción de los procesos en sí. El rol de las
TIC en procesos de enseñanza – aprendizaje depende del modelo educativo: puede ser una
herramienta de apoyo o el medio en el que transcurre la totalidad de los procesos. La evolución
constante de las TIC permite considerar las nuevas características como oportunidades para
innovar, fortalecer y mejorar las actividades que se desarrollan dentro de los procesos de enseñanza
– aprendizaje.
La evaluación es indispensable para determinar el grado en que los estudiantes logran los
objetivos definidos en los procesos de enseñanza – aprendizaje. Existen herramientas para evaluar
haciendo uso de las TIC y buscan facilitar la creación y aplicación de evaluaciones, así como la
automatización de la calificación. Sin embargo, el uso de estas herramientas es poco frecuente o
nulo, principalmente por causas asociadas al uso e incompatibilidades entre herramientas y
dispositivos. El docente, al desconocer cómo usar las herramientas y cómo afrontar los problemas
técnicos, resuelve no utilizarlas.
Este proyecto propone la construcción de un prototipo web responsivo a medida, para la
aplicación de actividades de evaluación. Al ser web, su acceso puede realizarse desde cualquier
lugar con conexión a Internet. Con características responsivas, cualquier dispositivo que cuente
con navegador web permite usar el aplicativo. Con mecánicas basadas en eventos de arrastrar y
soltar, se busca hacer intuitiva la creación y aplicación de evaluaciones, eliminando la necesidad
de conocer el aplicativo para poder usarlo. Dichas mecánicas ofrecen experiencias innovadoras
para docentes y estudiantes.
Adicionalmente, se plantea la automatización completa de la calificación y
retroalimentación de resultados, permitiendo al docente enfocar esfuerzos en otras actividades,
como la preparación de las sesiones de clase. Con la generación de informes, el docente accede a
información significativa que le ayuda a analizar el desempeño individual y grupal, identificar
áreas de fortaleza o que requieren refuerzo, así como determinar el grado en que se logran los
objetivos propuestos para una temática específica o para un curso en general.
17
2. PLANTEAMIENTO DEL PROBLEMA
Dentro de los instrumentos para efectuar actividades de evaluación, la prueba escrita es uno
de los más conocidos y empleados. Con preguntas abiertas y cerradas, el docente puede
puntalmente, interrogar y determinar la validez de la respuesta. Las pruebas escritas delimitan las
respuestas a un fragmento de texto o un conjunto de opciones predefinidas, reduciendo en gran
medida, el tiempo que el docente debe invertir para revisar las respuestas proporcionadas por los
estudiantes (SEP, 2012). Por lo anterior, las herramientas TIC para aplicar evaluaciones se basan
en la prueba escrita.
Los procesos de evaluación con TIC facilitan la labor docente al automatizar los procesos
como la calificación, permitiéndole enfocarse en otras actividades. No obstante, el docente
requiere tener conocimientos técnicos y dominar las herramientas. Las cuestiones técnicas como
incompatibilidades entre dispositivos y aplicativos requieren solución y son responsabilidad de él,
en muchas ocasiones. Asimismo, los aplicativos no son intuitivos y requieren ser estudiados a
fondo para usarlos. El docente, al no contar con conocimientos técnicos y no tener la facilidad de
capacitarse, descarta el uso de las TIC para evaluar y realiza la evaluación de forma convencional.
Para el estudiante, las mecánicas usadas en las pruebas escritas pueden resultar confusas e
inducir al error. La variedad de formas para indicar la respuesta y la presión de ser evaluado,
pueden llevarlo a elegir la opción incorrecta, marcar más de las opciones solicitadas o diligenciar
mal la hoja de respuestas, invalidando la pregunta para su calificación. Al evaluar con las TIC se
reducen estos errores, ya que se incorporan mecanismos de validación que prohíben elegir más de
una opción o dejar una respuesta en blanco. No obstante, la interacción entre aplicativo y estudiante
no es muy amigable, pudiendo generar en él sensación de monotonía y cansancio.
¿Cómo facilitar la aplicación de actividades de evaluación dentro de los procesos de
enseñanza – aprendizaje con el uso de las TIC, reduciendo el conocimiento técnico e informático
requerido por parte del docente y permitiéndole al estudiante la interacción con formas diferentes
de evaluación, sin dependencias específicas de infraestructura tecnológica y aplicaciones de
software?
18
3. OBJETIVOS
3.1 OBJETIVO GENERAL
Desarrollar un prototipo web responsivo para la aplicación de actividades de evaluación en
los procesos de enseñanza – aprendizaje de la educación básica y media, que facilite la labor
docente en la elaboración, aplicación, calificación y retroalimentación de dichas actividades,
constituyendo una experiencia diferente dentro y fuera del aula.
3.2 OBJETIVOS ESPECÍFICOS
Establecer las mecánicas de elaboración y presentación de actividades de evaluación,
basadas en eventos de arrastrar y soltar, teniendo en cuenta las necesidades de usabilidad
de docentes y estudiantes.
Proponer un modelo de datos que permita la representación semántica de actividades de
evaluación y sus respectivos resultados, para facilitar su comprensión, implementación
y extensión.
Determinar el conjunto de tecnologías para backend y frontend, mediante una evaluación
de características de usabilidad y compatibilidad, para despliegue en entornos web sobre
dispositivos convencionales y móviles.
Implementar un mecanismo para la automatización total de la calificación de las
actividades de evaluación, así como la retroalimentación de resultados, mediante la
generación de informes para docentes y estudiantes.
Construir un prototipo web responsivo que permita realizar actividades de evaluación,
generando resultados y retroalimentaciones al instante, para docentes y estudiantes.
Realizar una prueba del prototipo, con un grupo de docentes y estudiantes, en el aula de
clase, para evaluar la pertinencia del aplicativo en procesos de evaluación, enfocándose
en la usabilidad de los mecanismos de interacción y la independencia tecnológica para
su acceso.
19
4. JUSTIFICACIÓN
Las TIC cumplen un rol importante en los procesos de enseñanza – aprendizaje, pues
apoyan a docentes y estudiantes en las actividades que realizan, dentro y fuera del aula. En la
educación básica y media, las TIC tienen mayor impacto, ya que los estudiantes son nativos
digitales, personas que han interactuado con estas tecnologías durante toda su vida. Aunque ellos
las dominan ampliamente, son individuos en formación y es una necesidad el guiarlos para que las
usen de forma apropiada. Por ello, el ámbito académico permite dar a conocer otras formas de usar
las TIC, así como adquirir y fortalecer competencias tecnológicas, ya sea directa o indirectamente.
Lleva a cabo procesos de evaluación usando las TIC, es una realidad. Sin embargo, el
docente opta por evaluar de forma tradicional, debido a dificultades al usar las herramientas y
problemas técnicos entre dispositivos y aplicativos. Por ello, construir un aplicativo web
responsivo para aplicar actividades de evaluación, contrarresta las problemáticas de
compatibilidad y reduce la necesidad de conocimiento técnico para su puesta en marcha. Para el
docente, representa una alternativa que apoya significativamente su labor cotidiana y lo desliga
del aspecto técnico, para enfocarse en el pedagógico.
Con mecánicas de elaboración y aplicación de evaluaciones, basadas en eventos de arrastrar
y soltar, se brindan formas naturales e intuitivas para el uso de la herramienta, respondiendo a las
necesidades de usabilidad. Para el estudiante, estas mecánicas crean un contexto amigable, afín
con su realidad tecnológica, que puede transformar su percepción de la evaluación, motivarle y
ayudarle a obtener excelentes resultados, sin dejar a un lado el propósito de evaluar. Al docente,
se le presenta un escenario innovador para crear actividades de evaluación, que facilita realmente
su labor al ahorrar tiempo y aliviar su carga laboral.
Por otra parte, al automatizar la calificación y retroalimentación de resultados, el docente
concentra sus esfuerzos en actividades que requieren de su total intervención. Puede notificársele
al estudiante de inmediato sus resultados y obtenerse fácilmente informes, para determinar áreas
que son fortalezas o que requieren ser trabajadas, ya sea de un estudiante o del grupo en general.
De la misma forma, puede determinarse el grado en el que se alcanzaron los objetivos propuestos
para una determinada temática o para la asignatura en general.
20
5. MARCO REFERENCIAL
5.1 EL PROCESO DE ENSEÑANZA – APRENDIZAJE
El proceso de enseñanza – aprendizaje puede concebirse como un conjunto de actividades,
en las que participan docente y estudiantes, cuya finalidad es la formación de estos últimos. Sin
embargo, esta descripción no engloba muchas de las características relevantes, que son necesarias
para comprenderlo. A continuación se describe la acción de formar, los actores y elementos que
participan en ella y las fases o etapas que la componen, haciendo énfasis en la evaluación.
5.1.1 La formación
Es el proceso donde los individuos generan cambios en conocimientos, técnicas y puntos
de vista, adquiridos previamente. Finalizar un proceso formativo implica haber efectuado un
proceso de aprendizaje, presentándose así dos perspectivas de la formación: la enseñanza y el
aprendizaje (Moreno, 2002). No obstante, algunas corrientes educativas difieren en elementos que
describen la enseñanza y el aprendizaje, relevantes para comprender el proceso formativo. A
continuación se exponen algunas de estas corrientes y sus propuestas en enseñanza, aprendizaje y
diseño instruccional (componente encargado de la creación de recursos).
Tabla 1. Enseñanza y Aprendizaje según corrientes educativas.
Paradigma Aprendizaje Enseñanza Foco Instruccional
Conductista Adquisición de
respuestas
Suministro de
retroalimentación Contenidos
Cognitivista Adquisición de
conocimiento
Transmisión de la
información
Contenidos y
enseñanza
Constructivista Construcción de
significado
Orientación del
procesamiento cognitivo Estudiante
Fuente: (Moreno, 2002).
Catalogar estas corrientes educativas como obsoletas o incorrectas, dadas las condiciones
actuales de educación, sería una equivocación. Cada una de ellas propone elementos que deben ser
considerados para llevar a buen término los procesos de enseñanza – aprendizaje. Sin embargo,
los procesos formativos, hoy en día se centran en el estudiante, permitiendo considerar a la
corriente constructivista como aquella que es tenida en cuenta principalmente (Moreno, 2002).
21
La formación por competencias es un enfoque donde los conocimientos y habilidades
impartidos responden a las necesidades de la sociedad. Su propósito es fortalecer los modelos
pedagógicos existentes en tres aspectos: aprendizaje, función docente y evaluación; así como la
integración del conocimiento, habilidades y valores, para el estudio y resolución de problemas.
Asimismo, aporta a la creación de programas de formación que buscan satisfacer los
requerimientos del entorno y el aseguramiento de la calidad en todas las actividades que componen
el proceso educativo (Tobón, 2006).
La corriente constructivista se relaciona ampliamente con la formación por competencias,
ya que la adquisición de conocimiento supone la construcción del mismo, así como el desarrollo
de nuevas competencias, que conducen al individuo a aplicar adecuadamente el conocimiento en
las situaciones que lo demandan. Sin embargo, el enfoque constructivista está más relacionado al
proceso de adquisición de conocimiento y el enfoque por competencias a su aplicación (Cuevas,
Rocha, Casco, & Martínez, 2011).
En Colombia, el Plan Decenal de Educación (PNDE) encamina la educación hacia la
formación por competencias. Mediante la construcción de currículos que fomenten la adquisición
de competencias, se busca que los estudiantes respondan a las necesidades en los campos personal,
profesional y social. Entre muchas competencias, se busca que las personas adquieran y fortalezcan
competencias ciudadanas, el dominio de una segunda lengua, así como el uso y apropiación de las
TIC (MEN, 2007).
5.1.2 Actores de la formación
El proceso de formación requiere dos partes: los individuos a ser formados (estudiantes) y
quien conducirá el proceso (docente). Estos dos roles son vitales para concebir el proceso de
enseñanza – aprendizaje en su esencia, pero no son los únicos que participan en él. Son ejemplo
de actores: las instituciones educativas, que con sus directivas y actuaciones influyen notablemente
los procesos; entidades públicas y privadas, así como la sociedad en general. Este apartado enfatiza
el rol docente y estudiante (Moreno, 2002).
El docente ha sido definido como transmisor de conocimiento, transferido a sus estudiantes
en actividades, apoyándose en recursos y siguiendo una metodología. Sin embargo, ahora es
mediador en los procesos de enseñanza – aprendizaje, quien con sus capacidades personales y
22
profesionales lo llevar a buen término (Moreno, 2002). Con las TIC, puede delegar actividades al
estudiante y darle protagonismo en su proceso de formación. El docente necesita ser experto con
las TIC y su supervisión e intermediación, son vitales para lograr los objetivos (Mejía, Cruz, &
Osmán, 2014). Además, está en constante capacitación para adquirir los conocimientos y
competencias adecuadas para realizar su labor (MEN, 2007).
Con una concepción del proceso de enseñanza – aprendizaje centrado en el estudiante, su
definición cambia radicalmente. El estudiante deja de ser un actor pasivo y se convierte en partícipe
activo de su proceso de formación, quien debe saber, poder y querer aprender (Moreno, 2002).
Además, debe ser una persona que respeta los derechos, deberes y la diversidad, que convive en
armonía con sus semejantes, posee capacidades para atender al conocimiento multidisciplinar y es
competente en diferentes ámbitos como el personal, laboral y social (MEN, 2007).
5.1.3 Elementos para la formación
Los recursos son todos los elementos usados por docentes y estudiantes como soporte en
las actividades desarrolladas dentro del proceso de enseñanza – aprendizaje, tales como el
desarrollo de contenidos y la evaluación de los objetivos (Carballo, 1978). Los recursos pueden
clasificarse según quien los use, pueden ser recursos para la enseñanza o para el aprendizaje.
Asimismo, pueden observarse como recursos físicos y no físicos, incluyendo estos últimos a las
personas, el tiempo, entre otros (Moreno, 2002).
La metodología define los lineamientos que describen la manera en que el docente
encamina el proceso de enseñanza – aprendizaje, haciendo uso de los recursos y técnicas dentro
de las actividades propuestas. Igualmente, define el entorno en el que ocurren las diferentes
actividades, que debe tener las condiciones adecuadas y los recursos necesarios para llevar a buen
término el proceso de enseñanza – aprendizaje (Moreno, 2002).
5.1.4 Fases de la formación
Un proceso de enseñanza – aprendizaje consta de cuatro fases o etapas, que ocurren de
forma sistemática, continua e integrada, estas son: planeamiento, conducción, evaluación y
relaciones interpersonales (Carballo, 1978). A continuación se describe cada una de ellas.
23
Tabla 2. Fases de la formación.
Fase Descripción
Planeamiento Momento de preparación, donde se definen elementos como
objetivos, contenidos, actividades, recursos, evaluación, entre otros.
Conducción Puesta en marcha de la planificación realizada, centrándose en la
realización de las actividades con los recursos asignados.
Evaluación Actividades cuyo objetivo es determinar en qué medida los
estudiantes alcanzan los objetivos propuestos.
Relaciones
interpersonales
Su propósito es resaltar la importancia de la interacción entre
docentes y estudiantes, que son permanentes y de gran impacto.
Fuente: Autor. Basada en (Carballo, 1978).
Aunque la evaluación constituye una serie de actividades y está contenida en la etapa de
conducción, por su gran importancia requiere ser abordada como una etapa independiente, a la que
se denomina evaluación. Algunos aspectos a considerar en la evaluación son: el tipo de medición
a realizar, los instrumentos a utilizar, la manera en que se construirá el contenido del instrumento
de evaluación, entre otros.
5.2 LA EVALUACIÓN EN EL PROCESO DE ENSEÑANZA – APRENDIZAJE
Tradicionalmente, la evaluación se asocia con medir el conocimiento del estudiante, al
culminar su formación. Esta visión la limita como un medio para el control del estudiante (Rosales,
2014). No obstante, el concepto de la evaluación ha cambiado a la par con los procesos de
enseñanza – aprendizaje, siendo ahora un mecanismo que permite obtener información para
soportar la emisión de juicios y toma de decisiones (Manríquez, 2012).
Evaluar es un proceso donde su adecuada definición y conducción, el qué evaluar y cómo,
son cuestiones clave. Determinar el progreso de los estudiantes puede llegar a ser una tarea
subjetiva e infructuosa. La taxonomía de Bloom (Bloom, Engelhart, Furst, Hill, & Krathwohl,
1956) y la pirámide de Miller (Miller, 1990), son modelos que permiten al docente identificar el
qué evaluar y la manera de hacerlo, es decir, definir y dimensionar la evaluación, de acuerdo con
los objetivos del proceso de enseñanza – aprendizaje. A continuación se exponen estos modelos,
así como los tipos, técnicas e instrumentos de evaluación existentes.
24
5.2.1 Taxonomía de Bloom
Es un modelo que describe lo que se espera que el estudiante haya logrado, ya sea al
finalizar una actividad o el proceso de enseñanza – aprendizaje. Es ideal para definir objetivos,
pautas y elementos a evaluar (López, 2008). Una jerarquía de 6 niveles define las capacidades y
habilidades del individuo para usar el conocimiento adquirido. Al escalar en el modelo, se está en
capacidad de realizar acciones más amplias y significativas, denominadas pensamiento de orden
superior, enmarcado en tres dominios: cognitivo, referente al conocimiento; afectivo, relativo al
individuo y psicomotor, que comprende habilidades y destrezas (Bloom et al., 1956).
Figura 1. Taxonomía de Bloom y su actualización.
Fuente: (López, 2008).
La taxonomía revisada de Bloom, como se conoce a la actualización realizada al modelo
en 2001, renombra los niveles de la jerarquía con verbos, expresando explícitamente las acciones
que pueden realizarse en cada uno. Igualmente, reforma estructuralmente la taxonomía,
intercambiando los dos niveles superiores, considerando así a la síntesis como la habilidad máxima
que un individuo manifiesta al generar nuevo conocimiento (Anderson et al., 2001). A
continuación se describen los niveles de la taxonomía actualizada.
25
Tabla 3. Niveles de la taxonomía revisada de Bloom.
Nivel Descripción
Recordar Retención de información y capacidad de traerla a memoria en diferentes
instantes de tiempo.
Comprender Comprensión y construcción de significados, partiendo de elementos e
información proporcionada.
Aplicar Aplicación de conocimientos, técnicas, herramientas, entre otras, para la
resolución de problemas.
Analizar Habilidades para el estudio de elementos y situaciones, con la descomposición
de sus partes.
Evaluar Capacidad de contrastar elementos y emitir juicios de valor para la toma de
decisiones soportadas en criterios lógicos y razonables.
Crear Generación de nuevo conocimiento, partiendo de conocimientos, técnicas,
herramientas, entre otras, previamente adquiridos.
Fuente: Autor. Basada en (López, 2008).
La taxonomía de Bloom ha sido un referente importante para los procesos de enseñanza –
aprendizaje desde su publicación. Apoyarse en esta herramienta permite visualizar claramente si
se lograron los objetivos propuestos, así como evidenciar cambios conductuales en los estudiantes
(Carballo, 1978). Usar la taxonomía garantiza que, al finalizar un proceso de enseñanza –
aprendizaje, los estudiantes “deben haber adquirido” nuevas habilidades y/o conocimientos
(López, 2008).
5.2.2 Pirámide de Miller
Este modelo clasifica los conocimientos y habilidades de los estudiantes, una vez finalizada
una actividad o el proceso de enseñanza – aprendizaje, en el área de la medicina. Tiene cuatro
niveles jerárquicos, que describen las destrezas y saberes del estudiante desde el qué y el cómo. Al
escalar en la pirámide, el estudiante pasa de la teoría a la práctica, pudiendo así traducir sus
conocimientos en hechos (Miller, 1990).
Este modelo puede ser extrapolado a otros campos del saber, ya que la necesidad de evaluar
al estudiante está presente en cualquier nivel educativo y área de conocimiento. Es un instrumento
ideal para la evaluación dentro de la formación por competencias, pues permite al docente usar
varios métodos para evaluar al estudiante, que es la manera adecuada de constatar el dominio de
una competencia. Sin embargo, al usarse añade dificultad a la evaluación de competencias y
requiere un cambio cultural en docentes y estudiantes, respecto a la evaluación (Manríquez, 2012).
26
Figura 2. Pirámide de Miller
Fuente: Autor. Basado en (Miller, 1990).
La pirámide de Miller contribuye a la evaluación integral, considerando varios puntos de
vista para una misma competencia. Instrumentos de evaluación tradicionales, como la evaluación
escrita, permite evaluar el conocimiento y su aplicación teórica, pues denotan el aspecto cognitivo
del estudiante. Sin embargo, para los dos niveles superiores se requieren instrumentos acordes al
objeto y contexto de la evaluación, donde el estudiante aplica el conocimiento en situaciones
propias del área de formación, que requieren formas específicas para su observación y medición
(Durante, 2006).
5.2.3 Tipos de evaluación
La Comisión de Educación Superior del Atlántico Medio (MSCHE) clasifica la evaluación
según la medición realizada, en métodos directos e indirectos. Los primeros, permiten determinar
el grado en que un estudiante domina un tema, posee aptitudes para una actividad, entre otros. Los
segundos, permiten obtener información del proceso de enseñanza – aprendizaje en sí, como la
recopilación de información que evidencie la realización de actividades o indicadores para evaluar
los objetivos institucionales (MSCHE, 2007).
27
El aspecto temporal es otro punto de vista para clasificar la evaluación. La evaluación
formativa y acumulativa son tipos de evaluación ampliamente estudiados e implementados
(Rosales, 2014), (MSCHE, 2007). Asimismo, en esta clasificación se encuentran las evaluaciones
diagnóstica, de necesidad y reacción (Shepherd & Godwin, 2004). A continuación se describe cada
una de ellas.
Tabla 4. Tipos de evaluación según el ámbito temporal.
Evaluación Características
Diagnóstica
Se aplica antes de una experiencia de aprendizaje. Su objetivo es identificar el
conocimiento previo que posee un individuo y poder conducir la experiencia
según su resultado.
Formativa
Su aplicación es continua dentro del proceso de enseñanza – aprendizaje con
el fin de estudiar el desempeño de un estudiante respecto a una experiencia
culminada, brindar la retroalimentación y aplicar los correctivos necesarios.
Necesidad
Su alcance es grupal y busca determinar las fortalezas, habilidades y actitudes
del conjunto de individuos respecto al desarrollo del curso, así como posibles
deficiencias.
Reacción
Su alcance es grupal y busca establecer, entre otras cosas, el nivel de
satisfacción con respecto a una experiencia de aprendizaje, de un curso o del
proceso de enseñanza – aprendizaje en sí.
Acumulativa
Su aplicación es llevada a cabo al culminar el proceso de enseñanza –
aprendizaje. Su finalidad es la de emitir un juicio o calificación definitiva
valorando los logros de cada individuo.
Fuente: Autor. Basado en (MSCHE, 2007), (Rosales, 2014) y (Shepherd & Godwin, 2004).
Las evaluaciones de necesidad y reacción pueden considerarse métodos indirectos de
evaluación, así como implementarse en cualquier instante del proceso de enseñanza – aprendizaje,
ya que su propósito es recopilar información del proceso en sí. Por otra parte, las evaluaciones
diagnóstica, formativa y acumulativa se relacionan con el desempeño y saberes del estudiante en
momentos específicos, definidos en la planeación del proceso de enseñanza – aprendizaje, por lo
que son considerados métodos directos de evaluación.
La evaluación, según su alcance, puede ser a nivel de curso, programa o institución. El
nivel de curso se refiere al conjunto de estudiantes de una asignatura. Por otra parte, el programa
comprende un nivel escolar, programa académico, especialidad, entre otros. Finalmente, el nivel
de institución constituye una visión completa de los procesos de enseñanza – aprendizaje,
considerando todo elemento que interactúe en el proceso y con la organización (MSCHE, 2007).
28
Cualquier método de evaluación a usar debe considerar el tipo de medición a realizar,
dando cabida a otra clasificación de la evaluación, ya sea cualitativa o cuantitativa, teniendo ambos
enfoques sus ventajas y desventajas. El enfoque cuantitativo se caracteriza por la expresión
numérica de la información, permitiendo el su tratamiento estadístico facilitando de análisis. Como
desventaja, los datos cuantitativos son muy cerrados y no permiten otras perspectivas de estudio
(Rosales, 2014).
Por otra parte, el enfoque cualitativo maneja información no numérica. Su obtención se
realiza mediante dos técnicas: categorización o expresión narrativa. Su mayor ventaja es el
potencial para representar información, permitiendo así un análisis profundo que puede derivar en
información adicional, de gran relevancia para docentes y estudiantes. Sin embargo, al trabajar el
enfoque cualitativo se requiere realizar un análisis más profundo y su tratamiento estadístico se
torna complicado (Rosales, 2014).
5.2.4 Técnicas e instrumentos de evaluación
Para la Secretaría de Educación Pública de México (SEP), las técnicas y herramientas para
realizar procesos evaluativos en la educación básica pueden clasificarse en cuatro categorías:
observación, desempeño, análisis del desempeño e interrogatorio, cuyo objetivo en esencia es la
medición de conocimientos, habilidades, actitudes y valores (mencionados posteriormente como
elementos medibles) del estudiante a lo largo del proceso de enseñanza – aprendizaje (SEP, 2012).
A continuación se describe cada una de ellas.
Tabla 5. Clasificación de las técnicas de evaluación.
Técnicas Descripción
Observación
Evidencian la posesión y aplicación de los elementos medibles. Se
dividen en sistemáticas, que obtiene información concreta; y no
sistemáticas, que obtienen información general.
Desempeño Evidencian en los estudiantes la posesión de los elementos
medibles, con la obtención de resultados y del procedimiento usado.
Análisis de desempeño Amplían el alcance de las técnicas del desempeño, obteniendo
información adicional del estudiante.
Interrogativas
Determinan la posesión de los elementos medibles realizando
cuestionamientos puntuales. Acota significativamente las variables
a estudiar y la información recopilada.
Fuente: Autor. Basado en (SEP, 2012).
29
La siguiente tabla relaciona las técnicas expuestas anteriormente junto con algunos
instrumentos, que son los más conocidos y usados en cada categoría. Además, relaciona el tipo de
saberes que cada instrumento puede evaluar, los cuales corresponden a los dominios cognitivo,
psicomotor y afectivo respectivamente, propuestos por la Taxonomía de Bloom.
Tabla 6. Técnicas y herramientas de evaluación.
Técnicas Instrumentos
Aprendizajes que pueden evaluarse
Conocimientos Habilidades Actitudes y
Valores
Observación
Guía de observación x x x
Registro anecdotario x x x
Diario de clase x x x
Diario de trabajo x x x
Escala de actitudes x
Desempeño
Preguntas del procedimiento x x
Cuaderno de los alumnos x x x
Organizadores gráficos x x
Análisis del
desempeño
Portafolio x x
Rúbrica x x x
Lista de cotejo x x x
Interrogativo
Tipo textual: Debate y ensayo x x x
Tipos oral y escrito: Pruebas
escritas x x
Fuente: (SEP, 2012).
Las pruebas escritas, son el instrumento más conocido y usado en la evaluación. Se
caracterizan por ser claras y precisas, así como por demandar del alumno una respuesta concreta o
puntual. Facilita la automatización del proceso de calificación ya que, al formular preguntas que
limitan su solución a elementos predefinidos, se garantiza unicidad en los resultados a procesar
posteriormente (SEP, 2012). A continuación se presentan los tipos de interrogantes o preguntas más
usados en pruebas escritas.
Tabla 7. Preguntas más comunes para pruebas escritas.
Tipo de pregunta Descripción
Opción múltiple Ofrece un conjunto de respuestas donde solo una es correcta. En algunos
casos varias opciones conforman la respuesta.
De base común
(Multireactivas)
Interrogantes realizados a partir de una misma información (texto o
recurso gráfico).
Ordenamiento Plantea una serie de elementos en desorden que deben ser puestos en
jerarquía o secuencia, de acuerdo con un criterio solicitado.
30
Tipo de pregunta Descripción
Verdaderas o Falsas Interrogante que requiere ser validado o refutado.
Correlación Propone dos conjuntos de elementos que se relacionan entre sí. El
objetivo es encontrar las relaciones.
Para completar ideas Presenta una idea incompleta que requiere ser acabada con información
que brinde coherencia y sentido.
Abiertas de
respuesta única Interrogante que requiere una respuesta concreta.
Fuente: Autor. Basado en (SEP, 2012).
5.3 LAS TIC EN EL PROCESO DE ENSEÑANZA – APRENDIZAJE
Las Tecnologías de la Información y Comunicación (TIC) son aquellas que permiten
almacenar, recuperar, procesar y comunicar información (Belloch, 2012). Desde la visión
constructivista, estas herramientas acompañan a docentes en su labor formativa, así como al
estudiante en la construcción del conocimiento (Sanchez, 2004). El aprendizaje significativo es
una teoría del constructivismo que observa la construcción de conocimiento como un proceso
resultante de relacionar los saberes previos y los nuevos (Ausubel, 1980).
Incorporar las TIC en procesos de enseñanza – aprendizaje es un reto para docentes y
estudiantes, roles transformados al adoptar estas tecnologías como elemento activo en la formación
(Mejía et al., 2014). Aunque el docente es responsable de usar las TIC, no es el único que lo hace
posible, pues actores como instituciones educativas y entidades externas tienen responsabilidades
en esto. A continuación se exponen los modelos MITICA (Piedrahita & López, 2003) y SAMR
(López, 2015), que describen la integración de las TIC en procesos educativos y los Entornos
Virtuales de Aprendizaje (EVA), herramienta ampliamente conocida y usada en procesos de
enseñanza – aprendizaje.
5.3.1 Modelo MITICA
Este modelo brinda una descripción desde la perspectiva institucional sobre la
incorporación de la TIC en los procesos de enseñanza – aprendizaje. Consta de 5 ejes que son de
gran relevancia para lograr la integración de estas tecnologías a los procesos educativos, así como
conseguir trasformaciones significativas en la enseñanza (Piedrahita & López, 2003). A
continuación se presenta el modelo, así como la descripción de cada uno de sus ejes.
31
Figura 3. Modelo MITICA.
Fuente: (Piedrahita & López, 2003).
Tabla 8. Ejes del modelo MITICA.
Eje Descripción
Dirección Institucional Se encarga de liderar el proceso de incorporación de TIC desde el
enfoque administrativo, pedagógico y técnico.
Infraestructura TIC Encargada de los elementos técnicos como lo son hardware, software y
soporte técnico.
Coordinación y
Docencia TIC
Su función es la dirección del área tecnológica de la institución y sus
miembros como lo son coordinadores y docentes.
Docentes otras Áreas Su propósito es la adquisición de competencias e implementación de
TIC por parte de los docentes en sus asignaturas.
Recursos Digitales Gestiona los recursos digitales a ser usados por parte de los docentes en
sus asignaturas ya sea software o recurso en la web.
Fuente: Autor. Basado en (Piedrahita & López, 2003).
5.3.2 Modelo SAMR
Este modelo permite estudiar el alcance de las TIC y su impacto dentro de los procesos de
enseñanza – aprendizaje. Propone cuatro categorías, divididas en dos niveles, que denotan el papel
de las TIC para realizar actividades (Puentedura, 2006). A continuación se presenta el modelo, así
como la descripción de cada una de sus categorías.
32
Figura 4. Modelo SAMR.
Fuente: (López, 2015).
Tabla 9. Categorías del modelo SAMR.
Nivel Categoría Descripción
Mejorar
Sustituir
La tecnología sustituye una herramienta que permite realizar
determinada actividad, sin efectuar cambio alguno tanto en la
actividad como en la metodología.
Aumentar
La tecnología sustituye herramientas tradicionales agregando
funcionalidades que cambian la didáctica de la actividad, pero no es
indispensable para su realización. Su uso no produce una
transformación a la metodología.
Transformar
Modificar
La tecnología se convierte en elemento activo, involucrada en gran
parte de un proceso de enseñanza – aprendizaje, ocasionando así
cambios considerables de la metodología y las actividades que
consideren su uso.
Redefinir
La tecnología es una herramienta indispensable para la realización
de todas las actividades de un proceso de enseñanza – aprendizaje.
Se genera una transformación completa de la metodología y
actividades propuestas.
Fuente: Autor. Basado en (López, 2015) y (Puentedura, 2006).
33
5.3.3 Entornos virtuales de aprendizaje
Es la forma más conocida y usada para incorporar las TIC en los procesos de enseñanza –
aprendizaje. Se definen como un espacio virtual que incorpora un conjunto de herramientas,
enmarcadas en cuatro pilares: publicación de material y actividades, comunicación e interacción
de sus miembros, trabajo colaborativo y organización de contenidos de la asignatura (Salinas,
2011). Estas características responden a las necesidades de las modalidades de educación
semipresencial o b-learning, educación virtual e-learning y se adapta a la educación presencial o
tradicional (Belloch, 2013).
Los EVA permiten llevar a cabo todas las actividades de los procesos de enseñanza –
aprendizaje, con herramientas como foros, wikis o blogs, cuya intención es el trabajo grupal e
interacción de sus integrantes. Además, pueden realizarse actividades de evaluación, que son de
naturaleza privada e individual, con el uso de herramientas diseñadas para este fin, que se enfocan
en la automatización del proceso de calificación y la generación de informes.
5.4 PROCESOS DE EVALUACIÓN CON TIC
A continuación se expone cómo pueden llevarse a cabo evaluaciones con los EVA, así
como algunas opciones existentes en el mercado, diseñadas específicamente para realizar procesos
de evaluación.
5.4.1 Evaluar con los EVA
La evaluación en los EVA se asemeja a la prueba escrita, donde puntualmente se indaga a
los estudiantes e igualmente se espera su respuesta, ya sea de forma abierta o con opciones
predefinidas. Este tipo de evaluación permite automatizar la calificación, pero no aplica para todos
los casos. Las preguntas abiertas requieren que el docente emita un concepto, un juicio o valor,
con respecto a los criterios de evaluación que ha definido previamente.
En la actualidad, herramientas como Moodle, Schoology, Blackboard, Sakai, Edmodo y
Dokeos, son usadas para los procesos de enseñanza – aprendizaje, pues permiten llevar a cabo la
totalidad de las actividades que puedan realizarse a lo largo del proceso, incluidas las actividades
de evaluación. A continuación se exponen los principales tipos de pregunta que los aplicativos
mencionados ofrecen al docente para construir evaluaciones.
34
Tabla 10. Principales tipos de preguntas para evaluación en los EVA.
Tipo de Pregunta Tipo de respuesta Moodle Schoology Blackboard Sakai Edmodo Dokeos
Cálculo Abierta / Cerrada x x x x
Arrastrar y soltar Cerrada x
Respuesta corta Abierta x x x x x x
Ensayo Abierta x x x x x x
Asociación Cerrada x x x x x x
Llenar espacios Abierta / Cerrada x x x x x x
Selección múltiple Cerrada x x x x x x
Falso o verdadero Cerrada x x x x x x
Ordenamiento Cerrada x x x
Encuesta Cerrada x x
Archivo adjunto Abierta x x x
Fuente: Autor. Basado en (Moodle, n.d.-b), (Schoology, n.d.), (Blackboard, n.d.), (Sakai, n.d.-b), (Garrido, n.d.) y
(Dockeos, 2014).
En estos aplicativos, la forma de crear y aplicar el contenido es similar, pues hacen uso de
interfaces web donde predominan las listas desplegables, botones de selección y campos de texto
(Moodle, n.d.-a) (Moodle, n.d.-b) (Schoology, n.d.) (Blackboard, n.d.) (Garrido, n.d.) (Sakai, n.d.-
a) (Sakai, n.d.-b). En la creación de las evaluaciones pudo observarse elementos que pueden hacer
difícil el proceso, confundiendo al usuario y generando una definición incorrecta de elementos,
como por ejemplo definir jerarquías mediante listas, no previsualizar imágenes incorporadas, el
uso de expresiones o comandos propios del aplicativo para indicar la existencia de un elemento,
entre otros.
El uso de multimedia en las evaluaciones es un factor diferenciador en estos aplicativos,
Moodle y Blackboard usan imágenes en algunos tipos de pregunta, contrario a Sakai, Schoology
y Edmodo, que usan únicamente texto. Sakai propone un tipo de pregunta para usar audio, donde
el estudiante ingresa su respuesta con el micrófono. Dokeos permite el uso de video, texto e imagen
en algunos de los tipos de preguntas que incorpora. No obstante, el uso de texto se impone sobre
otros tipos de datos y no se permite, en muchos casos, su uso simultaneo.
5.4.2 Otras opciones para evaluar con las TIC
Este apartado presenta tres opciones existentes en el mercado para realizar evaluaciones
usando las TIC. Todas ellas usan mecánicas de creación y solución de evaluaciones, similares a
35
los EVA mencionados, donde botones circulares, botones de chequeo, listas, entre otros, son la
constante. Asimismo, emplean algunos de los tipos de preguntas presentados en los EVA.
5.4.2.1 ProProfs
Es una solución web para realizar quices y encuestas en el ámbito educativo y profesional.
Es usada por instituciones educativas como Hardvard y Yale, así como grandes compañías como
Sony y Dell. Ofrece funcionalidades gratis y de pago, así como soporte para computadores de
escritorio, portátiles, tabletas y teléfonos inteligentes. (ProProfs, n.d.).
Para las evaluaciones usa más de seis tipos de preguntas, donde destacan las preguntas de
opción múltiple, verdadero o falso, emparejamiento, llenar espacios, ensayo, etc. Todas ellas
pueden hacer uso de elementos multimedia. Ofrece un banco de preguntas, con diversas temáticas.
La calificación es de forma automática, exceptuando aquellas de respuesta abierta. Existen varias
modalidades de calificación, que la hacen flexible, permitiendo validar respuestas parciales y
distribución de puntajes, así como penalizar con calificaciones negativas y recompensar con
bonificaciones (ProProfs, n.d.).
La versión gratuita no permite generar ningún tipo de estadística o informe. La versión
paga permite analizar el desempeño individual y grupal, observar las respuestas proporcionadas y
las esperadas, los tiempos de respuesta por pregunta, el tiempo general, porcentajes de acierto,
entre otros. Todo esto usando información numérica y su representación gráfica. Igualmente, se
permite exportar dicha información para disponibilidad fuera del aplicativo (ProProfs, n.d.).
5.4.2.2 QuestBase
Es una aplicación web gratuita para la creación y administración de evaluaciones, quices y
exámenes, de manera digital e impresa. Es concebida como una herramienta para el aprendizaje y
el entrenamiento, es decir para el uso académico y profesional. Puede ser usada en cualquier
dispositivo, que cuente con navegador web y conexión a internet (QuestBase, n.d.).
Los tipos de pregunta que incorpora esta herramienta son: opción múltiple, con única y
varias respuestas, verdadero o falso, llenar el espacio en blanco, y preguntas de ensayo. Las
preguntas de opción múltiple pueden hacer uso de audio, video e imagen, así como fórmulas
matemáticas. La calificación es automatizada para las preguntas cerradas y se requiere la
36
intervención del docente para las abiertas. Pueden personalizarse los mensajes de
retroalimentación, así como distribución de la puntuaciones (QuestBase, n.d.).
La generación de estadísticas y reportes es en tiempo real y permite visualizar, exportar o
imprimir informes. Brinda información tanto grupal como individual, facilita el análisis e
interpretación de datos con la presentación de gráficas, ya que puede manejarse información de
cientos o miles de usuarios. Este producto permite elegir la información que el estudiante observa
como retroalimentación, ya sea su calificación, sus respuestas y las respuestas esperadas y la
valoración de cada respuesta (QuestBase, n.d.).
5.4.2.3 Testmoz
Es un aplicativo web sencillo para la creación y aplicación de quices y exámenes. No
requiere del registro de docentes y estudiantes para su uso, es totalmente gratuito, aunque tiene un
límite de 100 estudiantes y 50 preguntas por evaluación. No obstante, se ofrecen mayores
funcionalidades al realizar un pago anual. Funciona en dispositivos que cuenten con un navegador
web (Johnson, n.d.).
Incorpora cuatro tipos de preguntas: verdadero o falso, opción múltiple con única y varias
respuestas y llenar el campo en blanco. Todas las preguntas permiten automatizar su calificación,
incluso la pregunta de llenar el campo en blanco. A través de protección con clave, se restringe el
acceso a la presentación de la evaluación. El uso de multimedia no es directo y se requieren
conocimientos de HTML (Johnson, n.d.).
Los informes y estadísticas son sencillos, el estudiante observa si la pregunta es correcta o
no, pero no la respuesta esperada. El docente, puede ver el desempeño de un estudiante,
contrastando lo contestado y esperado. La calificación de los estudiantes se observa en términos
unitarios y porcentuales, el desempeño por pregunta se presenta porcentualmente. Sin embargo,
no se ofrecen gráficos que apoyen el análisis de la información. Los datos pueden exportarse en
formato CVS, para ser procesados externamente (Johnson, n.d.).
5.5 FORMATOS PARA CREACIÓN DE SOFTWARE
Dos formas de proveer soluciones software son las aplicaciones nativas y aplicaciones web.
Las primeras, se construyen para una plataforma o sistema operativo específico, bajo ciertos
37
requerimientos de hardware. Las segundas, requieren únicamente un navegador web para
funcionar y los requerimientos de hardware se trasladan a los servidores que las alojan. Con los
dispositivos móviles, que poseen capacidades similares (pero limitadas) frente a dispositivos
convencionales, el desarrollo de software se torna más amplio y se requieren de desarrollos
específicos para esta familia de equipos, tanto nativos como web.
La tendencia actual en el desarrollo de software apunta a dos enfoques: aplicativos web y
para dispositivos móviles. Además, tecnologías como cloud computing han fomentado la
popularización de estos últimos y relegado a los aplicativos de escritorio a un segundo plano. A
diferencia de los dispositivos convencionales, donde algunas tecnologías de desarrollo son
multiplataforma, los dispositivos móviles requieren que sus aplicativos nativos sean construidos
sobre una tecnología específica. Esto implica que un desarrollo nativo para móviles requiere de
expertos en cada una de las plataformas en las que se quiera prestar el servicio.
Construir soluciones web ofrece ventajas frente al desarrollo para móviles o plataformas
nativas. Se realiza un único desarrollo, concentrando esfuerzos en un único proyecto, logrando así
un desarrollo de calidad que permita una experiencia positiva al usuario. Sin embargo, la gran
variedad de dispositivos, con diferentes tamaños, tipos de pantalla y resoluciones generan un reto
a este enfoque. En un principio, construir una misma solución web para computadores y
dispositivos móviles representaba dos proyectos separados, ya que las configuraciones de
hardware podían restringir parcial o totalmente el uso de la solución.
De acuerdo con (Lionbridge, 2012), ya sea aplicación web o aplicación nativa, cada
enfoque tiene sus ventajas y desventajas, hablando sobre dispositivos móviles. Sin embargo,
algunas de estas características pueden ser extendidas y hablar, en general, de aplicaciones web y
nativas para todo dispositivo. A continuación se exponen dichas ventajas y desventajas.
Tabla 11. Ventajas y desventajas de aplicaciones nativas y web.
Tipo de
Aplicación Ventajas Desventajas
Aplicaciones
web
Compatibilidad entre plataformas.
Problemas con la diversidad de
resoluciones de pantalla y tamaños de los
dispositivos.
Fácil acceso para gran cantidad de
usuarios.
El control sobre algunos elementos
software o hardware del dispositivo.
Mantenimiento sencillo y barato. Dependencia a una conexión de red.
38
Tipo de
Aplicación Ventajas Desventajas
Aplicaciones
nativas
Control sobre el software y
hardware del dispositivo.
Versiones diferentes para cada plataforma
existente.
No requiere una conexión a red
para funcionar.
El mantenimiento es costoso debido a la
cantidad de plataformas.
Mayor interacción con el usuario
en cuanto a actualizaciones,
recordatorios, etc.
Los proveedores de contenido deben
compartir información con el sitio de
distribución de la aplicación.
Fuente: Autor. Basado en (Lionbridge, 2012).
5.5.1 Web responsiva
La web responsiva es una tendencia reciente que permite realizar un único desarrollo y
proveer una solución a una gran cantidad de dispositivos móviles, reduciendo incompatibilidades
al mínimo. Este enfoque posee la capacidad de crear diseños web que se adapten al dispositivo
usado. Ya no se piensa en diseñar para muchos tipos de pantalla, sino que se diseña para que los
dispositivos, a través de algunas directrices, ajusten el contenido web para que su visualización y
uso sea el apropiado (Marcotte, 2011).
Para lograr que los dispositivos se adaptan al aplicativo desarrollado, la web responsiva
trabaja con tres pilares: una rejilla flexible, que es el sistema que describe la disposición de los
elementos en la página web; los medios flexibles, que hace referencia a las características
necesarias de los elementos multimedia para ser tratados y adaptados a los diferentes dispositivos;
y las media queries, que son directivas usadas para determinar el tipo de dispositivo que accede al
sitio web, para así configurar tanto el sistema de rejilla como los elementos multimedia (Marcotte,
2011).
39
6. METODOLOGÍA
Este proyecto implementará la metodología de desarrollo de software SCRUM, marco de
trabajo para proyectos complejos y cambiantes en el tiempo, que requieren resultados a corto plazo,
obtenidos mediante soluciones parciales y funcionales, que son completadas durante la ejecución
del proyecto (Schwaber & Sutherland, 2013). A continuación se realiza la asignación de los roles
SCRUM, así como la dinámica de trabajo que se seguirá durante el desarrollo.
6.1 ASIGNACIÓN DE ROLES SCRUM
SCRUM define los siguientes roles: Product Owner, SCRUM Master y SCRUM Team. La
siguiente es la distribución de estos roles SCRUM en este proyecto.
Tabla 12. Roles SCRUM para el proyecto.
Rol Personas
Product Owner Ana Cecilia Beltrán
SCRUM Master Daniel Franco Beltrán
SCRUM Team Daniel Franco Beltrán
Fuente: Autor.
Ana Cecilia Beltrán es docente de Lengua Castellana del Colegio San Francisco de Asís
IED, ubicado en la localidad Los Mártires, de Bogotá D.C., quien asesora los aspectos pedagógicos
durante el desarrollo, gestionará y llevará a cabo la prueba del prototipo en la institución, con un
grupo de alumnos.
6.2 DINÁMICA DE TRABAJO SCRUM
De acuerdo a la intención de este proyecto, se identifican dos momentos fundamentales a
ocupar: el desarrollo del prototipo y su respectiva prueba en un entorno educativo. Se estiman
cuatro meses y medio para la culminación del proyecto, así como cuatro sprints o iteraciones de
un mes de duración. Las dos semanas restantes, corresponden a la realización de la prueba del
prototipo. A continuación se describen las actividades realizadas tanto en el desarrollo como en la
prueba prototipo.
40
6.2.1 Desarrollo del prototipo
Cada uno de los sprints a realizar considera el mismo conjunto de actividades, no así su
objetivo. A continuación se describen los objetivos de cada sprint y las actividades realizadas.
Tabla 13. Objetivos propuestos para cada sprint.
Sprint Objetivo
1 Creación del material de evaluación.
2 Aplicación del material de evaluación.
3 Calificación automática de la evaluación y retroalimentación mediante informes.
4 Revisión y ajustes al producto obtenido.
Fuente: Autor.
Tabla 14. Actividades realizadas en cada Sprint
Actividad Objetivo
Definición de
requerimientos Obtención de requerimientos mediante historias de usuario.
Elección de
tecnologías
Selección de tecnologías que faciliten la satisfacción de los requerimientos,
enmarcadas en el desarrollo ágil.
Preparación del
Sprint Revisión del product backlog y generación del sprint backlog.
Análisis y
Diseño
Descripción de requerimientos en lenguaje UML, enfatizando la interacción
y flujo de información entre objetos.
Desarrollo Codificación de los diseños usando las tecnologías elegidas.
Pruebas Pruebas unitarias y de integración al desarrollo realizado.
Revisión del
Sprint Presentación y socialización del incremento con las partes interesadas.
Retrospectiva
del Sprint
Análisis y retroalimentación del trabajo realizado durante el sprint para las
partes interesadas.
Fuente: Autor.
6.2.2 Prueba del prototipo
Contempla la construcción y puesta en marcha de una prueba dentro del aula de clase, que
permita evaluar la experiencia de los usuarios con respecto al uso del producto obtenido. El docente
está encargado de crear el contenido de la evaluación a aplicar, así como la gestión ante la
institución para la disponibilidad de los recursos necesarios, como espacios y dispositivos. El
equipo de trabajo garantiza el acceso y funcionamiento adecuado del aplicativo desarrollado, así
como acompañamiento y asesoría antes, durante y después de la prueba.
41
7. EL INSTRUMENTO DE EVALUACIÓN
Para este proyecto, se considera una prueba escrita o evaluación como un conjunto de
preguntas cerradas, relacionadas a una temática específica, que tienen como propósito determinar
el desempeño de los individuos evaluados, respecto a uno o varios dominios. En los siguientes
apartados se expone la estructura de la evaluación, el sistema de calificación, la retroalimentación
de resultados y la incorporación de los eventos de arrastrar y soltar para su elaboración y
presentación.
7.1 ESTRUCTURA
La prueba escrita implementada se compone de un conjunto de preguntas, así como de un
conjunto de logros, que definen las componentes de los diferentes dominios a analizar. A
continuación se describe estos elementos.
7.1.1 Preguntas
Los tipos de preguntas incorporados en el instrumento de evaluación son: base común,
correlación, ordenamiento, opción múltiple y verdadero o falso. Cada una tiene un propósito
específico, explicados a continuación.
Tabla 15. Propósitos de los tipos de pregunta incorporados.
Actividad Propósito
Base común Agrupación de preguntas relacionadas a un recurso común.
Correlación Clasificación de un listado de elementos en una o varias categorías.
Ordenamiento Ordenamiento de un listado de elementos, de acuerdo a un criterio.
Opción múltiple Selección de uno o más elementos contenidos en un conjunto de opciones.
Verdadero o falso Catalogación de un listado de hechos en verdaderos y falsos.
Fuente: Autor.
Todos los tipos de preguntas maneja la siguiente información, denominada como elementos
o datos básicos: enunciado, puntaje, recurso y logros. El enunciado y recurso asociado son
elementos a los que el estudiante tiene acceso en la presentación de la evaluación. El puntaje y los
logros son elementos usados para realizar la valoración del estudiante, así como analizar su
desempeño en las dimensiones especificadas. A continuación se describe cada uno de estos
elementos.
42
Tabla 16. Elementos compartidos por los tipos de preguntas.
Dato Descripción
Enunciado Narración breve que describe el requerimiento o interrogante a solucionar.
Puntaje Valor máximo que puede obtenerse como calificación.
Recurso Elemento de referencia o apoyo al enunciado.
Logros Conjunto de componentes a analizar con la aplicación de la pregunta.
Fuente: Autor.
Las preguntas de base común, al ser contenedora de otros tipos de preguntas, no poseen
puntaje y logros asociados. Teóricamente, su puntaje es la sumatoria de los puntajes de sus
preguntas, así como sus logros son los logros de estas preguntas. El recurso o elemento de base
común es esencial, ya que define la intención de la pregunta.
Cada uno de los tipos de pregunta maneja un bloque de información específico, que define
su mecánica de trabajo. El estudiante interactúa directamente con estos elementos y al
manipularlos, les da significado y construye la respuesta solicitada. A continuación se explica el
bloque de información para cada tipo de pregunta.
Tabla 17. Elementos específicos para los tipos de preguntas.
Tipo de pregunta Datos Descripción
Opción múltiple
Opciones Conjunto de elementos candidatos a ser la respuesta
solicitada.
Respuestas Conjunto de elementos que conforman la respuesta
solicitada.
Ordenamiento Elementos
Conjunto de elementos que deben ser ordenados, de
acuerdo con un criterio determinado.
Respuesta Orden esperado de los elementos propuestos.
Verdadero o falso Hechos verdaderos
Conjunto de afirmaciones con respecto a una
temática.
Hechos falsos Conjunto de negaciones con respecto a una temática.
Correlación
Elementos
Conjunto de elementos que deben ser catalogados en
diferentes categorías, siguiendo un criterio
determinado.
Categorías Conjunto de categorías donde son clasificados los
elementos propuestos.
Fuente: Autor.
Las preguntas de base común no poseen una mecánica de trabajo, sino un conjunto de
preguntas asociadas, que son las que definen su bloque de información específico.
43
7.1.2 Logros
Llevar a cabo una actividad de evaluación tiene como propósito analizar el desempeño del
estudiante, en ciertos aspectos de una temática dada. Los logros son narraciones cortas que
describen conocimientos, habilidades y valores, que se espera un estudiante posea al culminar una
parte o la totalidad de los procesos de enseñanza – aprendizaje. Incorporar los logros en la prueba
escrita implementada, permite al docente definir los componentes de una temática que desea medir,
teniendo en cuenta propuestas como la Taxonomía de Bloom o la Pirámide de Miller.
Un logro se constituye de dos elementos: un nombre y una descripción. En la siguiente
tabla se explican estos elementos.
Tabla 18. Elementos que definen un logro.
Elemento Descripción
Nombre Palabra o frase corta que identifica al logro, usado para categorizar los
resultados cuantitativos obtenidos.
Descripción Narración corta que define el logro.
Fuente: Autor.
7.2 CALIFICACIÓN
El mecanismo elegido para la calificación de la prueba escrita se denomina Sistema de
coincidencias y se basa en el número de coincidencias entre la respuesta esperada y la respuesta
proporcionada por el estudiante. Los siguientes apartados describen los procedimientos para
calcular la nota o calificación del instrumento de evaluación.
7.2.1 Calificación para las preguntas
Para todos los tipos de preguntas implementados, exceptuando las preguntas de base
común, se aplica la siguiente expresión matemática, con el fin de obtener su calificación, nota,
puntaje o valoración.
𝑛𝑜𝑡𝑎 = 𝑐𝑜𝑖𝑛𝑐𝑖𝑑𝑒𝑛𝑐𝑖𝑎𝑠 ∗ 𝑛𝑜𝑡𝑎 𝑚á𝑥𝑖𝑚𝑎
𝑐𝑜𝑖𝑛𝑐𝑖𝑑𝑒𝑛𝑐𝑖𝑎𝑠 𝑒𝑠𝑝𝑒𝑟𝑎𝑑𝑎𝑠 (1)
A continuación se explican los términos que componen a (1).
44
Tabla 19. Parámetros para determinar la nota de una pregunta.
Término Descripción
Coincidencias Número de elementos correctos en la respuesta del estudiante.
Nota máxima Puntaje o valor máximo asignado a la pregunta.
Coincidencias esperadas Número total de elementos correctos definidos en la pregunta.
Fuente: Autor.
Para cada uno de los tipos de preguntas implementados, los términos o parámetros
coincidencias y coincidencias esperadas aplican así:
Tabla 20. Parámetros para determinar la nota de cada uno de los tipos de preguntas.
Pregunta Parámetro Descripción
Correlación
Coincidencias
Número de elementos clasificados
correctamente por el estudiante en las
diferentes categorías.
Coincidencias esperadas Número de elementos definidos en cada
una de las categorías.
Opción múltiple Coincidencias
Número de opciones correctas indicadas
por el estudiante como respuesta.
Coincidencias esperadas Número de elementos de la respuesta.
Ordenamiento Coincidencias
Número de elementos ordenados
correctamente por el estudiante.
Coincidencias esperadas Número de elementos ordenados.
Verdadero o falso Coincidencias
Número de hechos catalogados por el
estudiante correctamente como verdaderos
y falsos.
Coincidencias esperadas Número de hechos verdaderos y falsos.
Fuente: Autor.
7.2.2 Descuento o penalización para las preguntas
Este sistema es adecuado para automatizar la calificación del instrumento de evaluación,
por su similitud a la calificación tradicional de estos tipos de preguntas. No obstante, esta forma
de calificación no permite considerar cuando un estudiante indica elementos adicionales en las
preguntas de correlación y opción múltiple. Para resolver esto, se incorpora una penalización o
descuento, definida por la siguiente expresión.
𝑑𝑒𝑠𝑐𝑢𝑒𝑛𝑡𝑜 = 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑎𝑑𝑖𝑐𝑖𝑜𝑛𝑎𝑙𝑒𝑠 ∗ 𝑛𝑜𝑡𝑎 𝑚á𝑥𝑖𝑚𝑎
𝑐𝑜𝑖𝑛𝑐𝑖𝑑𝑒𝑛𝑐𝑖𝑎𝑠 𝑒𝑠𝑝𝑒𝑟𝑎𝑑𝑎𝑠 (2)
A continuación se describen los términos que componen a (2).
45
Tabla 21. Parámetros para determinar el descuento en una pregunta.
Término Descripción
Elementos
adicionales
Número de elementos adicionales a los esperados, en la respuesta del
estudiante.
Nota máxima Puntaje o valor máximo asignado a la pregunta.
Coincidencias
esperadas Número total de elementos correctos definidos en la pregunta.
Fuente: Autor.
Para las preguntas de correlación y opción múltiple, el término o parámetro elementos
adicionales se define así:
Tabla 22. Parámetros para determinar el descuento de cada uno de los tipos de preguntas.
Pregunta Parámetro Descripción
Correlación Elementos adicionales
Número de opciones adicionales a las
esperadas, que el estudiante indica en su
respuesta
Opción múltiple Elementos adicionales
Número de elementos adicionales a los
esperados, que el estudiante indica en cada
una de las categorías.
Fuente: Autor.
7.2.3 Calificación para la evaluación
Para calcular la nota de la evaluación se requiere aplicar las expresiones (1) y (2), según
corresponda, a cada una de las preguntas que conforman el instrumento de evaluación. Una
expresión general para realizar este cálculo es la siguiente.
∑ 𝑛𝑜𝑡𝑎𝑖 −
𝑛
𝑖=1
𝑑𝑒𝑠𝑐𝑢𝑒𝑛𝑡𝑜𝑖 (3)
7.3 RETROALIMENTACIÓN
Una parte esencial de los procesos de evaluación es el instante en que se dan a conocer los
resultados obtenidos y su justificación. Para esta etapa, se generan informes a nivel grupal e
individual, con respecto a la evaluación aplicada. Los informes a nivel grupal están a disposición
de docentes, mientras que los informes a nivel individual pueden consultarse por estudiantes y
docentes.
46
7.3.1 Informes grupales
Se dividen en cuatro secciones: resultados generales, resultados por logro, resultados por
pregunta y resultados por estudiante. A continuación se describe cada sección.
7.3.1.1 Resultados generales
Esta parte del informe brinda al docente una perspectiva general del instrumento de
evaluación, donde puede observar el número de estudiantes que han completado la evaluación, así
como la cantidad de estudiantes que aprobaron y reprobaron. Asimismo, esta información se
expresa en términos porcentuales y es representada en un gráfico de torta.
7.3.1.2 Resultados por logro
Esta sección permite al docente observar el desempeño promedio del curso, en cada uno de
los logros que definió para la evaluación. Con esta información, el docente puede determinar las
áreas o componentes que son el fuerte de sus estudiantes, así como las que requiere reforzar en sus
sesiones de clase. Esta información es expresada en términos porcentuales, así como representada
en un gráfico de radar.
7.3.1.3 Resultados por pregunta
Esta parte del informe permite visualizar el desempeño promedio del curso en cada una de
las preguntas que componen la evaluación. Esta información se presenta para que el docente pueda
analizar la pertinencia de la pregunta en la evaluación, así como determinar aspectos en los que
sus alumnos tienen fortaleza o requieren un refuerzo. En esta sección no se realiza una
representación gráfica de los resultados.
7.3.1.4 Resultados por estudiante
Esta parte del informe permite al docente visualizar el resultado de cada uno de los
estudiantes que tomaron la evaluación. Esta sección le permite consultar en detalle los resultados
de cada estudiante, generando un informe individual, que es explicado en a continuación. El
resultado mostrado está comprendido en la escala 0 a 50.
47
7.3.2 Informes individuales
Están conformados por tres secciones: resultado general, resultados por logro y resultados
por pregunta. En los siguientes apartados se define cada una de estas partes.
7.3.2.1 Resultado general
Esta sección del informe brinda a docentes y estudiantes una visión general del resultado
obtenido, donde se hace un contraste entre la nota máxima (50 puntos), la nota mínima para pasar,
que es el 60% de la nota máxima (30 puntos) y nota obtenida. Asimismo, esta información es
representada en un gráfico de barras.
7.3.2.2 Resultados por logro
En esta parte del informe se da a conocer a estudiantes y docentes el desempeño en cada
uno de los logros definidos para la evaluación. Esta visión permite dar a conocer las áreas que un
estudiante tiene como fortaleza e identificar elementos en los que se deben enfocar sus esfuerzos
para mejorar. Esta información es expresada en términos porcentuales y representada en un gráfico
de radar.
7.3.2.3 Resultados por pregunta
En esta sección se le presenta a estudiantes y docentes el resultado pregunta a pregunta de
la evaluación presentada, contrastando el puntaje asignado a cada pregunta y el puntaje obtenido.
Asimismo, se permite a los usuarios consultar en detalle cada pregunta, donde pueden visualizar
la siguiente información.
Tabla 23. Información para retroalimentación de resultados por pregunta.
Información Descripción
Información general Tipo de pregunta, puntaje máximo y puntaje obtenido.
Logros asociados Listado de logros asociados a la pregunta.
Enunciado Instrucción dada a los estudiantes para la pregunta.
Recurso asociado Recurso multimedia asociado.
Contraste de respuestas Comparación entre la respuesta esperada y la respuesta del estudiante.
Fuente: Autor.
48
La información anterior aplica parcialmente para las preguntas de base común. Por su
naturaleza, no se presenta la sección de información general y logros asociados, así como el
contraste de respuestas. El contraste de respuestas, para cada tipo de pregunta consiste en presentar
la respuesta esperada y la del estudiante simultáneamente, resaltando los aciertos en color verde y
los errores en color rojo, brindando a docentes y estudiantes analizar conjuntamente las causas por
las cuáles se llegaron a esos resultados y evidenciar las fortalezas y áreas a reforzar en el estudiante.
7.4 MECÁNICAS CON EVENTOS DE ARRASTRAR Y SOLTAR
Incorporar los eventos de arrastrar y soltar en la creación y presentación de evaluaciones,
tiene como propósito ofrecer, a docentes y estudiantes, una experiencia diferente e innovadora en
los procesos de evaluación. Este objetivo se plantea teniendo en cuenta la masificación de
dispositivos con pantallas táctiles en la actualidad, característica que ha cambiado la interacción
humano – máquina. En los siguientes apartados se describen estos eventos y se describen las
acciones que los usuarios pueden realizar con estos eventos, asociados al instrumento de
evaluación.
7.4.1 Descripción de eventos
De acuerdo a la estructura del instrumento de evaluación, dos conceptos de gran relevancia
para definir estos eventos son elemento y conjunto. Se denomina elemento cada uno de los
componentes atómicos definidos, que cumplen un rol en la mecánica de trabajo. Asimismo, se
denomina conjunto a la agrupación de elementos que tienen un mismo rol asignado. Los docentes
y estudiantes, al manipular elementos y conjuntos, con eventos de arrastrar y soltar, construyen y
dan respuesta al interrogante o situación planteada.
Esta manipulación de eventos y conjuntos es llamada movimiento, y puede darse dentro de
un conjunto y entre conjuntos. A continuación se definen los posibles movimientos para conjuntos
y elementos.
7.4.1.1 Primer movimiento
Este movimiento es de ámbito local, es decir, aplica al interior de los conjuntos. Permite a
los usuarios cambiar el orden de los elementos que pertenecen a un mismo conjunto y se caracteriza
49
por permitir el intercambio de posiciones para elementos adyacentes. La siguiente es la
representación de este movimiento.
Figura 5. Primer movimiento para aplicación de eventos de arrastrar y soltar.
Fuente: Autor.
En la figura anterior se observa el intercambio de posiciones entre el primer y segundo
elemento. Para llegar a este resultado, el usuario debe aplicar el siguiente procedimiento.
1. Hacer clic o pulsación sobre uno de los dos elementos, y mantenerlo.
2. Arrastrar el elemento verticalmente, según corresponda.
3. Al intercambiar la posición entre elementos, dejar de hacer clic o la pulsación aplicado
al elemento. Es decir, soltar el elemento.
Si se requiere ubicar un elemento en una posición no adyacente, debe aplicarse el siguiente
procedimiento, que es muy similar al anterior.
1. Hacer clic o pulsación sobre el elemento que desea moverse, y mantenerlo.
2. Arrastrar el elemento verticalmente, según corresponda, hasta llegar a la posición
deseada.
3. Al llegar a la posición deseada, soltar el elemento.
50
Al mover un elemento a una posición no adyacente, el orden de los demás elementos no se
ve afectado, pero si su posición, que es el criterio usado para la calificación de las preguntas de
ordenamiento.
7.4.1.2 Segundo movimiento
Este movimiento es de ámbito global, es decir aplica para la manipulación de elementos
entre conjuntos. Permite a los usuarios cambiar el rol o pertenencia a un conjunto, de un elemento.
La siguiente es la representación de este movimiento.
Figura 6. Segundo movimiento para aplicación de eventos de arrastrar y soltar.
Fuente: Autor.
En la figura anterior se ejemplifica el cambio del elemento x, ya sea del conjunto 1 a 2 o
viceversa. Para llegar a este resultado, el usuario debe aplicar el siguiente procedimiento.
1. Hacer clic o pulsación sobre el elemento del conjunto origen que quiere moverse.
2. Mover el elemento al conjunto destino.
3. Una vez ubicado el elemento en el conjunto destino, soltarlo. Cabe resaltar que este
movimiento permite elegir la posición del elemento en el conjunto destino, evitando
realizar el primer movimiento, una vez aplicado el segundo movimiento.
51
El segundo movimiento tiene una variante, que permite a los usuarios clonar o crear una
copia del elemento que es manipulado, posicionando dicha copia en el conjunto de destino y
manteniendo el original en el conjunto de origen. Esta característica permite manipula un listado
de elementos, los cuales pueden adquirir más de un rol o requieren ser asociados en más de una
ocasión a diferentes elementos.
7.4.2 Creación de evaluaciones
Crear o modificar el contenido para evaluar es una labor de vital importancia, ya que debe
garantizarse la integridad de la prueba escrita, para que realmente cumpla su objetivo. Para ello,
se requiere proveer al docente mecanismos, de fácil compresión y aplicación, para que defina los
elementos y relaciones que están presentes en el instrumento de evaluación. Los movimientos
anteriores son aplicados por el docente en aspectos puntuales de la evaluación como la asociación
de logros, el orden de las preguntas y las mecánicas de trabajo de los diferentes tipos de preguntas.
Tabla 24. Manipulación de componentes de la evaluación con eventos de arrastrar y soltar.
Componente Mecánica
Asociación de logros
Posterior a la definición de los logros, el docente puede seleccionar una
pregunta y aplicar la variante del segundo movimiento para asociar los
logros que desee a la pregunta.
Orden de preguntas
Posterior a la definición de las preguntas que componen la evaluación, el
docente puede aplicar el primer movimiento para definir el orden de las
preguntas.
Fuente: Autor.
El orden definido para las preguntas es el mismo en el que se les presentarán a los
estudiantes, una por una, cuando tomen la evaluación. Cuando una evaluación cuenta con una
pregunta de base común, el orden de las preguntas que la conforman no puede cambiarse en el
momento de crear la evaluación, ya que este orden es definido al momento de crear o modificar la
pregunta en sí.
Asimismo, para crear las preguntas el docente usa el primer y segundo movimiento, con el
fin de definir algunas características que los elementos que conforman los componentes propios
de cada uno de los tipos de preguntas implementados. A continuación se describe la aplicación de
los eventos de arrastrar y soltar, para la creación y modificación de preguntas.
52
Tabla 25. Creación y modificación de preguntas con eventos de arrastrar y soltar.
Pregunta Mecánica
Base común
Una vez creadas las preguntas que van a conformarla y cargado el recurso
a asociar, el docente puede aplicar el primer movimiento para indicar el
orden en que serán mostradas al estudiante.
Correlación
Luego de definir las categorías y elementos que conforman la pregunta, el
docente especifica en cada una de las categorías, aplicando la variante del
segundo movimiento, los elementos que la conforman.
Opción múltiple
Posterior a la definición de opciones y respuestas, el docente puede aplicar
el segundo movimiento para posicionar una opción como respuesta o
viceversa.
Ordenamiento
Una vez definido el listado de elementos a ordenar, el docente puede aplicar
el primer movimiento para modificar la posición de un elemento dentro de
la lista.
Verdadero o falso
Al finalizar la definición de hechos verdaderos y falsos, el docente puede
aplicar el segundo movimiento y modificar la validez de un elemento,
posicionando el elemento en el conjunto deseado.
Fuente: Autor.
7.4.3 Presentación de evaluaciones
Aplicar el material de evaluación es una tarea igualmente importante, pues en este proceso
es donde se interactúa con el estudiante y se recoge información de su progreso dentro de los
procesos de enseñanza aprendizaje. Para obtener información significativa y pertinente, se necesita
proveer al estudiante mecanismos de trabajo fáciles de entender y usar, permitiéndole indicar su
respuesta y garantizar la integridad de la misma.
Al estudiante se le presentan una por una las preguntas que conforman el instrumento de
evaluación, en el orden definido por el docente. Los movimientos descritos anteriormente, aplican
para los tipos de pregunta en contextos específicos, exceptuando las preguntas de base común que
no poseen una mecánica de trabajo.
Para cada pregunta se presenta el listado de elementos a trabajar, así como los campos
donde deben indicar su respuesta. A continuación se describe la incorporación de eventos de
arrastrar y soltar en la resolución de preguntas.
53
Tabla 26. Resolución de preguntas con eventos de arrastrar y soltar.
Pregunta Mecánica
Correlación
Se presentan los elementos y categorías a relacionar. Al especificar cada
categoría, el estudiante aplica la variante del segundo movimiento para
indicar los elementos que la conforman.
Opción múltiple
Se presenta el listado de opciones que son candidatas a ser respuesta. El
estudiante aplica el segundo movimiento para indicar los elementos que
conforman su respuesta.
Ordenamiento Se presenta el listado de elementos a ordenar. El estudiante aplica el primer
movimiento para organizar los elementos y así, especificar su respuesta.
Verdadero o falso
Se presenta un contenedor con los hechos verdaderos y falsos. El
estudiante, aplicando el segundo movimiento, clasifica los elementos en los
conjuntos, proporcionando así su respuesta.
Fuente: Autor.
54
8. DESARROLLO DEL PROTOTIPO
En este capítulo se describe el proceso llevado a cabo para la obtención del prototipo
propuesto, de acuerdo a la metodología de desarrollo de software SCRUM. Se parte del
instrumento de evaluación descrito anteriormente, así como las historias de usuario definidas en el
transcurso del proyecto, ver Anexo 1. A continuación se detallan aspectos relevantes para este
proyecto como la elección de tecnologías, la construcción del modelo de datos, la construcción del
prototipo y las pruebas aplicadas para verificar su funcionamiento, previo a la experiencia en la
institución educativa.
8.1 ELECCIÓN DE TECNOLOGÍAS
Determinar las tecnologías para construir el prototipo es una labor que se realiza en tres
puntos de vista: cómo representar y almacenar el instrumento de evaluación y sus resultados
(persistencia), cómo permitirle a los usuarios crear y manipular dicho instrumento (frontend), y
cómo proveer un intermediario entre usuario y datos (backend). Los siguientes apartados abordan
cada uno de estos elementos.
8.1.1 Persistencia de datos
El instrumento de evaluación integrado está compuesto por cinco tipos de preguntas, que
difieren unos de otros en ciertos elementos de su estructura. Estas particularidades son
determinantes en la elección del motor de bases de datos a usar, pues una mala decisión puede
complicar el trabajo a realizar. Dos de los tipos de bases de datos de mayor popularidad y uso son
las bases de datos relacionales y las no relacionales, cuyo uso tiene aspectos positivos y negativos,
que deben ser considerados.
Las bases de datos relacionales son un conjunto de tablas y relaciones, definidas con
algunas restricciones, para garantizar la integridad de los datos. Por esta razón y la “sencillez
conceptual”, son ampliamente usadas (Silberschatz, Korth, & Sudarshan, 2011) (Gracia & Yanes,
2012). No obstante, las restricciones dificultan su uso en algunos dominios, como en este proyecto,
pues representar las estructuras y sus pequeñas diferencias implica la definición de una gran
cantidad de tablas y sus relaciones con las demás entidades. Asimismo, considerar la incorporación
de nuevos tipos de preguntas al instrumento de evaluación puede resultar en algo caótico.
55
Por dificultades como estas surgieron las bases de datos no relacionales o NoSQL, que
permiten flexibilidad en el almacenamiento de datos, así como su manejo en grandes volúmenes
(Gracia & Yanes, 2012). Un tipo de bases de datos NoSQL son las orientadas a documentos, que
permiten representan estructuras jerárquicas complejas en un solo registro (Chodorow, 2013).
Usan la notación JSON (JSON, n.d.-a) para la descripción e intercambió de datos y con ello ofrecen
sencillez, velocidad y escalabilidad. Sin embargo, al brindar tanta flexibilidad delegan labores
como la de integridad a los desarrolladores (Gracia & Yanes, 2012).
MongoDB es un motor de bases de datos NoSQL orientado a documentos caracterizado
por su escalabilidad, flexibilidad y desempeño, así como proporcionar algunas de las
funcionalidades de bases de datos tradicionales (MongoDB, n.d.). Este motor de bases de datos
hace uso de la notación BSON (Binary JSON) (BSON, n.d.), extensión de la notación JSON, que
incorpora otros tipos de datos adicionales a los seis manejados por JSON (null, boolean, number,
string, array y object), como por ejemplo para las fechas el tipo de dato Date.
Por lo expuesto anteriormente, en este proyecto se hace uso del motor de bases de datos
MongoDB para el almacenamiento de datos. Asimismo, se usa la notación JSON para la
representación e intercambio de información en el cliente y servidor, pues al usar un mismo
estándar se contribuye a la integridad de la información, así como una fácil comprensión y
manipulación de los datos al desarrollador, en contraste con el estándar XML (Extensible Markup
Lenguaje) (W3C, n.d.-a) (JSON, n.d.-b).
8.1.2 Frontend
Tres tecnologías que trabajan en conjunto del lado del cliente son HTML (W3C, n.d.-b),
CSS y JavaScript (Mozilla Developer Network, n.d.), las cuales se encargan respectivamente de
definir el contenido, decorarlo y darle dinamismo. Este proyecto implementa mecanismos de
arrastrar y soltar para la manipulación de los datos, por lo que el lenguaje JavaScript toma gran
relevancia, pues es el que permite que este objetivo se cumpla.
Para facilitar el trabajo con JavaScript del lado de cliente existe jQuery, una librería muy
popular y de gran uso, que facilita el trabajo de los desarrolladores en aspectos como la
manipulación de elementos HTML, manejo de eventos, animaciones, entre otros (jQuery
Foundation, n.d.). Aun así, para este proyecto esta librería resulta muy básico, pues el manejo de
56
eventos de arrastrar y soltar requiere definir una lógica compleja, que mantenga la integridad de
los datos y sea relacionada con los eventos en sí.
AngularJS es un framework JavaScript, que trabaja bajo arquitecturas como MVC
(Modelo, Vista, Controlador) en el cliente, con características como la inyección de dependencias,
para un desarrollo modular y reutilización de código, el data binding para asociar y actualizar al
instante la información entre JavaScript y HTML, entre otros (Google, n.d.-a). Este framework se
enfoca en la lógica de la aplicación, es liviano, eficiente y permite la integración de otras
tecnologías JavaScript, como jQuery (Solis, 2015).
Se requiere igualmente ocuparse de la visualización de la información, teniendo en cuenta
el carácter responsivo del proyecto. Existen frameworks web para frontend que trabajan HTML,
CSS y JavaScript en conjunto, ofreciendo mecanismos necesarios para lograr, de forma sencilla,
productos responsivos de gran impacto a los usuarios. Dos ejemplos de estos frameworks son
Bootstrap (Bootstrap, n.d.), que trabaja bajo la filosofía mobile-first, y Materialize, basado en la
filosofía de Material Design (Materialize, n.d.). Ambos frameworks son muy similares y su
propósito es el mismo, lo que los diferencia son sus principios.
El principio mobile-first propone que los elementos de las páginas web deben tratarse
primero para dispositivos móviles, pues por su diversidad requieren mayor atención y detalle que
los dispositivos convencionales. A su vez, Material Design es una filosofía de Google que propone
un diseño responsivo realista, trabajando atributos como sombras y colores, colores, ofreciéndole
al usuario una experiencia acercada a su cotidianidad, así como una unificación de la interacción
con los aplicativos que use (Google, n.d.-b).
Por lo anteriormente expuesto, se elige a AngularJS como tecnología para trabajar
JavaScript en el cliente, pues al asociar la lógica del aplicativo con los documentos HTML, facilita
la incorporación de los eventos de arrastrar y soltar, centrando el trabajo en garantizar la integridad
de la información. Asimismo, se incorpora en el desarrollo a Materialize, ya que por su filosofía
no solo aporta en la experiencia del usuario, sino que simplifica el trabajo de diseñadores y
desarrolladores, pues permite una personalización de los sitios web de forma más directa y
comprensible. La combinación de estas dos tecnologías es una estrategia para lograr un impacto
positivo en los usuarios del aplicativo.
57
8.1.3 Backend
En el desarrollo web, existe gran variedad de tecnologías que trabajan del lado del servidor.
Su uso depende de factores como la complejidad del proyecto, las funcionalidades que se desean
proveer, entre otros. Proyectos como este, buscan obtener productos funcionales en poco tiempo,
lo que requiere usar tecnologías fáciles de aprender y usar. Por ello, tecnologías como Java o .Net
son descartadas, pues aunque aportan características como estabilidad, seguridad, entre otras, su
curva de aprendizaje es muy lenta.
El enfoque de trabajo AMP (Apache, MySQL y PHP) es ampliamente usado en la
actualidad, por ser tecnologías relativamente sencillas de aprender y usar, así como su
compatibilidad con diferentes plataformas. MySQL es un motor de bases de datos relacional, usado
para la persistencia; PHP es un lenguaje de programación del lado del servidor para manejar la
lógica de negocio y Apache es el servidor web para desplegar el aplicativo (Boronczyk et al.,
2009). En este enfoque, MySQL puede ser reemplazado por otros motores de bases de datos como
lo son Oracle, PostgreSQL o MongoDB.
Se ha tenido la concepción de JavaScript como un lenguaje que se ejecuta del lado del
cliente, junto con HTML y CSS. No obstante, NodeJS es una propuesta reciente que permite usar
JavaScript como un lenguaje del lado del servidor. Se define como una plataforma, orientada a
eventos asíncronos, que permite construir aplicaciones en red de forma rápida y escalable (Node.js
Foundation, n.d.). Asimismo, se considera a NodeJS como una solución ideal para aplicaciones no
críticas, que requieren atender una cantidad de usuarios considerable, así como obtener respuestas
rápidas del servidor (Muñoz, 2013).
Una ventaja de NodeJS con respecto al enfoque AMP es que se requiere conocer y manejar
un único lenguaje de programación tanto en el cliente como en el servidor. Asimismo, el usar
JavaScript como único lenguaje es una ventaja, pues al tener soporte nativo de JSON, se facilita la
manipulación e intercambio de información entre el cliente, el servidor y la base de datos, de forma
directa. Por las razones anteriores, se elige a NodeJS como tecnología que soportará el desarrollo
en el lado del servidor.
58
8.2 MODELO DE DATOS
El siguiente es el modelo de datos propuesto para describir el instrumento de evaluación
propuesto y todos los elementos que se requieren para el aplicativo, teniendo en cuenta la elección
del enfoque no relacional y de MongoDB como motor de bases de datos.
Figura 7. Modelo de datos no relacional propuesto para el aplicativo.
Fuente: Autor.
El modelo consta de cinco entidades o colecciones, que permiten representar una
evaluación y sus respectivos resultados. En la siguiente tabla se describe cada una de ellas.
Tabla 27. Entidades definidas para el modelo de datos.
Entidad Descripción
Usuario (User) Representa los usuarios docentes y estudiantes dentro del aplicativo.
Galería (Gallery) Define los recursos multimedia de los usuarios en el aplicativo.
Pregunta (Question) Representa los tipos de preguntas del instrumento de evaluación.
Evaluación (Assessment) Define el instrumento de evaluación incorporado en el aplicativo.
Resultado (Record) Representa las respuestas y resultados de cada estudiante.
Fuente: Autor.
59
8.2.1 Usuario
Esta entidad describe a cada uno de las personas que hacen uso del aplicativo, almacenando
de cada uno el nombre de usuario, contraseña, nombre, apellido y rol, descritos a continuación.
Tabla 28. Entidad Usuario del modelo de datos.
Atributo Tipo Descripción
_id ObjectId Atributo generado por el sistema para identificar un documento.
username String Atributo único del usuario para iniciar sesión en el aplicativo.
password String Contraseña del usuario para validar su ingreso al aplicativo.
name String Nombre(s) del usuario.
lastname String Apellido(s) del usuario.
role String Rol u ocupación del usuario, que puede ser profesor o estudiante.
Fuente: Autor.
8.2.2 Galería
Esta entidad describe los recursos multimedia en el aplicativo. Aunque almacena todos los
tipos de elementos, la estructura de un elemento tipo texto difiere de los elementos tipo audio,
imagen y video. A continuación se explica la estructura de esta entidad.
Tabla 29. Entidad Galería del modelo de datos.
Atributo Tipo Descripción
_id ObjectId Atributo generado por el sistema para identificar un documento.
name String Atributo asignado por el usuario que identifica un recurso.
type String Tipo de elemento, que puede ser audio, imagen, texto o video.
path String Ruta en disco del elemento. Aplica para audio, imagen y video.
url String URL del elemento multimedia. Aplica para audio, imagen y video.
text String Texto con formato. Aplica para texto.
status String Estado del elemento dentro del aplicativo.
owner ObjectId Referencia que asocia el elemento con su propietario.
Fuente: Autor.
A continuación puede apreciarse la diferencia en la estructura en los elementos multimedia,
pues todos tienen en común el nombre, tipo, estado y propietario, pero difieren en otros datos. Los
elementos tipo audio, texto y video, estructura representada en la parte izquierda de la figura,
poseen adicionalmente la ruta y la URL. Los elementos tipo texto, representados en la parte
derecha de la figura, agregan a estos datos el texto con formato HTML, que a su vez puede
referenciar imágenes presentes en el aplicativo, por medio de su URL.
60
Figura 8. Estructura de los elementos multimedia.
Fuente: Autor.
8.2.3 Pregunta
Esta entidad representa los diferentes tipos de pregunta del instrumento de evaluación
propuesto, y tiene variaciones significativas en su estructura, pues cada tipo de pregunta requiere
una estructura específica, acorde con su propósito. A continuación se explica la estructura de esta
entidad.
Tabla 30. Entidad Pregunta del modelo de datos.
Atributo Tipo Descripción
_id ObjectId Atributo generado por el sistema para identificar un documento.
name String Atributo asignado por el usuario que identifica una pregunta.
type String Tipo de pregunta.
statement String Enunciado de la pregunta.
attachment ObjectId Referencia que asocia el recurso multimedia de apoyo a la pregunta.
questions Array Arreglo de referencias para las preguntas asociadas a una pregunta.
body Object Objeto que describe la estructura de tipo de pregunta.
status String Estado de la pregunta dentro del aplicativo.
owner ObjectId Referencia que asocia la pregunta con su propietario.
Fuente: Autor.
Cada uno de los tipos de pregunta manejados en el instrumento de evaluación tiene como
información en común el nombre, tipo, enunciado, recurso adjunto, estado y propietario. Las
preguntas de base común utilizan el atributo questions para asociar las preguntas relacionadas a un
elemento en común. Las preguntas de correlación, opción múltiple, ordenamiento y verdadero o
falso utilizan el atributo body para especificar su estructura, basada en el concepto de elemento.
61
Un elemento es un objeto que incorpora los atributos index y text, cuya función es
identificar a un elemento dentro de la pregunta y expresar el contenido del elemento, que puede
ser una combinación de texto e imágenes, previamente definidas en el sistema, respectivamente.
A continuación se muestra la estructura de un elemento.
Figura 9. Estructura de los elementos que conforman las preguntas.
Fuente: Autor.
8.2.3.1 Pregunta de base común
Este tipo de pregunta difiere de los demás, pues no poseen una estructura específica, pues
su función es relacionar otras preguntas con un elemento en común. Para ello, se hace uso del
atributo questions, que almacena referencias a las preguntas de otros tipos, relacionadas a un
elemento presente en la galería del usuario, por medio del atributo attachment, que es de
obligatorio uso. La siguiente es la estructura de este tipo de pregunta.
Figura 10. Estructura de las preguntas de base común.
Fuente: Autor.
8.2.3.2 Pregunta de correlación
Estas preguntas incorporan un listado de los elementos a catalogar, así como el conjunto
de categorías a los que estos elementos pertenecen. Cada categoría a su vez posee un nombre y los
elementos u objetos que la conforman. Podría considerarse redundante tener el listado total de
elementos a catalogar y los elementos distribuidos por categoría, pero puede suceder que un
62
elemento no sea relacionado en ninguna categoría, por lo que conviene mantener esta distribución.
A continuación se muestra la representación de la estructura general de la pregunta y de las
categorías.
Figura 11. Estructura de las preguntas de correlación.
Fuente: Autor.
8.2.3.3 Pregunta de opción múltiple
Estas preguntas definen un listado de elementos que conforman la respuesta, agrupados en
el conjunto answers. Asimismo, definen un listado de elementos que no hacen parte de la respuesta,
agrupados en el conjunto options. La siguiente es la representación de su estructura.
Figura 12. Estructura de las preguntas de opción múltiple.
Fuente: Autor
63
8.2.3.4 Pregunta de ordenamiento
Este tipo de pregunta define un conjunto de elementos ordenados de acuerdo a un criterio,
especificado en el enunciado. El orden en el que se almacenan los elementos, en el atributo answer,
es la respuesta aceptada. A continuación se representa la estructura de este tipo de pregunta.
Figura 13. Estructura de las preguntas de ordenamiento.
Fuente: Autor.
8.2.3.5 Pregunta de verdadero o falso
Estas preguntas poseen dos conjuntos de elementos: verdadero, que contiene los elementos
o hechos verídicos; y falso, que contiene los elementos que no son ciertos, conformándose así la
respuesta al interrogante propuesto. La siguiente es su estructura.
Figura 14. Estructura de las preguntas de verdadero o falso.
Fuente: Autor.
64
8.2.4 Evaluación
Esta entidad representa el instrumento de evaluación propuesto, el cual consolida una gran
cantidad de información por medio de referencias a otras entidades y de objetos con algunas
relaciones implícitas. A continuación se describe la estructura de una evaluación.
Tabla 31. Entidad Evaluación del modelo de datos.
Atributo Tipo Descripción
_id ObjectId Atributo generado por el sistema para identificar un documento.
Name String Atributo asignado por el usuario que identifica una evaluación.
password String Clave asignada para restringir el acceso a la evaluación.
view_record Boolean Propiedad para habilitar o deshabilitar la consulta de resultados.
go_back Boolean Propiedad para restringir la navegación libre de la evaluación.
goals Array Logros definidos para estudiar en la evaluación.
questions Array Conjunto de referencias a las preguntas de la evaluación.
parameters Array Conjunto de asociaciones de logros y puntajes a las preguntas.
status String Estado de la evaluación dentro del aplicativo.
owner ObjectId Referencia que asocia la evaluación con su propietario.
Fuente: Autor.
Los logros son guardados como cadenas de texto dentro de un arreglo y el índice que le
corresponde, según su posición, es usado para asociarlos con las preguntas que conforman la
evaluación. El atributo parameters relaciona los logros y puntajes en las preguntas que conforman
la evaluación, por medio de objetos que tiene los atributos score, que es el puntaje asignado y
goals, que almacena los índices de los logros. Esta estructura puede apreciarse a continuación.
Figura 15. Estructura para asignación de puntajes y logros.
Fuente: Autor.
La correspondencia entre el arreglo parameters y el arreglo questions de uno a uno. Si la
pregunta es de base común, el arreglo de parameters en dicha posición no almacena un objeto,
sino un arreglo de objetos, que relaciona una a una las preguntas que la conforman, con su
configuración de puntaje y logros.
65
8.2.5 Resultado
Esta entidad del modelo es la encargada de representar los resultados de los estudiantes
para las diferentes evaluaciones que presentan. A diferencia de las otras entidades, esta si maneja
una única estructura, explicada a continuación.
Tabla 32. Entidad Resultado del modelo de datos.
Atributo Tipo Descripción
_id ObjectId Atributo generado por el sistema para identificar un documento.
assessment ObjectId Referencia que relaciona la evaluación con el resultado.
student ObjectId Referencia que relaciona al estudiante con el resultado.
score Number Puntaje obtenido por el estudiante.
answers Array Respuestas del estudiante para las preguntas de la evaluación.
goals Array Resultados del estudiante para los logros de la evaluación.
Fuente: Autor.
El atributo score representa la calificación genera del estudiante, mientras que el atributo
goals contiene su desempeño en cada logro definido. Las respuestas del estudiante son guardadas
en una estructura con dos atributos: score, que guarda el puntaje logrado en la pregunta y ans, que
contiene los elementos indicados como respuesta, cuya estructura varía de acuerdo al tipo de
pregunta. La estructura de este atributo se explica a continuación.
Tabla 33. Estructura de la respuesta del estudiante.
Tipo de pregunta Tipo de dato Descripción
Correlación Array Almacena cada categoría como un objeto, con su nombre
y los elementos que el estudiante le asignó.
Opción múltiple Array Guarda los elementos que el estudiante indicó como
respuesta.
Ordenamiento Array Almacena los elementos propuestos, en el orden que el
estudiante indicó.
Verdadero o falso Object Con los atributos true y false, que son arreglos, se
almacenan los elementos según el haya indicado.
Fuente: Autor.
Cada elemento que conforme la respuesta del estudiante tiene el atributo correct, para
indicar es correcto o no. Cuando una pregunta es de base común, en el atributo answers de la
entidad no almacena un objeto, sino un arreglo de elementos que tiene una correspondencia uno a
uno con las preguntas que la conforman.
66
8.3 REQUERIMIENTOS DEL SISTEMA
Los siguientes apartados presentan los requerimientos funcionales y no funcionales
definidos para el aplicativo, obtenidos a partir de la descripción del instrumento de evaluación y
las historias de usuario recopiladas, ver Anexo 1.
8.3.1 Requerimientos funcionales
Esta sección presenta los requerimientos funcionales definidos e implementados, descritos
en detalle en el Anexo 2. Los roles identificados para el sistema son docente, encargado de crear
el material de evaluación y estudiante, quienes usan dicho material. La siguiente tabla muestra el
listado de requerimientos, agrupados según su funcionalidad, así como su relación con los actores.
Tabla 34. Requerimientos funcionales del sistema.
ID Requerimiento Actores
Docente Estudiante
RF-01 Registro de usuarios en el sistema. X X
Módulo de gestión de multimedia
RF-02 Listado de elementos multimedia en el sistema. X
RF-03 Creación de elementos multimedia en el sistema. X
RF-04 Visualización de elementos multimedia en el sistema. X
RF-05 Modificación de elementos multimedia en el sistema. X
RF-06 Eliminación de elementos multimedia en el sistema. X
Módulo de gestión de preguntas
RF-07 Listado de preguntas presentes en el sistema. X
RF-08 Creación de preguntas en el sistema. X
RF-09 Asociación de elementos multimedia como apoyo. X
RF-10 Visualización de las preguntas presentes en el sistema. X
RF-11 Modificación de las preguntas presentes en el sistema. X
RF-12 Eliminación de las preguntas presentes en el sistema. X
Módulo de gestión de evaluaciones
RF-13 Listado de evaluaciones presentes en el sistema. X
RF-14 Creación de evaluaciones en el sistema. X
RF-15 Definición de restricciones de acceso a la evaluación. X
RF-16 Definición de modos de presentación de la evaluación. X
RF-17 Definición de restricciones para la consulta de resultados. X
RF-18 Definición de logros a medir con la evaluación. X
RF-19 Asociación de logros y puntajes a preguntas. X
RF-20 Visualización de las evaluaciones presentes en el sistema. X
RF-21 Modificación de las evaluaciones presentes en el sistema. X
RF-22 Eliminación de las evaluaciones presentes en el sistema. X
67
Módulo de presentación de evaluaciones
RF-23 Listado de evaluaciones disponibles para presentar. X
RF-24 Inicio de evaluación. X
RF-25 Navegación de la evaluación pregunta por pregunta. X
RF-26 Visualización de preguntas y modificación de respuestas. X
RF-27 Informe de estado de la evaluación previo a su finalización. X
RF-28 Finalización de evaluación. X
Módulo de resultados e informes
RF-29 Consulta de informes grupales para evaluaciones. X
RF-30 Consulta de informes individuales para evaluaciones. X X
RF-31 Contraste entre respuestas del estudiante y las esperadas. X X
RF-32 Descarga de resultados grupales para las evaluaciones. X
Fuente: Autor.
8.3.2 Requerimientos no funcionales
Este apartado presenta los requerimientos no funcionales definidos para el sistema,
descritos con mayor detalle en el Anexo 3, los cuales están relacionados con el carácter responsivo
propuesto, así como elementos técnicos que son planteados para mejorar el rendimiento del
aplicativo y por ende la experiencia del usuario.
Tabla 35. Requerimientos no funcionales.
ID Nombre
RNF-01 Compatibilidad entre navegadores
RNF-02 Apariencia visual
RNF-03 Disposición de elementos en la pantalla
RNF-04 Agrupación de contenido
RNF-05 Delegación de responsabilidades
Fuente: Autor.
8.4 DISEÑO DE BACKEND
Con base en los requerimientos formulados y su agrupamiento por su funcionalidad, se
propone la siguiente distribución de módulos en los dispositivos servidor y cliente, para delegar
responsabilidades a los segundos. Al realizar operaciones localmente, el cliente reduce la cantidad
de intercambio de información y por ende, se reduce el tráfico de datos en el servidor y las
operaciones para su procesamiento. Las siguientes secciones presentan el diagrama de despliegue,
que muestra la distribución de módulos dentro de la arquitectura cliente – servidor y algunos
diagramas de secuencia, que describen las principales operaciones del aplicativo.
68
8.4.1 Diagrama de despliegue
Figura 16. Diagrama de despliegue para el aplicativo propuesto.
Fuente: Autor.
A continuación se describen los requerimientos mínimos de software para que el despliegue
mostrado en la figura anterior funcione correctamente.
Tabla 36. Requerimientos mínimos de software para el funcionamiento del aplicativo.
Software Versión Dispositivo Descripción
Google Chrome - Cliente Navegador principal.
Mozilla Firefox - Cliente Navegador alternativo.
AngularJS 1.5.6 Servidor Framework que soporta los módulos en el cliente.
NodeJS 4.4.5 Servidor Solución que soporta los módulos en el servidor.
MongoDB 3.0.12 Servidor Motor de bases de datos para la gestión de datos.
Fuente: Autor.
El desarrollo fue realizado considerando Google Chrome como navegador principal,
teniendo en cuenta que está presente en millones de computadores y dispositivos con sistema
operativo Android. Mozilla Firefox se recomienda como navegador alterativo, pues es compatible
con el diseño frontend implementado, permitiendo el correcto funcionamiento del aplicativo.
deployment Client - Serv er
Client Application Serv er
Database Serv er
MongoDB
AngularJS
Presentation Assessment
QuestionGallery
NodeJS
Gallery Mongoose
Presentation
AssessmentQuestion
«use»HTTP
«use»
«use»
TCP/IP
«use»
«use»«use»
«use»«use»
«use»«use»
69
Para conocer los requerimientos mínimos de hardware, remítase a los apartados Sesiones
de contextualización y Sesiones de prueba específica, pues se usaron diferentes entornos de
trabajo, cambiando las características de los equipos.
8.4.2 División de responsabilidades en la arquitectura cliente – servidor
Tabla 37. Distribución de módulos y responsabilidades.
Módulo Responsabilidad Cliente Responsabilidad Servidor
Gestión de
multimedia
Gestión local de los datos de la galería
del usuario, para la reducción de
intercambio de datos con el servidor.
Almacenamiento de elementos en disco
y gestión de datos asociados a los
elementos entre el cliente y la base de
datos.
Gestión de
preguntas
Gestión local de los datos del banco de
preguntas, garantizando la integridad
de la información y la reducción de
intercambio de datos con el servidor.
Gestión de datos que representan los
diferentes tipos de preguntas entre el
cliente y la base datos.
Gestión de
evaluaciones
Gestión local de los datos del banco de
evaluaciones, que garantiza la
integridad de la información y la
reducción de intercambio de datos con
el servidor.
Gestión de datos que representan las
evaluaciones y sus componentes entre
el cliente y la base datos.
Presentación
de
evaluaciones
Presentación de la evaluación al
usuario y navegación pregunta a
pregunta, almacenando su progreso
temporalmente.
Consulta y envío de la evaluación al
cliente. Recepción de respuestas,
calificación y almacenamiento de
resultados.
Resultados e
informes
Presentación de los datos y generación
de gráficos mostrados al usuario.
Construcción de informes a partir de la
información presente en la base de
datos.
Fuente: Autor.
Dividir las responsabilidades de cada uno de los módulos en los clientes y el servidor
permite visualizar el funcionamiento del aplicativo en entornos de trabajo con bajos
requerimientos, donde no existe un equipo servidor con las características necesarias para manejar
un alto tráfico de datos y alto número de usuarios trabajando simultáneamente, así como una
infraestructura de red modesta. Las configuraciones de software y hardware de los dispositivos
convencionales y móviles actuales son adecuados para llevar parte de la lógica de negocio a los
clientes, siendo un factor no crítico que afecte drásticamente el desempeño del aplicativo, pues
están en capacidad de manejar el tipo de operaciones requeridas en este proyecto.
70
Muchas de las instituciones educativas poseen equipos con buenas configuraciones de
software y hardware, pero no con infraestructura especializada como centros de cómputo con
servidores apropiados para alojar aplicaciones como estas. Por ello, una distribución de la lógica
de negocio entre los dispositivos elimina requerimientos como infraestructura especializada,
reduciéndose considerablemente los costos de implementación. Asimismo, se crea un producto
que puede ser usado en cualquier institución que cuente con los dispositivos y la red, usando así
un equipo convencional como servidor.
8.4.3 Diagramas de secuencia para operaciones más representativas
Los siguientes apartados presentan los diagramas de secuencia que describen las acciones
más relevantes que los usuarios de tipo docente y estudiante pueden realizar en el aplicativo, para
cada uno de los módulos propuestos. En la creación del contenido de evaluación, el docente realiza
acciones como la creación de elementos multimedia, creación de preguntas y evaluaciones en sí.
A su vez, los estudiantes hacen uso del material de evaluación creado durante el proceso de
presentación o aplicación. Igualmente, docentes y estudiantes, una vez culminada la aplicación de
una evaluación, realizan las respectivas consultas de resultados.
71
8.4.3.1 Creación de elementos multimedia
Figura 17. Diagrama de secuencia para creación de elementos multimedia.
Fuente: Autor.
72
8.4.3.2 Creación de preguntas
Figura 18. Diagrama de secuencia para creación de preguntas.
Fuente: Autor.
73
8.4.3.3 Creación de evaluaciones
Figura 19. Diagrama de secuencia para creación de evaluaciones.
Fuente: Autor.
74
8.4.3.4 Presentación de evaluaciones
Figura 20. Diagrama de secuencia para presentación de evaluaciones.
Fuente: Autor.
75
8.4.3.5 Consulta de resultados para docentes
Figura 21. Diagrama de secuencia para consulta de resultados como docente.
76
8.4.3.6 Consulta de resultados para estudiantes
Figura 22. Diagrama de secuencia para consulta de resultados como estudiante.
Fuente: Autor.
8.5 DISEÑO DE FRONTEND
Los siguientes apartados describen los elementos considerados para la componente
frontend del aplicativo, al igual que los prototipos o mockups que describen las principales páginas
y funcionalidades, tanto para dispositivos de cómputo como computadores de escritorio y
portátiles como para dispositivos móviles con pantallas iguales o superiores a 7 pulgadas.
8.5.1 Usabilidad
La usabilidad de un aplicativo está dada por atributos de usabilidad, que son características
obtenidas del tipo de sistema a construir. Asimismo, está ligada al entorno donde el aplicativo
funcionará y los usuarios que lo utilizarán. De acuerdo al estándar ISO/IEC 9126, la usabilidad
está dada por las siguientes componentes (Perunena & Moráguez, 2013).
77
Tabla 38. Componentes del estándar ISO/IEC 9126 para el análisis de la usabilidad.
Componente Descripción
Comprensibilidad El usuario encuentra que el producto es adecuado y comprende cómo
usarlo para realizar sus labores cotidianas.
Aprendizaje El usuario aprende a usar el producto.
Operabilidad El usuario usa y controla el producto.
Atractividad El producto resulta atractivo al usuario.
Conformidad a
estándares y pautas El producto adopta estándares, regulaciones y recomendaciones.
Fuente: Autor. Basado en (Perunena & Moráguez, 2013).
8.5.2 Patrones y recomendaciones para diseños responsivos
La construcción de aplicaciones web responsivas existen cinco patrones de diseño (LePage,
2016), los cuales describen la forma en que los diferentes bloques de información que conforman
una página web son redistribuidos para adaptarse al tamaño de la pantalla. Estos patrones son
descritos en la siguiente tabla.
Tabla 39. Patrones de diseño para la web responsiva.
Patrón Descripción
Mostly fluid
Los contenedores de información se mueven en una rejilla fluida, que permite
que contenedor que no puede ocupar su espacio inicial reajuste su tamaño
junto a otros contenedores, de forma equitativa.
Column drop
Los contenedores de información poseen un ancho completo. De acuerdo al
tamaño de pantalla, un contenedor que no pueda ocupar su espacio pasa a la
parte inferior de los contenedores que se mantienen, ocupando el ancho de la
pantalla.
Layout shifter
Posicionamiento de contenedores de información desde varios puntos de
rompimiento, generando una transformación visual significativa de la página
web.
Tiny tweaks Cambio de atributos de los elementos que conforman la página web, como lo
son el espaciado entre elementos, tamaños de fuentes, entre otros.
Off canvas
Ocultamiento de contenedores de información para pantallas pequeñas, los
cuales tienen asociado algún gesto o elemento que presenta el contenedor al
usuario. Estos contenedores se muestran en las pantallas grandes.
Fuente: Autor. Basado en (LePage, 2016).
La distribución y uso de elementos en una página web existen algunas recomendaciones y
buenas prácticas, que son implementadas por muchos de los sitios web existentes en el mercado.
La siguiente tabla presenta algunos de estos elementos (Veloz, 2016).
78
Tabla 40. Recomendaciones y buenas prácticas en sitios web del mercado.
Elemento Descripción
Menú Fijo para orientar al usuario permanentemente en el sitio web.
Oculto para la navegación en dispositivos con pantalla pequeña.
Íconos Facilitan la interacción con toques o clics.
Orientan al usuario sobre la temática de secciones y accesos rápidos.
Fuentes Aportan identidad, estilo y elegancia al sitio web.
Un tamaño adecuado no requiere que el usuario haga zoom.
Imágenes Las imágenes se adaptan al ancho de la pantalla.
Las imágenes y videos grandes invitan al usuario a conocer el sitio.
Secciones Los acordeones ahorran espacio y permiten una navegación sencilla.
Scroll Optimiza la cantidad de clics o toques realizados para visitar una página.
One page Con pocos clics o toques, se puede ver la información en una única página.
Formularios Formularios sencillos.
Notificaciones Eliminación de alertas, notificaciones y popups innecesarios.
Fuente: Autor. Basado en (Veloz, 2016).
8.5.3 Mockups
Los siguientes mockups muestran la estructura base del aplicativo en dispositivos de
cómputo convencionales y dispositivos móviles. Una página contiene tres elementos: una barra de
menú con enlaces a las acciones que un usuario puede realizar, un área de trabajo que muestra la
información de cada acción y un botón de ayuda para obtener consejos sobre el uso de cada acción.
Figura 23. Estructura base del aplicativo para computadores y laptops.
Fuente: Autor.
79
Figura 24. Estructura base del aplicativo para dispositivos móviles
Fuente: Autor.
La estructura base en dispositivos con pantallas pequeñas experimenta cambios con
respecto a los dispositivos convencionales, como el ocultamiento de las acciones de la barra de
menú, reemplazadas por un botón ubicado en la parte izquierda de la barra y que despliega una
barra lateral con los elementos que fueron ocultados en la barra de menú. El área de trabajo se
redistribuye, tal como se explica a continuación.
8.5.3.1 Redistribución de elementos en la pantalla
La estructura del área de trabajo, para algunas acciones, puede contener dos columnas, las
cuales requieren una adecuada reubicación en pantallas pequeñas. Como se manejan únicamente
dos columnas, la aplicación del patrón Column drop es pertinente para dicha redistribución. La
Figura 25 y la Figura 26 muestran la implementación de este patrón en el aplicativo, cuando el
área de trabajo posee dos columnas. Si el área posee únicamente una columna, esta es
redimensionada y preserva su posición, tal como en la Figura 24.
La orientación en la que se trabaje el dispositivo, sea landscape (horizontal) o portrait
(vertical), puede influir en la estructura que se muestra. Algunos dispositivos que están en un punto
intermedio de tamaños, puede tomar la configuración para computadores en modo horizontal y la
de dispositivos móviles en modo vertical.
80
Figura 25. Distribución de columnas para computadores y laptops.
Fuente: Autor.
Figura 26. Distribución de columnas para dispositivos móviles
Fuente: Autor
81
8.5.3.2 Agrupación de información en bloques
Algunas de las acciones realizadas por los usuarios en el aplicativo requieren el manejo de
una gran cantidad de información en una misma página, como lo son la creación de preguntas y
evaluaciones, así como la aplicación o presentación de las mismas. Manejar una gran cantidad de
información en pantalla implicaría realizar grandes desplazamientos, que a su vez generaría perder
de vista alguna porción de esta en un momento determinado. Un usuario puede necesitar ver al
mismo tiempo información no continua en la página, requiriendo un constante movimiento de la
página, que lo puede confundir e inducir al error.
El acordeón es un elemento gráfico que permite agrupar información en bloques, siendo el
criterio más usado la afinidad o relación entre esta. Por lo general, un acordeón posee varias
secciones o bloques de información, los cuales pueden ser plegados o desplegados, según el deseo
del usuario. Por defecto, este elemento permite tener desplegada únicamente una sección a la vez,
pero al aplicar algunas configuraciones pueden desplegarse varias secciones simultáneamente.
Incorporar el acordeón a una página, configurado para visualizar varias secciones a la vez, permite
a los usuarios reducir los desplazamientos que realiza en la página. Las siguientes figuras presentan
el uso del acordeón en dispositivos de cómputo convencionales como en dispositivos móviles.
Figura 27. Uso de acordeón en computadores y laptops.
Fuente: Autor.
82
Figura 28. Uso de acordeón en dispositivos móviles.
Fuente: Autor.
8.5.3.3 Visualización de información adicional
En algunas de las acciones realizadas por los usuarios dentro del aplicativo requieren
manejar información proveniente de otros módulos, como por ejemplo la incorporación de
elementos multimedia a las preguntas o la asociación de preguntas a una evaluación. Asimismo,
algunas acciones dentro del aplicativo requieren manejar gran cantidad de información, que aun
usando el acordeón requiere de gran espacio en la página, necesitándose hacer grandes
desplazamientos en la pantalla, llegando nuevamente a la misma problemática. Las ventanas
emergentes son una solución para este cuestionamiento.
Los modals son ventanas emergentes que muestran información al usuario en una misma
página, al ejecutar algún evento sobre un elemento. Una ventaja de usarlos es que no se requiere
recargar la página que la contiene para mostrarse, preservando así la información que posee al
momento de su llamado. Asimismo, facilita la extensión de la página y la reutilización de
funcionalidades, como editores de texto, selectores de elementos, ayudas al usuario, entre otros.
Las siguientes figuras muestran la disposición de modals en dispositivos convencionales y
dispositivos móviles, los cuales ocupan una gran porción de la pantalla para maximizar la cantidad
de información que un usuario puede ver sin realizar algún desplazamiento.
83
Figura 29. Uso de ventanas emergentes en computadores y laptops.
Fuente: Autor.
Figura 30. Uso de ventanas emergentes en dispositivos móviles.
Fuente: Autor.
8.5.3.4 Uso de iconografía
Los íconos son elementos gráficos que se incorporan en una página web y se asocian a los
otros componentes de la página como ayudas visuales, permitiendo a los usuarios identificar
rápidamente funcionalidades y hacer su uso intuitivo. Dentro del diseño propuesto e
implementado, usar íconos permite:
84
1. Reemplazar el texto de los botones por representaciones gráficas que ocupan menos
espacio, sin modificar drásticamente su intención, como lo presentan las siguientes figuras,
donde las acciones ver, editar y eliminar son reemplazadas por los íconos ojo, lápiz y bote
de basura, respectivamente. Igual sucede con el botón de ayuda (signo de interrogación) y
de inicio (casa).
Figura 31. Cambio de texto en los botones por íconos en computadores y laptops.
Fuente: Autor.
Figura 32. Cambio de texto en los botones por íconos en dispositivos móviles.
Fuente: Autor.
85
2. Acompañar a diferentes elementos y secciones definidas para una página, que comuniquen
al usuario su contenido y permitan su fácil ubicación y manipulación. En las siguientes
figuras se muestra el uso de íconos para acompañar los accesos directos presentes en la
página de inicio de los usuarios, tanto para computadores como dispositivos móviles.
Figura 33. Uso de íconos para acompañar elementos de una página en computadores y laptops.
Fuente: Autor.
Figura 34. Uso de íconos para acompañar elementos de una página en dispositivos móviles.
Fuente: Autor.
86
3. Informar al usuario sobre los resultados de acciones realizadas. Los íconos pueden incluirse
en una página y mostrarse dinámicamente, de acuerdo a algún evento. En el diseño
propuesto se incorporan para notificar respuestas de operaciones, así como estados de los
bloques de información, los cuales informan al usuario si está incompleto (signo de
admiración) o está completo (signo de aprobación). Las siguientes figuras ejemplifican el
uso de íconos en los formularios como mecanismo de notificación de estados y resultados.
Figura 35. Incorporación de íconos para indicar resultados en computadores y laptops.
Fuente: Autor.
Figura 36. Incorporación de íconos para indicar resultados en dispositivos móviles.
Fuente: Autor.
87
8.6 PRODUCTO GENERADO
En esta sección se realiza un recorrido general por el aplicativo construido, mostrando y
describiendo los aspectos más relevantes. Para mayor detalle, consulte el manual de usuario del
aplicativo, disponible en el aplicativo o en el adjunto que acompaña a este documento.
8.6.1 Página principal del aplicativo
Figura 37. Página principal del aplicativo
Fuente: Autor.
Al ingresar al aplicativo en el navegador, el usuario es posicionado en la página principal,
la cual le presenta una descripción general del producto y las opciones para ingresar, registrarse o
acceder al manual de usuario.
88
8.6.2 Perfiles de usuario
Toda acción o procedimiento que puede realizarse por los usuarios, docentes y estudiantes,
requiere que tengan una cuenta en el aplicativo y que inicien sesión. El único procedimiento que
no requiere iniciar sesión en el aplicativo es la descarga del manual de usuario, en formato PDF.
A continuación se presentan los perfiles de usuario para docentes y estudiantes.
8.6.2.1 Perfil docente
Un usuario tipo docente, al iniciar sesión en el aplicativo, es posicionado en la página de
inicio, que tiene la estructura presentada a continuación.
Figura 38. Página de inicio para usuarios de tipo docente.
Fuente: Autor.
Un docente tiene acceso a los siguientes módulos:
1. Gestión de multimedia, a través del enlace Galería.
2. Gestión de preguntas, a través del enlace Preguntas.
3. Gestión de evaluaciones, a través del enlace Evaluaciones.
4. Resultados e informes, a través del enlace Calificaciones.
Los usuarios de tipo estudiante no tienen acceso a estos módulos, pues no les proporcionan
los enlaces para ello y se deniega su acceso al intentar acceder por la dirección URL de cada uno.
89
8.6.2.2 Perfil estudiante
Un usuario tipo estudiante, al iniciar sesión en el aplicativo, es posicionado en la página de
inicio, que tiene la estructura presentada a continuación.
Figura 39. Página de inicio para usuarios de tipo docente.
Un estudiante tiene acceso a los siguientes módulos:
1. Presentación de evaluaciones, a través del enlace Iniciar evaluación.
2. Resultados e informes, a través del enlace Calificaciones.
8.6.3 Módulo de gestión de multimedia
Este módulo permite a los docentes gestionar los elementos multimedia que usará en sus
preguntas. Las acciones que puede realizar son:
1. Creación de elementos de tipo audio, imagen y video.
2. Creación de elementos de tipo texto.
3. Visualización de elementos multimedia.
4. Modificación de elementos multimedia.
5. Eliminación de elementos multimedia.
Las siguientes figuras muestran la galería multimedia de un docente y los mecanismos para
la creación de elementos multimedia en el aplicativo.
90
Figura 40. Ejemplo de galería de usuario con elementos.
Fuente: Autor.
Figura 41. Ejemplo de formulario para creación de textos.
Fuente: Autor.
91
Figura 42. Ejemplo de gestor de carga de archivos.
Fuente: Autor.
8.6.4 Módulo de gestión de preguntas
Este módulo permite a los docentes gestionar las preguntas que incorporará en sus
evaluaciones. Las acciones que puede realizar son:
1. Creación de elementos de tipo base común, correlación, opción múltiple, ordenamiento
y verdadero o falso.
2. Visualización de preguntas.
3. Modificación de preguntas.
4. Eliminación de preguntas.
Las siguientes figuras los formularios diligenciados para la creación de las preguntas en el
aplicativo.
93
Figura 44. Ejemplo de formulario para creación de preguntas de correlación
Fuente: Autor.
Figura 45. Ventana emergente para manejo de categorías en preguntas de correlación.
Fuente: Autor.
94
Figura 46. Ejemplo de formulario para creación de preguntas de opción múltiple.
Fuente: Autor.
Figura 47. Ejemplo de formulario para creación de preguntas de ordenamiento.
Fuente: Autor.
95
Figura 48. Ejemplo de formulario para creación de preguntas de verdadero o falso.
Fuente: Autor.
8.6.5 Módulo de gestión de evaluaciones
Este módulo permite a los docentes gestionar las evaluaciones que aplicará a sus
estudiantes. Las acciones que puede realizar son:
1. Creación de evaluaciones.
2. Visualización de evaluaciones.
3. Modificación de evaluaciones.
4. Eliminación de evaluaciones.
La siguiente figura muestra el formulario diligenciado, para la creación de una evaluación
en el aplicativo.
97
8.6.6 Módulo de presentación de evaluaciones
Este módulo permite a los estudiantes presentar evaluaciones disponibles en el aplicativo.
Las siguientes figuras ejemplifican la forma en que se presentan las preguntas mostradas
anteriormente a los estudiantes.
Figura 50. Ejemplo de pregunta de base común vista por un estudiante.
Fuente: Autor.
98
Figura 51. Ejemplo de pregunta de correlación vista por un estudiante.
Fuente: Autor.
Figura 52. Ventana emergente para indicar respuesta en preguntas de correlación.
Fuente: Autor.
99
Figura 53. Ejemplo de pregunta de opción múltiple vista por un estudiante.
Fuente: Autor.
Figura 54. Ejemplo de pregunta de ordenamiento vista por un estudiante.
Fuente: Autor.
100
Figura 55. Ejemplo de pregunta de verdadero o falso vista por un estudiante.
Fuente: Autor.
8.6.7 Módulo de resultados e informes
Este módulo permite a los docentes y estudiantes consultar los resultados de una
evaluación. Las acciones que pueden realizar son:
1. Consulta individual de resultados (Docentes y estudiantes).
2. Consulta grupal de resultados (Docentes).
Las siguientes figuras muestran los informes grupales e individuales de una evaluación.
103
9. PRUEBA EN INSTITUCIÓN EDUCATIVA
En este proyecto se propuso la validación del prototipo generado mediante la realización
de una prueba en una institución educativa, con un grupo de docentes y estudiantes. La institución
en la que se llevó a cabo dicha experiencia fue el Colegio San Francisco de Asís I.E.D., institución
educativa oficial del distrito. En los siguientes apartados se describen las actividades realizadas
para llevar a buen término la prueba del prototipo en la institución.
9.1 TRÁMITES ANTE LA INSTITUCIÓN
La profesora Ana Cecilia Beltrán, miembro del cuerpo de docentes del Colegio San
Francisco de Asís, quien asesoró la generación del prototipo, realizó las gestiones iniciales
necesarias ante la institución educativa para:
1. Disponer de un espacio físico adecuado.
2. Disponer de los dispositivos a usar.
3. Disponer de un grupo de alumnos para aplicar el material de evaluación.
4. Permitir el acceso a la institución educativa.
La principal cuestión a resolver, antes de solicitar formalmente el ingreso a la institución,
fue la disposición de espacios físicos, dispositivos a usar y grupo de estudiantes para trabajar. Para
ello, se dialogó con el profesor Juan Carlos Muñoz, del área de tecnología, quien al conocer sobre
el proyecto manifestó su interés en participar de la prueba del proyecto y permitió el uso del aula
de informática que tiene asignada. Los dos profesores definieron los grupos de alumnos que iban
a participar en la prueba, teniendo en cuenta aspectos como horarios, número de estudiantes, etc.
Al haber garantizado los factores necesarios para llevar a cabo la experiencia, se hizo la
solicitud formal correspondiente a la institución, en cabeza del Dr. Dumer Antonio Pedraza, rector
de la institución. Como requisitos para dar el aval a la solicitud, se requirió la presentación de una
carta expedida por la Universidad Distrital Francisco José de Caldas, una carta a título personal
junto al cronograma de actividades a realizar, informar a los padres de familia y pedir su
autorización para la participación de sus hijos en las actividades, así como un informe final, que
resalte qué beneficios obtuvo la institución al realizar dichas pruebas. A continuación se describe
cómo se cumplieron las solicitudes.
104
Tabla 41. Trámites y documentos realizados a la institución educativa.
Trámite Descripción Soporte
Carta institucional
Se entregó carta expedida por la Universidad Distrital
Francisco José de Caldas, que fue solicitada por el profesor
Julio Barón al Centro de Relaciones Interinstitucionales de
la Universidad Distrital Francisco José de Caldas – CERI.
Anexo 5
Carta personal
Se entregó carta a título personal, que expresa los
compromisos asumidos con la institución y la exonera de
cualquier responsabilidad ante eventos relacionados con
bienestar, integridad, seguridad, etc. Asimismo, se entregó el
cronograma de actividades solicitado.
Anexo 6
Autorización a
padres de familia
Los profesores Ana Cecilia Beltrán y Juan Carlos Muñoz
realizaron la creación, envío y recepción de la autorización a
cada uno de los padres de familia y/o acudientes de los
estudiantes que participaron en las pruebas.
Anexo 7
Informe final
Se entregó el informe final a la institución, una vez
realizados los análisis correspondientes a los resultados
obtenidos en la experiencia. Anexo 8
Fuente: Autor.
9.2 CRONOGRAMA DE ACTIVIDADES
Inicialmente la prueba fue concebida como una experiencia de dos etapas: la primera,
donde el docente crearía la evaluación; la segunda, donde se aplicaría a los estudiantes. Por
petición de los profesores, se diseñó una sesión de contextualización con estudiantes, donde se
presentó el aplicativo. Con los docentes se trabajó de forma personalizada, de acuerdo a su
disponibilidad horaria. El cronograma presentado a la institución, ver Anexo 6, fue diseñado con
los profesores. No obstante, las sesiones para aplicar sus evaluaciones coincidieron con la semana
de receso escolar, por lo que fueron pospuestas 8 días, realizándose los días 20 y 21 de octubre.
9.3 SESIONES DE CONTEXTUALIZACIÓN
Estas sesiones fueron espacios donde se presentó a docentes y estudiantes el aplicativo, que
permitieron conocer el entorno de trabajo y determinar el número de usuarios, detectar fallos y/o
aspectos a mejorar en el aplicativo. Asimismo, fueron sesiones que permitieron recopilar las
primeras impresiones de estudiantes y docentes. Los siguientes apartados describen el entorno de
trabajo en el que se llevó a cabo esta experiencia, así como las particularidades de cada una de las
sesiones.
105
9.3.1 Entorno de trabajo
El siguiente es el entorno de trabajo usado en la sesión de contextualización.
Figura 58. Entorno de trabajo para la sesión de contextualización.
Fuente: Autor.
En el entorno se tenía un computador portátil, que actuó como servidor, que contaba con
NodeJS (versión 4.4.5) y MongoDB (versión 3.0.12), ejecutándose en un sistema operativo
Windows 8.1. El otro equipo portátil fue usado por el profesor, usando como navegador Google
Chrome, con sistema operativo Windows 7. Los estudiantes realizaron la experiencia con tabletas,
que contaban con sistema operativo Windows 8.1, usando Google Chrome como navegador. Las
características de hardware son presentadas a continuación.
Tabla 42. Características técnicas de servidor y clientes en entorno local.
Elemento Portátil (Servidor) Tabletas (Clientes)
Procesador Inter Core i5, 1.6GHz – 2.3Ghz Intel Atom, 1.33 GHz
Memoria RAM 6 GB 1 GB
Sistema operativo Windows 8.1 Single Language Windows 8.1 con Bing
Conectividad Cable Inalámbrica
Fuente: Autor.
106
9.3.2 Contextualización con docentes
Esta sesión de contextualización se llevó a cabo con cada uno de los profesores, sin la
presencia de estudiantes, realizando las siguientes actividades:
1. Socialización del proyecto.
2. Registro en el sistema.
3. Gestión de elementos multimedia.
4. Gestión de preguntas.
5. Gestión de evaluaciones.
6. Presentación de evaluaciones por parte de los estudiantes.
7. Gestión de calificaciones.
El trabajo realizado con los docentes se llevó a cabo en el computador cliente y en el
servidor. Los docentes operaron el equipo en todo momento, excepto para la presentación de la
evaluación, donde se contó con una tableta y se les mostró cómo era el procedimiento para
presentar evaluaciones y consultar resultados por parte de los estudiantes. Al culminar las
actividades, los docentes plantearon algunas inquietudes.
Tabla 43. Inquietudes de los docentes respecto al aplicativo.
Inquietud Respuesta
¿Se posee algún mecanismo que restrinja
la navegación libre de la evaluación, para
evitar fraude?
Se estudió el requerimiento y las sugerencias de
los docentes, implementándose el requerimiento
para la sesión de contextualización con
estudiantes.
¿Se permite exportar el listado de las
notas a hojas de cálculo?
Se estudió el requerimiento solicitado y se
implementó para la sesión de prueba específica.
¿Existe un mecanismo de ayuda a los
usuarios para ser accedido en el
momento de usar el aplicativo?
Se estudió el requerimiento y se implementó
para la sesión de prueba específica.
Fuente: Autor.
9.3.3 Contextualización con estudiantes
La sesión de contextualización con estudiantes fue realizada en cada uno de los cursos a
trabajar. El primer curso con el que se realizó la sesión fue 604, con 19 estudiantes; el segundo fue
704, que contó con 24 estudiantes. Con cada curso se realizaron las siguientes actividades:
107
1. Socialización del proyecto.
2. Registro en el sistema.
3. Presentación de prueba tutorial.
4. Consulta de resultados para prueba tutorial.
5. Presentación de evaluación ¿Qué conozco de Bogotá?
6. Consulta de resultados para la evaluación ¿Qué conozco de Bogotá?
7. Encuesta sobre el aplicativo, hecha en el software.
Para el trabajo realizado en estas sesiones, cada estudiante contó con una tableta,
permitiéndoles tener una experiencia personal y continua. Asimismo, se hizo uso de video beam,
como apoyo visual para el trabajo con los estudiantes durante las cuatro primeras actividades
realizadas. Las siguientes secciones describen las particularidades de las sesiones realizadas con
cada uno de los cursos.
9.3.3.1 Sesión con curso 604
Esta sesión fue la primera vez que se usó el aplicativo en un entorno escolar y un número
significativo de usuarios (19 estudiantes, 1 profesor). Las actividades propuestas para esta sesión
fueron desarrolladas, según lo previsto. En el transcurso de la experiencia existieron dudas con
respecto al número de usuarios y el acceso a los elementos multimedia de las evaluaciones (audio
e imágenes), pero no se experimentaron fallas en esos aspectos, estableciendo una referencia del
funcionamiento del aplicativo.
Se detectó una falencia técnica, relacionada con la navegación de la evaluación, donde los
botones anterior y siguiente, cuya función es cambiar de pregunta, no fueron ligados a las
funcionalidades de retroceder y avanzar del navegador. Algunos estudiantes, de forma intuitiva
hicieron uso del botón retroceder del navegador, lo que generó algunos errores en la visualización
de la evaluación en sus tabletas, que fueron resueltos oportunamente.
Al culminar las actividades de evaluación propuestas, se aplicó a los estudiantes la
Encuesta # 1 para estudiantes, ver Anexo 11, obteniendo los siguientes resultados.
108
Tabla 44. Resultados de encuesta # 1 para estudiantes.
No. Preguntas Si % No % NR %
Sobre la presentación de evaluaciones
1 ¿Tuvo inconvenientes para iniciar la evaluación? 31,58 57,89 10,53
2 ¿Tuvo inconvenientes para navegar por la evaluación? 21,05 68,42 10,53
3 ¿Tuvo inconvenientes para resolver preguntas de correlación? 42,11 47,37 10,53
4 ¿Tuvo inconvenientes para resolver preguntas de opción
múltiple? 15,79 73,68 10,53
5 ¿Tuvo inconvenientes para resolver preguntas de ordenamiento? 36,84 52,63 10,53
6 ¿Tuvo inconvenientes para resolver preguntas de verdadero o
falso? 26,32 63,16 10,53
7 ¿Tuvo inconvenientes para finalizar la evaluación? 15,79 73,68 10,53
Sobre la consulta de resultados
8 ¿Tuvo inconvenientes para interpretar los resultados generales de
la evaluación? 15,79 73,68 10,53
9 ¿Tuvo inconvenientes para interpretar los resultados detallados de
cada pregunta? 26,32 63,16 10,53
Sobre la experiencia
10 ¿Tuvo dificultades para manipular el dispositivo usado en la
prueba? 26,32 63,16 10,53
11 Antes de esta experiencia, ¿Había sido evaluado usando algún
aplicativo (software)? 21,05 68,42 10,53
12 ¿La explicación proporcionada fue suficiente para comprender el
funcionamiento del aplicativo y poder usarlo? 47,37 42,11 10,53
Fuente: Autor.
De acuerdo a los resultados de la encuesta, así como algunas impresiones de los estudiantes,
la sesión se catalogada como positiva, teniendo en cuenta que el producto probado es nuevo y que
la mayoría de los estudiantes no habían sido evaluados de esta forma, siendo una experiencia
innovadora. Los estudiantes en términos generales comprendieron el propósito del software y la
aplicación de los eventos de arrastrar y soltar para resolver las evaluaciones, al igual que la consulta
de resultados y su retroalimentación.
Analizar la pertinencia de los eventos de arrastrar y soltar fue uno de los principales
objetivos de la sesión. Las preguntas de verdadero o falso y opción múltiple fueron comprendidas
por la mayoría de los estudiantes, mientras que las de ordenamiento y correlación les representaron
un mayor desafío. Una explicación para estos resultados es el amplio uso de las preguntas de
verdadero o falso y opción múltiple en la prueba escrita tradicional, así como la forma en que se
presentan las preguntas de ordenamiento y correlación en el software.
109
9.3.3.2 Sesión con curso 704
La sesión con el curso 604 sentó un precedente de las capacidades de funcionamiento del
aplicativo, por lo que existía un ambiente de confianza para la segunda sesión de contextualización,
caracterizada por un número mayor de usuarios (24 estudiantes, 1 docente). La experiencia
comenzó sin contratiempos, se realizó la prueba tutorial sin presentarse inconveniente alguno.
Seguidamente, se inició la prueba ¿Qué tanto conozco Bogotá?, donde los estudiantes iniciaron su
trabajo autónomo con el aplicativo.
Esta sesión inició a las 4:30 p.m., cuando se puso en funcionamiento el servidor, y se tenía
prevista su finalización hacia las 6:00 p.m. La última prueba empezó hacia las 5:20 p.m. Sobre las
5:50 p.m. los estudiantes manifestaron inconvenientes para navegar por la evaluación, demoras en
el cargue de páginas, la no reproducción del audio propuesto y problemas para finalizar la
evaluación. Estas dificultades continuaron hasta el punto que el servidor se saturó y dejó de recibir
y responder peticiones.
Se dio por concluida la experiencia en ese punto, por finalización de jornada escolar.
Mientras se guardaban los equipos, se realizó la encuesta verbalmente, interrogando a los
estudiantes sobre las dificultades para responder cada uno de los tipos de preguntas, que era uno
de los aspectos más relevantes para validar el aplicativo. El número de estudiantes que
manifestaron dificultades para comprender los mecanismos oscila entre 3 y 4 por pregunta, es
decir, el 16% del curso aproximadamente.
Luego de realizar el análisis de los hechos ocurridos en la sesión, se identificaron algunas
posibles causas que influyeron, en mayor o menor medida, al colapso del aplicativo. Algunas de
ellas son:
1. El número de usuarios que trabajaron simultáneamente en el aplicativo. Se tenía una
referencia de 20 usuarios, la prueba tuvo 25 usuarios.
2. El aplicativo estaba ejecutándose en un equipo portátil, que si bien es cierto tiene
buenas características de hardware, es un equipo personal, no un servidor.
3. Las tabletas estaban conectadas a la red de forma inalámbrica, factor que puede influir
en las velocidades de envío y recepción de información.
110
4. La red del colegio está compuesta por otras salas de sistemas, que cuentan con un
número significativo de equipos, y pudieron estar en uso durante la experiencia.
Igualmente, está el área administrativa de la institución.
5. Una falencia detectada en la finalización de la evaluación, donde no se deshabilitaba el
botón de finalizar la evaluación, una vez enviada la petición al servidor. Al demorarse
el servidor en responder la petición, los estudiantes enviaron más peticiones al servidor,
creando tráfico innecesario.
En las causas anteriormente listadas no se evidencia ningún error relacionado a la
codificación del mismo. Se revisó la bitácora de peticiones y respuestas, que se va alimentando
durante la ejecución del aplicativo, y no se detectó error alguno que detuviese la ejecución del
servidor. Por ello, se asegura que el error está relacionado al número de usuarios y otros factores,
como pueden serlo en la infraestructura o la falencia expuesta en el numeral 5, que si bien es cierto
no genera errores en el aplicativo, produce consecuencias no deseadas como el tráfico innecesario
en la red.
9.4 SESIONES DE PRUEBA ESPECÍFICA
Finalizadas las sesiones de contextualización, inició la semana de receso escolar. Este
tiempo fue aprovechado para estudiar las dificultades evidenciadas y tomar las medidas pertinentes
para ofrecer, a docentes y estudiantes, un aplicativo estable y funcional, en el que pudiesen llevar
a cabo las evaluaciones propuestas, sin inconvenientes técnicos. Los siguientes apartados
describen los cambios realizados al entorno de trabajo, así como la experiencia de la prueba
específica en cada uno de los cursos.
9.4.1 Entorno de trabajo
Luego de las sesiones de contextualización se hizo evidente realizar un cambio en el
entorno de trabajo propuesto, que permitiera contrarrestar las posibles limitantes del servidor en
cuanto a número de usuarios respecta. Por ello, aunque en los alcances del trabajo no se contempló
hacer el despliegue en la nube, se decidió buscar una alternativa para delegar la responsabilidad
de ejecución del aplicativo a un dispositivo que tenga las características adecuadas para ello, sin
incurrir en costos.
111
Dos alternativas para poner en funcionamiento el proyecto en la nube fueron Heroku
(Heroku, n.d.) y OpenShift (OpenShift, n.d.), sitios que ofrecen planes gratuitos para el despliegue
de aplicaciones construidos con varias tecnologías, entre ellas NodeJS. Adicional, se requería el
almacenamiento persistente de elementos multimedia, factor decisivo para descartar Heroku y
elegir OpenShift, ya que este último permite almacenar archivos en los servidores, que se
mantienen sin importar que se reinicie el servidor.
Otra cuestión a resolver, para desplegar el aplicativo en la nube, fue el manejo de bases de
datos MongoDB. Dentro de su portafolio de cartridges oficiales, OpenShift ofrece la
incorporación de MongoDB en su versión 2.4, la cual genera algunos inconvenientes en las
operaciones de actualización de información en el aplicativo desarrollado. Por ello se optó por el
servicio de mLab (mLab, n.d.), sitio que permite la creación y acceso en línea a bases de datos
MongoDB, en su versión 3.2.
La siguiente es la representación del entorno de trabajo para las siguientes sesiones.
Figura 59. Entorno de trabajo para la prueba específica.
Fuente: Autor.
Las características de hardware para el entorno de trabajo de la figura anterior se presentan
en la siguiente tabla. Las características del equipo servidor son las ofrecidas en el plan gratuito
del proveedor OpenShift.
112
Tabla 45. Características técnicas de servidor y clientes en el entorno de la nube.
Elemento OpenShift (Servidor) Tabletas (Clientes)
Procesador Intel Xeon E5-2670v2, 2.50GHz Intel Atom, 1.33 GHz
Memoria RAM 512 MB 1 GB
Sistema operativo Red Hat Linux Windows 8.1 con Bing
Conectividad Desconocido Inalámbrica
Fuente: Autor.
A continuación se muestra la consola de administración del aplicativo ofrecida por
OpenShift, resaltando el uso de NodeJS (versión 6.5.0), la dirección URL para acceder al
aplicativo (dp-danielfranco.rhcloud.com), entre otros.
Figura 60. Información consola OpenShift.
Fuente: Consola web de administración de aplicaciones (OpenShift, 2016a).
La siguiente figura muestra la consola de administración de bases de datos ofrecida por
mLab, encontrando información como la versión usada de MongoDB (versión 3.2.10).
Figura 61. Información consola mLab.
Fuente: Consola web de administración de bases de datos (mLab, 2016a).
113
9.4.2 Prueba específica con curso 604
Esta sesión se caracterizó por poner a prueba el aplicativo en un nuevo entorno de trabajo,
así como ser la primera vez que se aplicaba una evaluación diseñada por un docente, cuyos
resultados serían tenidos en cuenta dentro de un proceso de enseñanza – aprendizaje. Además, los
estudiantes tuvieron la semana de receso escolar, que afectó la continuidad de las actividades de
las pruebas realizadas en la institución, pudiendo no recordar lo aprendido en la sesión de
contextualización.
En la siguiente figura puede observarse a la profesora Ana Cecilia Beltrán en compañía de
los estudiantes del curso 604 (19 estudiantes), fotografía que fue tomada al culminar la sesión.
Figura 62. Participantes en primera sesión de prueba específica.
Fuente: Autor.
La evaluación aplicada consta de 7 preguntas, divididas en dos partes: una de 5 preguntas
basadas en un texto y otra de dos preguntas, basadas en un video, ver Anexo 14. Una actividad
realizada en todas las evaluaciones de la profesora es la lectura colectiva de los textos base, donde
ella lee en voz alta el texto, mientras los estudiantes siguen la lectura en sus hojas. En la siguiente
114
figura se aprecia a la profesora realizando la lectura en un computador portátil y a los estudiantes
siguiéndola, cada uno en sus tabletas.
Figura 63. Lectura colectiva de texto en la prueba específica con curso 604.
Fuente: Autor.
En la siguiente figura se aprecia al curso 604 realizando la evaluación, bajo la dirección de
la profesora, quien se encuentra brindando asesoría a uno de los estudiantes.
Figura 64. Vista panorámica de la prueba específica con curso 604.
Fuente: Autor.
115
Una vez finalizada la evaluación se generó el informe grupal de la evaluación, que puede
consultarse en el Anexo 15. A medida que los estudiantes iban finalizando la evaluación, tomaron
la Encuesta # 2 para estudiantes, ver Anexo 12.
9.4.2.1 Impresiones de los estudiantes respecto a la experiencia
Tabla 46. Resultados de encuesta # 2 para estudiantes.
No. Preguntas Si % No % NR %
Sobre la presentación de evaluaciones
1 ¿Tuvo inconvenientes para iniciar la evaluación? 21,05 73,68 5,26
2 ¿Tuvo inconvenientes para navegar por la evaluación? 5,26 89,47 5,26
3 ¿Tuvo inconvenientes para resolver preguntas de correlación? 0 0 0
4 ¿Tuvo inconvenientes para resolver preguntas de opción
múltiple? 21,05 73,68 5,26
5 ¿Tuvo inconvenientes para resolver preguntas de ordenamiento? 31,58 63,16 5,26
6 ¿Tuvo inconvenientes para resolver preguntas de verdadero o
falso? 21,05 73,68 5,26
7 ¿Tuvo inconvenientes para finalizar la evaluación? 5,26 89,47 5,26
Sobre la consulta de resultados
8 ¿Tuvo inconvenientes para interpretar los resultados generales de
la evaluación? 15,79 78,95 5,26
9 ¿Tuvo inconvenientes para interpretar los resultados detallados
de cada pregunta? 10,53 84,21 5,26
Sobre la experiencia
10 ¿Tuvo dificultades para manipular el dispositivo usado en la
prueba? 10,53 84,21 5,26
11 ¿Tuvo dificultades para recordar cómo usar el aplicativo? 5,26 89,47 5,26
12 ¿Le gustaría que el aplicativo se usara para realizar evaluaciones
en diferentes asignaturas? 84,21 10,53 5,26
13
¿Le gustaría que el aplicativo se usara para realizar evaluaciones
en espacios físicos diferentes al aula de clase (por ejemplo,
realizar una evaluación desde su casa, un día no escolar)?
84,21 10,53 5,26
Fuente: Autor.
Los datos anteriores, contrastados con la primera encuesta, evidencian en los estudiantes
recordación y dominio en el uso del aplicativo. Las dificultades manifestadas por los estudiantes
están más orientadas al aspecto pedagógico que al técnico, pues muchos tuvieron dudas sobre el
contenido de la evaluación. Asimismo, se observa el impacto positivo que tuvo el aplicativo en los
estudiantes, quienes mostraron interés en darle continuidad a esta experiencia y hacer uso del
aplicativo en otras asignaturas y en espacios diferentes al aula de clase.
116
Se realizaron algunas entrevistas a un grupo de estudiantes, indagando sobre los aspectos
positivos y negativos de la experiencia realizada, obteniendo así las siguientes impresiones.
Tabla 47. Impresiones de los estudiantes de 604 sobre la experiencia.
Estudiante Elementos positivos Elementos negativos
Frank Salazar Los eventos de arrastrar y soltar
como mecanismo de respuesta.
Tiempos de respuesta de las
tabletas a los eventos de arrastrar
y soltar
Gerson Gómez
Los eventos de arrastrar y soltar
como mecanismo innovador para
indicar las respuestas, observando
la evaluación de forma diferente.
Inconvenientes con la navegación
de la evaluación y tiempos de
respuesta de la tableta para cargar
la información.
María Paula Gómez
Los eventos de arrastrar y soltar
como mecanismo para indicar la
respuesta. La incorporación del
aplicativo en las evaluaciones de
otras asignaturas.
Ninguno.
Alejandra Conde
La experiencia permite vivir una
evaluación diferente, fuera de los
parámetros comunes. Además,
fue la primera experiencia de ese
tipo realizada.
En algunas ocasiones es
demorado comprender lo que hay
que hacer.
Alison Ramírez
La evaluación en el aplicativo es
innovadora y es mucho más
rápido el proceso que en papel, sin
tantos inconvenientes.
En algunas ocasiones hay
confusiones en lo que debe
hacerse y se requiere asesoría.
Andrés Vega
El trabajo en las tabletas es más
interactivo que el ejercicio de
escribir, con los eventos de
arrastrar y soltar.
Dificultades en la manipulación
del dispositivo a causa del modo
de interacción, por sudoración en
las manos.
Santiago Maldonado
El trabajo en las tabletas permite
aprender más que por medio del
cuaderno, y si existen dudas es
más fácil resolverlas en la tableta
que en el cuaderno, porque es un
ambiente más familiar.
Algunas demoras en los tiempos
de cargue de información en la
pantalla.
Angie Jiménez
La experiencia es algo diferente,
se aprendieron cosas como el
manejo de las tabletas, usar un
nuevo aplicativo para realizar
evaluaciones, y elementos que
sirven para toda situación en
general.
Dificultades para la navegación de
la evaluación. Confusión en las
indicaciones brindadas por el
aplicativo, que pudieron influir en
el desempeño de la evaluación.
Manuela García La experiencia es una forma
diferente de vivir la evaluación,
Algunas personas se cierran a la
oportunidad de una experiencia
117
además de ser una solución
amigable con el medio ambiente,
al evitar el uso de papel.
diferente a lo tradicional,
encasillando la actividad como
algo difícil o desagradable,
cuando en realidad no lo es.
Alexandra Villada
El aplicativo es una forma
diferente de realizar evaluaciones
y una experiencia innovadora,
amigable con el medio ambiente.
Algunas personas no observan lo
valioso e innovador del aplicativo
y la experiencia en general,
realizando el ejercicio sin
intención de participar.
Fuente: Autor.
En los testimonios anteriores puede verse el impacto positivo que generó la experiencia
realizada, tanto por el aplicativo usado como por el uso de las tabletas, que según manifiestan los
estudiantes no es muy frecuente. Los estudiantes conocieron perspectiva diferente del proceso de
evaluación, así como una forma innovadora de usar los recursos disponibles en su casa o la
institución, como apoyo en la realización de actividades de sus procesos de enseñanza –
aprendizaje. Los aspectos negativos mencionados permiten detectar falencias a nivel técnico y
pedagógico, abordados en las conclusiones.
9.4.2.2 Impresiones de la profesora respecto a la experiencia
Una vez culminada la experiencia, se solicitó a la profesora tomar la encuesta diseñada para
los docentes, ver Anexo 13, así como algunas impresiones, compartidas por medio escrito, sobre
la sesión realizada y el proyecto en general, obteniendo los siguientes resultados.
Tabla 48. Resultados encuesta aplicada a docente Ana Cecilia Beltrán.
No. Pregunta Si No
Sobre la galería
1 ¿Tuvo inconvenientes para gestionar elementos multimedia? X
2 ¿Es comprensible el mecanismo para gestionar elementos multimedia? X
Sobre las preguntas
3 ¿La información solicitada para las preguntas define adecuadamente su
intención? X
4 ¿El editor de texto incorporado es adecuado para dar formato a los diferentes
componentes las preguntas? X
5 ¿Tuvo inconvenientes para incorporar elementos multimedia en las
preguntas? X
6 ¿Tuvo inconvenientes para gestionar preguntas de base común? X
7 ¿Tuvo inconvenientes para gestionar preguntas de correlación? X
8 ¿Tuvo inconvenientes para gestionar preguntas de opción múltiple? X
118
9 ¿Tuvo inconvenientes para gestionar preguntas de ordenamiento? X
10 ¿Tuvo inconvenientes para gestionar preguntas de verdadero o falso? X
Sobre la evaluación
11 ¿La información solicitada define adecuadamente el instrumento de
evaluación? X
12 ¿Es adecuada la protección por código de las evaluaciones, como mecanismo
para restringir el acceso a cualquier estudiante? X
13 ¿Es adecuada la restricción para la consulta de resultados, como mecanismo
para evitar copia o fraude? X
14 ¿Es adecuada la restricción para la navegación de la evaluación, como
mecanismo para evitar copia o fraude? X
15 ¿Es apropiada la definición de logros y su asociación a las preguntas que
componen la evaluación? X
16 ¿Es apropiada la reutilización de preguntas, conformando así un banco o
colección de éstas? X
17 ¿Tuvo inconvenientes para gestionar logros dentro de las evaluaciones? X
18 ¿Tuvo inconvenientes para gestionar preguntas dentro de las evaluaciones? X
Sobre la calificación e informes
19 ¿Es adecuado el modelo de calificación (valoración) por número de
coincidencias? X
20 ¿Es comprensible el análisis grupal e individual de cada evaluación? X
21 ¿El análisis grupal e individual es significativo para su labor cotidiana? X
22 ¿Es adecuado el análisis por logros presentado, de acuerdo a enfoques como
la formación por competencias? X
23 ¿Es adecuada la comparación entre la respuesta del estudiante y la esperada,
como mecanismo de retroalimentación? X
Sobre la experiencia
24 Antes de esta experiencia ¿Había evaluado a sus estudiantes usando algún
aplicativo (software)? X
25 ¿Usaría este aplicativo, en futuras ocasiones, para llevar a cabo procesos de
evaluación? X
26 ¿Usaría este aplicativo para evaluar a sus estudiantes fuera del aula de clase
(por ejemplo, una evaluación desde casa, un día no escolar? X
Fuente: Autor.
De acuerdo a los resultados anteriores, se encuentra que la profesora tiene una percepción
positiva del aplicativo, considerándolo ayuda para su labor cotidiana, y se evidencia comprensión
y dominio en su manejo. De igual manera, manifiesta su interés en darle continuidad al uso del
mismo en sus procesos de evaluación, ya sea dentro o fuera del aula. Sobre la experiencia y el
proyecto en general, la profesora Ana Cecilia Beltrán dice:
Reconozco que en mi larga trayectoria como Docente de Básica secundaria he realizado
las evaluaciones escritas, generalmente las que corresponden al bimestre (obligatorias
119
según el Sistema Institucional de Evaluación Escolar SIEE), de una manera tradicional: en
papel y partir de un texto que guía al estudiante a comprender una lectura y con base en
ella responder unas preguntas, generalmente tipo ICFES: un enunciado para analizar y
cuatro opciones de respuesta, donde una es la correcta.
Por lo anterior, con relación a este aplicativo para hacer la evaluación, inicialmente, hubo
expectativa con relación a la forma en que podría funcionar el ejercicio de hacer una
evaluación utilizando la tecnología y en la manera en que se comportarían los estudiantes.
Recibir la orientación acerca de su funcionamiento, llamó mi atención al proponerme un
espacio que facilitaría el hacer y obtener los resultados de una pruebas, optimizando sobre
todo el tiempo y permitiéndome de manera inmediata tener un panorama sobre el estado
de aprobación de los estudiantes.
Utilizar este aplicativo y hacer el paso a paso de crear el contenido de la evaluación, fue un
ejercicio relativamente sencillo y me llevaba paralelamente a pensar en el estudiante, pues
así se le facilitaría mover respuestas y corregir las que fueran necesarias. Sería un momento
de comodidad para la mayoría, pues en su cotidianidad manejan o tiene cierto contacto con
celulares con pantalla táctil.
Con relación a la presentación de la prueba como tal, desde su inicio el estudiante se
concentró y, contadas excepciones, fueron desarrollando normalmente los puntos
propuestos. Tuvieron tiempo de hacer consideraciones con relación a sus respuestas. Como
era un ejercicio alrededor de la comprensión de lectura, hubo las normales dificultades que
suscitaron inquietudes en los estudiantes, las cuales se resolvieron en el momento,
permitiéndoles continuar en la actividad.
Relativamente, fue una actividad sencilla, en contenido y en el manejo de la tableta. En
general, se optimizó el tiempo. Lo mejor, que el aplicativo dio los resultados finales y en
seguida, se puede proceder a hacer la correspondiente retroalimentación.
9.4.2.3 Resultados de la experiencia desde el aspecto técnico
Desde el punto de vista técnico la experiencia fue positiva, no se presentaron errores que
impidieran la culminación de la evaluación a ningún estudiante. Se detectó un fallo, experimentado
por un único estudiante, donde el navegador se bloqueaba al momento de poner en pantalla
120
completa un video, cuando este está dentro de un modal o ventana emergente. Se prestó la
asistencia oportuna al estudiante para que continuara con su evaluación. Asimismo, se tomó nota
del evento como elemento a tratar.
El aplicativo tuvo un comportamiento estable, ligeramente mejor que el evidenciado en la
sesión de contextualización. Este caso de éxito fijó un referente en el funcionamiento del
aplicativo, donde 20 usuarios (19 estudiantes, 1 docente) trabajaron sin contratiempos y
consumieron un video de manera simultánea, sin presentar problemas en el cargue y reproducción
del mismo. Esto se atribuye a la conexión a internet de la institución, así como a la infraestructura
adecuada que posee OpenShift para desplegar los aplicativos alojados.
9.4.3 Primera sesión para prueba específica con curso 704
En consenso con el profesor Juan Carlos Muñoz, se decidió aplicar nuevamente la prueba
tutorial, ver Anexo 9, para recordar con los estudiantes las instrucciones dadas en la sesión de
contextualización, pues no hubo una buena experiencia en la sesión de contextualización.
Posteriormente se aplicaría su evaluación, que constaba de 13 preguntas y hacía uso de varias
imágenes, ver Anexo 16. La calificación obtenida por los estudiantes iba a tenerse en cuenta.
La sesión contó con 27 usuarios (26 estudiantes, 1 docente), dos estudiantes más que en la
sesión de contextualización, pero se tenía altas expectativas en el nuevo entorno de trabajo, que
poseía la capacidad para manejar un alto volumen de usuarios. Los estudiantes crearon sus usuarios
en el sistema y se dio inicio a la prueba tutorial, para explicar cada uno de los tipos de pregunta y
la manera en que se especificaba la respuesta. En el transcurso del tutorial los estudiantes
empezaron a manifestar la aparición de un error, como el mostrado en la siguiente figura.
Figura 65. Error obtenido durante en la sesión de prueba específica con curso 704.
Fuente: Autor.
121
Pese a existir un antecedente de fallo asociado al número de usuarios trabajando
simultáneamente en el aplicativo, existía un ambiente de incertidumbre en el funcionamiento del
aplicativo, pues se tenía conocimiento de un ataque cibernético en Estados Unidos (país donde fue
desplegado el aplicativo y la base de datos), que afectó el servicio de grandes compañías como
Twitter, Spotify y Netflix, ocurrido en horas de la mañana de ese día, 21 de octubre de 2016. Se
intentó acceder al servidor a través del protocolo SSH para verificar los logs, pero no fue posible.
Como primer plan de contingencia, se tenía previsto realizar la experiencia en el ambiente
de trabajo local, probado en las sesiones de contextualización. Con las fallas asociadas al número
de usuarios, se tenía planeado dividir el grupo en dos, para que 13 usuarios pudiesen trabajar
simultáneamente, número inferior al referente fijado con el curso 604. Un segundo plan de
contingencia consistía en la creación de una red local independiente, usando un router inalámbrico,
permitiendo así garantizar la conexión entre los clientes y el servidor.
Al implementar el primer plan de contingencia, se conectó el servidor a la red cableada y
los estudiantes ingresaron al aplicativo, pero ninguno reportó poder ingresar al mismo. Al ver esa
situación, se inició el diagnóstico del entorno local, se comprobó conectividad entre los
dispositivos clientes y servidor, sin obtener respuesta alguna. Por ello se decidió, como medida
alternativa, cambiar la conexión cableada por la inalámbrica, sin resultado alguno. El profesor
indagó en otras dependencias en la institución y constató que existían usuarios conectados a la red
local y experimentaron problemas.
Se implementó el segundo plan de contingencia, se puso en funcionamiento el router, que
tenía la configuración de fábrica, la cual permite conectar dispositivos de forma cableada e
inalámbrica y tener comunicación entre ellos sin restricciones. El servidor obtuvo su configuración
dinámica, al igual que un celular conectado inalámbricamente. Se puso en marcha el servidor y se
intentó acceder desde el celular, sin obtener respuesta alguna. Como alternativa se asignó una
dirección IP manual al servidor, se deshabilitó el firewall del sistema operativo, se conectó una
tableta a la red y se realizó pruebas de conectividad, sin obtener respuesta.
La configuración de red en el servidor informaba que la red era pública, configuración que
impide a los dispositivos conectados a una red local acceder a los aplicativos que corren con
NodeJS. Se intentó cambiar dicha configuración pero el sistema operativo ofrecía la opción
122
dispuesta para tal fin. Se cambió la conexión del servidor de cableada a inalámbrica, se intentó
realizar dicho cambio pero tampoco fue posible.
Agotadas las alternativas, la jornada escolar estaba próxima a culminar, por lo que se
decidió dar por terminada la experiencia y procedes a recoger las tabletas. De acuerdo con el
cronograma presentado al colegio, se había terminado el tiempo que fue autorizado para realizar
pruebas en la institución.
9.4.3.1 Análisis del problema técnico presentado con OpenShift
El 21 de octubre de 2016, Internet sufrió varios ataques de denegación de servicios
distribuidos (DDOS), que ocasionaron interrupciones en los servicios ofrecidos por un gran
número de compañías. Según lo reportado por agencias de noticias como CNN (CNN, 2016) y
(Reuters, 2016), la compañía Dyn fue el blanco de los ataques, cuyos servicios DNS son de gran
relevancia para direccionar el tráfico en internet. Asimismo, se reporta que Dyn se localiza en New
Hampshire, al este de los Estados Unidos, zona donde comenzaron a sentirse los efectos del ataque.
Dyn y OpenShift crearon una alianza desde el año 2011, que permite a usuarios de
OpenShift desplegar aplicaciones rápidamente y hacerlas accesibles desde cualquier parte del
mundo inmediatamente, gracias a los servicios DNS de alto nivel de Dyn (Dyn, 2011). De acuerdo
con un reporte publicado días después del ataque por Dyn (Hilton, 2016), fueron dos ataques “de
gran complejidad y magnitud” que sucedieron entre las 6 a.m. y 5 p.m. del 21 de octubre de 2016.
Esta es la primera evidencia que se tiene de la relación de los ataques cibernéticos y el fallo del
aplicativo durante la sesión con el curso 704.
De acuerdo con el sitio de internet SearchDataCenter.com (TechTarget, 2016), algunas
compañías y/o servicios que se vieron afectados con el ataque a Dyn fueron Twitter, Spotify,
Netflix, Heroku, Amazon Web Services, entre otros. Entre este listado se encuentra el servicio
Amazon Web Services, donde estaba alojado tanto el aplicativo como la base de datos MongoDB,
ver Figura 60 y Figura 61 respectivamente. En estas figuras puede constatarse que el aplicativo y
la base de datos estaban alojados en la infraestructura de la zona este de Amazon Web Services.
Esta es una segunda evidencia para relacionar los ataques y el fallo del aplicativo en la sesión
realizada.
123
En la siguiente figura puede observarse el reporte del estado del servicio de la plataforma
OpenShift (OpenShift, 2016b), que informa sobre los dos ataques, las acciones tomadas y el tiempo
en el que fueron mitigados. El segundo ataque registrado fue resuelto hacia las 6:30 p.m., lo que
evidencia que las sesión con el curso 704 trascurrió en condiciones anormales de funcionamiento.
Figura 66. Reporte de estado del servicio de OpenShift.
Fuente: Informe de estado del sistema (OpenShift, 2016b).
En la siguiente figura se muestra el reporte del estado de la plataforma mLab (mLab,
2016b), donde se informa de problemas en servicios como Amazon Web Services, que acceden a
las bases de datos que alojan, pero no presentan problemas en las bases de datos como tal.
Figura 67. Reporte de estado del servicio de mLab.
Fuente: Informe de estado del sistema (mLab, 2016b).
124
9.4.4 Segunda sesión para prueba específica con curso 704
Esta sesión adicional fue posible gracias al profesor Juan Carlos Muñoz, quien proporcionó
un espacio en su clase con el curso 704, el día 24 de octubre de 2016, luego de lo ocurrido en la
sesión del 21 de octubre. De acuerdo al análisis realizado de los sucesos que llevaron al fallo del
aplicativo, se decidió únicamente probar el aplicativo desplegado en la plataforma OpenShift. Esta
nueva sesión contó con 26 usuarios (25 estudiantes, 1 docente).
Se solicitó a los estudiantes ingresar al aplicativo e iniciar la evaluación diseñada por el
docente, pero de inmediato se reportaron errores en las tabletas como el mostrado en la Figura 65.
Se iniciaron los diagnósticos respectivos para determinar las causales de este fallo, se verificó la
conexión con la base de datos y el acceso al servidor, procedimientos exitosos. Por ello, se retomó
la teoría de un alto número de usuarios, por lo que se decidió realizar la evaluación en varias etapas.
Se reinició el servidor por medio de la consola web de OpenShift y se solicitó a un grupo
de 10 estudiantes iniciar la evaluación. Se empezó a hacer seguimiento a este grupo de estudiantes,
consultándoles cada cierto tiempo si tenían dificultades con el aplicativo desde el punto de vista
técnico. Al constatar que no había ocurrido error alguno, se solicitó a un grupo de 3 estudiantes
iniciar la evaluación, continuando con el seguimiento que se estaba realizando. Al poco tiempo,
dos estudiantes finalizaron la evaluación, se les solicitó salir del aplicativo para que otros
estudiantes tomaran la evaluación.
A ese instante se tenían usuarios trabajando y se había tenido un comportamiento estable
con 13 usuarios, por lo que se solicitó a otros dos estudiantes iniciar la prueba, pero transcurrido
cierto tiempo, empezaron a reportar el mismo error en sus tabletas. Se decidió reiniciar el servidor
desde la consola web, e iniciar el trabajo nuevamente con esos 13 estudiantes, quienes retomaron
la evaluación en el punto que ocurrió el fallo. No obstante, se presentó el mismo error en repetidas
ocasiones.
Una estudiante, de los 13 que estaban presentando la prueba en ese instante, indicó que ya
había contestado todas las preguntas y que lo único que le faltaba era finalizar la evaluación, por
lo que se inició un diagnóstico con la estudiante, solicitando a los otros 12 no volver a ingresar al
aplicativo hasta nuevo aviso. Se reinició el servidor por segunda vez, para luego solicitarle a la
estudiante entrar al aplicativo, iniciar la evaluación y finalizarla, pero se presentó nuevamente el
125
error. Se realizó este procedimiento en varias ocasiones y al ver esta constante, se decidió reiniciar
el servidor nuevamente, borrar los datos del progreso de la estudiante, quien debió iniciar su
evaluación de ceros. Asimismo, se solicitó a los otros 12 estudiantes retomar su evaluación en el
punto que la dejaron y a otros tres estudiantes, iniciar por primera vez la evaluación.
A ese punto, la sesión estaba próxima a terminar, por lo que se decidió dar por finalizada
la evaluación, permitiendo a los estudiantes que iniciaron la evaluación continuar hasta el último
momento, para que finalizaran la evaluación y poder así observar si se presentaba algún fallo. Si
bien es cierto que el entorno no falló más, si se evidenció gran demora en el cargue de la
información de la evaluación. Únicamente 7 estudiantes de los 16 que tomaron la evaluación
lograron finalizarla. El informe de resultados a nivel grupal puede observarse en el Anexo 17.
9.4.4.1 Impresiones de los estudiantes respecto a la experiencia
Debido a las problemáticas presentadas en las diferentes sesiones realizadas, no hubo lugar
para aplicar las encuestas diseñadas, ni para realizar entrevistas y recopilar evidencia fotográfica
y fílmica. La experiencia no permitió analizar el impacto del aplicativo en los estudiantes, pues se
trabajó bajo constantes fallos técnicos, dejándoles un sinsabor respecto al aplicativo. No obstante,
los estudiantes siempre estuvieron atentos a las indicaciones dadas, así como a participar en las
pruebas, mostrando cierto dominio en el manejo del dispositivo y del aplicativo, pues no
manifestaron mayores dudas en los instantes en que pudo usarse el aplicativo.
9.4.4.2 Impresiones del profesor respecto a la experiencia
A pesar de las dificultades e inconvenientes que tuvieron lugar en las experiencias
realizadas con el curso 704, bajo la dirección del profesor Juan Carlos Muñoz, era importante
poder contar con sus impresiones sobre las sesiones realizadas, así como del proyecto en general.
Para ello, se le solicitó amablemente tomar la encuesta diseñada para los docentes, ver Anexo 13,
así como algunos comentarios respecto al trabajo realizado. A continuación se presentan los
resultados de la encuesta y sus impresiones, que fueron compartidas por medio escrito.
Tabla 49. Resultados encuesta aplicada a docente Juan Carlos Muñoz.
No. Pregunta Si No
Sobre la galería
1 ¿Tuvo inconvenientes para gestionar elementos multimedia? X
126
2 ¿Es comprensible el mecanismo para gestionar elementos multimedia? X
Sobre las preguntas
3 ¿La información solicitada para las preguntas define adecuadamente su
intención? X
4 ¿El editor de texto incorporado es adecuado para dar formato a los diferentes
componentes las preguntas? X
5 ¿Tuvo inconvenientes para incorporar elementos multimedia en las
preguntas? X
6 ¿Tuvo inconvenientes para gestionar preguntas de base común? X
7 ¿Tuvo inconvenientes para gestionar preguntas de correlación? X
8 ¿Tuvo inconvenientes para gestionar preguntas de opción múltiple? X
9 ¿Tuvo inconvenientes para gestionar preguntas de ordenamiento? X
10 ¿Tuvo inconvenientes para gestionar preguntas de verdadero o falso? X
Sobre la evaluación
11 ¿La información solicitada define adecuadamente el instrumento de
evaluación? X
12 ¿Es adecuada la protección por código de las evaluaciones, como mecanismo
para restringir el acceso a cualquier estudiante? X
13 ¿Es adecuada la restricción para la consulta de resultados, como mecanismo
para evitar copia o fraude? X
14 ¿Es adecuada la restricción para la navegación de la evaluación, como
mecanismo para evitar copia o fraude? X
15 ¿Es apropiada la definición de logros y su asociación a las preguntas que
componen la evaluación? X
16 ¿Es apropiada la reutilización de preguntas, conformando así un banco o
colección de éstas? X
17 ¿Tuvo inconvenientes para gestionar logros dentro de las evaluaciones? X
18 ¿Tuvo inconvenientes para gestionar preguntas dentro de las evaluaciones? X
Sobre la calificación e informes
19 ¿Es adecuado el modelo de calificación (valoración) por número de
coincidencias? X
20 ¿Es comprensible el análisis grupal e individual de cada evaluación? X
21 ¿El análisis grupal e individual es significativo para su labor cotidiana? X
22 ¿Es adecuado el análisis por logros presentado, de acuerdo a enfoques como
la formación por competencias? X
23 ¿Es adecuada la comparación entre la respuesta del estudiante y la esperada,
como mecanismo de retroalimentación? X
Sobre la experiencia
24 Antes de esta experiencia ¿Había evaluado a sus estudiantes usando algún
aplicativo (software)? X
25 ¿Usaría este aplicativo, en futuras ocasiones, para llevar a cabo procesos de
evaluación? X
26 ¿Usaría este aplicativo para evaluar a sus estudiantes fuera del aula de clase
(por ejemplo, una evaluación desde casa, un día no escolar? X
Fuente: Autor.
127
Los resultados anteriores permiten concluir que el profesor tiene una buena percepción
sobre el aplicativo. Aunque tuvo ciertas dudas y dificultades sobre algunas funcionalidades, él
encuentra el apoyo que la herramienta puede darle en su labor cotidiana. Asimismo, manifiesta
interés en darle continuidad al uso del aplicativo en sus procesos de evaluación, ya sea dentro o
fuera del aula. Sobre la experiencia y el proyecto en general, el profesor Juan Carlos Muñoz
expresa:
Bogotá Octubre 30 de 2016
Buenas noches Daniel, en primer lugar felicitarle por el propósito del software creado. En
segundo lugar, la evaluación, y en particular la creación de pruebas y su posterior revisión,
exige gran cantidad de tiempo en nuestra labor, por eso considero que una gran ventaja del
uso del software radica justamente en el ahorro de tiempo, que podrá traducirse en mayor
atención a la retroalimentación de aquellos estudiantes con debilidades.
En adición a lo anterior, sugiero crear un manual de usuario en PDF, que pueda ser
consultado a través del mismo aplicativo, con ejemplos (¿podrían servir las preguntas de
las dos pruebas realizadas en el colegio?)
¿Qué posibilidad existe de crear un banco de preguntas y que al momento de aplicar la
prueba (decidiendo previamente el número de preguntas), las que salgan a cada estudiante
salgan de manera aleatoria?
Finalmente quiero desear éxitos en su labor profesional y agradecer el aporte a mi trabajo.
Con aprecio Juan Carlos.
Como respuesta a la sugerencia manifestada por el profesor, el manual de usuario fue
creado y puesto a disposición de los usuarios dentro del aplicativo. Dicho manual no fue
puesto a disposición, ya que uno de los objetivos de este proyecto era determinar la
facilidad que presentaba a los usuarios los mecanismos propuestos para usar y dominar el
aplicativo, sin necesidad de ayudas. Con respecto al mecanismo para la presentación de las
evaluaciones, se aborda este tema en la sección de trabajos futuros.
128
9.4.4.3 Resultados de la experiencia desde el aspecto técnico
Para determinar las causas de lo sucedido en la esta sesión, se revisó el log de eventos del
servidor, encontrando un error que detuvo, en repetidas ocasiones, la ejecución del aplicativo. La
siguiente figura muestra la traza de este error.
Figura 68. Error detectado en la segunda sesión de prueba específica con curso 704.
Fuente: Autor.
Las tres primeras líneas del error, resaltadas en color rojo, permiten determinar que ocurrió
en la ejecución de los procedimientos definidos para la calificación de la evaluación. Asimismo,
puede decirse que el error ocurrió en los intentos realizados para finalizar la evaluación de una
estudiante, pues el aplicativo se detuvo la misma cantidad de veces que se intentó finalizarla. En
la primera línea se indica que el error ocurrió al comparar la respuesta del estudiante con la definida
para la evaluación, en una de las preguntas de ordenamiento. No obstante, debe determinarse con
exactitud la causa de este error.
Las líneas siguientes a las resaltadas indican las librerías usadas para la recuperación de
información de la base de datos, sugiriendo una inconsistencia en la información de la evaluación
consultada. No obstante, al borrar el progreso de la estudiante, se permitió continuar con la
experiencia y el aplicativo no generó este problema al ejecutar los procedimientos para calificar la
evaluación de otros estudiantes. Por esto último, el error puede ser asociado a problemas en la
integridad de la estructura en la respuesta de la estudiante a una de las preguntas de ordenamiento,
que no puede ser estudiado más a fondo, pues con la información recopilada no puede determinarse
la causa exacta que ocasionó la alteración a dicha estructura.
129
10. CONCLUSIONES
El aplicativo generado permite realizar actividades de evaluación usando un instrumento
de propósito general, que estructura su contenido para interrogar al estudiante y obtener su
respuesta con la construcción de relaciones jerárquicas y asociativas, así como validaciones
y selecciones. Sin embargo, esta evaluación está dirigida a la obtención de resultados y no
al análisis del proceso realizado, restringiéndola a los niveles inferiores de los modelos
como la Taxonomía de Bloom y Pirámide de Miller, donde su ubicación exacta está
determinada por la forma en que el docente plantee los interrogantes.
El sistema de coincidencias es un mecanismo pertinente para automatizar la calificación
del instrumento de evaluación, ya que genera puntuaciones para cada una de las preguntas,
con base en el número de elementos correctos e incorrectos de las respuestas del estudiante.
El contraste realizado entre las respuestas correctas y las proporcionadas es un aspecto
importante para la retroalimentación de resultados, que da a conocer a los estudiantes sus
aciertos y fallos, mientras que para los docentes es una base para inferir información
relacionada con el proceso del estudiante.
La definición de logros para una evaluación, así como su asociación con las preguntas que
la conforman, es una estrategia implementada para la retroalimentación de resultados, que
cuantifica y categoriza el desempeño de los estudiantes en áreas o componentes que el
docente requiere analizar, basada en propuestas como la Taxonomía de Bloom o la
Pirámide de Miller. Esta información ayuda a determinar el grado en que el estudiante
domina los conceptos evaluados, así como dar indicios a los docentes para la toma de
decisiones respecto a los procesos de enseñanza – aprendizaje.
El carácter responsivo del aplicativo generado es adecuado para la presentación de los
contenidos al usuario, sin importar el tipo de dispositivo que use. Sin embargo, el
framework de maquetación elegido hace una clasificación de tamaños de pantalla
elemental, lo que ocasiona afectaciones en la disposición de elementos en algunos
dispositivos, como tabletas con pantallas son cuadradas. Desde el punto de vista técnico,
la experiencia del usuario puede verse afectada. Pedagógicamente, la disposición
incorrecta de elementos puede alterar el escenario de evaluación, confundir al usuario e
inducirlo al error.
130
Las experiencias llevadas a cabo en la institución permiten determinar que el uso de eventos
de arrastrar y soltar, como mecanismos de interacción con el instrumento de evaluación, es
el factor diferenciador del producto generado. Estos eventos son de mayor significancia
para los estudiantes, pues manifestaron preferencias por la construcción de respuestas con
el movimiento de elementos a través de la pantalla, a realizar procesos de escritura en papel.
Para los docentes, estos eventos juegan un papel secundario en el uso del aplicativo, pues
predominan las interacciones sencillas con el teclado y el ratón.
La construcción del aplicativo propuesto en un ambiente web responsivo permitió realizar
las experiencias en el Colegio San Francisco de Asís IED, cuyos dispositivos cuentan con
sistemas operativos Windows. Si este proyecto se hubiera desarrollado como aplicativo
nativo para Android, sistema operativo de mayor presencia en el mercado, se hubiese
excluido no solo a esta institución, sino a once colegios de la localidad Los Mártires, que
cuentan con recursos similares1 y posiblemente a las instituciones educativas distritales. Se
presume que muchas de las instituciones educativas públicas del país cuentan con
dispositivos de características similares, teniendo en cuenta los procesos licitatorios y
convenios interinstitucionales que les suministran estos recursos.
El despliegue de los aplicativos web en la nube es una solución oportuna para ambientes
escolares cuya infraestructura es administrada por terceros, pues la instalación y puesta en
marcha de software requiere la realización de toda una serie de trámites, que pueden tomar
un tiempo considerable, además de estar sujeta a factores como el licenciamiento de
software, dependencias de hardware y software, entre otros. No obstante, un requerimiento
necesario para su uso es tener una conexión a Internet adecuada, que garantice el trabajo
simultáneo de un alto número de usuarios.
1 PROYECTO ‘USO PEDAGÓGICO DE TABLETS’ EN LOS MÁRTIRES ES TODO UN ÉXITO.
Tomado de http://www.educacionbogota.edu.co/es/sitios-de-interes/nuestros-sitios/agencia-de-medios/noticias-
institucionales/con-exito-fueron-presentados-primeros-resultados-del-proyecto-uso-pedagogico-de-las-tablets
131
11. TRABAJOS FUTUROS
El producto generado incorpora un instrumento de evaluación genérico para realizar
actividades de evaluación en cualquier dominio de conocimiento. Sin embargo, su aplicación se
restringe por su incapacidad para describir temáticas específicas de áreas como matemáticas,
química, música, geografía, entre otras. Se plantea la posibilidad de incorporar nuevos tipos de
preguntas, cuya estructura especifique elementos concretos como ecuaciones y operaciones
matemáticas, ecuaciones químicas, composiciones musicales, mapas geográficos, entre otros. Esto
permite aplicar evaluaciones en niveles superiores del conocimiento, según las propuestas de los
modelos como Taxonomía de Bloom y Pirámide de Miller.
El uso de multimedia como apoyo a las actividades de evaluación es incorporado en el
aplicativo generado. Elementos de tipo Audio, Texto y Video fueron pertinentes y su manipulación
no representó dificultades a los usuarios. Por otro lado, el uso de imágenes se vio afectado con
respecto al tamaño de pantalla, generándose dificultades en su visualización y comprensión. Se
hace necesario la implementación de mecanismos que muestren al estudiante adecuadamente las
imágenes, según el dispositivo que use. Una alternativa es el uso de imágenes responsivas, que
permite asociar una imagen a un tamaño de pantalla. Otra, es la incorporación de imágenes
vectorizadas, ya que no pierden su calidad a pesar del tamaño.
Con respecto a la solicitud realizada por el profesor Juan Carlos Muñoz, se plantea como
trabajo futuro la incorporar nuevos modos de presentar la evaluación a los estudiantes, como por
ejemplo la selección aleatoria de un subconjunto de preguntas, del conjunto total de preguntas que
el docente proponga para una evaluación. De igual forma, se planeta la presentación en desorden
de las preguntas a cada uno de estudiantes, como mecanismo para diversificar la evaluación y
evitar asuntos relacionados con fraude o copia.
132
12. BIBLIOGRAFÍA
Anderson, L. W., Krathwohl, D. R., Airasian, P. W., Cruikshank, K. A., Mayer, R. E., Pintrich, P.
R., … Wittrock, M. C. (2001). A Taxonomy for Learning, Teaching, and Assessing: A revision
of Bloom’s Taxonomy of Educational Objectives.
Ausubel, D. P. (1980). Psicología Educativa - Un punto de vista cognoscitivo.
Belloch, C. (2012). Las Tecnologías de la Información y Comunicación en el Aprendizaje. Unidad
de Tecnología Educativa (UTE) de La Universidad de Valencia. Retrieved from
http://www.uv.es/bellochc/pedagogia/EVA1.pdf
Belloch, C. (2013). Teleformación. Unidad de Tecnología Educativa (UTE) de La Universidad de
Valencia. Retrieved from http://www.uv.es/bellochc/pedagogia/EVA2.pdf
Blackboard. (n.d.). Question Types - Blackboard Help. Retrieved March 14, 2016, from https://en-
us.help.blackboard.com/Learn/9.1_2014_04/Instructor/110_Tests_Surveys_Pools/100_Ques
tion_Types
Bloom, B. S., Engelhart, M. D., Furst, E. J., Hill, W. H., & Krathwohl, D. R. (1956). Taxonomy of
educational objectives. HandBook 1: The Cognitive Domain. New York, NY: Longman.
Bootstrap. (n.d.). Bootstrap. Retrieved March 24, 2016, from http://getbootstrap.com/
Boronczyk, T., Naramore, E., Gerner, J., Scouarnec, Y. Le, Stolz, J., & Glass, M. K. (2009).
Beginning PHP6, Apache, MySQL Development. Indianapolis, IN: Wiley Publishing Inc.
BSON. (n.d.). BSON - Binary JSON. Retrieved October 31, 2016, from http://bsonspec.org/
Carballo, S. (1978). Fases del Proceso Enseñanza - Aprendizaje. Revista Educación, 2(2), 8.
Retrieved from http://www.revistas.ucr.ac.cr/index.php/educacion/issue/view/1841
Chodorow, K. (2013). MongoDB. The Definitive Guide. (A. Spencer, Ed.) (2nd ed.). Sebastopol
CA: O’Reilly Media Inc. http://doi.org/10.1017/CBO9781107415324.004
CNN. (2016). Un ciberataque tumba sitios populares de internet como Reddit, Twitter y Netflix |
CNNEspañol.com. Retrieved October 21, 2016, from
http://cnnespanol.cnn.com/2016/10/21/esta-seria-la-razon-por-la-que-twitter-reddit-y-
133
netflix-estan-caidos/#0
Cuevas, L., Rocha, V., Casco, R., & Martínez, M. (2011). Punto de encuentro entre
constructivismo y competencias. Medigraphic, 5–8. Retrieved from
http://medigraphic.com/pdfs/aapaunam/pa-2011/pa111b.pdf
Dockeos. (2014). Produce tests: 29 types of questions possible with Dokeos. Retrieved from
http://www.dokeos.com/produce-tests-29-types-questions-possible-dokeos/
Durante, E. (2006). Algunos métodos de evaluación de las competencias: Escalando la pirámide
de Miller. Educación Medica, 26(2), 55–61. Retrieved from
http://www.aspefam.org.pe/intranet/CEDOSA/metodo de evaluacion minicex.pdf
Dyn. (2011). Tipping The Cap: Why Dyn Helps Power Red Hat’s OpenShift. Retrieved from
http://dyn.com/wp-content/uploads/2011/07/CS034_Red-Hat.pdf
Garrido, A. (n.d.). Crear cuestionarios | Edmodo. Redes sociales para el aula. Retrieved April 1,
2016, from http://edmodo.antoniogarrido.es/crear_cuestionarios.html
Google. (n.d.-a). AngularJS. Retrieved March 26, 2016, from https://angularjs.org/
Google. (n.d.-b). Introduction - Material design - Material design guidelines. Retrieved November
2, 2016, from https://material.google.com/#
Gracia, H., & Yanes, O. (2012). Bases de datos NoSQL. Revista Telem@tica, 11(3), 21–33.
Retrieved from http://revistatelematica.cujae.edu.cu/index.php/tele
Heroku. (n.d.). Cloud Application Platform | Heroku. Retrieved October 29, 2016, from
https://www.heroku.com/
Hilton, S. (2016). Dyn Analysis Summary Of Friday October 21 Attack | Dyn Blog. Retrieved
October 26, 2016, from http://dyn.com/blog/dyn-analysis-summary-of-friday-october-21-
attack/
Johnson, M. (n.d.). Testmoz - The Test Generator. Retrieved from https://testmoz.com/
jQuery Foundation. (n.d.). jQuery. Retrieved November 2, 2016, from https://jquery.com/
JSON. (n.d.-a). JSON. Retrieved March 26, 2016, from http://www.json.org/
134
JSON. (n.d.-b). JSON: The Fat-Free Alternative to XML. Retrieved November 2, 2016, from
http://www.json.org/xml.html
LePage, P. (2016). Responsive Web Design Patterns. Retrieved December 5, 2016, from
https://developers.google.com/web/fundamentals/design-and-ui/responsive/patterns?hl=en-
419#layout_shifter
Lionbridge. (2012). Mobile Web Apps vs. Mobile Native Apps : How to Make the Right Choice,
13. Retrieved from http://www.lionbridge.com/files/2012/11/Lionbridge-
WP_MobileApps2.pdf
López, J. C. (2008). La Taxonomía de Bloom y sus dos Actualizaciones. Retrieved February 26,
2016, from http://www.eduteka.org/articulos/TaxonomiaBloomCuadro
López, J. C. (2015). SAMR, modelo para integrar las TIC en procesos educativos. Retrieved
January 20, 2016, from http://www.eduteka.org/samr.php
Manríquez, L. (2012). ¿Evaluación en competencias? Estudios Pedagógicos XXXVIII, No, 1, 353–
366. http://doi.org/10.4067/S0718-07052012000100022
Marcotte, E. (2011). Responsive Web Design. (M. Brown, Ed.), Internetdocument. New York, NY:
Jeffrey Zeldman. http://doi.org/10.11635/2319-9954/1/1/18
Materialize. (n.d.). About - Materialize. Retrieved November 2, 2016, from
http://materializecss.com/about.html
Mejía, A., Cruz, J., & Osmán, E. (2014). La computadora como medio de enseñanza en las escuelas
multigrado. Innovación Tecnológica, 20(3), 1–11. Retrieved from
http://innovaciontec.idict.cu/innovacion/article/download/379/381
MEN. (2007). Plan Nacional Decenal de Educación. Retrieved from
http://www.plandecenal.edu.co/html/1726/w3-article-166057.html
Miller, G. E. (1990). The assessment of Clinical Skills/Competence/Performance. Academic
Medicine, 9(65), 63–67.
mLab. (n.d.). MongoDB Hosting: Database-as-a-Service by mLab. Retrieved October 29, 2016,
from https://mlab.com/
135
mLab. (2016a). mLab: Cloud-hosted MongoDB. Retrieved October 28, 2016, from
https://mlab.com/home?newLogin=1
mLab. (2016b). MongoLab Status. Retrieved October 28, 2016, from
http://status.mlab.com/archive/
MongoDB. (n.d.). MongoDB. Retrieved March 26, 2016, from https://www.mongodb.org/
Moodle. (n.d.-a). Mount Orange School: Choose a role. Retrieved from
http://school.demo.moodle.net/mod/page/view.php?id=44
Moodle. (n.d.-b). Question types - MoodleDocs. Retrieved March 14, 2016, from
https://docs.moodle.org/30/en/Question_types
Moreno, P. M. (2002). Diseño y Planificación del Aprendizaje. Curso de Formación de
formadores, 59. Retrieved from http://biblio.colmex.mx/curso_formacion_formadores/NdC
de Fdf.pdf
Mozilla Developer Network. (n.d.). JavaScript | MDN. Retrieved from
https://developer.mozilla.org/en-US/docs/Web/JavaScript
MSCHE. (2007). Student Learning Assessment. Options and Resources. Learning. Middle States
Commission on Higher Education. Retrieved from http://depts.washington.edu/learning/
Muñoz, A. (2013). Introducción a NodeJS a través de Koans. Retrieved from
http://nodejskoans.com/
Node.js Foundation. (n.d.). Node.js. Retrieved March 26, 2016, from https://nodejs.org/en/
OpenShift. (n.d.). OpenShift: PaaS by Red Hat, Built on Docker and Kubernetes. Retrieved
October 29, 2016, from https://www.openshift.com/
OpenShift. (2016a). dp | OpenShift Online by Red Hat. Retrieved October 21, 2016, from
https://openshift.redhat.com/app/console/application/58005b337628e10b8c0000b6-dp
OpenShift. (2016b). OpenShift Online Status. Retrieved October 22, 2016, from
http://status.openshift.com/
Perunena, L., & Moráguez, M. (2013). Perurena Cancio. Revista Cubana de Información En
136
Ciencias de La Salud, 24. Retrieved from
http://www.acimed.sld.cu/index.php/acimed/rt/printerFriendly/405/306
Piedrahita, F., & López, J. C. (2003). MITICA: Modelo para Integrar las TIC al Currículo Escolar.
Retrieved January 12, 2016, from http://www.eduteka.org/modulos/8/234/132/1
ProProfs. (n.d.). ProProfs - Knowledge Management Software. Retrieved from
http://www.proprofs.com/
Puentedura, R. (2006). Transformation, Technology, and Education. Retrieved January 20, 2016,
from http://hippasus.com/resources/tte/
QuestBase. (n.d.). QuestBase. Retrieved from http://www.questbase.com/
Reuters. (2016). Cyber attacks disrupt PayPal, Twitter, other sites | Reuters. Retrieved October 21,
2016, from http://www.reuters.com/article/us-usa-cyber-idUSKCN12L1ME
Rosales, M. M. (2014). Proceso evaluativo: evaluación sumativa, evaluación formativa y
Assesment su impacto en la educación actual. In Congreso Iberoamericano de Ciencia,
Tecnología, Innovación y Educación (pp. 1–13). Retrieved from
http://www.oei.es/congreso2014/memoriactei/662.pdf
Sakai. (n.d.-a). How do I submit an assessment (i.e. test or quiz)? Retrieved from
http://sakai.screenstepslive.com/s/sakai_help/m/50750/l/510318-how-do-students-submit-
an-assessment-i-e-test-or-quiz?id=510318-how-do-students-submit-an-assessment-i-e-test-
or-quiz
Sakai. (n.d.-b). Tests & Quizzes. Retrieved March 14, 2016, from
https://sakai.rutgers.edu/helpdocs/tests.html
Salinas, M. I. (2011). Entornos virtuales de aprendizaje en la escuela: tipos, modelo didáctico y
rol del docente. Retrieved from
http://www.uca.edu.ar/uca/common/grupo82/files/educacion-EVA-en-la-escuela_web-
Depto.pdf
Sanchez, J. (2004). Bases constructivistas para la itegración de TICs. Revista Enfoques
Educacionales, 6(1), 75–89. Retrieved from
137
http://www.facso.uchile.cl/publicaciones/enfoques/08/Sanchez_Ilabaca.pdf
Schoology. (n.d.). Test/Quiz Question Types – Schoology Support. Retrieved March 14, 2016,
from https://support.schoology.com/hc/en-us/articles/205271688-Test-Quiz-Question-Types
Schwaber, K., & Sutherland, J. (2013). La Guía de Scrum. Retrieved from
http://www.scrumguides.org/docs/scrumguide/v1/Scrum-Guide-ES.pdf#zoom=100
SEP. (2012). Las estrategias y los instrumentos de evaluación desde el enfoque formativo.
Herramientas para la evaluación en educación básica (Vol. 4). México.
http://doi.org/10.1017/CBO9781107415324.004
Shepherd, E., & Godwin, J. (2004). Assessments Through the Learning Process. Retrieved from
http://niu.edu/testing/_pdf/assessments_through_the_learning_process.pdf
Silberschatz, A., Korth, H. F., & Sudarshan, S. (2011). Database System Concepts - 6th. ed.
Database (6th ed., Vol. 4). New York, NY: McGraw-Hill.
http://doi.org/10.1145/253671.253760
Solis, C. (2015). Manual del Guerrero ANGULARJS. Retrieved from
http://manualdelguerrero.com/
TechTarget. (2016). Ataques a la corporación Dyn destacan la vulnerabilidad de la infraestructura
mundial de internet. Retrieved October 24, 2016, from
http://searchdatacenter.techtarget.com/es/cronica/Los-ataques-a-la-corporacion-Dyn-
destacan-la-vulnerabilidad-de-la-infraestructura-mundial-de-interne
Tobón, S. (2006). Aspectos basicos de la formacion basada en competencias. Talca: Proyecto
Mesesup, 1–16. Retrieved from
http://www.urosario.edu.co/CGTIC/Documentos/aspectos_basicos_formacion_basada_com
petencias.pdf
Veloz, A. E. (2016). De la interfaz del usuario al responsive web design. Revista AUC, 0(37), 59–
66. Retrieved from http://www.auc-ucsg.com/index.php/auc/article/view/18
W3C. (n.d.-a). Extensible Markup Language (XML). http://doi.org/2016-11-02
W3C. (n.d.-b). W3C HTML. Retrieved from https://www.w3.org/html/
138
13. ANEXOS
Anexo 1. Historias de usuario para el proyecto.
No. Nombre Responsable Sprint Rol Descripción
1 Uso de
multimedia
Daniel
Franco 1 Docente
Se requiere manejar elementos
multimedia como soporte para
formular interrogantes/preguntas
en las evaluaciones.
2
Combinación
de elementos
multimedia
Daniel
Franco 1 Docente
Se requiere manejar texto e
imágenes en conjunto, para dar
dinamismo a las evaluaciones.
3 Formato de
texto
Daniel
Franco 1 Docente
Se desea tener un mecanismo que
permita la inserción de texto con
formato al aplicativo.
4 Navegación de
la evaluación
Daniel
Franco 2 Estudiante
Se desea visualizar la evaluación
pregunta a pregunta, para facilitar
el trabajo a los estudiantes.
5
Consulta de
preguntas y
modificación
de respuestas.
Daniel
Franco 2 Estudiante
Se debe presentar a los estudiantes
un mecanismo para visualizar las
preguntas que requiera y modificar
su respuesta, en el transcurso de la
evaluación.
6 Estado de las
preguntas
Daniel
Franco 2 Estudiante
Se requiere un mecanismo que
informe antes de finalizar la
evaluación sobre las preguntas que
están incompletas o sin resolver.
7 Informes
grupales
Daniel
Franco 3 Docente
Se requiere la información sobre
los estudiantes que aprobaron y
reprobaron la evaluación, así como
el resultado detallado de cada uno.
8 Informes
individuales
Daniel
Franco 3 Estudiante
Se requiere visualizar la
calificación lograda, así como los
aciertos y fallos obtenidos en cada
una de las preguntas.
9 Reutilización
de preguntas
Daniel
Franco 3 Docente
Para reutilizar de forma adecuada
las preguntas debe asignarse el
puntaje en cada evaluación, pues al
estar en la pregunta condiciona su
uso.
139
10 Análisis de
logros
Daniel
Franco 3 Docente
Se requiere realizar un análisis
grupal por dimensiones, para
estudiar el rendimiento del curso
en las dimensiones definidas para
la evaluación.
11 Escala de
notas
Daniel
Franco 3 Docente
Se requiere fijar una escala de
calificación, para estandarizar las
evaluaciones a los parámetros de
las instituciones.
12 Protección de
la evaluación
Daniel
Franco 4 Docente
Se requiere restringir el acceso de
estudiantes no autorizados a las
evaluaciones creadas.
13
Restricción en
la navegación
de la
evaluación
Daniel
Franco 4 Docente
Se requiere restringir la navegación
de la evaluación a los estudiantes,
como mecanismo para evitar
fraude en la evaluación.
14
Asignación de
logros a
preguntas
Daniel
Franco 4 Docente
Se requiere un mecanismo sencillo
para asignar un mismo logro a más
de una pregunta, facilitando la
creación de la evaluación.
15 Descarga de
resultados
Daniel
Franco 4 Docente
Se requiere extraer del aplicativo
los resultados de los estudiantes,
para ser incorporados a las
planillas institucionales.
140
Anexo 2. Descripción de requerimientos funcionales
RF-01 Registro de usuarios en el sistema
Versión 1.0
Autor Daniel Franco
Descripción
El sistema debe manejar cuentas de usuario para docentes y estudiantes,
ofreciendo a cada usuario un espacio personalizado para el uso de
funcionalidades, propias de su rol.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Alta
Comentarios Todas las funcionalidades del sistema requieren la autenticación de usuarios.
RF-02 Listado de elementos multimedia en el sistema
Versión 1.0
Autor Daniel Franco
Descripción
El sistema debe presentar a cada docente un listado de los elementos
multimedia que ha creado, así como las acciones correspondientes para su
gestión (visualización, edición y eliminación).
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Media
Comentarios Ninguno.
RF-03 Creación de elementos multimedia en el sistema
Versión 1.0
Autor Daniel Franco, Ana Cecilia Beltrán
Descripción
El sistema debe ofrecer mecanismos adecuados para incorporar elementos
multimedia (audio, imagen, texto y video). Se requiere personalizar los
elementos de tipo texto, en aspectos como tamaño, estilo, alineación, entre
otros. Igualmente debe permitirse insertar imágenes al texto.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Media
Comentarios Los elementos de tipo audio, imagen y video se proporcionan al sistema de
forma local, para asegurar la disponibilidad del recurso en todo momento.
141
RF-04 Visualización de elementos multimedia en el sistema
Versión 1.0
Autor Daniel Franco
Descripción El sistema debe ofrecer un mecanismo para visualizar los elementos que
conforman la galería de usuario.
Importancia Alta
Urgencia Media
Estado Implementado
Estabilidad Alta
Comentarios Ninguno.
RF-05 Modificación de elementos multimedia en el sistema
Versión 1.0
Autor Daniel Franco, Ana Cecilia Beltrán
Descripción El sistema debe ofrecer un mecanismo para la modificación de los elementos
que conforman la galería del usuario.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Alta
Comentarios
La modificación de elementos de tipo audio, imagen y video es actualizar el
nombre que los identifica, pues la modificación de los elementos como tal no
cubren el alcance de este proyecto.
RF-06 Eliminación de elementos multimedia en el sistema
Versión 1.0
Autor Daniel Franco
Descripción El sistema debe ofrecer un mecanismo para remover los elementos multimedia
que se desee de la galería del usuario.
Importancia Media
Urgencia Media
Estado Implementado
Estabilidad Media
Comentarios
La eliminación de elementos hace referencia a remover los elementos de la
galería multimedia. Sin embargo, el elemento no será removido de las
preguntas en las que se encuentre asociado, pues debe asegurarse la
consistencia de las preguntas y respuestas.
142
RF-07 Listado de preguntas presentes en el sistema
Versión 1.0
Autor Daniel Franco
Descripción El sistema debe presentar a cada docente un listado de las preguntas que
conforman su banco de preguntas, así como las acciones correspondientes para
su gestión (visualización, edición y eliminación).
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Media
Comentarios Ninguno.
RF-08 Creación de preguntas en el sistema
Versión 1.1
Autor Daniel Franco, Ana Cecilia Beltrán
Descripción
El sistema debe incorporar los mecanismos adecuados para la creación de
preguntas de tipo base común, correlación, opción múltiple, ordenamiento y
verdadero o falso, pues permiten automatizar su calificación y
retroalimentación y son las de mayor uso en las pruebas escritas de la
educación básica, según (SEP, 2012).
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Alta
Comentarios
Los mecanismos de creación de preguntas deben incorporar eventos de
arrastrar y soltar, pues se identifica el potencial de este tipo de interacciones
en la relación de elementos a conjuntos.
RF-09 Asociación de elementos multimedia como apoyo
Versión 1.1
Autor Daniel Franco, Ana Cecilia Beltrán
Descripción
El sistema debe permitir la incorporación a las preguntas de los elementos
multimedia, previamente creados. Estos pueden ser incorporados ya sea como
elemento de apoyo a la pregunta o como parte de los elementos que conforman
la estructura de la pregunta.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Media
Comentarios
Los elementos son incorporados a través de un selector de elementos, que no
aplica los eventos de arrastrar y soltar. El elemento es incorporado y puede
visualizarse al instante, lo que permite al docente ver el contenido que está
creando y presentará a sus estudiantes.
143
RF-10 Visualización de las preguntas presentes en el sistema
Versión 1.0
Autor Daniel Franco
Descripción El sistema debe facilitar la visualización de las preguntas creadas, permitiendo
al docente observar la estructura de la pregunta con su respuesta.
Importancia Alta
Urgencia Media
Estado Implementado
Estabilidad Media
Comentarios
Al visualizar una pregunta, el docente observa la estructura de la pregunta tal
como la creó, lo que le permite conocer la respuesta correcta que definió. El
docente no puede ver la pregunta desde la perspectiva del estudiante.
RF-11 Modificación de las preguntas presentes en el sistema
Versión 1.1
Autor Daniel Franco, Ana Cecilia Beltrán
Descripción El sistema debe permitir la modificación de las preguntas presentes en el banco
de preguntas.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Baja
Comentarios
Para la modificación de preguntas se hace uso de los mismos mecanismos que
se definen para la creación, lo que permite al docente usar, aprender y dominar
un mismo procedimiento. La modificación de preguntas puede alterar la
retroalimentación de resultados, de las evaluaciones que la contienen y ya
fueron aplicadas. Por ello se aconseja hacer uso de este procedimiento si es
estrictamente necesario.
RF-12 Eliminación de las preguntas presentes en el sistema
Versión 1.0
Autor Daniel Franco
Descripción El sistema debe ofrecer un mecanismo para remover las preguntas que se desee
del banco de preguntas.
Importancia Media
Urgencia Media
Estado Implementado
Estabilidad Media
Comentarios
La eliminación de preguntas es el procedimiento que permite remover
preguntas del banco de preguntas. Sin embargo, el procedimiento no removerá
las preguntas de las evaluaciones a las que están asociadas, pues debe
asegurarse la estructura de una evaluación y de sus resultados, de haber sido
aplicada.
144
RF-13 Listado de evaluaciones presentes en el sistema
Versión 1.0
Autor Daniel Franco
Descripción
El sistema debe presentar a los docentes las diferentes evaluaciones que ha
creado, así como el acceso a los mecanismos para su gestión (visualización,
edición y eliminación).
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Media
Comentarios Ninguno.
RF-14 Creación de evaluaciones en el sistema
Versión 1.1
Autor Daniel Franco, Ana Cecilia Beltrán
Descripción
El sistema debe proveer un mecanismo para la definición de evaluaciones, que
hagan uso de las preguntas creadas por el docente previamente. El instrumento
de evaluación a implementar se basa en la prueba escrita, ya que es el más
usado para evaluar en la educación básica y facilita la evaluación de saberes
en diferentes dominios del conocimiento, definidos por la Taxonomía de
Bloom (SEP, 2012).
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Media
Comentarios
Se propone un selector de preguntas, que permite incorporar las preguntas
deseadas a la evaluación. Se incorporan los eventos de arrastrar y soltar para
la definición del orden de las preguntas en el instrumento de evaluación.
RF-15 Definición de restricciones de acceso a la evaluación
Versión 1.0
Autor Daniel Franco, Ana Cecilia Beltrán
Descripción El sistema debe proporcionar un mecanismo para restringir el acceso a la
evaluación por parte de los usuarios estudiantes.
Importancia Alta
Urgencia Media
Estado Implementado
Estabilidad Media
Comentarios
Asignar una clave o código a las evaluaciones es una forma de fácil uso para
este cometido. El docente asigna dicha clave y la divulga a sus estudiantes en
el momento que lo requiera, lo que garantiza la protección de la evaluación y
la obtención de resultados válidos, pues no se conoce previamente el contenido
del instrumento de evaluación.
145
RF-16 Definición de modos de presentación de la evaluación
Versión 1.2
Autor Daniel Franco, Ana Cecilia Beltrán, Juan Carlos Muñoz
Descripción El sistema debe ofrecer la posibilidad al docente de configurar la forma en que
el estudiante puede navegar y responder la evaluación.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Media
Comentarios
Se proponen los modos de navegación libre y restringida para la presentación
de las evaluaciones a los estudiantes. El modo restringido busca inhabilitar la
posibilidad de regresar a una pregunta ya contestada, como mecanismo para
evitar copia o fraude en el instante de aplicar la evaluación, pues la disposición
del espacio físico donde se usan los equipos, puede contribuir a este hecho.
RF-17 Definición de restricciones para la consulta de resultados
Versión 1.0
Autor Daniel Franco, Ana Cecilia Beltrán
Descripción El sistema debe proveer la opción de habilitar o deshabilitar la consulta de los
resultados a los estudiantes, una vez finalizada la evaluación.
Importancia Alta
Urgencia Media
Estado Implementado
Estabilidad Media
Comentarios
Se propone esta opción como mecanismo para evitar copia o fraude en el
instante de aplicar la evaluación, teniendo en cuenta que el aplicativo propone
la posibilidad de realizar evaluaciones en espacios diferentes al aula de clase,
donde el docente no puede controlar este tipo de hechos.
RF-18 Definición de logros a medir con la evaluación
Versión 1.0
Autor Daniel Franco, Ana Cecilia Beltrán
Descripción El sistema debe proveer un mecanismo para definir componentes o elementos
que se desean analizar en el estudiante al aplicar la evaluación.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Media
Comentarios
Se propone la implementación de un sistema de logros, los cuales expresan los
diferentes elementos que desean estudiarse, cuantificando y catalogando los
resultados del estudiante en estas componentes. Esta propuesta se basa en los
modelos de Taxonomía de Bloom (Bloom et al., 1956) y Pirámide de Miller
(Miller, 1990).
146
RF-19 Asociación de logros y puntajes a preguntas
Versión 1.1
Autor Daniel Franco, Ana Cecilia Beltrán
Descripción
El sistema debe proveer un mecanismo para la asociación de logros y puntajes
a las evaluaciones, que realmente permita la reutilización de preguntas para la
construcción de varias evaluaciones.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Media
Comentarios
Se propone la escala de evaluación 0 – 50 para la calificación del instrumento
de evaluación. Se incorporan los eventos de arrastrar y soltar para la asociación
de logros a las preguntas y la definición del orden de las preguntas al momento
de aplicar la evaluación.
RF-20 Visualización de las evaluaciones presentes en el sistema
Versión 1.0
Autor Daniel Franco
Descripción
El sistema debe facilitar la visualización de las evaluaciones creadas,
permitiendo al docente observar la estructura y configuraciones de cada una
de ellas.
Importancia Alta
Urgencia Media
Estado Implementado
Estabilidad Media
Comentarios
Al visualizar una evaluación, el docente encuentra las configuraciones que le
asignó, los logros definidos, las preguntas incorporadas y la asociación de
logros y puntajes. No se ofrece la visualización de cada una de las preguntas.
RF-21 Modificación de las evaluaciones presentes en el sistema
Versión 1.1
Autor Daniel Franco, Ana Cecilia Beltrán
Descripción El sistema debe permitir la modificación de las evaluaciones presentes en el
banco de evaluaciones.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Baja
Comentarios
Para la modificación de evaluaciones se hace uso de los mismos mecanismos
definidos para la creación, permitiendo al docente usar, aprender y dominar
un mismo procedimiento. Modificar la estructura de una evaluación puede
alterar la retroalimentación de resultados, si la evaluación ya fue aplicada. Por
ello, se recomienda hacer uso de esta operación si es estrictamente necesario.
147
RF-22 Eliminación de evaluaciones presentes en el sistema
Versión 1.0
Autor Daniel Franco
Descripción El sistema debe ofrecer un mecanismo para remover las evaluaciones que se
desee del banco de evaluaciones.
Importancia Media
Urgencia Media
Estado Implementado
Estabilidad Media
Comentarios
La eliminación de evaluaciones consiste en remover la evaluación deseada del
banco de evaluaciones y se removerá del historial de evaluaciones presentadas
de los estudiantes, si esta fue aplicada. No obstante, este procedimiento no
eliminará la evaluación del sistema ni los resultados de los estudiantes.
RF-23 Listado de evaluaciones disponibles para presentar
Versión 1.1
Autor Daniel Franco, Ana Cecilia Beltrán
Descripción
El sistema debe presentar a los estudiantes el listado de las evaluaciones que
se encuentran disponibles para su presentación, así como la opción para
iniciarla.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Media
Comentarios Ninguno.
RF-24 Inicio de evaluación
Versión 1.0
Autor Daniel Franco, Ana Cecilia Beltrán
Descripción
El sistema debe permitir seleccionar una evaluación para su presentación,
validar que el estudiante esté autorizado por parte del docente para tomarla y
presentarle la evaluación, si es el caso.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Media
Comentarios
La autorización del estudiante para presentar la evaluación es dada por el
docente cuando proporciona el código o clave asignada. Además de verificar
esta autorización, se comprueba que el estudiante no haya tomado previamente
la evaluación, evitando que presente más de una vez la misma evaluación.
148
RF-25 Navegación de la evaluación pregunta por pregunta
Versión 1.2
Autor Daniel Franco, Ana Cecilia Beltrán, Juan Carlos Muñoz
Descripción El sistema debe presentar al estudiante la evaluación pregunta por pregunta,
teniendo en cuenta aspectos técnicos y pedagógicos.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Alta
Comentarios
La presentación de la evaluación al estudiante pregunta por pregunta tiene
como propósito ofrecer una experiencia de uso apropiada, teniendo en cuenta
la variedad de dispositivos con los que se desea usar el aplicativo. Asimismo,
se permite al estudiante enfocar su concentración en un interrogante
específico, evitando posibles distracciones y confusiones durante la aplicación
de la evaluación.
RF-26 Visualización de preguntas y modificación de respuestas
Versión 1.0
Autor Daniel Franco, Ana Cecilia Beltrán
Descripción
El sistema debe presentar un mecanismo que le permita al estudiante consultar
cualquier pregunta que haga parte de la evaluación para revisar y/o modificar
su respuesta.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Alta
Comentarios
En la definición del modo de navegación libre de la evaluación se propone el
acceso a una sección de resumen, la cual presenta al estudiante el listado de
preguntas y la opción de posicionarse en la pregunta deseada, permitiendo la
modificación de la respuesta que se ha proporcionado.
RF-27 Informe del estado de la evaluación previo a su finalización
Versión 1.1
Autor Daniel Franco, Ana Cecilia Beltrán
Descripción El sistema debe presentar al estudiante un informe general de la evaluación,
antes de finalizar la evaluación, que le permita conocer si ha completado todas
las preguntas o le hace falta alguna por responder.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Alta
Comentarios Se propone una sección de resumen que indique a los estudiantes para cada
pregunta el estado se su respuesta, permitiendo conocer cuáles de ellas ha
149
completado y cuáles hacen falta por contestar o completar. De acuerdo al
modo de navegación, se habilita o deshabilita la opción para trabajar
nuevamente en una pregunta.
RF-28 Finalización de evaluación
Versión 1.1
Autor Daniel Franco
Descripción
El sistema debe proporcionar un mecanismo para que el estudiante finalice su
evaluación, es decir, envíe sus respuestas para que el aplicativo realice el
proceso de calificación y determine la nota obtenida.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Media
Comentarios El proceso de calificación se efectúa siguiendo el sistema de coincidencias
propuesto y se realiza una única vez.
RF-29 Consulta de informes grupales para evaluaciones
Versión 1.1
Autor Daniel Franco, Ana Cecilia Beltrán
Descripción
El sistema debe presentar al docente una visión grupal de los resultados, que
le permita analizar elementos propios del instrumento de evaluación y de sus
procesos de enseñanza – aprendizaje.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Alta
Comentarios
Se propone un informe que brinde al docente una perspectiva general de la
evaluación, indicando la cantidad de estudiantes que aprobaron y reprobaron,
así como los resultados individuales de cada estudiante que tomó la evaluación
y la opción de consulta. Se incorpora el resultado promedio para cada una de
las preguntas y su contraste con la nota esperada, permitiendo identificar
preguntas y temáticas fuertes o que requieren atención. Se hace uso de los
logros definidos y su asociación con las preguntas para promediar y cuantificar
el desempeño del curso, para cada una de las componentes que el instrumento
de evaluación buscaba analizar, de acuerdo a las propuestas como la
Taxonomía de Bloom (Bloom et al., 1956) y Pirámide de Miller (Miller,
1990), que proponen clasificar el conocimiento en categorías y dominios.
150
RF-30 Consulta de informes individuales para evaluaciones
Versión 1.0
Autor Daniel Franco, Ana Cecilia Beltrán
Descripción El sistema debe presentar a docentes y estudiantes los resultados obtenidos,
que les permita analizar elementos propios del instrumento de evaluación y de
sus procesos de enseñanza – aprendizaje.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Alta
Comentarios Se propone un informe que brinde a docentes y estudiantes una perspectiva
general de los resultados, contrastando la nota obtenida con la esperada y la
mínima para aprobar. Se incorpora una división de los resultados pregunta por
pregunta, contrastando el resultado obtenido con el esperado y la opción de
consultar el proceso realizado. Se hace uso de los logros definidos y su
asociación con las preguntas para cuantificar el desempeño del estudiante en
cada una de las componentes que el instrumento de evaluación buscaba
analizar, de acuerdo a las propuestas como la Taxonomía de Bloom (Bloom et
al., 1956) y Pirámide de Miller (Miller, 1990), que proponen clasificar el
conocimiento en categorías y dominios.
RF-31 Contraste entre respuestas del estudiante y las esperadas
Versión 1.0
Autor Daniel Franco, Ana Cecilia Beltrán
Descripción
El sistema debe implementar un mecanismo que permita analizar el trabajo
del estudiante, por medio de las respuestas que proporcionó, permitiendo
encontrar fortalezas y puntos a reforzar.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Media
Comentarios
Se propone el contraste entre la respuesta esperada y la proporcionada por el
estudiante como mecanismo de retroalimentación, pues permite a docentes y
estudiantes realizar un análisis, ya sea individual o en conjunto, que justifique
el resultado obtenido y las acciones a seguir, como lo son reforzar una
temática.
151
RF-32 Descarga de resultados grupales para las evaluaciones
Versión 1.0
Autor Daniel Franco, Ana Cecilia Beltrán, Juan Carlos Muñoz
Descripción El sistema debe proveer un mecanismo que le permita al docente exportar los
resultados obtenidos por los estudiantes.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Media
Comentarios
Se propone la generación de un archivo de hoja de cálculo, el cual contiene
los apellidos, nombres y nota obtenida por cada estudiante, en la evaluación
que se esté visualizando. Las hojas de cálculo son un tipo de archivo conocido
y de fácil manipulación para el docente, pues muchos de ellos llevan sus notas
a través de estas.
152
Anexo 3. Descripción de requerimientos no funcionales
RNF-01 Compatibilidad entre navegadores
Versión 1.0
Autor Daniel Franco
Descripción Mantener la funcionalidad del aplicativo web con los navegadores Google
Chrome y Mozilla Firefox.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Alta
Comentarios Se consideran los navegadores web Google Chrome y Mozilla Firefox, los
cuales son los de mayor uso.
RNF-02 Apariencia visual
Versión 1.0
Autor Daniel Franco
Descripción Ofrecer una apariencia visual agradable al usuario en los diferentes tipos de
dispositivos.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Alta
Comentarios Ninguno.
RNF-03 Distribución de elementos en la pantalla
Versión 1.0
Autor Daniel Franco
Descripción Proponer una disposición adecuada de elementos en las diferentes secciones
del aplicativo, que permitan a estudiantes y docentes su uso intuitivo.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Media
Comentarios Ninguno.
153
RNF-04 Agrupación de contenido
Versión 1.0
Autor Daniel Franco
Descripción Agrupar el contenido en contenedores que puedan contraerse, buscando
facilitar al su visualización en diferentes tipos de dispositivos.
Importancia Alta
Urgencia Alta
Estado Implementado
Estabilidad Media
Comentarios Ninguno.
RNF-05 Delegación de responsabilidades
Versión 1.0
Autor Daniel Franco
Descripción
Aprovechar las configuraciones hardware de los dispositivos actuales para
delegarles algunas tareas y/o responsabilidades, reduciendo el intercambio de
datos entre el servidor y los clientes, buscando un mejor rendimiento del
aplicativo.
Importancia Media
Urgencia Media
Estado Implementado
Estabilidad Media
Comentarios Ninguno.
154
Anexo 4. Plan de pruebas realizadas al prototipo.
Estos fueron los casos usados para probar los módulos y su funcionamiento en conjunto.
Módulo de Gestión de multimedia
Para probar el funcionamiento de este módulo se realizaron estos procedimientos:
1. Creación de un texto de prueba y carga de archivos tipo audio, imagen y video.
2. Visualización de cada elemento cargado.
3. Modificación de la información asociada a cada uno de los elementos cargados.
4. Eliminación de los elementos cargados.
Módulo de Gestión de preguntas
Para probar el funcionamiento de este módulo realizaron los siguientes procedimientos:
1. Creación de preguntas de cada uno de los tipos propuestos, incorporando elementos
multimedia de todos los tipos.
2. Visualización de las preguntas creadas.
3. Modificación de los elementos que componen la estructura de las preguntas creadas.
4. Eliminación de las preguntas creadas.
Módulo de Gestión de evaluaciones
Para probar el funcionamiento de este módulo realizaron los siguientes procedimientos:
1. Creación de una evaluación, asociando todos los tipos de preguntas disponibles en el
sistema y sus puntajes.
2. Definición de un logro asociado a todas las preguntas y uno asociado a un grupo selecto
de preguntas.
3. Visualización de la evaluación creada.
4. Modificación de cada uno de los elementos que componen la estructura de la
evaluación.
5. Eliminación de la evaluación creada.
155
Módulo de Presentación de evaluaciones
Para probar el funcionamiento de este módulo se realizaron estos procedimientos:
1. Inicio de la evaluación creada anteriormente.
2. Navegación de la evaluación en orden.
3. Selección y visita de todas las preguntas, al azar, para la modificación de su respuesta.
4. Finalización de la evaluación.
Módulo de Resultados e Informes
1. Consulta de resultados individuales desde el perfil del estudiante que presentó la
evaluación.
2. Consulta de resultados grupales desde el perfil del docente que formuló la evaluación.
3. Consulta de resultados individuales desde el perfil del docente que formuló la
evaluación.
157
Anexo 6. Carta de solicitud a título personal.
Bogotá D.C., Octubre 7 de 2016 Doctor DUMER ANTONIO PEDRAZA Rector Colegio San Francisco de Asís IED Ciudad Cordial saludo, Por medio de la presente yo, Daniel Fernando Franco Beltrán, identificado con C.C. 1018437999 de Bogotá, estudiante de Ingeniería de Sistemas de la Universidad Distrital Francisco José de Caldas, agradezco a usted y a la institución por la oportunidad brindada para aplicar el producto obtenido de mi proyecto de grado. Manifiesto a usted y a la institución, que me comprometo a:
1. Asumir por mi cuenta los aspectos relacionados a desplazamientos, bienestar e integridad, seguridad, entre otros, durante los días que esté en la institución realizando las pruebas, exonerando a la institución de cualquier responsabilidad.
2. Mantener un trato cordial y respetuoso con la institución y el personal que la
conforma, en especial con los docentes y estudiantes que participarán en la prueba. Asimismo, a cuidar y dar buen uso de los elementos que me son facilitados para realizar las pruebas.
3. Entregar a la institución, una vez finalizada la experiencia, el informe
correspondiente.
Atentamente, Daniel Fernando Franco Beltrán Estudiante Ingeniería de Sistemas Universidad Distrital Francisco José de Caldas Anexo: Cronograma de actividades a realizar.
158
CRONOGRAMA DE ACTIVIDADES
Datos generales
Proyecto Prototipo web responsivo para la aplicación de actividades de evaluación en los procesos de enseñanza – aprendizaje de la educación básica y media.
Responsable Daniel Fernando Franco Beltrán
Cargo Estudiante de Ingeniería de Sistemas
Institución Universidad Distrital Francisco José de Caldas
Acompañamiento Ana Cecilia Beltrán
Juan Carlos Muñoz
Recursos
Locación Sala de Sistemas
Equipos Tabletas
Conexión Red Inalámbrica, usada para acceso local (no se requiere internet).
Proyección Video Beam
Actividades
Fecha Acompañamiento Curso Descripción
7 Octubre, 2016 Juan Carlos Muñoz
604 Prueba de contextualización. Ana Cecilia Beltrán
7 Octubre, 2016 Juan Carlos Muñoz 704 Prueba de contextualización.
13 Octubre, 2016 Ana Cecilia Beltrán 604 Prueba específica de área.
14 Octubre, 2016 Juan Carlos Muñoz 704 Prueba específica de área.
Consideraciones Se considera la realización de una jornada de socialización del proyecto en general, con los docentes y estudiantes participantes, una vez sustentado el proyecto de grado. Sin embargo, depende de los tiempos de finalización, aprobación y sustentación del proyecto, dictaminados por el autor y la Universidad Distrital Francisco José de Caldas.
159
Anexo 7. Autorización de padres de familia.
La siguiente es la autorización enviada a los padres de familia de los estudiantes que
participaron en la prueba.
El siguiente es el listado de estudiantes que entregaron firmada la autorización.
160
Anexo 8. Informe final presentado a la institución educativa.
Bogotá D.C., Noviembre 16 de 2016
Doctor DUMER ANTONIO PEDRAZA Rector Colegio San Francisco de Asís IED Ciudad
Asunto: Informe final de experiencias realizadas en las instalaciones de la institución.
Cordial saludo.
En primer lugar quiero expresar mi inmenso agradecimiento a la institución, en especial a usted, a los profesores Ana Cecilia Beltrán y Juan Carlos Muñoz, así como a los estudiantes de los cursos 604 y 704 de la jornada tarde, por brindarme la oportunidad de aplicar los resultados de mi trabajo de grado, titulado “Prototipo web responsivo para la aplicación de actividades de evaluación en los procesos de enseñanza – aprendizaje de la educación básica y media”, pues al probar esta propuesta en un entorno pedagógico real, me permitió evidenciar su valor y aporte a los actores de los procesos de formación.
De acuerdo con su requerimiento, presento a la institución este informe que resalta los beneficios que conllevan la realización de estas experiencias, listados a continuación:
1. Nuestras instituciones, el Colegio San Francisco de Asís IED y la Universidad Distrital
Francisco José de Caldas, son entidades de educación públicas del Distrito Capital, que tienen como misión la formación de los individuos de la ciudad. Entablar una relación entre las instituciones permite proyectar a futuro nuevos escenarios para el enriquecimiento de la labor pedagógica realizada por ustedes y el desarrollo de nuevos conocimientos que propende la universidad.
2. En el tiempo que cursé mis estudios de educación básica y media, el acceso a
recursos tecnológicos era limitado, teniendo que compartir dispositivos de cómputo con varios compañeros de clase. Al conocer la infraestructura de su institución, quedé gratamente sorprendido al ver la cantidad de recursos con que cuentan, donde los estudiantes pueden trabajar cada uno con un dispositivo, bajo las mismas condiciones. Realizar este tipo de experiencias permite a los estudiantes usar la infraestructura tecnológica que tienen a su disposición, en espacios académicos diferentes a las clases del área de Tecnología, incorporando las TIC en sus procesos.
161
3. Las experiencias realizadas generaron impresiones positivas en la comunidad franciscana, pues fueron una manera novedosa de realizar actividades de evaluación, ya que evaluar es un momento de los procesos de enseñanza – aprendizaje al que estudiante reacciona con apatía y poco interés. Para los estudiantes, el aspecto positivo más relevante es el uso de tecnología para hacer evaluaciones, pues les pareció más atractivo y sencillo el uso de tabletas para hacer sus evaluaciones, donde arrastran y sueltan elementos en la pantalla, en vez de los métodos tradicionales, donde el proceso de escritura es la constante. Asimismo, manifestaron su interés en hacer uso frecuente de esta solución en otras asignaturas.
4. Los docentes participantes encuentran la pertinencia de usar este tipo de aplicativos
en sus labores cotidianas, pues les permite brindar experiencias diferentes a sus estudiantes, así como trasladar los procesos de evaluación a un entorno tecnológico que le apoya en labores como la revisión y valoración del material aplicado. Asimismo, encuentran que el análisis de la información que este tipo de aplicativos permite inferir, en forma grupal e individual, elementos propios del proceso de los estudiantes, su progreso, sus fortalezas y oportunidades de mejora, soportando así la toma de decisiones en los procesos de enseñanza – aprendizaje.
Nuevamente, manifiesto mi agradecimiento con la institución y todas las personas que hicieron posible la realización de estas experiencias, haciendo votos para que la relación establecida entre las instituciones perdure y las beneficie mutuamente.
Cordialmente,
Daniel Fernando Franco Beltrán Estudiante Ingeniería de Sistemas
Universidad Distrital Francisco José de Caldas
170
Anexo 11. Encuesta # 1 para estudiantes.
Elemento Descripción
Código E-E1
Título Encuesta de estudiantes para sesión de contextualización
Población Estudiantes
Preguntas 12
Respuesta Si – No
Objetivo Recolectar información sobre las primeras reacciones de los
encuestados con respecto al prototipo y a la experiencia en general.
PREGUNTAS
Sobre la presentación de evaluaciones
1. ¿Tuvo inconvenientes para iniciar la evaluación?
2. ¿Tuvo inconvenientes para navegar por la evaluación?
3. ¿Tuvo inconvenientes para resolver preguntas de correlación?
4. ¿Tuvo inconvenientes para resolver preguntas de opción múltiple?
5. ¿Tuvo inconvenientes para resolver preguntas de ordenamiento?
6. ¿Tuvo inconvenientes para resolver preguntas de verdadero o falso?
7. ¿Tuvo inconvenientes para finalizar la evaluación?
Sobre la consulta de resultados
1. ¿Tuvo inconvenientes para interpretar los resultados generales de la evaluación?
2. ¿Tuvo inconvenientes para interpretar los resultados detallados de cada pregunta?
Sobre la experiencia
1. ¿Tuvo dificultades para manipular el dispositivo usado en la prueba?
2. Antes de esta experiencia, ¿Había sido evaluado usando algún aplicativo (software)?
3. ¿La explicación proporcionada fue suficiente para comprender el funcionamiento del
aplicativo y poder usarlo?
171
Anexo 12. Encuesta # 2 para estudiantes.
Elemento Descripción
Código E-E2
Título Encuesta de estudiantes para sesión de prueba específica
Población Estudiantes
Preguntas 13
Respuesta Si – No
Objetivo Recolectar información de impresiones de los encuestados con
respecto al prototipo y a la experiencia en general.
PREGUNTAS
Sobre la presentación de evaluaciones
1. ¿Tuvo inconvenientes para iniciar la evaluación?
2. ¿Tuvo inconvenientes para navegar por la evaluación?
3. ¿Tuvo inconvenientes para resolver preguntas de correlación?
4. ¿Tuvo inconvenientes para resolver preguntas de opción múltiple?
5. ¿Tuvo inconvenientes para resolver preguntas de ordenamiento?
6. ¿Tuvo inconvenientes para resolver preguntas de verdadero o falso?
7. ¿Tuvo inconvenientes para finalizar la evaluación?
Sobre la consulta de resultados
1. ¿Tuvo inconvenientes para interpretar los resultados generales de la evaluación?
2. ¿Tuvo inconvenientes para interpretar los resultados detallados de cada pregunta?
Impresiones de la experiencia
1. ¿Tuvo dificultades para manipular el dispositivo usado en la prueba?
2. ¿Tuvo dificultades para recordar cómo usar el aplicativo?
3. ¿Le gustaría que el aplicativo se usara para realizar evaluaciones en diferentes
asignaturas?
4. ¿Le gustaría que el aplicativo se usara para realizar evaluaciones en espacios físicos
diferentes al aula de clase (por ejemplo, realizar una evaluación desde su casa, un día
no escolar)?
172
Anexo 13. Encuesta # 1 para docentes.
Elemento Descripción
Código E-D1
Título Encuesta para experiencia docente
Población Docentes
Preguntas 26
Respuesta Si – No
Objetivo Recolectar información de impresiones de los encuestados con
respecto al prototipo y a la experiencia en general.
PREGUNTAS
Sobre la galería
1. ¿Tuvo inconvenientes para gestionar elementos multimedia?
2. ¿Es comprensible el mecanismo para gestionar elementos multimedia?
Sobre las preguntas
1. ¿La información solicitada para las preguntas define adecuadamente su intención?
2. ¿El editor de texto incorporado es adecuado para dar formato a los diferentes
componentes las preguntas?
3. ¿Tuvo inconvenientes para incorporar elementos multimedia en las preguntas?
4. ¿Tuvo inconvenientes para gestionar preguntas de base común?
5. ¿Tuvo inconvenientes para gestionar preguntas de correlación?
6. ¿Tuvo inconvenientes para gestionar preguntas de opción múltiple?
7. ¿Tuvo inconvenientes para gestionar preguntas de ordenamiento?
8. ¿Tuvo inconvenientes para gestionar preguntas de verdadero o falso?
Sobre las evaluaciones
1. ¿La información solicitada define adecuadamente el instrumento de evaluación?
2. ¿Es adecuada la protección por código de las evaluaciones, como mecanismo para
restringir el acceso a cualquier estudiante?
3. ¿Es adecuada la restricción para la consulta de resultados, como mecanismo para evitar
copia o fraude?
173
4. ¿Es adecuada la restricción para la navegación de la evaluación, como mecanismo para
evitar copia o fraude?
5. ¿Es apropiada la definición de logros y su asociación a las preguntas que componen la
evaluación?
6. ¿Es apropiada la reutilización de preguntas, conformando así un banco o colección de
éstas?
7. ¿Tuvo inconvenientes para gestionar logros dentro de las evaluaciones?
8. ¿Tuvo inconvenientes para gestionar preguntas dentro de las evaluaciones?
Sobre la calificación e informes
1. ¿Es adecuado el modelo de calificación (valoración) por número de coincidencias?
2. ¿Es comprensible el análisis grupal e individual de cada evaluación?
3. ¿El análisis grupal e individual es significativo para su labor cotidiana?
4. ¿Es adecuado el análisis por logros presentado, de acuerdo a enfoques como la
formación por competencias?
5. ¿Es adecuada la comparación entre la respuesta del estudiante y la esperada, como
mecanismo de retroalimentación?
Sobre la experiencia
1. Antes de esta experiencia ¿Había evaluado a sus estudiantes usando algún aplicativo
(software)?
2. ¿Usaría este aplicativo, en futuras ocasiones, para llevar a cabo procesos de evaluación?
3. ¿Usaría este aplicativo para evaluar a sus estudiantes fuera del aula de clase (por
ejemplo, una evaluación desde casa, un día no escolar?
179
Anexo 15. Resultados de evaluación de Español aplicada al curso 604.
Resultados generales de la evaluación
Resultados del curso por logro
189
Anexo 17. Resultados de evaluación de Tecnología aplicada al curso 704.
Resultados generales de la evaluación
Resultados del curso por logro