logo


Modelo de evaluación del aprendizaje por competencias: Área clínica del grado de Medicina, UNAN- Managua

Competency learning assessment model: Clinical area of the Medicine degree, UNAN- Managua

Karla Esperanza Molina Saavedra1, Esther Prieto Jiménez2, Guillermo Domínguez Fernández3
1 Universidad Autónoma de Nicaragua, UNAN-Managua
kmolina@unan.edu.ni https://orcid.org/0000-0001-5665-7536
 2Universidad Pablo Olavide
eprijim@upo.eshttps://orcid.org/0000-0002-7493-4004
1 Universidad Pablo Olavide
gdominguez_ucm@ibercom.com https://orcid.org/0000-0002-1811-0326

Licencia de Creative Commons

RESUMEN

Las instituciones de educación superior deben dirigir sus esfuerzos a satisfacer las demandas de la sociedad actual, siendo evidente la necesidad de formar seres humanos capaces de responder a estas. En este proceso resulta valioso contar con un currículo de enseñanza basada en competencias, en el que se defina claramente el perfil de egreso y que cuente con técnicas e instrumentos de evaluación pertinentes a la dimensión de las competencias a valorar.
En este sentido, la presente investigación tuvo por objetivo: diseñar un modelo de evaluación del aprendizaje por competencias para la carrera de grado de Medicina, para lo cual se desarrolló un estudio mixto, con el que se realizó una triangulación múltiple intermétodo secuencial (cuali-cuanti-cuali) e intra-método cualitativo de la información obtenida de entrevista semiestructurada y grupo de discusión con estudiantes y docentes de IV, V y VI año de Medicina, así como el método Delphi y análisis de contenido.
Las principales conclusiones llevaron a identificar que las actuales prácticas evaluativas docentes son básicamente conductistas, se evidenció la variabilidad en las diferentes competencias que son evaluadas a discrecionalidad del docente de las distintas unidades docentes asistenciales y con una escasa variedad de técnicas e instrumentos de evaluación. El proceso de investigación finalizó con una propuesta de evaluación, basado en el modelo CEFIMM (Contexto, Evaluador/Evaluado, Finalidad, Momentos, Metodología) en el que la evaluación es vista con un carácter holístico e incluye la valoración de la fase diferida.

Palabras claves: modelo de evaluación, competencias, médico de grado, Medicina.

 

ABSTRACT

Higher education institutions must direct their efforts to meet the demands of today's society, the need to train human beings capable of responding to them. In this process, it is valuable to have a competency-based teaching curriculum, in which the graduation profile is clearly defined and that has techniques and assessment instruments relevant to the dimension of the competences to be assessed.
In this sense, the present research was carried out that aimed to: design a model of evaluation of competency learning for the degree of Medicine, for which a mixed study was developed, with which a sequential intermethod multiple triangulation was carried out (quali-quanti-quali) and qualitative intra-method of the information obtained from a semi-structure interview and discussion group with students and teachers of IV, V and VI year of Medicine, as well as the Delphi method and content analysis.
The main conclusions led to the identification that the current teaching evaluation practices are basically behavioral, the variability in the different competencies that are evaluated at the discretion of the professor of the different teaching assistance units and with a small variety of evaluation techniques and instruments was evidenced. The research process ended with an evaluation proposal, based on the CEFIMM (by its acronym in Spanish Context, Evaluator / Evaluated, Purpose, Moments, Methodology) model in which the evaluation is viewed as holistic and includes the assessment of the deferred phase.

Key words: evaluation model, competencies, medical degree, Medicine.



INTRODUCCIÓN

La sociedad contemporánea demanda a las universidades un individuo integral, capaz de resolver problemas de sus distintas áreas de desempeño laboral y con responsabilidad social, esto ha conllevado a que las instituciones de educación superior modifiquen sus métodos de enseñanza y de evaluación, a fin de facilitar la aplicación fusionada de los saberes en la resolución de situaciones contextualizadas, es decir a promover el desarrollo de competencias.
Martínez y Echeverría 1 consideran que la formación basada en competencias implica centrar el proceso de enseñanza en "aprender a aprender" (p.133), sin embargo, esto involucra la generación de cambios en el enfoque curricular, en las estrategias de enseñanza y de evaluación, en el papel del docente en la promoción del autoaprendizaje y la capacidad de transferir los conocimientos a los contextos reales. Así los estudiantes serán capaces de enfrentar los problemas en sus áreas de desempeño profesional, porque el desarrollo de competencias demanda la implementación de métodos de enseñanza que permitan una valoración formativa del educando favorecedora de su progreso individual y en colectividad.
Para Zuñiga, Solar, Lagos, Báez y Herrera 2, "la evaluación es esencialmente un proceso de recolección e interpretación de evidencias de aprendizaje que permiten emitir juicios informados y tomar decisiones acerca de la progresión de los estudiantes en este proceso" (p. 15), lo anterior sustenta la importancia de contar con modelo de evaluación que permita recolectar de forma objetiva las evidencias de aprendizaje y contribuya a la identificación de brechas.
A pesar que la evaluación es fundamental en el proceso de enseñanza aprendizaje, en muchas ocasiones esta ha sido mal aceptada por los involucrados y erróneamente aplicada por los docentes, asociándose a la detección de faltas o a la aplicación de sanciones las que no siempre son bienvenidas por el evaluado 3. En estos casos, el estudiante no acoge con beneplácito este tipo de evaluación, ya que usualmente no recibe retroalimentación adecuada de sus debilidades, limitándose el proceso a la medición, inherente únicamente a la evaluación sumativa y no a la formativa.
Basado en lo antes mencionado, es evidente la importancia de un modelo de evaluación que facilite la formación y el aprendizaje del estudiante, que tenga validez, confiabilidad y factibilidad, sea considerado justo por los involucrados y cuente con instrumentos y técnicas de evaluación con claros indicadores de valoración, evitándose la variabilidad inter-observador. 4,5
El diseño consensuado del modelo de evaluación que mejor responda a las necesidades y características del contexto servirá para realizar una evaluación adecuada de los diferentes saberes desarrollados por el estudiante. Este debe permitir la autoevaluación y la co – evaluación, facilitar la retroalimentación oportuna con el alumno y la identificación de las brechas de aprendizaje. Por ello se ha propuesto diseñar un modelo de evaluación del aprendizaje por competencias en la carrera de grado de Medicina de la UNAN-Managua y como objetivos específicos: identificar las prácticas de evaluación de los docentes de la carrera de Medicina, determinar elementos de mejora de las prácticas de evaluación y detallar las dimensiones básicas de la evaluación por competencia en la carrera de Medicina.



METODOLOGÍA

Para el desarrollo de la investigación se empleó una metodología mixta, realizándose una triangulación múltiple. Se llevó a cabo la triangulación de datos, con el subtipo de persona con un análisis interactivo, entrevistándose a docentes y estudiantes de IV, V y VI año de la carrera de Medicina de la Facultad de Ciencias Médicas de la UNAN-Managua, del año 2018. También se desarrolló una triangulación metodológica intermétodo secuencial cuali-cuanti-cuali e intra-método cualitativo al emplear entrevista semiestructura, grupo de discusión y método Delphi 6, 7.
El trabajo de campo se desarrolló en tres fases de investigación. En la primera y tercera fase se ejecutó un proceso de investigación cualitativo, en el que se determinaron las prácticas evaluativas actuales y las dimensiones básicas de la evaluación por competencia en la carrera de Medicina, respectivamente. En la segunda, se llevó a cabo un proceso cuantitativo, a través del cual se delimitaron los elementos de mejoras de las prácticas de evaluación de los docentes.
En la primera fase se empleó una muestra de expertos, cuyo número fue determinado por la saturación de categorías y el muestreo fue no probabilístico (citado en 8, 9). Los criterios de inclusión definidos fueron: que fuesen docentes y estudiantes activos de IV, V o VI año de la carrera y que el profesor haya impartido docencia en los últimos dos semestres académicos. Se seleccionaron docentes y estudiantes de esos años académicos por ser las áreas de prácticas de profesionalización de la carrera, espacios en donde el estudiante cuenta con los diferentes escenarios para el desarrollo de las competencias médicas.
El cuestionario de la entrevista fue validado por ocho expertos (tres desde el punto de vista metodológico y cinco de la temática a investigar). También se realizó la validación por grupo diana aplicándose el instrumento a 16 docentes y 50 estudiantes, que representan el 10% de las poblaciones objeto de estudio. Una vez procesada la información, esta fue devuelta a los sujetos entrevistados a fin de validar los datos.
Posterior a la aplicación de la entrevista semiestructurada, se realizaron dos grupos de discusión: uno con docentes y uno con estudiantes, ambos de IV, V y VI año, con seis participantes en cada grupo, dos de cada año, respectivamente. El guion de preguntas estaba compuesto por cinco interrogantes. Una vez procesada la información, esta fue devuelta a los participantes
En la segunda fase, a través de una metodología cuantitativa y de la técnica de análisis de contenido se valoraron los componentes de las dimensiones básicas de la evaluación. La muestra estaba compuesta de 129 fichas. En este caso el universo representó la muestra de esta fase de la investigación y el muestreo fue no probabilístico. La guía de recolección de datos empleada en esta fase fue validada por ocho expertos, tres metodológicos y cinco de la temática a investigar para valorar la claridad, comprensión, coherencia y pertinencia de las preguntas, lo que condujo a la realización de ajustes. También se realizó el análisis de fiabilidad estadística, resultando un cociente de alfa de Cronbach de 0.72, considerado como mediana – aceptable 9
Por ser fuentes de información secundaria en la que los datos no fueron utilizados para un propósito distinto a lo definido en el estudio, guardándose la debida confidencialidad y sigilo, no se contempló el llenado de consentimiento informado, sin embargo, se solicitó permiso a las autoridades de la Facultad en donde se llevó a cabo la investigación y en la guía de recolección de datos no se consignó el nombre de docente o estudiante participante en la investigación.
En la última fase, de naturaleza cualitativa, se solicitó a un grupo de académicos que participaran en un panel de expertos, cuya muestra estaba compuesta por 20 especialistas en el área de interés, seis de ellos eran especialistas médicos en el área clínica, seis en el área básica y cinco en el área de salud pública. De ellos, dos poseen el grado de Doctor. De total de veinte expertos consultados se obtuvo respuesta vía electrónica de diecisiete de ellos.
Para la selección de los individuos del grupo Delphi, los criterios de inclusión fueron: docente de educación superior con al menos cinco años de experiencia y que su actividad estuviese vinculada con la formación de profesionales de la salud y como criterio de exclusión que en los últimos cinco años no haya impartido docencia a estudiantes de Medicina. Los expertos además de llenar los criterios de selección, se caracterizaron por tener experiencia en tutoría de tesis de grado y postgrado.
Los integrantes del panel de expertos respondieron a diez preguntas con el propósito de validar el proceso de investigación y el modelo de evaluación propuesto, consultándoseles sobre sus consideraciones con respecto al proceso de investigación desarrollado, coherencia entre la fundamentación teórica, objetivos e hipótesis planteados y el posicionamiento asumido. También, evaluaron la relación entre los objetivos e hipótesis y los instrumentos de recogida de datos diseñados e implementados, así como la validez de la muestra definida en cada fase y su coherencia con la metodología de investigación planteada.
En el caso de los resultados cualitativos, las expresiones de los docentes han sido identificadas con "D" y el número del participante y la de los estudiantes como "E" y el número del participante

El muestreo fue no probabilístico.


RESULTADOS

Se realizó entrevista semiestructurada a 33 docentes y a 96 estudiantes de IV, V y VI año de la carrera de Medicina del año 2018. Una vez identificadas las prácticas de evaluación de los docentes se determinaron aquellos elementos de mejoras de sus prácticas evaluativas, realizándose el análisis de contenido de 129 guías de recolección.
A través de los diferentes técnicas e instrumentos de recolección de la información se identificó que la metodología de evaluación más empleada es la mixta, 80.6% (104), seguida de la cuantitativa y la cualitativa, 15.5 % (20) y 3.9 % (5), respectivamente. Al solicitarle a los docentes que describieran brevemente la metodología de evaluación que empleaban, se mezcló la metodología con la finalidad de la evaluación "La metodología de evaluación empleada en las actividades prácticas de aprendizaje nos basamos en 3 aspectos importantes como es diagnóstica al inicio del curso evaluando conocimiento, habilidades y actividades del estudiante, formativa en las diferentes etapas y la sumativa en base a un instrumento diseñado en 3 aspectos (evaluación teórica, oral e informe)" (participante 109).
Asimismo, detallaron técnicas o instrumentos de evaluación como la descripción de la metodología: "Evaluación de pares, cuestionarios de preguntas abiertas, preguntas y respuestas" (participante 102). También se consignaron estrategias de enseñanza "Lluvias de ideas, 5 comadres" (participante 98) u objetos de evaluación: "Valoración previa de los conocimientos y habilidades orientado mediante guías de actividades prácticas." (participante 101). Sobre las consecuencias que tiene el hecho que los docentes no tengan claro la metodología de evaluación, manifestaron "Yo considero que el impacto de que no estemos claro de cómo evaluar se va a reflejar en la formación de los estudiantes porque si no estamos claro cómo vamos evaluar, no hemos desarrollado esa competencia" (D3) o… "que la nota no sea objetiva, porque me están evaluando con algo que ni ellos saben" (E1).
En cuanto a la finalidad de la evaluación, el 100 % (129) consideró que es realizada con una finalidad diagnóstica, 99 % (128) formativa y 98 % (127) sumativa. Del momento o fase de la evaluación se detalló que la evaluación continua y final es realizada comúnmente, 99 % (128) y 90 % (116) respectivamente, sin embargo, la inicial es llevada a cabo en menos ocasiones, 84 % (109)
De los participantes en la definición de los criterios y elementos de la evaluación, predominó el hecho que los estudiantes no intervienen en dicho aspecto, ya que fundamentalmente esta actividad es ejecutada por las autoridades y el docente. Del impacto que tiene el hecho que ellos no participan en la definición de los criterios de evaluación manifestaron: "Se supone que el docente es el experto, el que debe saber qué nivel debe alcanzar el estudiante, el estudiante no tiene esa amplia visión lo que deben estudiar…"( D4); "Yo no tengo problema de que sea el docente el que establezca los criterios, el que si es el problema siento yo de que todos los docentes, a pesar de formar parte de la misma universidad, de la misma facultad tienen criterios diferentes…(E4),
En relación, al objeto de la evaluación y las técnicas e instrumentos mismo que fueron separados por Saberes, se identificó sobre el Saber, que los más evaluados son las Ciencias clínicas, seguida del Pensamiento crítico y los menos valorados son las Ciencias básicas y humanísticas y que son evaluados a través de las siguientes técnicas e instrumentos (tabla 1)

logo


Sobre las repercusiones sobre el aprendizaje, ante el hecho que los estudiantes entrevistados manifestaron que desean que las evaluaciones sean dinámicas, participativa, objetiva, sistemática, integrando conocimientos manifestaron: "La principal repercusión o impacto que tiene es que estamos creando médicos, malos médicos generales, malos médicos futuros especialistas, malos futuros residentes…" (E6)

Del Saber Hacer, los aspectos evaluados en orden descendente son:

  1. Establece las bases diagnósticas de las patologías prevalentes
  2. Identifica y respeta factores culturales y personales que inciden en la comunicación y en el manejo médico
  3. Realiza la anamnesis describiendo toda la información relevante
  4. Examina el estado físico y mental del sujeto empleando las técnicas básicas de la exploración
  5. Identifica e interpreta pruebas complementarias más comunes de las patologías prevalentes
  6. Establece las bases de una buena relación médico-paciente mediante la escucha y explicación con claridad al paciente y/o familiares
  7. Consigna la información médica de manera clara y usando el lenguaje técnico adecuado
  8. Aplica y respeta las normativas institucionales y normas de bioseguridad
  9. Se comunica con otros miembros del equipo de salud de manera respetuosa y asertiva
  10. Lee críticamente estudios clínicos
  11. Propone las medidas preventivas y de rehabilitación adecuadas a cada situación clínica
  12. Establece las bases del manejo terapéutico (farmacológico y no farmacológico) y pronóstico de las patologías prevalentes basados en la mejor información posible
  13. Ejecuta bajo supervisión los procedimientos diagnósticos de las patologías prevalentes
  14. Utiliza tecnologías de la información y la comunicación (TIC)
  15. Reconoce los criterios de gravedad y establece las bases terapéuticas de las situaciones que ponen en riesgo la vida del paciente
  16. Reconoce aquellos casos que requieren ser trasladados
  17. Llena bajo supervisión el consentimiento informado por escrito, explicándole al paciente de forma clara y sin tecnicismo, sus posibles complicaciones
  18. Diseña y ejecuta un proyecto científico elemental que incidan en la salud de la comunidad

Tales saberes son evaluados mediante las siguientes técnicas e instrumentos (tabla 2)


logo

En cuanto, al Saber Ser la mayoría de los entrevistados coincidieron en que, si eran valorados los siguientes saberes (en orden descendente):

  1. Demuestran valores profesionales de responsabilidad, empatía, honestidad, integridad, puntualidad
  2. Respetan al paciente, los demás miembros del equipo de salud y la comunidad
  3. Demuestran capacidad de trabajo en equipo
  4. Demuestran compromiso con su aprendizaje
  5. Actúan de forma ética respetando las normas legales de la profesión
  6. Promueven en sus pacientes acciones de prevención de la enfermedad y de promoción de la salud


A través de las siguientes técnicas e instrumentos (tabla 3)

logo

Al ser consultados sobre cómo les gustaría ser evaluados se obtuvieron expresiones como: "Con el ejemplo que nos dan, no muchos doctores tienen buena actitud en el ámbito profesional" (participante 25)
En relación al Saber Transferir, los entrevistados manifestaron que dichos saberes eran valorados (en orden descendente):

  1. Promueven en sus pacientes acciones de prevención de la enfermedad y de promoción de la salud
  2. Reconoce factores que influyen en la salud (estilos de vida, ambientales, culturales, etc.)
  3. Utiliza datos epidemiológicos que afectan la salud del paciente
  4. Utiliza los recursos buscando el mayor beneficio para el paciente
  5. Emplea principios de administración en salud

Tales saberes son evaluados a través de las siguientes técnicas e instrumentos (tabla 4)

logo

Al ser cuestionados sobre las consecuencias que tiene el hecho que hay "Saberes" que no son evaluados durante la formación del estudiante, los participantes manifestaron: "…que sacamos egresados distintos" (D5); "… salimos con deficiencia en ciertas cosas, es decir, nunca salimos todos los estudiantes, salimos uniforme…" (E4).
En relación al impacto sobre la evaluación de los estudiantes, que tiene el hecho que los docentes desconocen las técnicas e instrumentos de evaluación existentes, más adecuadas acordes al Saber a valorar, expresaron: "Si el docente no está claro de cómo evaluar las competencias, entonces el impacto va a estar en la calidad del recurso que estamos formando…" (D3); "De que no es objetiva la evaluación, jamás va a ser objetiva porque no tiene ni siquiera criterios" (E1)

DISCUSIÓN

La concepción de evaluación fue analizada a la luz de la coexistencia en ella de las diversas tendencias y métodos, definiéndose la conductista, racional científica; humanística y cognitivista; y la sociopolítica y crítica10, en las cuales se definen el objeto en el que se enfatiza la evaluación, la definición del currículum y el método a través del cual se buscan las evidencias de evaluación.
En el caso de las actuales prácticas de evaluación y el cómo se evalúa, los participantes en el estudio, tanto docentes como estudiantes, manifestaron que la metodología más empleada era la mixta, en la que recurría a métodos tantos cuantitativos como cualitativos, sin embargo, al solicitarle que describieran la metodología, se identificó una mezcla de conceptos correspondientes a las diferentes dimensiones de la evaluación, en los cuales se definieron aspectos como finalidad, técnicas, instrumentos, objetos de evaluación, o bien estrategias de enseñanza, etc. en lugar de la metodología empleada. Lo anterior, trae consigo confusión al momento de su aplicación en la práctica evaluativa, pudiéndose convertir en una fuente de conflictos y descontento entre estudiantes y docentes.11
Ese dato fue destacado por la mayoría de los docentes y de estudiantes participantes en los grupos focales, para quienes el desconocimiento de esos aspectos trae consigo consecuencias negativas sobre la formación, como son las evaluaciones subjetivas y erróneas 10.
En relación a la finalidad, el para qué se evalúa, la mayoría de los participantes señalaron las tres finalidades de la evaluación: diagnóstica, formativa y sumativa, sin embargo, al consultarle sobre los momentos, cuándo se evalúa, se evidenció que la inicial, momento en el que se realiza la evaluación diagnóstica no es realizada con regularidad, lo que denota que el docente desconoce los conocimientos o experiencias previas que tiene el estudiante sobre la temática a ser desarrollada12, por tanto, no tiene elementos de juicio para realizar ajustes a los contenidos, estrategias de enseñanza y criterios de evaluación. Lo anterior, pone al descubierto el desconocimiento de los profesionales de la salud que ejercen la función docente, sobre aspectos de evaluación para el aprendizaje y no únicamente del aprendizaje 13.
Al ser cuestionados por los participantes en la definición de los criterios y elementos de la evaluación, predominó el hecho que los estudiantes no intervienen en este proceso, el que fundamentalmente es ejecutado por las autoridades y los docentes, siendo llamativo que en los grupos focales, algunos docentes no consideraron necesario la participación de los estudiantes: "Se supone que el docente es el experto, el que debe saber qué nivel debe alcanzar el estudiante, el estudiante no tiene esa amplia visión lo que deben estudiar…"( D4). En cambio, en el caso de los estudiantes fue más llamativo aun, que además de no participar en la definición de los criterios, ellos expresaban la existencia de variaciones en los criterios de evaluación entre las diferentes unidades docentes asistenciales al momento de valorar los aprendizajes, lo que denota que aun cuando los docentes manifestaron que las autoridades definían los criterios de evaluación, o bien estos no son uniformes o cambian a discrecionalidad del docente, con el riesgo de la variación interobservador o de evaluaciones poco objetivas. Adicionalmente, la evaluación actualmente aplicada responde a un modelo de verificación de logros o Tyleriano 10,14
Debido a que el estudio no a graduados, no se incluyeron competencias del Saber desaprender, ya que estas involucran capacidades para dar respuesta a distintas situaciones problemáticas enfrentadas en el ejercicio profesional 10, 15- 17
A partir de las competencias específicas definidas en Latinoamérica, España y América del Norte para un médico de grado 18-28, se derivaron el Saber, de los cuales fueron más evaluados las Ciencias clínicas y el pensamiento crítico y entre los menos valorado están las Ciencias básicas y humanísticas, es decir se centran en las áreas profesionalizantes de la carrera, en la que se aborda el ciclo salud - enfermedad, dejando por fuera los aspectos de la formación humanística y de formación básica, aun cuando estos son los que proveen los principios fundamentales a las profesionalizantes y por otra parte, se denota la falta de integración de los conocimientos y contenidos entre las áreas básicas y clínicas.
En relación a las técnicas e instrumentos de evaluación recomendados para valorar esos saberes, se tiene29-40 que los más empleados fueron las evaluaciones orales, discusión de casos y evaluaciones escritas y rara vez o de manera nula las pruebas de concordancia de guiones, el portafolio y el examen clínico objetivo estructurado del equipo, lo denota que las valoraciones del aprendizaje de ese Saber son realizadas con una escasa diversidad de instrumentos y técnicas de evaluación, dejando de lado la complementariedad de los mismos.
Del Saber Hacer19- 28, 35, 41-47, de los cuales entre los menos evaluados están: el diseño y ejecución de un proyecto científico elemental, el reconocimiento de los casos que ameritan ser trasladados y el llenado del consentimiento informado, es decir que a pesar que son consideradas a nivel regional e internacional como competencias específicas que debe desarrollar un médico de grado, estas no son enseñadas y por tanto no son evaluadas, egresando un médico sin evidencia que haya desarrollado las competencias necesarias para su ejercicio profesional.
De las técnicas e instrumentos recomendados para valorar tales Saberes 29 - 42 se tiene que las evaluaciones orales, las evaluaciones escritas y la discusión de casos son las más empleadas y la prueba de concordancia de guiones, el examen clínico objetivo estructurado del equipo y la evaluación de pares y el examen clínico estructurado objetivo del grupo de los menos o no utilizados, siendo los mismos que los utilizados en la evaluación de Saber, evidenciándose la limitación a la complementariedad de la triangulación de técnicas e instrumentos que debe ser empleada al momento de la evaluación 12, 48-50

Del Saber Ser 19- 28, 35, 43- 47, algunas competencias no fueron valoradas, ya que se demuestran en el ejercicio profesional:

  1. Aplica principios de razonamiento moral y ético en el análisis de conflictos y en la toma de decisiones
  2. Desarrolla la práctica profesional respetando la autonomía del paciente, sus creencias y cultura

Del Saber Ser, las que más se evalúan son los valores profesionales de responsabilidad, empatía, honestidad, integridad, puntualidad y el respeto al paciente, a los demás miembros del equipo de salud y la comunidad, seguido de la capacidad de trabajo en equipo y el compromiso con su aprendizaje.
Entre las técnicas e instrumentos recomendados para valorar tales Saberes 29-42 las más empleadas son la observación directa, el Examen clínico objetivo estructurado y el Mini ejercicio de evaluación clínica y entre los menos o no empleados está el portafolio, el Examen clínico objetivo estructurado del equipo y el Examen clínico estructurado objetivo del grupo.


En cuanto, al Saber Transferir 19-28, 35, 43-47, no se valoraron las siguientes competencias, porque se demuestran en el ejercicio profesional:

De las que fueron consultadas, la mayoría de los entrevistados coincidieron en que, si eran valoradas. Entre las técnicas e instrumentos recomendados para valorar tales Saberes 29- 42 se tiene que la observación directa es la más empleada y entre los menos utilizados están el portafolio y la autoevaluación. Esto demuestra que ambos saberes, Ser y Transferir son valorados básicamente mediante la observación directa, la que carece de un instrumento de evaluación.
Con lo anterior, es evidente la escasa diversidad de técnicas e instrumentos de evaluación del Saber Ser y Saber Transferir, que son empleados en la actual práctica evaluativa dejando de lado todo lo recomendado en cuanto a la triangulación y complementariedad de dicha técnicas e instrumentos 12, 48- 50



CONCLUSIONES

Posterior a la revisión de las actuales prácticas evaluativas de los docentes de la carrera de Medicina de la Facultad de Ciencias Médicas de la UNAN- Managua, se puede afirmar que el actual modelo de evaluación aplicado es básicamente conductista49 de tipo Tyleriano 48, 51, 52, sin embargo, cabe destacar que aun cuando el plan de estudio implementado está basado en objetivos las diversas competencias definidas para un médico de grado son evaluadas en diversos niveles, hecho que debe ser retomado en los futuros procesos de perfeccionamiento curricular.
Por otra parte, la evaluación se fundamenta en la obtención de pruebas sobre los logros del alcance de los objetivos específicos de enseñanza, enfatizando la recolección de datos en la que se recurre al uso de pruebas objetivas y observación predeterminada, lo que conduce al riesgo de evaluaciones no integrales en las que además no se practica con frecuencia la evaluación diagnóstica, lo que implica el desconocimiento de las características socioculturales, conocimientos y experiencias previas de los estudiantes, limitando el poder realizar ajustes al proceso de enseñanza en base a esas particularidades.
La definición de los criterios y elementos de evaluación es realizada principalmente por las autoridades y docentes, con escasa participación de los estudiantes, en la que además dichos criterios y elementos de valoración no son uniformes o varían a discrecionalidad del docente. Lo que conlleva a evaluaciones subjetivas, a variaciones interobservador e inconformidad y descontento de algunos estudiantes53. Por otro lado, la evaluación no puede llevarse a cabo como un hecho sorpresivo o caprichoso por parte del docente, sino que el estudiante debe tener control sobre su propio aprendizaje y para tal fin, los objetivos y criterios de evaluación debe ser definidos con claridad y conocidos por el alumno.54
También, son llamativas las variaciones en cuanto al objeto de evaluación, pilar de la concepción conductista, ya que no todas las competencias específicas son evaluadas de manera uniforme, conllevando a que no todos los estudiantes desarrollen las mismas competencias, necesarias para su desempeño profesional.
De los elementos de mejoras de las prácticas evaluativas de los actuales docentes de medicina y contrastándolos con las dimensiones básicas de la evaluación se considera que las mayores oportunidades de mejoras giran en torno al objeto de evaluación y a las técnicas e instrumentos de evaluación, dado que las competencias específicas de los diferentes saberes son enseñadas y evaluadas a discreción del docente, con una escasa variedad de instrumentos y técnicas, con el riesgo que no todos los estudiantes desarrollen las competencias necesarias para su adecuado desempeño profesional.
El proceso de investigación desarrollado y el modelo propuesto de evaluación de las competencias del médico de grado de la Facultad de Ciencias Médicas fue validado por expertos de las distintas áreas: clínicas, básicas y de Salud Pública a través del método Delphi con el que se evita el juicio subjetivo de un único sujeto experto55, 56. Los expertos validaron la coherencia entre los objetivos, conclusiones planteados y resultados obtenidos con el modelo propuesto de evaluación del aprendizaje por competencias.
El modelo de evaluación propuesto, CEFIMM (Contexto, Evaluador/Evaluado, Finalidad, Momentos, Metodología) se fundamentó en un trabajo de investigación que presenta coherencia científica, metodológica y que responde a las necesidades reales del contexto (figura 1)


logo
Figura 1 Modelo de evaluación de los aprendizajes por competencias en el grado de Medicina
Fuente: Propia del estudio

A continuación, se detallan las dimensiones básicas de la evaluación basadas en el modelo CEFIMM:


logo

El modelo CEFIMM fomenta que el proceso de evaluación sea considerado justo por los involucrados al promover una evaluación integral, en la que se remarque la importancia de consensuar los criterios e instrumentos de evaluación, en la que prime la diversidad y complementariedad de técnicas e instrumentos de manera tal que sus limitantes sean subsanadas por la variedad de estos y que se cuente con claros indicadores de valoración de modo que se evite la variabilidad inter-observador.
También, el modelo facilite la retroalimentación oportuna con el alumno, la autoevaluación y la co – evaluación, la identificación de las brechas de aprendizaje y que la evaluación responda a las necesidades y características del contexto y que esta sea adecuada a los diferentes saberes desarrollados por el estudiante.


AGRADECIMIENTOS

A las autoridades de la Facultad de Ciencias Médicas por su siempre dispuesto apoyo. Al PhD Sergio Gutiérrez, Msc. Dolores Ramos, Msc. Tyrone Romero, Msc. Adelina Barrera por sus valiosas aportaciones y observaciones. De manera particular a los estudiantes y docentes que formaron parte de esta investigación.


REFERENCIAS BIBLIOGRÁFICAS 
  1. Martínez, P, Echeverría, B. Formación basada en competencias. Revista de Investigación Educativa. 2009; 27(1): 125-147. Recuperado de http://www.researchgate.net/profile/Benito_Echeverria_Samanes/publication/263572564_Formacin_basada_en_competencias/links/02e7e53b41edf2f8e2000000.pdf
  2. Zuñiga, M, Solar, M, Lagos, J, Báez, M, Herrera, R. Evaluación del aprendizaje: Un acercamiento en Educación superior. En CINDA, Evaluación del aprendizaje en innovaciones curriculares de la Educación superior. Chile: Copygraph; 2014. Recuperado de http://www.cinda.cl/download/libros/2014%20-%20Evaluaci%C3%B3n%20de%20los%20aprendizajes.pdf
  3. Ahumada, P. La evaluación: un difícil camino entre la teoría y la práctica. En Autor (Ed.) La evaluación en una concepción de aprendizaje significativo. Chile: Ed. Universitarias de Valparaíso. 2001; p.15-30. Recuperado de http://www.euv.cl/archivos_pdf/evaluacion.pdf
  4. Cañedo, C, Cáceres, M. Fundamentos teóricos para la implementación de la didáctica en el proceso de enseñanza - aprendizaje. Eumed; 2008. Recuperado de http://www.eumed.net/libros-gratis/2008b/395/LOS%20INSTRUMENTOS%20DE%20EVALUACION%20DEL%20APRENDIZAJE.htm
  5. Carreras, J. et al. Guía para la evaluación de competencias en Medicina. España: Agencia per a la Qualitat del Sistema Universitari de Catalunya; 2009. Recuperado de http://www.aqu.cat/doc/doc_71595240_1.pdf
  6. García, M, Suárez, M. El método Delphi para la consulta a expertos en la investigación científica. Revista Cubana de Salud Pública; 2013, 39(2), p. 253-267. Recuperado de http://scielo.sld.cu/pdf/rcsp/v39n2/spu07213.pdf
  7. Varela, M, Díaz, L, García, R. Descripción y usos del método Delphi en investigaciones del área de la salud. Investigación en Educación Médica; 2012; 1(2), p. 90-95. Recuperado de http://riem.facmed.unam.mx/sites/all/archivos/V1Num02/07_MI_DESCRIPCION_Y_USOS.PDF
  8. Deslauriers, J. Investigación cualitativa. Guía práctica. 2004; p.1-22. Recuperado de http://repositorio.utp.edu.co/dspace/bitstream/handle/11059/3365/Investigaci%C3%B3n%20cualitativa.%20pdf.PDF?sequence=4&isAllowed=y
  9. Hernández, R, Fernández, C, Baptista, M. Metodología de la investigación. México: Mc Graw Hill Educación; 2010.
  10. Domínguez, G. Concepciones de la evaluación. En Autor (Ed.), Evaluación y educación: Modelos y propuestas. 2000; 21-62. Recuperado de http://cvonline.uaeh.edu.mx/Cursos/Maestria/MTE/EvaluacionAprendizajeEV/Unidad%201/eval_edu.pdf
  11. Guzmán. H. Aproximación a la evaluación del aprendizaje. Gaceta médica. 2006; 63-69. Recuperado de http://www.scielo.org.bo/pdf/gmb/v29n1/a12.pdf
  12. Díez, A. Evaluación de la cultura en la organización de instituciones de educación social [Tesis] [Barcelona]: Universidad Complutense de Madrid; s.f. Recuperado de http://biblioteca.ucm.es/tesis/19911996/S/5/S5010803.pdf
  13. Earl, L. Assessment of Learning, for Learning, and as Learning. En Autor (Ed.), Assessment as Learning. Using classroom assessment to Maximize student learning; 2013, 2do Ed.: 25-34. Recuperado de https://books.google.com.ni/books?hl=es&lr=&id=MlPGImQEh4MC&oi=fnd&pg=PP1&dq=concept+of+educational+assessment&ots=SLbKawaF7N&sig=fT5bgn2cBnEqIPemtqtj_q7p-hw&redir_esc=y#v=onepage&q&f=false
  14. Asensio, M. Modelos de evaluación. Revista Universitara de Sociologie. 2007; 4(2): 40 -70. Recuperado de https://cis01.central.ucv.ro/revistadesociologie/files/rus-2-2007.pdf#page=40
  15. Castillo, S, Cabrerizo, J. Evaluación educativa de aprendizajes y competencias; 2010 Recuperado de http://www.col.luz.edu.ve/images/stories/descargas/curriculo/evaluacic3b3n_educativa_de_aprendizajes_y_competencias.pdf
  16. Domínguez, G, Hermosilla, J. Propuesta de planificación y reflexión sobre el trabajo docente para el desarrollo de competencias en el EEES. XXI Revista de Educación. 2010; (12): 63 – 80. Recuperado de http://uhu.es/publicaciones/ojs/index.php/xxi/article/view/1126/1759
  17. Dominguez, G, Ramírez, M, Ordónez, E. (2017). Análisis del desarrollo de competencias en la formación inicial del profesorado de Educación Superior en España. Notadum. 2017:(44-45); 69 – 88. DOI: http://dx.doi.org/10.4025/notandum.44.7
  18. Abreu, L, Cid, A, Herrera, G, Lara, J, Laviada, R, Rodríguez, Ch, et al. Perfil por competencias del médico de grado mexicano. Recuperado de http://dcs.uqroo.mx/documentos/competenciasmedicogeneralmexicano.pdf
  19. Aguirre, J, Viracocha, J. Resultados de aprendizaje. Política de equiparación de competencias de la carrera a resultados de aprendizaje (OCM.0002); 2013 Recuperado de http://www.udlaquito.com/pdf/plancurricular/Perfil%20de%20Egreso/Documento%20del%20Perfil%20de%20Egreso%20de%20la%20carrera/MedicinaPerfi_RDA_ERquiparacio%CC%81n.pdf
  20. Association of American Medical Colleges. Cultural competencia. Education for Medical students; 2005. Recuperado de https://www.aamc.org/download/54338/data/
  21. Association of American Medical Colleges. Recommendation for Preclership clinical skills Education for Undergraduate Medical Education. Task force on the clinical Skills Education of Medical Students; 2008. Recuperado de https://www.aamc.org/download/130608/data/clinicalskills_oct09.qxd.pdf.pdf
  22. General Medical Council. Outcomes for graduates. En Autor, Tomorrow´s Doctors. 2015; pp.2-18. Recuperado de http://www.gmc-uk.org/Outcomes_for_graduates_Jul_15_1216.pdf_61408029.pdf
  23. General Medical Council. Outcomes for graduates; 2018: 1-28. Recuperado de https://www.gmc-uk.org/-/media/documents/outcomes-for-graduates-a4-5_pdf-78071845.pdf
  24. Pontificia Universidad Católica del Ecuador. Perfil de egreso, competencias específicas de la carrera y resultados del aprendizaje. 2014. Recuperado de ftp://puceftp.puce.edu.ec/Facultades/Medicina/CEAACES/PLAN%20CURRICULAR/C1.1%20PERFIL%20DE%20EGRESO/PERFIL%20EGRESADO,%20MISIONM%20VISION.PDF
  25. Universidad Autónoma de Chihuahua. Guía Académica para alumnos de nuevo ingreso. 2014 Recuperado de http://www.fm.uach.mx/conocenos/2014/08/07/Guia%20academica%202014.pdf
  26. Universidad Nacional Autónoma de México. Plan de estudios 2010 y Programas Académicos de la Licenciatura de Médico cirujano. Facultad de Medicina (07102009). 2010. Recuperado de http://www.facmed.unam.mx/_documentos/planes/mc/PEFMUNAM.pdf
  27. Universidad de Boyacá. Proyecto educativo del programa. 2012. Recuperado de http://www.uniboyaca.edu.co/facultades/FCSA/index.php/pregrado/medicina/item/download/18_b1bafb36d1470a8148bf2c104ea8f3e3
  28. Universidad Peruana Cayetano Heredia. Plan curricular. Carrera profesional de Medicina (RESOR-SEGEN-UPCH-2016-CU-0100). 2016. Recuperado de https://s3.amazonaws.com/upch-vracad-planes-de-estudio/PREGRADO/plandeestudiop013-famed.pdf
  29. Allende, F, Valdés, H, Reyes, L. Propuesta de un examen clínico objetivo estructurado como evaluación final de competencias de egreso en la carrera de tecnología médica. Educación Médica. 2018; 1-6. DOI https://doi.org/10.1016/j.edumed.2017.12.008
  30. Alsina, J. (). Rúbricas por competencias transversales (Modelos y ejemplos). En Autor (Coord.), Rúbricas para la evaluación de competencias. 2013; pp.14-67. Recuperado de http://www.ub.edu/ice/sites/default/files/docs/qdu/26cuaderno.pdf
  31. Carreras, J et al. Guía para la evaluación de competencias en Medicina. 2009. Recuperado de http://www.aqu.cat/doc/doc_71595240_1.pdf
  32. Champin, D. Evaluación por competencias en la educación médica. Rev Peru Med Exp Salud Pública, 2014; 31(3), 566-571. Recuperado de http://www.scielo.org.pe/pdf/rins/v31n3/a23v31n3.pdf
  33. Durante, E. Algunos métodos de evaluación de las competencias: Escalando la pirámide de Miller. Revista del Hosp Ital Buenos Aires, 2006; 26 (2), 55 – 61. Recuperado de http://www.saidem.org.ar/docs/Uces2015/Durante.%20Escalando%20la%20piramide%20de%20MIller.pdf
  34. Epstein, R. Assessment in Medical Education. The New England Journal of Medicine, 2007; 356(4), pp. 387- 396. Recuperado de http://www.nejm.org/doi/pdf/10.1056/NEJMra054784
  35. Flores, F, Contreras, N, Martínez, A. Evaluación del aprendizaje en la educación médica. Revista de la Facultad de Medicina de la UNAM. 2012; 55(3), 42- 48. Recuperado de http://www.medigraphic.com/pdfs/facmed/un-2012/un123h.pdf
  36. Durante, M, Martínez, A, Morales, S, Lozano, J, Sánchez, M. Educación por competencias: de estudiante a médico. Revista de la Facultad de Medicina de la UNAM, 201154(6), pp. 42-50. Recuperado de https://www.medigraphic.com/pdfs/facmed/un-2011/un116j.pdf
  37. Linderman, B, Lipsett, P. Evaluation and feedback. En P, Thomas, D., Kern & M., Hughes (Eds), Curriculum development for medical education. 2016; 3er Ed.,122- 164. Recuperado de https://books.google.com.ni/books?id=UxF4CwAAQBAJ&pg=PA123&lpg=PA123&dq=evaluation+strategy+of+medical+competences&source=bl&ots=1dSyVWN_Jv&sig=fNTehFpPoZ3M1DXmy_ECciDWiaI&hl=es&sa=X&ved=0ahUKEwi_g-X3iInUAhVM4CYKHXmYDZ44ChDoAQgiMAA#v=onepage&q=evaluation%20strategy%20of%20medical%20competences&f=false
  38. Martínez, A. et al. Evaluación diagnóstica y formativa de competencias en estudiantes de medicina a su ingreso al internado médico de pregrado. Gaceta médica de México. 2017; 153; 6- 15. Recuperado de http://www.anmm.org.mx/GMM/2017/n1/GMM_153_2017_1_006-015.pdf
  39. Morán, J. La evaluación del desempeño o de las competencias en la práctica clínica. 2 a, parte: tipos de formularios, diseño, errores en su uso, principios y planificación de la evaluación. Educación médica, 2016; 18(1), 2-12. Recuperado de DOI http://dx.doi.org/10.1016/j.edumed.2016.09.003
  40. Nolla, M. La evaluación en educación médica. Principios básicos. Educ Med. 2009; 12(4), 223-229. Recuperado de http://www.medicina.ufg.br/up/148/o/La_evaluacion_en_educacion_medica._Principios_basicos.pdf
  41. Nolla, M, Palés, J. Instrumentos de evaluación y sus características. En J., Núñes, J., Palés, R., Rigual (Dir.), Guía para la evaluación de la práctica clínica en las facultades de Medicina. Instrumentos de evaluación e indicaciones de uso. 2014; pp.33-44. Recuperado de http://www.sedem.org/resources/guia-evaluacion-cem-fl_e_book.pdf
  42. Wass, V, Van der, C., Shatzer, J, Jones, R. Assessment of clinical competence. The Lancet. 2001; 357, 945-949. Recuperado de http://www.ceesvandervleuten.com/application/files/2314/2867/6321/Assessment_of_clinical_competence.PDF
  43. Abreu, L, Cid, A, Herrera, G, Lara, J, Laviada, R, Rodríguez, Ch, Sánchez, J. Perfil por competencias del médico de grado mexicano. 2008. Recuperado de http://dcs.uqroo.mx/documentos/competenciasmedicogeneralmexicano.pdf
  44. Muñoz, J, Castillo, M, Martínez, E, Albarrán, J, Ávalos, C. Competencias para el perfil de egreso de la licenciatura de médico cirujano de la UJAT. 2007. Recuperado de http://www.archivos.ujat.mx/dacs/publicaciones/competencias.pdf
  45. Nogales, A, García, J, Calvo, E, Díez, R, Calvo, F, Millán, J. (). Competencias para el grado de Medicina de la Universidad Complutense de Madrid. Unión Editorial; 2008. Recuperado de http://pendientedemigracion.ucm.es/centros/cont/descargas/documento10483.pdf
  46. Peinado, J. Competencias Médicas. Educación Médica Internacional. 2005; 8(2), 4-6. Recuperado de http://www.fundacionlilly.com/global/img/pdf/actividades/catedra/biblioteca_catedm/j-05_revista-edm_vol-8-supl2_septiembre-2005.pdf
  47. Reta, A, López, M, Montbrun, M, Ortiz, A, Vargas, A. Competencias médicas y su evaluación al egreso de la carrera de medicina en la Universidad Nacional de Cuyo (Argentina). Educación Médica. 2006; 9(2), 75-83. Recuperado de http://files.sld.cu/reveducmedica/files/2010/10/competencias-med-y-su-eval-al-egreso.pdf
  48. Tejada, J. La evaluación de programas: consideraciones generales. Manuscrito inédito, Universidad Autónoma de Barcelona. España. 1998. Recuperado de https://cuadernosdelprofesor.files.wordpress.com/2015/07/u-4-04-03-capitulo-1-evaluacic3b3n-de-programas.pdf
  49. Morales, J. La evaluación en el área de educación visual y plástica en la educación secundaria obligatoria [Tesis] [Barcelona]: 2001. Recuperado de http://www.tdx.cat/bitstream/handle/10803/5036/jjma01de16.pdf.pdf
  50. Ruíz, C. La evaluación de programas de formación de formadores en el contexto de la formación en y para la empresa [Tesis] [Barcelona]: 2001. Recuperado de http://www.tdx.cat/bitstream/handle/10803/5003/crb01de12.pdf;jsessionid=16A4955A1EB89F040CE2895968FCB825?sequence=1
  51. Domínguez, G. Concepciones de la evaluación. En Autor (Ed.), Evaluación y educación: Modelos y propuestas. 2000; 21-62. Recuperado de http://cvonline.uaeh.edu.mx/Cursos/Maestria/MTE/EvaluacionAprendizajeEV/Unidad%201/eval_edu.pdf
  52. Madaus, G, Stufflebeam, D, Scriven, M. Program evaluation: a historical overview. En Autores (Eds.), Evaluation models. Viewpoints on Educational and Human Services Evaluation. 1983; pp. 3-22. Recuperado de https://books.google.es/books?hl=es&lr=&id=J6TzCAAAQBAJ&oi=fnd&pg=PR10&dq=paradigms+of+educational+evaluation&ots=cgkn8YMN8-&sig=37tgVvuG0Te3fqLae96IcToejSU#v=onepage&q=paradigms%20of%20educational%20evaluation&f=false
  53. Guzmán. H. Aproximación a la evaluación del aprendizaje. Gaceta médica. 2006; 63-69. Recuperado de http://www.scielo.org.bo/pdf/gmb/v29n1/a12.pdf
  54. Arribas, J. La evaluación de los aprendizajes. Problemas y soluciones. Revista de Currículum y Formación de Profesorado. 2017; 21(4), 381-404. Recuperado de http://www.redalyc.org/pdf/567/56754639020.pdf
  55. Varela, M, Díaz, L, García, R. Descripción y usos del método Delphi en investigaciones del área de la salud. Investigación en Educación Médica. 2012; 1(2), 90-95. Recuperado de http://riem.facmed.unam.mx/sites/all/archivos/V1Num02/07_MI_DESCRIPCION_Y_USOS.PDF
  56. Yañez, R, Cuadra, R. La técnica Delphi y la investigación en los servicios de salud. Ciencia y Enfermería XIV. 2008; (1), 9-15. Recuperado de http://www.scielo.cl/pdf/cienf/v14n1/art02.pdf