TRABAJO DE REVISIÓN
Nuevos instrumentos de
evaluación objetiva de competencias técnicas en cirugía
New tools
for objective assessment of tecnical skills in surgery.
Andrés C. Kasparian, Ricardo Chércoles
Revista Facultad de Ciencias
Medicas 2011; 68(1):20-24
Cátedra de Cirugía UHCN° I
.Servicio de Cirugía N° I .Hospital Nacional de Clínicas.
Fac. Cs. Médicas - UNC
INTRODUCCIÓN
La adquisición de habilidades quirúrgicas constituye un
factor central en la formación de todo cirujano. No hay duda
que la destreza técnica es considerada por el público en
general y por los propios médicos en formación como uno de
los factores más importantes de la lista de cualidades que
debería poseer todo cirujano.
Una encuesta publicada en el año 2001 realizada con
cirujanos del Reino Unido que alcanzaron el grado de
“maestro”, reveló que más del 80% de los encuestados
identificaron la excelencia en las habilidades psicomotoras
como el factor más determinante de una carrera quirúrgica
exitosa (6, 7).
Otro reporte publicado en el mismo año proveniente de
centros europeos y norteamericanos, basado en encuestas y
reuniones de consenso con cirujanos “maestros” de diferentes
especialidades, consideró a la destreza operatoria como el
atributo de mayor importancia luego del juicio clínico
(8, 35).
Sin embargo, dentro de todos los requisitos incluidos en la
formación de un cirujano, la evaluación de las habilidades
técnicas constituye el factor más débil y menos
desarrollado. En la actualidad las herramientas de
evaluación de los programas de residencias quirúrgicas hacen
fuertemente hincapié en la adquisición de conocimientos y en
la aplicación de los mismos en forma criteriosa, en tanto
que los recursos para evaluar las competencias técnicas se
caracterizan por presentar subjetividad, y falta de
confiabilidad y validez (11, 29).
Este hecho guarda relación con la vigencia hasta la
actualidad de un modelo clásico de formación en cirugía
introducido por Sir William Halsted en el año 1898 en el
John Hopkins Hospital de los Estados Unidos de Norteamérica.
Dicho modelo, diseñado a semejanza del sistema alemán,
estaba basado en una relación maestro-aprendiz y en la
adquisición de responsabilidades graduadas y progresivas. El
entrenamiento estaba regido por el concepto de “ver y
hacer”, es decir, el aprendiz trabajaba a la par de su
maestro para asegurar la progresión de sus habilidades por
imitación. La solvencia del aprendiz estaba determinada por
el maestro de acuerdo a su desempeño. Esta evaluación estaba
basada muchas veces en rasgos de la personalidad más que en
criterios objetivos (16,24).
Sin embargo, los avances en las teorías de la educación, y
las presiones crecientes en la práctica profesional han
llevado a cuestionar seriamente la confianza en este sistema
para la adquisición de habilidades técnicas. La creciente
complejidad de los casos hospitalarios, y el mayor énfasis
en mitigar el error médico por los problemas médico legales,
ha modificado de manera significativa la posibilidad de los
instructores para formar a los residentes. La limitación
reglamentaria de la carga horaria para los residentes, y el
interés en optimizar el uso del quirófano han determinado
una menor exposición de los médicos en formación a los
procedimientos con pacientes en la sala de operaciones.
Surge por estos motivos la necesidad de un nuevo modelo de
educación en cirugía basado en un programa estructurado de
formación, en el cual el entrenamiento de las técnicas
operatorias comienza fuera del quirófano, en un laboratorio,
y la adquisición y evaluación de competencias se realiza con
instrumentos que pretenden ser lo más objetivos posibles
(1,16, 24, 28).
COMPETENCIAS Y SU EVALUACIÓN
Kane (19)
definió la competencia como: “… el grado
de utilización de los conocimientos, las habilidades y el
buen juicio asociados a la profesión, en todas las
situaciones que se pueden confrontar en el ejercicio de la
práctica profesional” es decir que la
competencia representa la capacidad de un profesional de
utilizar su buen juicio así como también sus conocimientos,
habilidades, y actitudes para solucionar problemas complejos
que se presentan en el ámbito de su actividad.
El concepto de competencia es una construcción conceptual
compleja que se puede abordar de manera parcial a través de
los diferentes aspectos mesurables que la constituyen:
conocimientos, habilidades técnicas, actitudes, juicio,
capacidad resolutiva frente a nuevos problemas, capacidad de
comunicación, etc.
Hay muchos motivos por los cuales hay que evaluar
las competencias tanto en estudiantes como en
profesionales. Se pueden mencionar: 1) la evaluación como
requicito integrante del proceso educativo 2) para
certificar la competencia (evaluación sumativa) 3) para
retroalimentar el proceso educativo (evaluación formativa)
4) para evaluar los propios programas de formación 5) para
confirmar los valores y los estándares de la profesión y 6)
por la responsabilidad e imputabilidad frente a la sociedad.
Miller
(23) ha
desarrollado un modelo de competencia profesional
representado por una pirámide compuesta de varios niveles.
En la base se encuentran los conocimientos (saber) sobre los
que se apoya la competencia (saber como). A un nivel
superior se encuentra el desempeño (mostrar como) y
finalmente la acción en una práctica real (el hacer).
En 1996 Van Der Vleuten (34)
propone un modelo teórico conceptual para
definir la utilidad de una herramienta de evaluación de
competencias profesionales que correlaciona distintas
propiedades y que puede expresarse con la siguiente
ecuación:
U: utilidad del instrumento; F: fidelidad o
confiabilidad; V: validez; E: impacto educativo; A:
aceptabilidad; C: costo; (p) contribución parcial.
Modificado de Van Der Vleuten C. 1996. The assessment of
professional competence: developments, research and
practical implications.
Adv Health
Sci Educ Theory Pract.
1: 41-67
La confiabilidad puede definirse como la expresión
cuantitativa de la reproducibilidad con la que un
instrumento mide el mismo atributo. Hace referencia a la
precisión del test. Es decir, en que medida el test genera
los mismos resultados si se repite en dos sucesivas
oportunidades bajo las mismas circunstancias, o sea, sin la
modificación propia del aprendizaje entre las tomas
(15, 30). Se
representa con el coeficiente alfa de Cronbach. Cuando las
evaluaciones son llevadas a cabo por más de un observador se
aplica también el concepto de confiabilidad inter-evaluadores,
que mide el grado de concordancia entre dos o más
evaluadores que utilizan el mismo intrumento
(25).
La validez es un concepto complejo que hace
referencia a la capacidad del instrumento de evaluación de
medir o no lo que se propone como objetivo. Puede
desglosarse en distintos subconceptos: validez de
constructo hace referencia a la medida en la cual el
examen puede diferenciar distintos niveles de experiencia.
Validez de contenido refiere si el objeto o campo de
conocimiento que pretende ser evaluado es medido por el
instrumento. Por ejemplo: si se pretende evaluar aspectos
técnicos y se terminan evaluando conocimientos, el
instrumento de evaluación carece de validez de contenido.
Validez concurrente es el grado en el cual los
resultados de la evaluación se correlacionan con el gold
Standard para ese campo del conocimiento. Validez de
superficie es el grado en el cual el instrumento tiene
el aspecto de situaciones reales. Validez predictiva
la habilidad del examen de predecir el desempeño a futuro
(14, 23, 29, 31, 33).
Reznick (27) en
el año 1993 reportaba cinco métodos disponibles para la
evaluación de las competencias técnicas, con grados
variables de confiabilidad y validez:
Los exámenes de certificación administrados por las
instituciones formadoras o reguladoras al final de un
período lectivo o luego de cumplir con el programa de
formación, basan su evaluación en los conocimientos y las
habilidades clínicas, y no evalúan la capacidad técnica del
candidato (30).
Los registros de procedimientos (cuadernos de
bitácora) efectuados a lo largo del proceso de formación son
obligatorios en los programas de residencia de algunos
lugares del mundo como el Reino Unido, y son requeridos al
momento de las evaluaciones de fin de año o final de
residencia, entrevistas de trabajo, etc. Sin embargo ha sido
demostrado que es un registro meramente indicativo de la
ejecución de los procedimientos y no un reflejo de la
habilidad operatoria, es decir carecen de validez de
constructo.
El registro del tiempo empleado para la ejecución de
los procedimientos tampoco evalúa la calidad de la técnica,
y es un parámetro no confiable durante procedimientos reales
debido a la influencia de numerosos circunstancias que
pueden no ser previstas, y que tendrían poca relación con el
desempeño del cirujano.
La observación directa tal como se realiza
actualmente en el quirófano en casi todas las residencias de
cirugía, es global y no está basada en criterios
específicos, por lo tanto no resulta confiable. Como está
influenciada por la subjetividad del observador tiene una
pobre confiabilidad de reevaluación e interobservador. A
demás los procedimientos quirúrgicos son únicos y efímeros,
por lo tanto no hay posibilidad de revisar el desempeño del
candidato en caso de dudas, y esto aumenta aún más la
subjetividad y la falta de confiabilidad.
Los datos de morbimortalidad con frecuencia son
utilizados como marcadores del desempeño operatorio, sin
embargo esta información está influenciada en gran medida
por factores dependientes del paciente: variabilidad
biológica, disparidad en la presentación de las
enfermedades, etc. y por otros factores no relacionados con
los pacientes: soporte institucional, acceso a los recursos,
etc. Por lo tanto estas cifras carecen de confiabilidad, y
no reflejan verdaderamente la competencia técnica.
Como consecuencia de los problemas de confiabilidad y
subjetividad de los métodos mencionados previamente, se han
propuesto y desarrollado métodos más objetivos de evaluación
de habilidades técnicas, entre los que se pueden mencionar:
Las listas de cotejo y evaluaciones globales:
la enumeración de criterios definidos para cotejar la
ejecución o no de algún procedimiento hace que el proceso de
evaluación sea más objetivo, válido y confiable. Se
transformaría a los evaluadores en observadores más que en
interpretadores de la conducta, tendiendo a minimizar de
esta forma la subjetividad en el proceso de evaluación
(26).
La amplia aceptación del examen clínico objetivo
estructurado (ECOE) llevó a un grupo de Toronto a
desarrollar un concepto similar aplicado a la evaluación de
habilidades técnicas (OSATS), que consiste en 6
estaciones donde los candidatos desarrollan procedimientos
quirúrgicos estandarizados en modelos animales o inanimados,
durante un período limitado de tiempo. El desempeño es
evaluado con una lista de cotejo específica de la consigna a
desarrollar, y una evaluación del desempeño global que
consiste en 7 componentes genéricos de destreza operatoria
que son cuantificados con una escala de 5 puntos de Likert,
con descriptores explícitos para los puntos extremos y el
medio (22, 29).
El inconveniente de este tipo de evaluaciones es la
inversión en recursos humanos y el tiempo que debe dedicarse
en el análisis de las grabaciones u observación directa
(26).
Los sistemas de análisis de destreza manual como el
ICSAD (Imperial Collage Surgical Assessment Device)
es un sistema de rastreo, disponible comercialmente, que
consiste en un generador de campo electromagnético y dos
sensores que son colocados en las manos del cirujano. Hay un
procesador de datos que utiliza un software para medir el
número y velocidad de movimientos, la distancia recorrida
por las manos y el tiempo para ejecutar la tarea. Diversos
estudios han demostrado la validez de constructo de este
sistema (9).
Los sistemas de realidad virtual pueden definirse
como un conjunto de tecnologías que permiten a un individuo
interactuar eficientemente con bases de datos computarizadas
en tres dimensiones y en tiempo real, usando sus órganos de
los sentidos naturales y habilidades. Se puede mencionar el
MIST-VR (Minimally Invasive Surgical Trainer –
Virtual Reallity) reproduce una serie de imágenes
tridimensionales que pueden ser manipuladas, fue ideado como
entrenamiento para las colecistectomías laparoscópicas. Los
datos que surgen del uso de este sistema se pueden medir y
evaluar, y MIST-VR ha sido validado ampliamente para la
evaluación de habilidades básicas en cirugía laparoscópica
(25).
El análisis de los productos finales: los resultados
de la cirugía y la posterior evolución del paciente no se
pueden atribuir a cuestiones técnicas exclusivamente. De
hecho las consecuencias de una mala técnica pueden ponerse
en evidencia muchos años después. Szalay y col.
(32) propusieron la evaluación del
producto final de los modelos inanimados que constituyen las
diferentes estaciones del OSATS. Sus estudios demostraron
validez de constructo y una muy buena correlación con la
evaluación del OSATS en vivo, superando de esta forma los
inconvenientes derivados de las observaciones en vivo y las
grabaciones. Datta et al. analizaron la tasa de filtrado y
el área de sección transversal de modelos de anastomosis
vasculares (10). Hanna et al. estudiaron la calidad de los
nudos hechos por vía laparoscópica usando un tensiómetro y
desarrollaron una escala de calidad y confiabilidad
(17)
En resumen, el conocimiento actual sobre el tema pone en
evidencia falencias de peso en los métodos de evaluación de
las habilidades técnicas vigentes en la actualidad. Los
métodos tradicionales vigentes en la mayoría de los centros
formadores de nuestro medio carecen de validez y
confiabilidad en relación a la destreza quirúrgica.
La formación quirúrgica dentro del marco de un programa
formal estructurado de residencias médicas requiere una
retroalimentación objetiva constante de la adquisición de
habilidades técnicas para corrección y reorientación, y para
ello precisa de instrumentos de evaluación objetivos. Todas
las profesiones en general, relacionadas o no con la salud,
implican la ejecución de procedimientos que requieren la
adquisición de destrezas técnicas de variada complejidad. La
formación de profesionales de ámbitos tan disímiles como son
un piloto de avión y un cirujano, en apariencia sin ningún
punto de contacto, tienen en común el hecho que ambas
requieren el desarrollo de habilidades técnicas y que ambas
deben enfrentar condiciones en las cuales, eventualmente, se
pone en riesgo la vida. Muchos aspectos relacionados con el
entrenamiento y la evaluación de los pilotos de avión
podrían ser aplicables a la formación de los cirujanos.
(24)
Existen métodos validados de evaluación objetiva que podrían
comenzar a utilizarse para evaluar las habilidades
quirúrgicas con fines formativos y de certificación. Aunque
se requieren futuras investigaciones antes de ser utilizados
para evaluaciones sumativas y de revalidación
(2, 3, 5, 12, 13, 20, 21).
BIBLIOGRAFÍA
-
ACGME. Outcome Project.
http://www.acgme.org/Outcome/
-
Anderson CI, Jentz AB, Harkema JM, Rao
Kareti L, Apelgren KN, Slomski CA. 2005.
Assessing the competencies in general
surgery residency training. Am J Surg 189:
288-292
-
Bann S, Khan M, Datta V, Darzi A. 2005.
Surgical skill is predicted by the
ability to detect errors. Am J Surg. 189:
412-415.
-
Beard JD. 2007. Assessment of Surgical
Competence. BJS 94: 1315-1316
-
Boehler ML, Schwind CJ, Rogers DA,
Ketchum J, O’Sullivan E, Mayforth R, Quin J, Wohltman C,
Johnson C, Williams RG, Dunnington G. 2007. A
Theory-Based Curricullum for Enhancing Surgical
Skillfulness. J Am Coll Surg. 205:
492-497.
-
Cosman P, Hemli JM, Ellis AM, Hugh TJ.
2007. Leargning the Surgical Craft: A Review of Skills
Training Options. ANZ J. Surg. 77:
838-845.
-
Cuschieri A. 2001. Master surgeons and
surgical proficiency. En Metrics: Objective Assessment
of Surgical Skills – Developing Qunatitative
Measurements through Surgical Simulation. Scottsdale,
Arizona: US Army Medical Reasearch Command, Telemedicine
and Advances Technology Research Center (TATRC)
-
Cuschieri A, Francis N, Crosby J, Hanna
GB. 2001.
What do Master Surgeons Think of Surgical
Competence and Revalidation. Am J Surg
182:110-116.
-
Datta V, Chang A, Mackay S, Darzi A.
2001. The use of electromagnetic motion tracking
analysis to objectively measure open surgical skills in
the laboratory based model. J Am Coll Surg.
193: 479-485.
-
Datta V, Mandalia M, Mackay S, Chang A,
Chesire N, Darzi A. 2002. Relationship between skill and
outocme in the laboratory based model. Surg. 131:
318-323.
-
Darzi A, Datta V, Mackay S. 2001.
The Challenge of Objective Assessment of
Surgical Skill. Am J Surg 181: 484-486.
-
Dath D, Regehr G, Birch D, Schlachta C,
Poulin E, Mamazza J, Reznick R, MacRae H. 2004. Toward
Reliable Operative Assessment. Surg Endosc
18: 1800-1804.
-
Doyle JD, Webber EM, Sidhu RS. 2007.
A universal global rating scale for the
evaluation of technical skills in the operating room.
Am J Surg. 193: 551-555.
-
Goff BA, Lentz GM, Lee D, Fenner D,
Morris J, Mandel LS. 2001. Devolpement of a Bench
Station Objective Structured Assessment of Technical
Skills. Obstet Gynecol. 98: 412-416.
-
Greenberg JA, Irani JL, Greenberg CC,
Blanco MA, Lipsitz S, Ashley SW, Breen EM, Hafler JP.
2007. The ACGME competencies in the operating room.
Surgery. 142: 180-184.
-
Hamford JM, Hall JC. 2000. Acquiring
Surgical Skills. BJS 87: 28 – 37.
-
Hanna GB, Frank TG, Cuschieri A. 1997.
Objective assessment of endoscopic knot
quality. Am J Surg. 174: 410-413.
-
Intercollegiate Surgical Curriculum
Programme.
http://www.iscp.ac.uk.
-
Kane MT. 1992. The assessment of clinical
competence. Eval Health Prof. 15(2):
163-182.
-
Larson JL, Williams RG, Ketchum J,
Boehler M, Dunnington GL. 2005. Feasibility, reliability
and validity of an operative performance rating system
for evaluating surgery residents. Surgery.
138: 640-649.
-
MacRae H, Regehr G, Leadbetter W, Reznick
R. 2000. A Comprehensive Examination for Senior Surgical
Residents. Am J Surg. 179: 190-193.
-
Martin JA, Regehr G, Reznick R, MacRae H,
Murnaghan J, Hutchinson G. 1997. Objetctive structured
assessment of techinical skill (OSATS) for surgical
residents. Br J Surg. 84: 273-278.
-
Miller G. 1990. The assessment of
clinical skills/competence/performance. Academic
Medicine. 65: S63-S67.
-
Moen MD, Moen RO, Moen O.L. 2007.
Teaching and Evaluating Technical Skills: Applying the
Aviation Model to Gynecologic Surgery. J Pelvic
Med Surg. 13: 107-112
-
Moorthy K, Munz Y, Sarker SK,
Darzi
A. 2003.
Objective assessment of technical skills in surgery.
BMJ, 327: 1032-1037
-
Regehr G, MacRae H, Reznick R, Szalay D.
1998.
Comparing the psychometric properties of
checklists and global rating scales for assessing
performance on an OSCE format examination. Acad
Med. 73: 993-997.
-
Reznick R. 1993. Teaching and testing
surgical skills. Am J surg. 165: 358-361.
-
Reznick R, MacRae H. 2006. Teaching
Surgical Skills – Changes in the Wind. N Engl J
Med 355: 2664-2669.
-
Reznick R, Regehr G, MacRae H, Martin J,
McCulloch W. 1997. Testing Technical Skill via an
Innovative “Bench Station” Examination. Am J Surg.
173: 226–230.
-
Scott DJ, Valentine RJ, Bergen PC, Rege
RV, Laycock R, Tesfay ST. 2000. Evaluating surgical
competency with the American Board of Surgery
in-training examination, skill testing, and
intraoperative assessment. Surgery. 128:
613-622.
-
Smee S. 2003. ABC of learning and
teaching in medicine. Skill based assessment. BMJ.
326: 703-706.
-
Szalay D, MacRae H, Regehr G, Reznick R.
2000. Using Operative Outcome to Assess Technical Skill.
Am J Surg 180: 234-237.
-
Van Der Vleuten C, Schuwirth L. 2005.
Assessing professional competence: from methods to
programmes. Medical Education. 39:
309-317.
-
Van Der Vleuten C. 1996. The assessment
of professional competence: developments, research and
practical implications. Adv Health Sci Educ Theory
Pract. 1: 41-67.
-
Yule S, Flin R, Paterson-Brown S, Maran
N, 2006. Non-technical Skills for surgeons in the
operating room: A review of the literature.
Surgery. 139: 140-149.

|