top of page
Buscar

De las Hojas de Papel a los Chips de Silicio - La Estandarización del EEG en la Era Digital (1990-2010)


La Transición Digital: Cuando el Papel Quedó Obsoleto


La última década del siglo XX y los primeros años del nuevo milenio marcaron un punto de inflexión histórico en la neurofisiología clínica. Si bien los años 1970-1980 habían introducido la digitalización del EEG, fue durante el período 1990-2010 cuando esta tecnología maduró completamente, transformando no solo la forma de registrar la actividad cerebral, sino también la manera de interpretarla, reportarla y compartir el conocimiento médico.


Los Pioneros de la Estandarización Digital


Los Primeros Sistemas Computarizados de Reporte


Contrario a lo que muchos creen, los primeros intentos de estandarización computarizada del reporte de EEG comenzaron sorprendentemente temprano. Ya en los años 1980, Robert R. Young y Keith H. Chiappa en el Massachusetts General Hospital desarrollaron un paquete de software local para reportar hallazgos de EEG, donde se podían seleccionar términos fijos y generar reportes semi-automáticamente.

Pero fue Harald Aurlien y sus colegas quienes dieron el paso más significativo. Desde 1998, comenzaron a utilizar un software llamado "Holberg" para reportar hallazgos de EEG y generar bases de datos automáticamente. Este sistema permitió que hasta 2013 se reportaran más de 36,000 estudios de EEG, estableciendo las bases para lo que eventualmente se convertiría en el sistema SCORE.



El Legado de Johns Hopkins


De manera paralela, en Johns Hopkins, Ronald Lesser y sus colegas desarrollaron desde 1998 un paquete de software llamado "Reporter" que estandarizó los términos en las descripciones de EEG, permitiendo búsquedas por palabras clave. Para 2013, habían preparado más de 38,000 reportes utilizando este software.


La Revolución de los Estándares IFCN


Los Estándares Digitales de 1998


Un momento crucial llegó con la publicación de los "IFCN standards for digital recording of clinical EEG" en 1998. Estos estándares, desarrollados por la International Federation of Clinical Neurophysiology, establecieron por primera vez las especificaciones técnicas mínimas para el registro digital de EEG clínico, abordando aspectos fundamentales como:

  • Estándares para electroencefalografía digital

  • Control de formas y registros

  • Procesamiento asistido por computadora de señales

  • Terminología estandarizada


La Era de la Alta Densidad


Los años 1990 vieron el desarrollo de sistemas de EEG de alta densidad (HD-EEG) que proporcionaron una resolución espacial mucho más detallada. Estas mejoras tecnológicas no solo aumentaron la precisión diagnóstica, sino que también crearon la necesidad urgente de nuevos protocolos de estandarización para manejar la complejidad adicional de los datos.


El Problema de la Torre de Babel Digital


La Crisis de la Interpretación


Para principios de los 2000, había surgido un problema inesperado: la fragmentación de la terminología. Mientras que la digitalización había resuelto muchos problemas técnicos, había creado uno nuevo y fundamental. Como señalaron los investigadores, "en la práctica, una amplia variedad de terminologías locales florecen, donde el mismo término se usa con diferentes significados en diferentes centros, y la misma característica se describe con diferentes términos en diferentes centros".

Esta babel terminológica contribuía potencialmente al bajo acuerdo inter-observador previamente descrito para EEG. Sin embargo, cuando los electroencefalografistas tenían que evaluar características específicas del EEG eligiendo de una lista de términos predefinidos, el acuerdo inter-observador era significativamente mayor.


La Necesidad de Herramientas Computarizadas


Los especialistas se dieron cuenta de que se necesitaban herramientas computarizadas para:

  1. Mejorar la calidad de la evaluación e interpretación de EEG

  2. Aumentar el acuerdo inter-evaluador en el reporte de hallazgos

  3. Construir grandes bases de datos para investigación clínica

  4. Constituir una herramienta valiosa para educación


Los Primeros Pasos Hacia SCORE


Los Talleres de Consenso (2010-2011)


El momento decisivo llegó con los talleres de consenso celebrados en Dianalund, Dinamarca, en 2010 y 2011. Un grupo de trabajo de expertos en EEG participó en estos talleres, con la facultad aprobada por la Comisión de Asuntos Europeos de la International League Against Epilepsy (ILAE).

El grupo de trabajo SCORE, compuesto por 25 neurofisiólogos clínicos/epileptólogos de 15 países europeos, elaboró una propuesta de consenso destinada a reflejar las necesidades y prácticas en diferentes países y centros.


El Desarrollo del Software (2010-2013)


Basándose en el consenso, el software SCORE fue desarrollado por un grupo de programadores en Holberg EEG AS. El proceso fue iterativo, tomando 3 años de desarrollo, donde versiones sucesivas fueron probadas mediante la puntuación de grabaciones de EEG en la práctica clínica. En total, más de 2,000 grabaciones fueron incluidas en este proceso, con cuatro revisiones principales realizadas.


La Primera Versión de SCORE (2013)


El Consenso Europeo


En 2013, la primera versión de SCORE fue publicada como un consenso europeo, respaldado tanto por el Capítulo Europeo de la IFCN como por la International League Against Epilepsy (ILAE) - Comisión de Asuntos Europeos. Esta plantilla ayudó a desarrollar una terminología unificada y criterios para el status epilepticus no convulsivo.


Los Elementos Clave del Sistema


SCORE incorporó los elementos principales siguientes:

  • Datos personales del paciente

  • Datos de la indicación

  • Condiciones de registro

  • Moduladores/procedimientos

  • Actividad de fondo

  • Somnolencia y sueño

  • Hallazgos interictales

  • "Episodios" (eventos clínicos o subclínicos)

  • Patrones fisiológicos

  • Patrones de significado incierto

  • Artefactos

  • Canales poligráficos

  • Significado diagnóstico


Las Bases de Datos Masivas: El Poder de la Estandarización


El Centro Danés de Epilepsia


Una versión modificada del software Holberg se utilizó para reportar todos los informes de EEG estándar en el Centro Danés de Epilepsia desde 2009. La base de datos generada automáticamente durante el reporte hizo posible abordar cuestiones específicas relacionadas con ciertos aspectos del EEG, lo que llevó a tres publicaciones adicionales.


La Expansión Internacional


Para 2013, cuando se publicó la primera versión de SCORE, ya había demostrado su valor práctico. Más de 36,000 estudios de EEG habían sido reportados usando el software Holberg, y el sistema Reporter en Johns Hopkins había generado más de 38,000 reportes.


El Impacto en la Práctica Clínica


Mejora en la Calidad Diagnóstica


La estandarización digital del período 1990-2010 trajo mejoras significativas:

  1. Reducción de la subjetividad: Los sistemas estandarizados forzaron a los clínicos a usar terminología precisa y consistente

  2. Mejor rastreabilidad: Las bases de datos digitales permitieron seguimientos longitudinales de pacientes

  3. Investigación facilitada: Los datos estandarizados hicieron posibles estudios multicéntricos a gran escala

  4. Educación mejorada: Los sistemas proporcionaron herramientas de entrenamiento consistentes


Los Desafíos Persistentes


A pesar de los avances, permanecieron desafíos importantes:

  • Variabilidad tecnológica: Diferentes laboratorios usaban equipos con especificaciones divergentes

  • Falta de adopción amplia: Los sistemas permanecieron principalmente en uso local

  • Necesidades culturales diversas: Las diferentes tradiciones médicas requieren enfoques adaptativos


El Legado del Período 1990-2010


La Preparación para la Era Global


El trabajo realizado durante estas dos décadas estableció las bases fundamentales para lo que se convertiría en el sistema SCORE internacional. Los pioneros como Harald Aurlien, Ronald Lesser, y los equipos de Massachusetts General Hospital crearon no solo herramientas técnicas, sino también la cultura de la estandarización en neurofisiología clínica.


La Transformación Cultural


Quizás el cambio más importante no fue tecnológico, sino cultural. La comunidad neurofisiológica comenzó a reconocer que la estandarización no limitaba la expertise médica, sino que la potenciaba, permitiendo comparaciones más precisas, investigación más robusta y mejor cuidado del paciente.


Conclusión: Los Cimientos de la Medicina Moderna


El período 1990-2010 representa un capítulo fundamental en la historia de la medicina. Durante estas dos décadas, la neurofisiología clínica se transformó de una disciplina dependiente del papel y la interpretación subjetiva a una ciencia basada en datos digitales estandarizados.

Esta historia nos recuerda que los avances médicos más transformadores no siempre son los más visibles. Mientras el público celebra nuevos medicamentos o técnicas quirúrgicas, son a menudo las mejoras en estandarización, documentación y sistemas de información las que realmente revolucionan la práctica médica y mejoran los resultados para los pacientes a escala global.

 
 
 

Comentarios


bottom of page