top of page
Buscar

El Despertar de una Necesidad: Los Eventos que Marcaron el Camino hacia la Estandarización en EEG


Cuando la Innovación se Encontró con la Complejidad

En las décadas de 1940 y 1950, la electroencefalografía experimentó un crecimiento explosivo que algunos historiadores describen como "la propagación con la velocidad y vigor de un incendio de pradera". Sin embargo, este rápido crecimiento trajo consigo un problema inesperado: cada laboratorio desarrollaba sus propios métodos, terminología y criterios de interpretación, creando un panorama fragmentado que amenazaba la credibilidad científica de la disciplina.


La Fundación que Cambió Todo

Un momento decisivo llegó en 1949 con la creación de la Federación Internacional de Neurofisiología Clínica (IFCN, por sus siglas en inglés) en París. Esta organización, que celebró su 70º aniversario en 2019, surgió de una reunión científica histórica celebrada en el Hospital Nacional de Enfermedades Neurológicas en Queen Square, Londres, en 1947, con aproximadamente 100 participantes de 17 países.

Los padres fundadores de la IFCN - Henri Gastaut, Herbert H. Jasper, Edgar D. Adrian, Robert S. Schwab, W. Grey Walter y Fritz Buchthal - no solo establecieron una organización, sino que sentaron las bases para lo que se convertiría en un movimiento global hacia la estandarización. Su visión era clara: "promover las mejores prácticas en neurofisiología clínica a través de la educación e investigación en todo el mundo".


Los Síntomas de una Crisis en Desarrollo

Para la década de 1950, los problemas de la falta de estandarización se habían vuelto evidentes. Los neurofisiólogos enfrentaban desafíos que resonarían décadas después:

  1. Babel Terminológica: El mismo fenómeno electroencefalográfico recibía nombres diferentes en distintos centros, mientras que el mismo término describía hallazgos completamente diferentes. Como señaló Grey Walter en 1949: "Si vamos a entendernos unos a otros, nuestro lenguaje debe contener términos y símbolos acordados, signos y escalas convencionales".

  2. Anarquía Metodológica: Los técnicos e ingenieros de diferentes laboratorios construían sus propios electroencefalógrafos con electrodos, canales y amplificadores divergentes. Esta variabilidad tecnológica hacía que la comparación de resultados entre centros fuera prácticamente imposible.

  3. Criterios de Normalidad Fragmentados: Múltiples sistemas de clasificación contradictorios coexistían para definir qué constituía un EEG "normal". Como describió Hill en 1952: "lo que es anormal para algunos, sigue siendo normal para otros".


Las Consecuencias del Caos

Esta falta de uniformidad no era meramente un problema académico. Tenía consecuencias clínicas reales y potencialmente peligrosas. El caso más dramático fue la administración de medicamentos anticonvulsivos a pacientes con trastornos psicopáticos debido a una malinterpretación del término "disritmia". Este evento ilustró vívidamente cómo la confusión terminológica podía traducirse en decisiones terapéuticas erróneas.

Los estudios de la época revelaban que aproximadamente el 15% de las personas normales tenían EEGs "anormales", lo que cuestionaba fundamentalmente la confiabilidad del EEG como indicador de disfunción cerebral. Esta paradoja hacía eco del problema de variabilidad interpretativa que aún enfrentamos hoy: diferentes expertos llegando a conclusiones diferentes sobre el mismo registro.


Los Pioneros de la Solución

Reconociendo la magnitud del problema, la comunidad científica lanzó iniciativas extensas para estandarizar la investigación en EEG. Los comités surgieron para unificar aspectos fundamentales:

  • Colocación de Electrodos: Herbert H. Jasper desarrolló el sistema de colocación 10-20, asegurando que todas las áreas del cerebro fueran cubiertas de manera uniforme. Este sistema, que cubre las regiones frontal, parietal, temporal y occipital, se convirtió en el estándar internacional.

  • Terminología Unificada: Se establecieron glosarios para homogeneizar los juicios sobre anormalidad, un proceso que continuaría evolucionando durante décadas.

  • Análisis Automatizado: Se introdujeron procedimientos de análisis de datos automatizados para reducir la subjetividad en la interpretación.


El Momento de Maduración

Para las décadas de 1950 y 1960, el EEG había alcanzado su apogeo como herramienta diagnóstica estándar en neurología. Se había convertido en instrumento esencial para diagnosticar epilepsia, trastornos del sueño, encefalitis y tumores cerebrales. Sin embargo, este éxito también intensificó la necesidad de estándares más rigurosos.

La IFCN comenzó a publicar las primeras guías técnicas para la grabación digital de EEG clínico, estableciendo los fundamentos para lo que eventualmente se convertiría en los sistemas de reporte estandarizado como SCORE.


Las Semillas del Futuro

Los eventos de estas décadas críticas establecieron un precedente fundamental: la innovación tecnológica debe ir acompañada de estandarización metodológica. Los pioneros de la neurofisiología clínica comprendieron que sin un lenguaje común y métodos uniformes, incluso los avances más brillantes podrían perderse en la confusión.

Este periodo sembró las semillas para los desarrollos que veremos en décadas posteriores: la creación de sistemas de reporte computarizados, la implementación de bases de datos multicéntricas y, finalmente, el surgimiento de plataformas como SCORE que transformarían la práctica clínica.


En nuestro próximo artículo, exploraremos cómo estos fundamentos históricos culminaron en los primeros intentos sistemáticos de crear estándares internacionales para la interpretación del EEG.


¿Su institución reconoce la importancia histórica de estos desarrollos? La estandarización moderna tiene sus raíces en las luchas y visiones de estos pioneros.



 
 
 

Comentarios


bottom of page