Neuroplasticidad. Moheb Costandi
Чтение книги онлайн.
Читать онлайн книгу Neuroplasticidad - Moheb Costandi страница 5
Penfield operó a aproximadamente 400 pacientes y, en el proceso, asignó las áreas motoras primarias y somatosensoriales a los giros precentral y postcentral, respectivamente. Descubrió que ambas tiras de tejido cerebral están organizadas topográficamente, de modo que las partes adyacentes del cuerpo están representadas en regiones adyacentes de tejido cerebral (con algunas excepciones menores); y que no todas las partes del cuerpo están representadas por igual en el cerebro: la gran mayoría de las cortezas motoras y somatosensoriales primarias están dedicadas a la cara y las manos, que son las partes más articulables y sensibles del cuerpo.
Penfield resumió estos importantes descubrimientos en diagramas de homúnculo (“hombre pequeño”) elaborados por su secretaria. Estos dibujos ilustraban la organización de las cortezas motoras y somatosensoriales primarias y la proporción de sus tejidos dedicados a cada parte del cuerpo, y posteriormente se adaptaron a modelos tridimensionales bien conocidos.2
Sustitución sensorial
La evidencia preliminar de que esta localización de la función cerebral no es fija provino de estudios realizados a fines de la década de 1960 por Paul Bach-y-Rita, quien construyó un dispositivo que permitía a las personas ciegas “ver” con su sentido del tacto. El dispositivo consistía en una silla de dentista modificada, equipada con 400 estimuladores dispuestos en una matriz de 20 x 20 en el respaldo, y conectada a una cámara de video grande situada detrás de ella en un gran trípode. Bach-y-Rita reclutó a un grupo de personas ciegas para probar el aparato, incluido un psicólogo que había perdido la vista a la edad de cuatro años. Para usar el aparato, los sujetos simplemente se sentaban en la silla y lentamente movían la cámara de lado a lado con un asa. Mientras lo hacían, la imagen de la cámara se convertía en un patrón de vibraciones en la matriz de estimuladores del respaldo.
Con un entrenamiento extenso, los sujetos aprendieron a usar las sensaciones táctiles para interpretar escenas visuales con precisión, comenzando, después de aproximadamente una hora de entrenamiento, con la capacidad de discriminar líneas verticales, horizontales, diagonales y curvas, y luego reconocer formas. Luego de 10 horas de entrenamiento, todos pudieron reconocer objetos domésticos comunes, discernir sombras y perspectivas e incluso identificar a otras personas por sus rasgos faciales.3
Bach-y-Rita argumentó que esta capacidad se debía a mecanismos “transmodales”, por los cuales la información que normalmente es transmitida por un sentido, como la visión, de alguna manera es transformada y transmitida por otro, como el tacto o el sonido. Desde entonces, los investigadores han documentado numerosos ejemplos de plasticidad intermodal, utilizando técnicas modernas de neuroimagen como la resonancia magnética funcional (IRMf) y la estimulación magnética transcraneal (EMT).
Los estudios de imágenes cerebrales revelan que la corteza visual primaria se activa cuando las personas ciegas leen braille, lo que requiere un control motor fino y discriminación táctil para reconocer los patrones de puntos elevados. Esta activación está asociada con una mayor actividad en las regiones visuales inferiores involucradas en el reconocimiento de forma y con una actividad reducida en el área somatosensorial, en comparación con las personas videntes. El mismo patrón se encuentra no solo en personas que nacieron ciegas y aquellas que perdieron la vista a una edad temprana, sino también en aquellas que se quedaron ciegas más adelante en la vida.
La interferencia con la actividad cortical visual, por ejemplo mediante el uso de EMT, impide la percepción táctil en las personas ciegas pero no en las personas videntes del grupo control, lo que confirma que la actividad en la corteza visual está relacionada con el procesamiento de la información táctil, en lugar de ser mera coincidencia.
Las personas ciegas también pueden aprender a navegar por ecolocalización, haciendo clic con la lengua o tocando con los pies, y utilizando información en los ecos que regresan para percibir los aspectos físicos de su entorno. Esto requiere una gran cantidad de entrenamiento, pero aquellos que se vuelven expertos en ello pueden usar la ecolocalización para realizar acciones extremadamente complejas que la mayoría de nosotros no podríamos imaginar sin ver, como jugar videojuegos o andar en bicicleta. Y cuando las personas ciegas se ecolocan, la información del sonido se procesa en partes visuales en lugar de auditivas del cerebro.4, 5
El sistema visual a menudo se divide en dos vías distintas que se ejecutan en paralelo a través del lóbulo occipital en la parte posterior del cerebro: una secuencia superior que procesa la información espacial (la vía “dónde”) y una inferior involucrada en el reconocimiento de objetos (la vía “qué”). Esta organización parece preservarse en los ciegos: cuando las personas ciegas aprenden a ecolocar, la parte superior de la corteza visual se activa cuando están localizando objetos, y la parte inferior cuando los están identificando.6
Figura 2. Los lóbulos del cerebro. En sentido horario, de izquierda a derecha: lóbulo frontal, lóbulo parietal, lóbulo occipital, lóbulo temporal.
Por lo tanto, cuando se le priva de las entradas sensoriales que normalmente recibe, la corteza visual puede cambiar de roles y procesar otros tipos de información sensorial. Aún más notable, puede adaptarse de tal manera que realice otras funciones no sensoriales, como el lenguaje. El mismo tipo de experimentos de escaneo cerebral muestra que esta región del cerebro se activa cuando las personas ciegas generan verbos, escuchan el lenguaje hablado y realizan tareas de memoria verbal y procesamiento verbal de alto nivel.
Las personas ciegas superan a los sujetos videntes en estas tareas, y el grado de activación en sus cortezas visuales está estrechamente relacionado con su desempeño en las pruebas de memoria verbal. Estos estudios también muestran que la lectura del braille activa preferentemente el extremo frontal de la corteza visual, mientras que el lenguaje activa la región posterior, y algunos encuentran que la corteza visual izquierda se vuelve más activa que la derecha durante las tareas del lenguaje, posiblemente porque los centros del lenguaje generalmente se encuentran en el hemisferio izquierdo. Y al igual que interferir con la actividad cortical visual interrumpe la capacidad de las personas ciegas para procesar las sensaciones táctiles y comprender el braille, también afecta su desempeño en las tareas de memoria verbal.7
Los cerebros de las personas sordas también muestran cambios plásticos importantes. En las personas oyentes, la información auditiva de los oídos es procesada por las cortezas auditivas en los lóbulos temporales. Sin embargo, en las personas que nacen sordas, estas mismas áreas del cerebro se activan en respuesta a estímulos visuales. Las personas sordas también parecen tener una visión periférica mejorada. Esto está relacionado con un aumento en el área general del disco óptico, donde las fibras del nervio óptico salen del ojo en su camino hacia el cerebro y se engrosan alrededor de sus bordes. También sugiere que el flujo “dónde” de la vía visual es más fuerte.
La neuroplasticidad en personas sordas no se limita a los sistemas visuales y auditivos. Utilizando imágenes de tensor de difusión (ITD) para visualizar la conectividad cerebral, los investigadores han encontrado que la sordera se asocia con cambios importantes en las vías neuronales de largo alcance, especialmente entre las áreas sensoriales de la corteza cerebral y una estructura subcortical llamada tálamo.
El tálamo tiene muchas funciones importantes, particularmente en la transmisión de información de los órganos sensoriales a la región cortical apropiada, regulando así el flujo de información entre las