![cantante Ciertas neuronas responden al canto pero no a otros tipos de música](https://biotechmagazineandnews.com/wp-content/uploads/2022/02/cantante-696x464.jpg)
Neurocientíficos del Instituto de Tecnología de Massachusetts (MIT), en Estados Unidos, han identificado una población de neuronas que se enciende al escuchar canto, pero no otros tipos de música.
Estas neuronas, que se encuentran en la corteza auditiva, como explican en el estudio que aparece hoy en Current Biology, parecen responder a la combinación específica de voz y música, pero no al habla normal ni a la música instrumental.
Estos investigadores, dirigidos por el profesor Sam Norman-Haignere, admiten que desconocen exactamente lo que están haciendo y que requerirán más estudios para esclarecerlo. “El trabajo proporciona evidencia de una segregación de funciones relativamente fina dentro de la corteza auditiva, de una manera que se alinea con una distinción intuitiva dentro de la música”, puntualiza Sam Norman-Haignere, ahora profesor de neurociencia en el Centro Médico de la Universidad de Rochester.
Este estudio se basa en otro anterior de 2015, en el que los mismos científicos utilizaron imágenes de resonancia magnética funcional (fMRI) para identificar una población de neuronas en la corteza auditiva del cerebro que responde específicamente a la música.
En el trabajo actual, los investigadores utilizaron registros de actividad eléctrica de la superficie del cerebro que les proporcionó información mucho más precisa que la resonancia magnética funcional.
Como explica el profesor Norman-Haignere, existe una población de neuronas que responde al canto, y luego, muy cerca, otras neuronas que responde ampliamente a mucha música. “A escala de resonancia magnética funcional, están tan cerca que no se pueden separar, pero con las grabaciones intracraneales, obtenemos una resolución adicional y eso es lo que creemos que nos permitió separarlas”.
Diferentes neuronas para canto, habla y música
En el trabajo de hace siete años que apareció en Neuron, los investigadores utilizaron fMRI para escanear los cerebros de voluntarios mientras escuchaban una colección de 165 sonidos, incluidos diferentes tipos de habla y música, así como sonidos cotidianos como golpear los dedos en una superficie o el ladrido de un perro.
Para ese estudio, idearon un método novedoso para analizar los datos de fMRI, que les permitió identificar seis poblaciones neuronales con diferentes patrones de respuesta, incluida la población selectiva de música y otra población que responde selectivamente al habla.
En el nuevo estudio, los investigadores esperaban obtener datos de mayor resolución utilizando electrocorticografía (ECoG), que permite registrar la actividad eléctrica mediante electrodos colocados dentro del cráneo.
Así obtienen una imagen mucho más precisa de la actividad eléctrica en el cerebro en comparación con la IRMf, que mide el flujo sanguíneo en el cerebro como indicador de la actividad neuronal.
“Con la mayoría de los métodos de la neurociencia cognitiva humana no se pueden ver las representaciones neuronales. La mayoría de los tipos de datos que podemos recolectar nos pueden decir que aquí hay una parte del cerebro que hace algo, pero eso es bastante limitado. Queremos saber qué está representado allí”, apostilla Nancy Kanwisher.
Neuronas que solo responden al canto
Por lo general, la electrocorticografía no se puede realizar en humanos porque es un procedimiento invasivo, pero a menudo se usa para controlar a los pacientes con epilepsia que están a punto de someterse a una cirugía para tratar sus convulsiones.
Los pacientes son monitoreados durante varios días para que los neurocirujanos puedan determinar dónde se originan esas convulsiones antes de intervenir quirúrgicamente.
Durante ese tiempo, si los pacientes están de acuerdo, pueden participar en estudios que implican medir su actividad cerebral mientras realizan ciertas tareas. Para este estudio, el equipo del MIT pudo recopilar datos de 15 voluntarios durante varios años.
Para esos participantes, los investigadores tocaron el mismo conjunto de 165 sonidos que usaron en el estudio anterior de IRMf. Además, determinaron la ubicación de los electrodos de cada paciente, por lo que algunos no detectaron ninguna respuesta a la entrada auditiva, pero muchos sí.
Usando un nuevo análisis estadístico que desarrollaron, pudieron inferir los tipos de poblaciones neuronales que produjeron los datos registrados por cada electrodo. “Cuando aplicamos el método a este conjunto de datos, apareció ese patrón de respuesta neuronal que solo respondía al canto. Fue un hallazgo que realmente no esperábamos, por lo que justifica en gran medida el objetivo del enfoque, que es revelar cosas potencialmente novedosas que quizá no pensabas buscar”, enfatiza Norman-Haignere.
Esa población de neuronas específica de la canción tuvo respuestas muy débiles al habla o a la música instrumental y, por lo tanto, es distinta de las poblaciones selectivas de la música y el habla identificadas en su estudio de 2015.
Avance metodológico al combinar ECoG y fMRI
En la segunda parte de su estudio, los investigadores idearon un método matemático para combinar los datos de las grabaciones intracraneales con los obtenidos con fMRI en su estudio anterior. Debido a que fMRI puede cubrir una porción mucho más grande del cerebro, esto les permitió determinar con mayor precisión las ubicaciones de las poblaciones neuronales que responden al canto.
Para McDermott, esta combinación de las dos herramientas ECoG y fMRI “es un avance metodológico significativo. Mucha gente ha estado haciendo ECoG durante los últimos 10 o 15 años, pero siempre ha estado limitado por este problema de la escasez de grabaciones. Sam es realmente la primera persona que descubrió cómo combinar la resolución mejorada de las grabaciones de electrodos con datos de fMRI para obtener una mejor localización de las respuestas generales”.
El punto de acceso específico de la canción que encontraron se ubica en la parte superior del lóbulo temporal, cerca de las regiones que son selectivas para el lenguaje y la música. Esa localización sugiere que la población específica de la canción puede estar respondiendo a características como el tono percibido o la interacción entre las palabras y el tono percibido, antes de enviar información a otras partes del cerebro para su posterior procesamiento, dicen los investigadores.
Este equipo de neurocientíficos ha empezado a trabajar con el laboratorio, también en el MIT, de la profesora Rebecca Saxe, para estudiar si los bebés tienen áreas selectivas de música, con el objetivo de aprender más sobre cuándo y cómo se desarrollan estas regiones del cerebro.