Introducción a las bases neurales de la percepción musical

Esta semana comentaré el artículo “Towards a neural basis of music perception, publicado en 2005 por Stefan Koelsch y Walter A. Siebel.1

Cuando escuchamos música, la información auditiva pasa a través de diferentes etapas de procesamiento, antes de que se produzcan reacciones corporales y una percepción musical consciente. Este artículo presenta un modelo en el que las distintas etapas de la percepción musical se asignan a diferentes módulos.”

En la escucha musical intervienen distintos sistemas que podemos organizar distinguiendo fases o etapas de procesamiento. Koelsch y sus colaboradores distinguen aquí tres etapas: la fase de extracción de propiedades acústicas, la fase de formación gestáltica y la fase de procesamiento sintáctico.

La fase de pre-procesamiento

En una primera primera instancia que podríamos denominar de pre-procesamiento, la información auditiva es recogida y transmitida al tálamo, donde es filtrada, con el fin de advertir cualquier señal que pueda identificar un peligro (o para cancelar su paso a la corteza auditiva, si dicha información resulta trivial). En la corteza auditiva se extrae información más específica sobre las características acústicas, como la altura de tono, el timbre o la intensidad del sonido.

Se ha observado que las operaciones de este tipo producen fluctuaciones en la actividad eléctrica cerebral, con distinta ubicación y latencia dependiendo de la clase de estímulo auditivo. A las fluctuaciones se las denomina «potenciales evocados» (ERP, siglas ERP se corresponden con la denominación en inglés, ‘event-related potential‘), y la forma más usual de observar este tipo de respuesta es por medio de electroencefalografía (es decir, colocando electrodos en la superficie de la cabeza y registrando la actividad eléctrica en un electroencefalograma). En el caso del pre-procesamiento de las características acústicas del sonido, se ha observado que las respuestas electrofísicas tienen una latencia de hasta 100 milisegundos (por ejemplo, los potenciales evocados P1 y N1).

La fase de formación gestáltica

Tras esta primera instancia de pre-procesamiento, una que se han extraído las características acústicas del sonido, la información pasa la memoria sensorial auditiva, formándose una gestalt auditiva. Esta etapa conlleva procesos de análisis de la escena auditiva, como la agrupación de los eventos por similitud en la frecuencia, en la duración, en el timbre o ubicación espacial. El objetivo de esta etapa es establecer una representación cognitiva del entorno acústico. Esto permite, por ejemplo, separar la voz de un interlocutor del resto de sonidos durante una conversación en grupo.

Las operaciones de la memoria sensorial auditiva se pueden observar, al menos en parte, por medio del denominado potencial de disparidad, o MMN (en inglés, ‘mismatch negativity‘), un potencial evocado cuya latencia es de 100 a 200 milisegundos.

El potencial de disparidad (MMN) se produce cuando percibimos que un estímulo auditivo se desvía en alguno de sus atributos físicos del contexto (por ejemplo, en la intensidad, la frecuencia, el timbre, la ubicación espacial de la fuente del sonido o la duración). En el contexto de una secuencia de tonos iguales (con la misma altura, intensidad y duración), se observa esta señal cerebral cuando uno de los eventos provoca un cambio al desviarse en alguno de esos atributos.

La latencia y la amplitud de esta señal son sensibles a la magnitud relativa de la violación de la regularidad (cuanto mayor es la desviación, más pronto se observa la señal y su amplitud es mayor), algo que puede explotarse en las investigaciones (por ejemplo, al comparar la respuesta en distintas posiciones métricas).

La fase de procesamiento sintáctico

La música, al igual que ocurre en el lenguaje hablado, es un sistema que se compone de elementos perceptivamente discretos (tonos) que se organizan en secuencias jerárquicamente estructuradas de acuerdo con principios sintácticos. Esta relación analógica entre la música y el lenguaje ha sido constantemente referida, pero conecta especialmente con los análisis realizados por la Teoría Generativa de la Música Tonal (Lerdahl & Jackendoff, 1983; ver publicación).2

La hipótesis de que la sintaxis musical y lingüística podría tener vinculaciones en el procesamiento cerebral ha motivado numerosos estudios. Uno de los primero fue realizado por Patel y sus colaboradores (1998; ver publicación),3 donde analizaron la aparición de un potencial positivo tardío (P600) con una latencia de 600 milisegundos. El potencial P600, es una fluctuación que aparece poco despúes de la aparición de una palabra que, en el contexto de una oración, resulta incongruente desde un punto de vista sintáctico (su máximo se encuentra 600 ms después del estímulo). En el estudio de Patel y sus colaboradores (1998; ver publicación),3 esta fluctuación eléctrica se pudo observar también durante la escucha de secuencias de acordes musicales sintácticamente incongruentes (con una amplitud y distribución similares a las obtenidas durante la escucha de estímulos lingüísticos). Esto vendría a sugerir el proceso que da lugar al P600 es poco probable que sea específico del lenguaje, y que este componente podría reflejar un mecanismo compartido por los procesos lingüísticos y musicales.

Por su parte, Koelsch y sus colaboradores (2002)4 observaron una señal asociada a la sintaxis que puede encontrarse en dos ubicaciones, dependiendo de si ha sido producida por un estímulo musical o lingüístico. Por una parte tenemos la respuesta cerebral temprana anterior derecha, que se produce ante una irregularidad de tipo armónico en la música (conocida por sus siglas ERAN, ‘early right anterior negativity’), y por otra tenemos una respuesta cerebral temprana anterior izquierda, producida por estímulos lingüísticos (ELAN, ‘early left anterior negativity’). En este caso, el máximo de la fluctuación se encuentra entre 180 y 350 milisegundos después del estímulo sintácticamente irregular.

La señal ERAN ha sido ampliamente estudiada, obteniéndose resultados muy interesantes. Por una parte, la aparición de esta señal en procesos de reescucha musical —es decir, su aparición en contextos en los que se confirma una expectativa verídica que vulnera la sintaxis tonal, como por ejemplo una cadencia engañosa que sabemos de antemano que se va a dar— demuestra que las expectativas sintácticas continúan activas durante la escucha de música conocida. Esta es una evidencia importante que apoya la teoría de Bharucha sobre la modularidad de las expectativas esquemáticas (Bharucha & Stoeckig, 1989; ver publicación; Justus & Bharucha, 2001, ver publicación; Tillmann & Bigand, 2004, ver publicación).5,6,7

Por otra parte, ha ofrecido una evidencia importante de la automaticidad y la resistencia de la expectativa sintáctica que complementa otros estudios realizados por medio del paradigma del primado (Tillmann & Bigand, 2004, ver publicación).7 Por ejemplo, en un experimento realizado por Stefan Koelsch y Sebastian Jentschke (2008; ver publicación),8 se presentaron secuencias de acordes a los participantes durante dos horas, mientras estaban viendo una película muda subtitulada, con los siguientes resultados:

  • Las secuencias que incluyeron una sintaxis musical irregular (una cadencia engañosa) provocaron una clara señal ERAN durante una tarea en la que los sujetos no centraron su atención en el estímulo musical.
  • La amplitud de la señal ERAN fue disminuyendo en el transcurso del experimento (dos horas).
  • La repetición de las secuencias irregulares no alteró la latencia de la señal (se mantuvo estable, cerca de los 180 milisegundos tras el acorde irregular, desde el inicio del experimento hasta su finalización).
  • La señal ERAN no desapareció tras dos horas de habituación a la secuencia irregular (cientos de exposiciones a la secuencia irregular).
  • Las características acústicas de un acorde no se relacionan con la señal ERAN, a la vista de que el mismo acorde aparecía en dos posiciones, y sólo produjo la variación cuando se encuentraba en la posición sintácticamente irregular.

Si bien la disminución de la señal ERAN parece indicar que las expectativas esquemáticas inducidas por la sintaxis musical pueden llegar a ser influidas por la experiencia a corto plazo, la señal ERAN continuó presente al final del experimento, un resultado que confirma que las representaciones cognitivas de las regularidades sintácticas en la música no pueden ser canceladas (Koelsch & Jentschke).8

Este resultado contrasta con el obtenido por McGee et al. (2001),9 quien reportó una disminución de la amplitud del MMN en el transcurso de varios minutos (el experimento no es con música, sino con sílabas de consonante-vocal). Esto parece apuntar a que nos habituamos rápidamente a la discrepancia acústica, algo que no ocurre con la irregularidad sintáctica.


REFERENCIAS:

  1. Koelsch, S. & Siebel, W.A. (2005). Towards a neural basis of music perception. [DOI: 10.1016/j.tics.2005.10.001]
  2. Lerdahl & Jackendoff (1983). A Generative Theory of Tonal Music. [DOI: 10.2307/843535] [Leer más]
  3. Patel, Gibson, Ratner Besson & Holcomb (1998). Processing syntactic relations in language and music: an event-related potential study. [DOI: 10.1162/089892998563121] [Leer más]
  4. Koelsch et al. (2002). Bach speaks: a cortical “language-network” serves the processing of music. [DOI: 10.1006/nimg.2002.1154]
  5. Bharucha, J.J. & Stoeckig, K. (1989). Chord Priming: The Automaticity of Schematic Expectancies. [DOI: 10.3758/BF03209808] [Leer más]
  6. Justus & Bharucha (2001). Modularity in musical processing: The automaticity of harmonic priming. [DOI: 10.1037//0096-1523.27.4.1000] [Leer más]
  7. Tillmann, B. & Bigand, E. (2004). Musical Priming: Schematic Expectations Resist Repetition Priming. [DOI: 10.2466/pms.98.2.450-458] [Leer más]
  8. Koelsch & Jentschke (2008). Shortterm effects of processing musical syntax: An ERP study. [DOI: 10.1016/j.brainres.2007.10.078] [Leer más]
  9. McGee et al. (2001). Long-term habituation of the speech-elicited mismatch negativity. [DOI: 10.1111/1469-8986.3840653]

Deja un comentario