Música


Música


Schering intentó desvelar las obras medievales por su convencimiento en que los madrigales del S. XIV eran arreglos al teclado de melodías tradicionales. Esta teoría no es inconcebible ya que hubo arreglos para teclado en ese siglo y Schering simplemente invertía el proceso conocido como paráfrasis mediante el cual una melodía, normalmente un pasaje dentro de canto gregoriano o llano, era adornada en la composición durante la edad media y el renacimiento. La dificultad de verificar los resultados como canciones tradicionales fue llevada a cabo mediante el interesante recurso de reducir dos madrigales diferentes y de diferentes autores a la misma progresión melódica subyacente. Este trabajo proporcionó técnicas básicas tanto para los evolucionistas melódicos ( Réti, Kéller y Walter ) como para el trabajo de Heinrich Schenker en la armonía estructural.

Guido Adler con su libro “Der Stil in der Musik” (1911) intentó cambiar la naturaleza de los escritos históricos sobre música, introduciendo la noción de estilo como el asunto central y primordial del historiador. En 1885 publicó un programa para el futuro de la musicología , resaltando la importancia del análisis. Estableció un criterio para examinar la estructura de una pieza, bajo títulos generales como “rasgos ritmicos”, “tonalidad, “construcción polifónica, “tratamiento de lo instrumentos y “práctica interpretativa.” Creyó necesario el establecimiento de una terminología adecuada para la descripción la música. Mediante esta se pude comparar piezas y autores para estudiar diferencias y similitudes de un modo metódico.

Consciente de nombrar a menos compositores en la perspectiva histórica y en su lugar analizar el estilo y desarrollo de forma estructural, con un método de estudio para hacer de esta disciplina un estudio formal y científico, Adler ofreció dos métodos de enfoque y es con esto con lo que su trabajo se hace importante para los analistas:

1.- Método inductivo: Estudiar varias piezas e identificar qué tienen en común y en qué difieren.

El analista determina qué obras se asemejan más en cuanto a su estilo y cuales se encuentran mas opuestos.

2.- Método deductivo: Comparar una pieza dada con el resto de ellas, para establecer su posición con respecto a aquellas.

Estos criterios se centran en el uso del motivo y el tema, el ritmo, la melodía y la Armonía, etc. En cambio hay otros criterios que incumben a la función y al medio de la música.

Ha habido muchos y variados estudios de estilo musical personal de muy diferentes autores: Beethoven, estilo clásico vienés, etc.

Sin embargo, el ejemplo más distinguido e influyente de análisis estilistico fue el llevado a cabo por Knud Jeppesen “ El estilo de Palestrina y disonancia “ . En él Jeppesen proporcionó el el procedimiento analítico detallado que Adler inició. Jeppesen se dio cuenta de la falta de investigación histórica del tratamiento de la disonancia. Denominó su propio método como “ Método empirico- descriptivo” y lo identificó con el método de Adler.

Lo que hace científico el trabajo de de Jeppesen es que el analista no selecciona y resume, sino que presenta la totalidad de los datos y de ellos obtiene y deduce objetivamente leyes y patrones aplicables a futuros trabajos.

Ernst Kurth fue uno de los discípulos de Adler . Sus ideas se hermanaban con las de la Psicología gestalt y con el concepto de “voluntad” de Schopenhauer y el concepto de “ subconsciente” de Freíd. La teoría Gestalt reconoce tres niveles de percepción auditiva: Física (oído), organización sensorial del sistema nervioso y comprensión a nivel psicológico. Kurth igualmente observó tres niveles de actvidad en la creación musical:

1.- Voluntad. En forma de energía Kinescética ( el origen de la música... es la voluntad de moverse)

2.- Nivel psicológico: Actividad subconsciente que sólo se hace consciente cuando toma forma en el sonido musical.

3.- La manifestación acústica.

Dado que estos tres niveles son actividades unos tras otro para producir la melodía, la línea resultante tiene unidad y forma de un todo acabado. Ésta es la esencia del concepto “Linear” de Kurth poniendo como ejemplo la música de Bach.

Un segundo trabajo de Kurth se centra en la armonía romántica, en la que observan una polarización: fuerza constructiva ( interviene la tonalidad) y fuerza destructiva.( interviene el cromatismo ).

Kurth hace un estudio de la estructura tonal de las óperas de Wagner, pero quien mejor concibe el problema de forma y tonalidad en Wagner es Alfred Lorenz. Su trabajo marcó un hito en la história del análisis y una culminación ya que era la obra a gran escala más rigurosa hasta la fecha. Usó técnicas gráficas y de tabulación en la presentación de sus datos.

Como resumen de su obra podemos decir que Lorenz veía que la construcción formal se creaba a partir de la armonía, el ritmo y la melodía. Percibía una estructura jerárquica en la música ( formas superiores, repetitivas , de estribillo y compases ).

Heinrich Schenker es otro investigador muy influyente en el S. XX. Sus primeros escritos contenían nociones altamente abstractas. Entre otros principios que emergieron de este autor encontramos la distribución entre “Tríada” y “ Tonos” , o la visión de una composición como la elaboración de un diseño básico de contrapunto. Principalmente estudió la ornamentación en autores como Bach, Haydn, Mozart o Beethoven entre otros, siempre respetando la ediciones autorizadas. Su importancia como analista estriba en su capacidad y técnica de diferenciar las distintas capas de ornamentación (ej.: duración) de una pieza hasta revelar su última estructura (1er. Plano, fondo, etc. )

Su método gráfico ( ligados, paréntesis, y otros símbolos ) hacía familiar cualquier texto complejo, Sus análisis tenían más bie función pedagógica.

En la década de los 30, Schoemberg escribió un libro que no terminó, cuyos fragmentos son de relevante importancia en la historia de la composición del S. XX y de influencia indiscutible en el análisis de la música. Muchas de sus ideas han sido aplicadas con éxito a la música compuesta por diversos autores. Hindemith es otro ejemplo de escritos técnicos aplicables a estilos modernos, Ambos compositores escribían sobre su propia obra y otros contemporáneos. Sin embargo, ningún teórico ha alcanzado el estatus de Rameau en el estudio de la música. La visión de Schoenberg sobre la compresión de la música implica la lógica y la coherencia; sin ellas las unidades estarían desconectadas.

Volviendo a Hindemith, su método de análisis es parecido a de Schenker en que se basa en una teoría de la melodía y la armonía junto con el ritmo. Se diferencia en que no hay niveles estructurales.

En esta última década apareció un libro conteniendo el repertorio completo orquestal y coral de los S. XVIII y XIX. Tovey añadió en 1944 un nuevo volumen. Estos libros y los artículos para la enciclopedia británica escritos entre 1906 y 1910 son de gran influencia en los escritos analíticos y críticos británicos. Son muy notables por su prosa mordaz y su intención de no ser dogmática. Son ejemplos de empirismo inglés.

El método Tovey era una mezcla del hermenéutico y el formalista que implícitamente enunciaba que hay cosas en la música que van mas allá de una explicación. Estaba especialmente interesado en la audibilidad. Si un rasgo no era observado por el oído inocente del oyente no experto, entonces no merecía la pena ser observado. Aún con su obra, Tovey tuvo poco impacto en el continente europeo o en Estados Unidos. En la década de los 70, hubo una revolución entre algunos estudiosos americanos ( Charles Rosen, Joseph Kerman ). Para algunos de ellos, tovey llegó a convertirse en un prototipo.

1945- 1970

Tras la segundo guerra mundial, dos importantes líneas de pensamiento intelectual vinieron a incidir en la teoría musical

La primera es la lingüística, fundada por Saussure como una ciencia moderna.. El periodo de mayor impacto en la música es durante las décadas de los 50 y los 60. El estructuralismo y la Semiología fueron ciencias muy conectadas que también contribuyeron .

La segunda corriente de pensamiento fue la teoría de la información y la cibernética, que comenzó a emerger a finales de los 40. La teoría de la información estudia la capacidad de los sistemas para recibir , procesar, almacenar y transmitir información. La información es la elección de un mensaje de entre un mayor abanico de posibles mensajes. El concepto binario de oposición es su base y esta teoría se aplicó rápidamente a ciencias como la genética, neurofisiología, sociología, filosofía y hasta estética.

En 1932, en el Congreso Internacional de 1932, el musicólogo y analista Gustav Becking habló de la importancia de la fonología en la música, como ciencia. Este resaltó la relevancia de establecer una tipología de sistemas ( unidimensional, bidimensional, etc. ) como el modelo de la fonología. 13 Años mas tarde, Milos Weingart exploró las similitudes entre la estructura de la música. Durante los años siguientes, la toería de la información y las teorías del lenguaje, serán usadas pr numerosos analistas y estudiosos de la música como modelo de investigación. La idea global es que un mensaje es una cadena de unidades discretas, diferenciadas y con sentido en la músicason notas, acordes, etc. Formando un todo lineal, Observando parte de lo que ocurre en la cadena se puede predecir el diseño entero. Unidad y jerarquía son palabras clave. La importancia del método estriba en su objetividad en el análisis, de hecho se trata de hacer un método científico de estudio.

El uso de la informática en el análisis musical puede datar de 1949, cuado Bernard Bronson analizó variedad, métrica, modalidad, estructura fraseológica, modelos de estribillo, contorno melódico, cadencia y final de varias canciones populares usando tarjetas marcadas. El comienzo fue hacer las operaciones a mano, pero pronto se pasó a hacerlo electrónicamente por ordenador. El ordenador contaba con la ventaja de ser más rápido, mas preciso, y con una memoria mas exacta.

A comienzos de los 60, se empezó a crear software de acuerdo con las demandas del material musical.

En 1965, un importante artículo escrito por Selleck y Bakeman vio la luz. En él se explicaban dos estrategias para el análisis de estructuras melódicas: Uno a través de probabilidades ( derivado de la teoría de la información ), y otro a través de comparar y clasificar unidades melódicas ( derivado de la Lingüística ). A partir de este momento, se publican numerosos ensayos del análisis computacional y otras cuestiones generales al respecto.

Otro estudio muy destacado de estos años es el que hace Xenaki en su tratado “Músicas formales”, en el que básicamente aplica el método matemático a la música. Este autor coloca al arte de la música en un plano mucho mas universal. Para Xenaki la música es como una galaxia gobernada por el orden y el cambio y rechaza el anterior pensamiento musical de un todo lineal.

Los años de postguerra fueron un periodo de reconocimientos, desarrollo y difusión de las teorías de Schenker. De ello se encargaron varios de sus alumnos que habían emigrado a Estados Unidos. Muchos de ellos seguían completamente las pautas de Schenker pero otros, siguiendo su misma línea, contribuyeron al desarrollo de la tradición con nuevas y originales ideas.

Mientras que se dejó a futuras generaciones la revisión de los textos originales de Schenker, surgió en el momento un nuevo y floreciente análisis más práctico ó sobre las líneas pos- Schenkerianas ó influenciado directamente por el propio pensamiento Schenkeriano.

El trabajo de análisis de Schenker pisó con fuerza durante toda la década de los 60.

A lo largo de las primeras décadas de posguerra, un nuevo enfoquesobre el análisis de temática orgánica se iba forjando. Dicha propuesta influenció la perpectiva del análisis musical en Gran Bretaña pero no fue bien acogida en otras partes de Europa o de Estados Unidos. Rudolph Réti le dio difusión en dos libros de 1951 y 1958 respectivamente. El “ Proceso temático ” extendió las ideas de Réti de una música como un proceso composicional lineal. El compositor empieza no con un esquema teórico sino con un tema que surge en su mente. El autor permite que ese tema crezca con una transformación constante por transposición, inversión, reiteración, paráfrasis, variación.

El compositor modifica significativamente o recoge un detalle de su material de elaboración, y esto se convierte en el foco. Una pieza de música, de este modo, es considerada una “ improvisación musical “ alrededor de unos cuantos temas recurrentes. Réti también estudió un nuevo tipo de tonalidad que no aparece en la superficie sino escondida entre diferentes puntos melódicos de la red de contrapunto.

En 1956, Hans Séller presentó el primero de una sucesión de artículos en los que exponía los principios del “ Análisis funcional “ . Este postula que los contrates no son sino diferentes aspectos de una única idea básica, una unidad de fondo. Mientras que Réti veía la música como un único proceso que pasa de principio a fin, Séller la veía como un doble proceso: un desarrollo lineal pero controlado por una única idea básica. El concepto de línea básica introduce un elemento de proyección en el proceso composicional. Así Séller habla de dos dimensiones en el pensamiento musical: Un primer plano y un fondo. El analista reconstruye ambas dimensiones para demostrar la unidad. Séller ve esa unidad dentro de la diversidad: la constante presencia de una única idea entre una sucesión de contrastes manifestados en la superficie de la música. La tarea del analista es identificar el principal material temático. Después ha de dar cuenta de la continuidad del primer plano. La idea básica es normalmente un contorno melódico.

Schenker había abandonado la palabra por la gráfica.

Séller abandonó la palabra y la gráfica por el sonido.

Este último creó una partitura en la que la subjetividad de la descripción verbal quedaba eliminada.

El trabajo de Réti y Séller fue extendido por Alan Walter en dos libros a lo largo de los 60. Uno de esos libros contiene una muy útil exposición del “ Fondo histórico “, concepto fundamental en el trabajo de Keller.

En 1959, Deryck Cooke publicó “ El lenguaje de la música “ que significó un resurgir de las teorías hermenéuticas. Su análisis se basaba en un fenómeno naturalm que consistía en trasladar una expresión musical de estados y acontecimientos psicológicos ( los del compositor ) a una expresión verbal.

Albert B. Lord (1960) investigó el mecanismo por el que un cantante crea espontáneamente o recrea una canción a través del “ tema ” y de la “ fórmula “ , y en particular de la capacidad de fórmulas para agrupar en “ sistemas “ que sirven para ajustar diferente métrica en la poesía que se crea. Lord casi no aplicó su teoría a la música. De ello se encargó Leo Treitler (1974).

Hacia finales del periodo que nos ocupa floreció un interés notable hacia el análisis del estilo.

El análisis categorial ( en esta línea ) es un método que comienza reconociendo que la música es un fenómeno demasiado complejo como para entenderlo si dividir su materia en elementos ( tema , frase, ...), es decir, en parámetros, categorías y su medición.

El estudio de la construcción, la cohesión, técnicas de instrumentación y escritura vocal, usos de la consonancia y la disonancia, la métrica y el ritmo, la textura y similares, caracteriza el estilo o repertorio.

En esta teoría son cinco las categorías a tener en cuenta: Sonido, Armonía, Melodía, Ritmo y Crecimiento.

Sonido: Se divide en timbre, dinámica, textura y estructura.

Armonía: Color y tensión.

Melodía: alcance, movimiento, modelos, etc.

Cada subcategoría tiene sus propios grados de medición, por ejemplo, los parámetros melódicos se miden en ascendentes, descendentes, etc.

La red que resulta de todo este análisis y entramado es realmente tridimensional con categorías y subcategorías, son sus tres niveles de estructura y con la variabilidad del grado en la medición.

El periodo que comienza en 1970 ve el análisis emerger como una disciplina reconocida dentro de los estudios musicales, recogiendo números, enfoques y métodos. Nacieron nuevas revistas especializadas y nuevas sociedades de la teoría musical.

En un principio, la restricción del análisis a través de métodos trajo nuevos niveles de rigor teórico y refinamiento en el proceso. A mediados de los 80, dos métodos habían conseguido gran difusión y eran vistos como sistemas básicos para el análisis de la música tonal y atonal.

1.- Técnicas Schenkerianas codificadas.

2.- Técnicas acordes con la llamada Set theory, ó la técnica de grupos de clases de tonos. ( Allen Forte, Georg Canter, etc.)

Finalmente a lo largo de la década de los 90, y tras años de exposiciones en contra y a favor , el análisis se consideró una actividad crítica, con modos establecidos tras una acumulación histórica de métodos.

Muchos de los avances pueden entenderse como en base a tres grandes líneas de

investigaciones que crecieron en relación al análisis Schenkeriano:

1.- La creencia en el potencial de ofrecer el “ interior ” de la música mediante un análisis metodológico.

2.- El valor que una escuela de pensamiento le da al formalismo en la teoría y el método. El análisis no es más que la aplicación práctica de la teoría.

3.- El tercer enfoque refleja el crecimiento de una nueva crítica musical. El trabajo de Schenker se consideró como un trabajo cultural y filosófico inigualable y se reinterpretaron sus ideas.

La diferencia entre la segmentación musical y la evaluación de las relaciones de grupos de clases de tonos ( Set Theory ) no está demasiado clara sin embargo.

Aparte de Forte, otros autores identificaron un número específico de colecciones de clases de tonos haber sido de gran importancia en la música de comienzos del S. XX ( Ej. .: la colección “ octatónica “ ) estudiada por Pieter van den Toorn .

Surgió nuevamente un renovado interés por la aplicación del método composicional al análisis y numerosos trabajos modernistas del S. XX se encaminaron por esta dirección. El interés por los datos biográficos y los propios escritos de los compositores a veces ustentaron el análisis de trabajos de Schoenberg , Berg, Webern y otros. Pero pronto lo análisis dejaron de depender de las biografías para tener mayor autenticidad y credibilidad. Se publicaron numerosos estudios de análisis de compositores individuales del S. XX. Fue Jonathan Bernard y su sistema de anotación gráfica quien innovó el campo del software a mediados de los 90 encuanto a la exposición de formatos y arrojó luz al futuro análisis asistido por ordenador.

Robert Morgan ( 1976 ) y James Baker desarrollaron los principios de Schenker que reflejaban los cambios en la armonía y la forma evidentes en la música progresiva compuesta a finales del 19 y principios del 20.

Otro nuevo enfoque de comienzos del S. XX que pareció tener características tanto de tonalidad como de atonalidad fue presentar un análisis compuesto basado en Schenker y en la Set theory aplicadas ambas a un mismo pasaje musical. Se perseguía demostrar la coexistencia de rasgos tonales y atonales a través de métodos establecidos.

Anterior a estos avances y desarrollos, hubo un análisis independiente como el de Marianne Henze on Ockeghem (1968): análisis proporcional, en caminos más ocultos, las proporciones en la música de Bach, por ejemplo, se relacionaban con la cábala ( códigos ocultos mediante números ).

El pensamiento Schenkeriano fue reinterpretado en numerosos términos. Sus conceptos y procedimientos se reformularon y adaptaron al análisis asistido por ordenador.

Sus teorías también llevaron a encontrar similitudes entre la lingüística y el análisis. Bajo la influencia de lingüistas como Jackendoff o Chomsky, surgieron cuestiones como : ¿ tiene la música una estructura interna?. ¿ existen los universales* en la música ?

Por estas fechas, se encontraban muchos puntos de contacto entre el análisis y la ciencia cognitiva, como por ejemplo la exitencia de estructura jerárquica, y de hecho, esta ciencia influyó en parte la práctica del análisis musical.

En contraste, encontramos el análisis empírico de la actuación musical. El análisis musical en actuaciones se ha centrado principalmente en el ritmo. David Epstein trabajó en este campo. En trabajos de otros especialistas aparecen componentes metodológicos derivados de la psicología y la Inteligencia Artificial. Estos estudios quizás implique la preferencia a estudiar algunas representaciones a otras.

El origen de la semiótica musical se debe al profesor de lingüística Nicolas Ruwet. Su principio llamado “ análisis distribucional “ . Surgió ante la concepción de la música como una corriente de elementos sonoros gobernados por reglas “adecuadas” y aplicables a cualquier pieza musical; crear una sintaxis musical. El método consistía en romper esa corriente musical en las unidades que la componen y comparar dichas unidades entre sí.

La polémica ahora era si la segmentación debía ser a mayor escala o a pequeña escala. Se optó por dividir en unidades mas pequeñas.

Nattiez (1975) y sus seguidores siguieron una rama de la semiótica que proponía una participación del espacio semiológico en tres niveles:

Poético : se interesa por las relaciones entre la partitura y el compositor.

Estético : Partitura, objetos musicales e intérprete.

Neutral : Dominio no interpretado.

Pero quedó claro que la Semiología y la práctica del análisis no se podían combinar fácilmente.

Queda como indiscutible el gran impacto dominante de las ideas de Schenker en análisis profesional.

En los 80 y los 90, William Rothstein y Robert Snarrenberg releyeron los escritos de Schenker y comenzó una crítica al mismo tiempo que reflejó la madurez de la disciplina como ciencia ya que ahora se cuestionaba sus propios mitos y prácticas. Después surgió la crítica post- estructuralista, con su principal baza en el ataque al principio de unidad, por Alan Street. Otra práctica crítica surge en torno a la narratología, que persigue interpretar un ejemplo de narración literaria concreto frente a la estructura y cualidades prototípicas de una narración. Esto llevó a encontrar características narrativas en la música Relación entre la música y texto, o mejor dicho entre lo musical y lo extra- musical.

Otra importante corriente de los años 80 y 90 fue la reconsideración de la historia del análisis o la fenomenología, o ciencia de la experiencia. Esta última se

(* rasgos presentes en cualquier pieza de música básicos )

interesa por el contacto entre el objeto y la mente y estudia la consciencia en intencionalidad ( Ernest Ansermet, Thomas Clifton,etc. )

En general se puede decir que el análisis ha tenido muy cercano contacto con ciencias como la Cognitiva, la Semiología y la Crítica, y que al fin ha conseguido el estatus de disciplina académica, siendo su característica principal la conciencia de una estructura interna en la música.




Descargar
Enviado por:Carlos
Idioma: castellano
País: España

Te va a interesar