Músicas al Sur - Número 1 - Enero 2004


Escuchando Turenas de John Chowning

Luis Jure
Escuela Universitaria de Música


Resumen

John Chowning es una de las figuras más destacadas e influyentes a nivel mundial en el campo de la "computer music", tanto en su faceta de compositor como en la de investigador. Sus obras de los años setenta significaron un gran avance en la maduración y desarrollo de los medios de composición electroacústicos digitales. "Turenas" en particular representa un punto de gran importancia histórica en el repertorio.

Este trabajo presenta en primer término un contexto biográfico de Chowning, y una discusión de los fundamentos teóricos de los dos aspectos técnicos más destacados de "Turenas": la espacialización de las fuentes sonoras, y la síntesis de sonido por modulación de frecuencia (FM). A continuación se intenta un abordaje analítico de la obra, aplicando técnicas de análisis espectral del sonido, y su representación sonográfica. En el mismo se hace evidente, entre otras cosas, la importancia de la serie de Fibonacci en la estructuración de la pieza.

El compositor e investigador estadounidense John Chowning es unánimemente reconocido como una de las figuras más importantes e influyentes de la música electroacústica, especialmente de la computer music. Muy pocos han logrado como él realizar aportes tan fundamentales al desarrollo de la técnica, a la vez que componer obras significativas del repertorio. Su ya clásico artículo sobre la síntesis de sonidos complejos mediante la modulación de frecuencia (FM), publicado originalmente en 1973, significó un salto enorme en la evolución de los modelos de síntesis, marcando todo su desarrollo posterior por muchos años. La técnica obtuvo además amplísima difusión al ser implementada con gran éxito en sintetizadores y tarjetas de sonido de producción industrial.

Seguramente menos conocido a nivel general, pero igualmente importante, fue su anterior trabajo sobre la simulación de fuentes sonoras en movimiento, que se constituyó en el verdadero punto de inicio de las técnicas modernas de localización y espacialización en música electroacústica.

Pero lo importante es que Chowning ha sabido fundamentar la aplicación musical de esas técnicas con la creación de obras con sustancia compositiva. Turenas es una de ellas, y constituye un clásico de la música electroacústica digital. Creada en 1972 (aunque involucró varios años de trabajo previo), tiene una relevancia histórica además de musical: fue -junto con Sabelithe- la primer obra compuesta usando extensivamente la síntesis de FM, a la vez que la primera en recrear en forma eficaz un espacio de 360° en torno al oyente, por medio de un sistema cuadrafónico.

El objeto de este artículo es presentar en primer término la figura de John Chowning, describiendo el background de sus obras, y discutir luego los aspectos técnicos más relevantes en la composición de Turenas, de modo de contribuir a una audición más informada y competente de esta obra, y de otras que puedan enmarcarse en el mismo repertorio.


Acerca de John Chowning

La enorme trascendencia que logró como investigador, y el haber publicado en revistas científicas dos de los artículos más influyentes y decisivos en el desarrollo de la computer music, pueden oscurecer el hecho de que Chowning es fundamentalmente un compositor, con una extensa y sólida formación musical. Nacido en 1934 en Salem, New Jersey, ya en la niñez inició estudios de violín. En la adolescencia cambió a la percusión, a la vez que comenzó a interesarse particularmente por el jazz. Su servicio militar coincidió con la Guerra de Corea (1950-53), asistiendo durante esos años a la Navy School of Music. La actividad musical allí era intensa, y le brindó además la oportunidad de estar en contacto con muchos importantes músicos de jazz, como los hermanos Nat y Julian "Cannonball" Adderley, entre otros.

Terminado el servicio militar, Chowning asistió a la Wittenberg University, Ohio, obteniendo el título de Bachelor of Music en 1959. Fue durante ese período que surgió su inclinación por la composición: "Improvisaba mucho como percusionista, y comencé a interesarme más y más en la composición" [Roads 1985a].

Luego de graduado viajó con una beca a París para estudiar con Nadia Boulanger, siguiendo de esta manera una larga tradición entre los compositores estadounidenses. Residió en esa ciudad durante tres años (1959-1962), aunque las cosas que pudo ver y escuchar en la capital francesa fueron mucho más atractivas y provechosas que las clases con Boulanger, las que poco a poco fue abandonando para dedicar finalmente todo su tiempo a la composición y a los conciertos. A pesar de esta experiencia, Chowning considera que la rigurosa formación tradicional en la composición, con disciplinas tales como armonía y especialmente contrapunto, forman un parte importante de su pensamiento musical.

Durante sus años en París, Chowning encontró que las cosas más interesantes estaban ocurriendo en el campo, por aquel entonces todavía novedoso, de la música electroacústica, así como en conciertos como los del Domaine Musical de Pierre Boulez, donde tuvo oportunidad de conocer obras importantes del repertorio contemporáneo de la época.

De regreso en los Estados Unidos, Chowning ingresó al Departamento de Música de la Universidad de Stanford, California, para sus estudios de posgrado. En esos años Leland Smith era profesor de composición en el Departamento, y con él Chowning realizó sus estudios, obteniendo primero el título de Master of Music, y en 1966 el Doctorado en Composición. En gran medida motivado por el interés que la música electrónica había despertado en él durante su estadía en París, al llegar a Stanford en 1963 Chowning buscó la posibilidad de trabajar en ese terreno. Lamentablemente encontró que el Departamento de Música no disponía de ningún tipo de facilidades para ello, y tampoco tenía ningún interés en el tema. Pero a fines de ese año llegó a sus manos una copia del histórico artículo que Max Mathews publicara en la revista Science [Mathews 1963], donde exponía los fundamentos del audio digital y su aplicación a la síntesis de sonido de uso musical por medio de la computadora. Mathews, un ingeniero aficionado a la música, que trabajaba en los laboratorios de la compañía Bell investigando sobre la digitalización de audio y su posible uso en la transmisión telefónica, había creado en 1957 Music I, el primer programa de síntesis digital de sonido. Mathews siguió desarrollando el concepto a través de sucesivas versiones de su programa, y para 1963 había llegado a Music IV, que ya presentaba todos los rasgos característicos de lo que sería el paradigma principal en la realización de música por computadora por las décadas siguientes, y que todavía sigue vigente. La serie culminó en 1966 con Music V, presentado en el libro The technology of computer music [Mathews et al. 1969], y todos los lenguajes desarrollados a partir de entonces siguiendo ese modelo se conocen genéricamente como lenguajes Music N.

En cuanto Chowning leyó el artículo vio una oportunidad que debía intentar aprovechar: tanto el Departamento de Ciencias como el Laboratorio de Inteligencia Artificial tenían computadoras (una IBM 7094 y una DEC PDP-1 respectivamente), y había más posibilidades allí que en el Departamento de Música de despertar interés en esa área que se iniciaba. Chowning decidió entonces tomar un curso de programación, y en el verano de 1964 viajó a New Jersey para visitar a Mathews en los Laboratorios Bell. A su regreso trajo consigo una caja llena de tarjetas de cartón perforadas con el programa Music IV. En la instalación Chowning trabajó junto a David Poole, un ejecutante de tuba que estaba estudiando en el Departamento de Ciencias, y para el otoño tenían ya el sistema funcionando y produciendo los primeros sonidos.

El primer objeto de investigación por parte de Chowning durante esos años iniciales fue el de la espacialidad de los sonidos generados sintéticamente. Los resultados fueron presentados en 1970 en un trabajo que sentó las bases de todo el desarrollo posterior de espacialización de sonido por computadora. Sin embargo, el aporte de Chowning que tuvo una repercusión más conocida popularmente fue su formulación de la técnica de síntesis de espectros complejos y dinámicos mediante la modulación de frecuencia (FM). Publicada en 1973, tuvo gran impacto no sólo en los medios académicos, sino también en la industria, ya que fue la base del primer modelo de sintetizador digital de producción masiva en el año 1982. Desde entonces ha sido aplicado en innumerables modelos de sintetizadores y tarjetas de sonido.

Paralelamente a sus investigaciones en la espacialización y la síntesis de FM, Chowning trabajó en la composición de dos piezas, Sabelithe (1971) y Turenas (1972), en las que fue aplicando los resultados obtenidos, estableciendo así una estrecha relación de realimentación entre investigación y composición.

En 1972 György Ligeti fue invitado a Stanford como compositor residente, y quedó muy entusiasmado al conocer tanto las técnicas desarrolladas por Chowning como sus obras. Ligeti debía regresar a Europa para dictar conferencias en el Festival de Berlín y durante los cursos de Darmstadt (Internationale Ferienkurse für Neue Musik), y solicitó que se le extendiera la invitación a Chowning, quien tuvo así la oportunidad de mostrar sus trabajos en el ambiente europeo. Recibió además una beca del Servicio de Intercambio Académico Alemán (DAAD), gracias a la cual permaneció en Berlín hasta mediados de 1975. Durante ese período no sólo tuvo el tiempo suficiente para redactar el artículo en el que exponía los aspectos teóricos y prácticos de la síntesis FM, que le dio notoriedad internacional, sino que además estuvo trabajando sobre las ideas de lo que sería después su obra Stria.

A su regreso a la Universidad de Stanford, Chowning reinició los trabajos con el grupo de investigación en acústica, psicoacústica y síntesis, que había formado tiempo antes junto a James Moorer, Loren Rush y John Grey. Sus esfuerzos obtuvieron un logro decisivo en 1975, con la fundación oficial del Center for Computer Research in Music and Acoustics (CCRMA). Hay que tener en cuenta que hasta ese entonces todos los trabajos en esa área se habían realizado de manera informal en el ámbito del Laboratorio de Inteligencia Artificial, al margen de las estructuras académicas, y sin mayor reconocimiento institucional.

Chowning fue su primer director (con Leland Smith como codirector), y en poco tiempo CCRMA se convirtió en uno de los centros más importantes y productivos en materia de computer music, gracias a una política abierta que logró convocar a músicos e ingenieros que se involucraron en diversas actividades de investigación y creación, como ser David Jaffe, Gareth Loy, Michael McNabb, Larry Polansky, Roger Reynolds, Bill Schottstaedt, entre muchos otros.

Entre tanto, en París se había creado, bajo la dirección de Pierre Boulez, el Institut de Recherche et Coordination Acoustique/Musique (IRCAM), con cometidos similares a los de CCRMA. El proceso fundacional comenzó en 1970 e insumió varios años, además de cantidades fabulosas de dinero. Un apoyo importante fue brindado por CCRMA cuando en 1975 Chowning, Moorer, Rush y Grey visitaron el Instituto, llevando consigo abundante software, y dictando varios seminarios. En 1977 el IRCAM encargó a Chowning la composición de una obra para la serie de conciertos de música electroacústica coordinados por Luciano Berio, que resultó en la realización de Stria, una pieza basada también en síntesis FM, en la que tanto las relaciones temporales como de frecuencias están determinadas por la sección áurea.

Más adelante Chowning recibió una nueva invitación del IRCAM, esta vez como profesor e investigador visitante. Durante su estadía, entre diciembre de 1979 y agosto de 1980, Chowning aprovechó la presencia en IRCAM de Johan Sundberg, un investigador sueco especializado en la voz humana, para profundizar sobre ese tema. Diseñó así un sistema de síntesis de la voz cantada por medio de FM, que presentó en un artículo publicado por la Real Academia Sueca de Música. A su regreso a Stanford lo aplicó a la composición de Phoné.

Durante los años 80, siempre bajo la dirección de Chowning, CCRMA siguió afirmándose como el centro de informática musical quizás más importante a nivel mundial, con una significativa actividad en investigación en acústica y síntesis, desarrollo de software, y producción musical. Además de los numerosos compositores que trabajaron allí desde su fundación, fue invalorable el aporte de investigadores y docentes como Chris Chafe, Perry Cook, David Jaffe, Richard Karpen, Bill Schottstaedt, Xavier Serra, y Julius Smith, entre tantos otros. En 1983 John Pierce, quien había trabajado junto a Max Mathews en los Laboratorios Bell durante los años pioneros, se unió a CCRMA como profesor investigador asociado; en 1987 también lo haría el propio Mathews, padre de la computer music.

CCRMA cumplió también una importante labor de formación y difusión, recibiendo a estudiantes de todas partes del mundo; muchos de sus docentes e investigadores comenzaron realizando allí sus estudios de posgrado. En particular Chowning desempeñó una intensa actividad docente. Entre quienes estudiaron con él figuran, además de varios de los nombres mencionados, personas como Martin Bresnick, Michael Edwards, Henry Kucharzyk, Elma Miller, Dexter Morrill, Adolfo Núñez, Juan Reyes, Heinrich Taube, Marco Trevisani, entre otros.

Sus obligaciones como Director de CCRMA, cargo que Chowning desempeñó por 20 años hasta su retiro en 1995, así como sus tareas como docente e investigador, lamentablemente no dejaron mucho tiempo a su actividad compositiva. Comenzó algunos proyectos que luego quedaron inconclusos, y Phoné, de 1981, sigue siendo su última composición. Junto con los otros tres títulos mencionados, Sabelithe, Turenas y Stria, conforma el total de la obra electroacústica de Chowning, cuya relevancia e influencia ha quedado establecida, como ha ocurrido también con otros compositores, a pesar de una producción cuantitativamente reducida.

En la actualidad John Chowning es Profesor Emérito de CCRMA, habiendo recibido además varias distinciones honoríficas de diversas universidades e instituciones académicas dentro y fuera de los Estados Unidos.


El análisis en la música electroacústica

Si bien el análisis musical en general significa uno de los problemas más complejos para la teoría de la música, con un constante cuestionamiento y replanteo de objetivos y metodologías, con posturas contrapuestas y enfrentadas, el análisis de música electroacústica presenta algunas dificultades adicionales.

En primer término, resulta significativo observar cómo las principales corrientes de análisis de las últimas décadas, incluyendo las relativamente más recientes, han eludido cualquier tipo de referencia a este género, como puede comprobarse en textos que aún sirven como referencia en el tema [Cook 1987]. En cuanto a las propuestas de técnicas formales de análisis, ninguna de ellas ha proporcionado metodologías que puedan ser trasladables a músicas compuestas con medios electroacústicos.

A pesar de tener más de medio siglo de existencia, y de haber producido una cantidad nada despreciable de obras de relevancia tanto musical como histórica, parece ser que la música electroacústica no ha logrado aún ingresar con plenos derechos al corpus legitimado por el discurso analítico establecido. Los análisis existentes de obras electroacústicas son, en términos relativos, mucho más escasos que los de otros repertorios más tradicionales, y en todo caso nunca involucran a los nombres más prestigiosos de la disciplina.

Muchos de los análisis más interesantes han sido realizado por los propios compositores sobre sus obras [Dashow 1987; Dodge 1985, 1989; Harvey 1981; Roads 1985b; Truax 1982; Vaggione 1984], aunque se ha argumentado que en este caso habría que hablar de "reportes", más que de análisis [Roads 1996b]. Como sea, es interesante observar que en su mayoría, estos trabajos han sido difundidos en ámbitos especialmente dedicados al tema, ya sean publicaciones como Computer Music Journal, o congresos como la International Computer Music Conference, y no en los generales de análisis y teoría musical.

Pero las dificultades residen no sólo en la carencia de una tradición teórica y analítica, sino que hay además algunos problemas intrínsecos. El más obvio, y sobre el que se ha llamado suficientemente la atención, es la ausencia de una partitura. Las limitaciones de un análisis basado exclusivamente en la audición son evidentes: no sólo difícilmente se pueda ir más allá de los rasgos más salientes de la superficie, sino que la percepción en tiempo real de audición no permite un examen detenido de relaciones estructurales, o detección de métodos compositivos. Análisis de este tipo suelen no pasar del nivel de la interpretación subjetiva.

Como dice Marco Stroppa: "El examen visual de la partitura [en la música instrumental] no está limitado temporalmente, y puede penetrar fácilmente por debajo de las apariencias hasta las ideas generativas de la obra. Hay entonces en el análisis de música instrumental una interacción entre la percepción y la observación detenida de la partitura, que no se da en una música que existe sólo como grabación" [Stroppa 1984].

Quizás sean más importantes, sin embargo, los problemas cognitivos que la música electroacústica plantea al oyente. En la música instrumental tradicional, los parámetros sonoros, especialmente aquellos portadores de mayor información musical, están alfabetizados, conformando unidades gramaticales fácilmente cognoscibles en todos sus niveles [DeBellis 1999; Lerdahl y Jackendoff 1983; Lerdahl 1992]. Es cierto que mucha de la música producida en las últimas décadas se aleja de gramáticas tonales, métricas y temáticas, y se ha discutido abundantemente sobre las consecuencias de esto a nivel cognitivo; la música electroacústica puede resultar sin embargo más compleja aún, en particular en lo que respecta a lo tímbrico.

El análisis sonográfico

La no existencia de partitura en la música electroacústica elimina el "nivel neutro", entendido como una representación gráfica simbólica de la música, el que parece conformar el punto de partida de la mayoría de las técnicas de análisis habituales. En la música electroacústica el único nivel neutro sería la propia señal sonora. Sin embargo, no podemos coincidir con Lelio Camilleri, cuando afirma: "La aproximación analítica a la música electroacústica sólo puede ser estético/perceptivo/cognitiva, ya que no existe una correlación consolidada entre la representación gráfica y el texto sonoro (como sí existe en la música instrumental); el único texto que podemos analizar es el texto sonoro" [Camilleri 1993].

Lo necesario es encontrar una representación gráfica que sea a la vez precisa y fiel a la señal sonora, y que permita el análisis detallado de los elementos estructurales de la composición. Uno de los métodos utilizados consiste en el análisis espectral del sonido y su representación mediante un sonograma, donde el eje horizontal corresponde al tiempo y el vertical a las frecuencias. Las intensidades suelen representarse mediante algún código de colores, o con diferentes graduaciones de grises. Generalmente las obras estéreo- o cuadrafónicas se reducen previamente a versiones monofónicas. El almacenamiento de audio en forma digital permite utilizar todas las herramientas del procesamiento digital de señales, y en la actualidad son fácilmente accesibles diversas aplicaciones que implementan, en ordenadores personales, técnicas de análisis espectral de sonido [Schottstaedt 2003; Sjölander y Beskow 2003], fundamentalmente basadas en la transformada de Fourier [Moore 1990; Roads 1996a]. Estas aplicaciones permiten diferentes representaciones gráficas del sonido, según sea más adecuado en cada caso.

La aplicación de sonogramas al análisis musical fue presentada extensivamente por Robert Cogan en New Images of Musical Sound [1985], texto clásico de referencia en esta materia. Allí se ejemplifica la metodología aplicándola a músicas de los más variados períodos históricos y contextos culturales, quedando claro que es muy apropiada para el análisis de música electroacústica en particular. Se puede dar así una interacción similar a la que existe entre la audición y el estudio detenido de la partitura en la música instrumental. La representación sonográfica ha sido utilizada desde entonces en muchas ocasiones para el análisis de obras electroacústicas [Code 1990; Hirst 1996].

Cogan busca además formalizar una metodología de análisis aplicando procedimientos de la fonología, en la configuración de lo que denomina "teoría de los opuestos". En nuestro caso no se plantea la aplicación de éste ni ningún otro modelo establecido de análisis; el objetivo de este trabajo es más bien presentar una especie de "partitura comentada" de la pieza lo más detallada posible, que junto con una discusión de los aspectos técnicos más relevantes de su composición -la síntesis FM y la espacialización- permitan una audición más detenida y competente de la misma.

Limitaciones

La representación por medio de sonogramas permite analizar aspectos relevantes de la estructura temporal de la obra en todos sus niveles, desde los locales hasta los globales, y la relación de éstos con elementos de composición tímbrica, así como la organización en la dimensión de las frecuencias. Hay sin embargo otros aspectos que no son bien representados, en particular el que tiene que ver con la espacialización del sonido, que en esta obra juega un importante papel. Los aspectos dinámicos en general tienen una limitada representación, por lo que puede interesar complementar los sonogramas con oscilogramas (amplitud en función del tiempo).

Por otra parte, la representación temporal en un eje de tiempo cronométrico resulta poco apropiada para analizar música organizada rítmicamente en estructuras métricas basadas en pulsos, ya que no se revelan claramente las relaciones rítmicas derivadas de éstos; sí es apropiada, en cambio, para música sin estructuras métricas, como es el caso de Turenas.


El problema de la espacialidad en la música electroacústica

Si bien es cierto que a lo largo de la historia de la música occidental podemos encontrar diversos casos en los que la espacialidad del sonido buscaba integrarse a la composición, parece indiscutible que fue con el desarrollo de la música electroacústica en la segunda mitad del siglo 20 que este aspecto pasó a desempeñar un papel estructural cada vez más importante.

Por una parte los nuevos medios tecnológicos comenzaron a permitir -o parecieron hacerlo- un control mucho mayor sobre la ubicación perceptual de las fuentes sonoras, a la vez que mayor libertad para realizar comportamientos más complejos que los posibles con instrumentos tradicionales. Pero también el hecho de trabajar con nuevos materiales sonoros, muchos de los cuales anteriormente habían estado excluidos de la música, ha estado íntimamente relacionado con la búsqueda de nuevas dimensiones en la estructuración de la composición musical. Fue así que los aspectos espaciales, que en el pasado habían tenido en general una importancia prácticamente nula en comparación con los procesos armónicos, melódicos y rítmicos, comenzaron a adquirir una jerarquía mayor.

Sin embargo, durante las décadas de los años 50 y 60, la aproximación al problema por parte de quienes realizaban música electroacústica fue básicamente empírica y sin un verdadero conocimiento de los mecanismos perceptivos y los principios psicoacústicos que intervienen en nuestra captación del espacio sonoro. Eso determinó que las soluciones planteadas a los problemas de la espacialidad fueran algo primitivas, y en esa primera época de la música electroacústica podemos ver intentos de resolver la localización de la fuente sonora mediante la multiplicación de parlantes, los aspectos de cercanía/lejanía por medio de simples cambios lineales de intensidad, y el movimiento de las fuentes a través de la perilla de balance panorámico.

Al inicio de sus investigaciones, Chowning observó que en nuestra experiencia natural las fuentes sonoras están localizadas en un continuo espacial, que incluye tanto las señales directas como las indirectas o reverberantes dadas por el entorno. Esta multiplicidad de señales nos provee una serie de pistas, muy sutiles pero precisas, tanto sobre la ubicación de las fuentes, como sobre las características del espacio circundante. Cuando la música es sintetizada y emitida por parlantes, el número de puntos de localización de las fuentes queda limitado a la cantidad de parlantes que interviene en la difusión, y de esa manera nuestra percepción de un espacio sonoro integrado no llega a constituirse por sí sola.

Una buena grabación estereofónica (eventualmente cuadrafónica) realizada en un entorno acústico determinado, recoge en parte esas pistas acústicas, conservando en cierta medida su espacialidad al ser reproducida por parlantes. Los sonidos generados sintéticamente, por el contrario, deben construir su propio espacio, y por tanto los componentes de espacialidad deben formar parte integral de los procesos de síntesis.

El problema se reducía entonces a comprender primero cómo son percibidas y procesadas por el oído las pistas de espacialidad, y luego a diseñar su implementación por medio de síntesis digital. Chowning comenzó estudiando la literatura sobre el tema, que a mediados de los años 60 todavía era incipiente [Gardner 1962, 1969; Schroeder 1962; Wendt 1961], y llegó a formular los puntos esenciales de los tres aspectos que resultaban más relevantes al problema: localización, espacialidad, y movimiento.

Localización

Se entiende por localización de una fuente sonora la percepción de su ubicación en el espacio, y queda determinada por dos componentes: la dirección, o sea el ángulo que forma respecto al oyente, y la distancia.

Las pistas para la ubicación angular están dadas por:

Por su parte, dos pistas importantes referidas a la distancia de la fuente son:

Espacialidad

La espacialidad tiene que ver no con la ubicación de las fuentes, sino con la percepción de las características sonoras del espacio en sí, y se basa fundamentalmente en el tipo de reverberación que éste genera, es decir el comportamiento de las primeas reflexiones, calidad y cantidad de reverberación, su duración, y respuesta de frecuencia. De esta forma la reverberación aporta pistas importantes tanto para la localización de las fuentes en cuanto a su distancia, como para la configuración del espacio en el cual éstas se encuentran.

Para un espacio físico determinado, las características de su reverberación dependen de su tamaño, forma y materiales. Si exceptuamos algunas salas especialmente acondicionadas para ello, todos éstos son factores que difícilmente cambian en el tiempo. Por tanto podemos considerar que cada espacio físico tiene una respuesta de reverberación propia. En un espacio virtual creado por reverberación sintetizada, por el contrario, ésta puede transformarse dinámicamente en el tiempo, abriendo así la posibilidad de "modular" entre espacios de diferentes dimensiones y características.

Chowning comprendió también la importancia de distinguir entre la reverberación "local" -aquella que proviene principalmente desde la ubicación de la fuente- y la reverberación "global", dada por el espacio en su conjunto y que llega en forma difusa de todas direcciones. El correcto manejo de ambas dimensiones es esencial para la construcción de una espacialidad coherente.

Movimiento

Uno de los aspectos que logró determinar Chowning por medio de sus investigaciones fue la importancia del efecto Doppler cuando se trata de reconstruir la sensación de movimiento virtual de las fuentes en el espacio. El efecto Doppler consiste en el desplazamiento de frecuencia que se da cuando una fuente cambia su distancia respecto al oyente: cuando se acerca su velocidad se suma a la del sonido y hay por tanto un incremento de frecuencia; cuando la fuente se aleja las velocidades se restan, resultando en un decremento de frecuencia.

Por tanto no es suficiente modificar las coordenadas virtuales de ubicación de una fuente para transmitir efecto de movimiento, y se debe también atender las variaciones de frecuencia que se producen, las que deben ser calculadas de acuerdo a la velocidad.

La implementación

Partiendo de estas premisas, Chowning trabajó en la implementación de un modelo que permitiera crear un espacio sonoro continuo mediante un sistema de cuatro canales de reproducción, en el que los parlantes se colocan en las esquinas de un cuadrado donde se ubican los oyentes, lo más cerca posible del centro (ver figura 1).

Como la posición exacta de cada oyente no es conocida, Chowning consideró que las pistas de localización basadas en diferencias temporales (ITD) o de fase no eran apropiadas, y por tanto instrumentó la ubicación angular de las fuentes virtuales por medio de diferencias de intensidad entre los cuatro canales [Chowning 1971].

Para la distancia hay que considerar la disminución de intensidad que se percibe cuando la fuente se aleja, a la vez que el cambio en la relación entre señal directa y señal reverberada. A través de la experimentación, Chowning llegó a la conclusión que se puede lograr el efecto adecuado si la intensidad de la señal que proviene directamente de la fuente decrece proporcionalmente a la distancia, y la parte de la señal que va a pasar a los reverberadores lo hace en proporción a la raíz cuadrada de la distancia.

La reverberación en sí conforma el "espacio" que rodea al oyente, y debe provenir por tanto de los cuatro canales de la forma más difusa posible. Sin embargo, el desigual cociente de pérdida de intensidad entre señal directa y reverberación que se produce con el alejamiento de la fuente, puede provocar que cuando la distancia pasa cierto límite, la reverberación tenga más energía que la señal directa y la enmascare totalmente, perdiendo entonces el sentido de localización. Chowning resolvió el problema creando una reverberación global, donde la señal que llega al reverberador es escalada inversamente a la distancia (1/D) y enviada a los cuatro canales, y una reverberación local, escalada por su complemento (1 - 1/D).

Chowning diseñó un programa que, dada una trayectoria determinada, calculaba todos los parámetros necesarios para el algoritmo de espacialización, los que podemos resumir así:

Este modelo fue utilizado ya en Sabelithe, pero alcanzó su forma definitiva en Turenas, especialmente en lo referente al efecto Doppler.

En un principio, Chowning trabajó con un ingeniero de Stanford para construir un dispositivo mecánico consistente en un pequeño brazo con doble articulación -una especie de antecesor del joystick-, con el que se podían trazar trayectorias en la pantalla de la computadora. Luego descubrió que ciertas figuras de Lissajous poseían propiedades similares a las que estaba buscando, y le permitían diseñar trayectorias más ricas y complejas, a la vez que más coherentemente estructuradas, que las que se podían dibujar trabajosamente a mano [Chowning 1987].

De esta forma, en Turenas los desplazamientos de las fuentes sonoras están reguladas por distintos tipos de figuras de Lissajous, como la que se muestra en la figura:


oyente en el centro de la disposición cuadrafónica de los parlantes, trayectoria del sonido siguiendo curva de Lissajous

fig. 1


Como el intervalo temporal entre los puntos de la trayectoria permanece constante, las diferentes distancias entre los mismos indica la velocidad del movimiento.

Por supuesto que todas estas variables no agotan el vasto y complejo tema de la espacialización virtual de sonidos reproducidos por parlantes. Algunos aspectos no fueron considerados, como ser la elevación en la localización de las fuentes; otros tienen en realidad comportamientos más intrincados que los presentados en este modelo. Mucho se ha avanzado desde aquel entonces en la comprensión de la percepción y recreación de la espacialidad sonora, gracias al conocimiento generado por numerosos investigadores, entre ellos el propio Chowning, quien siguió profundizando en el tema [Chowning et al. 1974, 1984, 1986; Chowning 2000].


La síntesis FM

En su clásico artículo sobre la síntesis de espectros de audio complejos mediante la modulación de frecuencia [Chowning 1973], John Chowning destacaba que, a diferencia de los sonidos naturales, cuyo espectro evoluciona de manera compleja a lo largo del tiempo, la mayoría de los sonidos sintéticos realizados con las técnicas conocidas en la época presentaban espectros fundamentalmente fijos. En su opinión, esa diferencia entre espectros estáticos y espectros dinámicos es lo que despertaba en el oyente la sensación de que los sonidos electrónicos eran pobres y carentes de vida, comparados con los producidos por instrumentos acústicos.

Si bien la síntesis digital de sonido por computadora mediante lenguajes Music N significa una herramienta general, por medio de la cual puede crearse cualquier sonido reproducible por parlantes [Mathews 1963; Mathews et al. 1969], los resultados reales están limitados por el conocimiento de la acústica y la psicoacústica, y la eficiencia de las técnicas de síntesis utilizadas. La técnica de síntesis aditiva, basada en el modelo de Fourier-Ohm-Helmholtz, permitía en teoría reproducir cualquier sonido; en la práctica, sin embargo, resultaba tan costosa como difícil de manejar, ya que la obtención de un espectro mínimamente complejo y dinámico requería el control de centenares de parámetros.

Hacia 1967, mientras experimentaba con diferentes tipos de vibrato, Chowning descubrió que modulando la frecuencia de un oscilador sinusoidal se podían obtener cambios de timbre. En los años siguientes continuó investigando el fenómeno, hasta formular un modelo sencillo, eficiente y elegante para la generación de espectros complejos y dinámicos mediante frecuencia modulada.

En el contexto de la síntesis, la modulación consiste en modificar un parámetro de una señal siguiendo el valor de otra señal. Por ejemplo, podemos variar la amplitud o la frecuencia de un oscilador con la salida de otro.

En la grafía de los lenguajes Music N, un oscilador sinusoidal con frecuencia f y amplitud a fijas, se representaría de la siguiente forma:


oscilador simple

fig. 2


Supongamos ahora que la frecuencia del primer oscilador, que llamaremos portante, es modulada por un segundo oscilador, llamado modulante.


oscilador modulado

fig. 3


De esta forma, al valor fijo fc se le suma a cada momento el valor de la onda modulante, que como es una señal bipolar (adquiere valores positivos y negativos), produce una desviación tanto ascendente como descendente en torno a la frecuencia portante. La magnitud de la desviación depende de la amplitud d del oscilador modulante, mientras que la frecuencia con que ocurre la modulación está determinada, obviamente, por fm.

Una aplicación cuya significación musical es suficientemente conocida es el vibrato; en ese caso la frecuencia modulante es de unos pocos ciclos por segundo (típicamente entre 5 y 7 Hz), y la desviación un pequeño porcentaje (aproximadamente entre 1% y 5%) de la frecuencia portante.

Cuando la desviación es mayor, y la frecuencia de modulación entra en el rango de audio (> 20 Hz), el efecto ya no es de vibrato, sino de una transformación tímbrica. Intuitivamente se puede comprender el fenómeno pensando que cuando la frecuencia de modulación es baja, los cambios ocurren a lo largo de varios ciclos de la portante, la que se percibe entonces como una misma forma de onda que varía su frecuencia:


sinusoidal con modulación lenta

fig. 4


Cuando la frecuencia de modulación es alta, por el contrario, los cambios ocurren dentro del entorno temporal de un ciclo de la frecuencia portante, provocando una modificación de la propia forma de onda, y por tanto de su espectro:


sinusoidal con modulación rápida

fig. 5


Lo que ocurre en este caso a nivel de espectro, es que en torno a la frecuencia portante se generan bandas laterales, superiores e inferiores, a distancia de la frecuencia modulante. Para una portante c y una modulante m, el espectro resultante es de la forma:

c ± nm         n = 1, 2, 3, 4, …

Cuántas de esas bandas laterales aparecen, y la amplitud de cada una de ellas, dependerá de la magnitud de la modulación. La misma se mide mediante el denominado índice de modulación, que se define como el cociente entre la desviación de frecuencia (amplitud de la modulante) y la frecuencia modulante:

I = d/m

A continuación se muestra la evolución del espectro en el caso de c = 1500 Hz, y m = 100 Hz, a medida de que el índice de modulación aumenta desde I = 0 hasta I = 4.

espectro I=0
I = 0
espectro I=0.5
I = 0.5
espectro I=1
I = 1
espectro I=2
I = 2
espectro I=3
I = 3
espectro I=4
I = 4

fig. 6

Cuando el oscilador modulante tiene amplitud cero, I = 0, y no hay por tanto modulación, el espectro está conformado únicamente por la frecuencia portante. Cuando la modulante aumenta su amplitud, crece el índice de modulación, y comienzan a aparecer bandas laterales superiores e inferiores, configurando un espectro simétrico en torno a la portante.

Se puede ver que la cantidad de bandas laterales con amplitud significativa aumenta a medida de que crece el índice de modulación. Sin embargo, la evolución de la amplitud de cada componente no es lineal, sino que sigue un patrón de comportamiento no evidente en primera instancia, y que puede determinarse con bastante precisión por medios matemáticos.

La ecuación que define la onda resultante de modular la frecuencia de una sinusoide (cuya amplitud consideraremos normalizada a 1, para simplificar), por medio de otra sinusoide, es la siguiente:

x(t) = sen(αt + I senβt)

siendo x(t) la amplitud de la onda en un momento t determinado, y α y β las frecuencias portante y modulante expresadas en radianes/segundo. Esta fórmula puede expandirse en la siguiente serie trigonométrica:

x(t)  =  J0(I)senαt
 + J1(I)[sen(α + β)t - sen(α - β)t]
 + J2(I)[sen(α + 2β)t + sen(α - 2β)t]
 + J3(I)[sen(α + 3β)t - sen(α - 3β)t]
 + …

Como puede verse, la amplitud de cada par de bandas laterales (α ± β, α ± 2β, α ± 3β, … ) queda determinada por factores de la forma Jn(I), que son las funciones de Bessel de primer tipo, de orden n y argumento I. Para un índice de modulación dado I, la función de orden cero J0(I) determina la amplitud de la portante, la de primer orden J1(I) el primer par de bandas laterales (α ± β), y así sucesivamente.

La siguiente figura muestra la evolución de las seis primeras funciones de Bessel del primer tipo, las de orden cero a cinco, para índices de modulación de 0 a 10.


curvas de bessel de primer tipo

fig. 7


Como se puede ver en la figura, para índices de modulación mayores a 2.5, algunos componentes tienen amplitud negativa; esto implica simplemente una inversión de la fase de la onda, ya que -sen(α) = sen(-α).

Del mismo modo, las bandas laterales inferiores que caen dentro de las frecuencias negativas (α - nβ < 0), se reflejan respecto a 0 Hz, invirtiendo su fase. En caso de coincidir con un componente de frecuencia positiva, las amplitudes de ambas se suman algebraicamente.

Se puede decir entonces que el control del índice de modulación permite predecir, con un importante grado de precisión, la cantidad de componentes que aparecerán en el espectro, y sus amplitudes relativas.

Hay sin embargo otro aspecto muy importante para caracterizar el espectro resultante de la síntesis FM, y es la relación armónica de sus componentes, la que depende del cociente c/m entre la frecuencia portante y la modulante.

Cuando c/m = 1 (c = m), es fácil de ver que el espectro resultante conforma una serie armónica cuya fundamental es la portante. La primer banda inferior tiene frecuencia 0 Hz, y las siguientes adquieren valores negativos, coincidiendo con componentes positivos al reflejarse respecto a cero.

Más generalmente, todos los valores de c/m de la forma N/1 ó 1/N, con N entero, producen espectros dentro de la serie armónica; en el primer caso m es la fundamental y c el armónico número N, en el segundo caso la fundamental es c, y algunos armónicos pueden faltar en el espectro.

También los espectros generados por cocientes de la forma N+1/N y N/N+1, son subconjuntos de la serie armónica, aunque la percepción de la fundamental se hace más difusa a medida de que N aumenta.

Teóricamente, todos los cocientes de la forma N1/N2, siendo N1 y N2 ambos enteros, producen frecuencias dentro de una serie armónica, cuya fundamental es:

f0 = c/N1 = m/N2

La posición de las frecuencias laterales en la serie armónica se puede determinar mediante la fórmula:

k = N1 ± nN2        n = 1, 2, 3, 4, …

siendo k el número de armónico, y n el orden de frecuencia lateral. Sin embargo, el espectro es percibido como armónico solamente para los cocientes más sencillos, a medida que la relación involucra valores más altos de N1 y N2, el oído ya no puede resolver eficientemente la fundamental. Por ejemplo, el cociente 5/8 genera la serie de armónicos 3 5 11 13 19 21 27 29 …, que es percibida claramente como inarmónica.

Por otra parte, cocientes con números irracionales, como 1/√2 ó 1/e, resultan en espectros de inarmonicidad intrínseca.

Un aspecto importante a destacar es que la transición de espectros armónicos a inarmónicos puede hacerse en forma continua, partiendo de una relación c/m armónica, por ejemplo 1/1, y alterando gradualmente el valor de m respecto a c, hasta llegar a valores irracionales del tipo 1/1.414… .

En suma, los dos factores que definen la síntesis FM son la relación entre las frecuencias portante y modulante (c/m), que determina la ubicación de las frecuencias en el espectro, y el índice de modulación (I = d/m), que determina cuántos componentes aparecen en el espectro y, sus amplitudes relativas.

Espectros dinámicos

Uno de los aspectos que más interesaba a Chowning al desarrollar este modelo, era la posibilidad de generar espectros dinámicos, tal como ocurre con los sonidos naturales. En la síntesis FM esto es muy sencillo de lograr, basta hacer que el índice de modulación varíe en el tiempo.


oscilador con modulación dinámica

fig. 8


Este algoritmo constituye la llamada "FM simple" o "FM de Chowning". La amplitud de ambos osciladores es controlada por respectivos generadores de envolvente; el de la portante determina la envolvente de intensidad general del sonido, y el de la modulante, la evolución del índice de modulación.

En su artículo, Chowning mostró cómo, utilizando relaciones c/m, envolventes de amplitud y de modulación diferentes, este algoritmo era capaz de producir timbres muy variados, desde instrumentos de viento de metal y madera, como clarinetes y fagotes, hasta campanas y otros sonidos de percusión.

De esta manera, la técnica de síntesis FM mostraba sus principales virtudes:

La publicación del artículo tuvo inmediatamente una enorme repercusión, despertando un gran interés entre compositores e investigadores, quienes se vieron atraídos tanto por las ventajas de la técnica, como por los resultados musicales obtenidos por Chowning en sus composiciones.

Numerosos artículos comenzaron a aparecer profundizando y extendiendo distintos aspectos de la técnica [Morril 1977; Saunders 1977; Horner et al. 1993], y demostrando su aplicación en la composición [Truax 1982; Vaggione 1984; Dashow 1987]. Especial interés se le prestó a los criterios organizativos de los cocientes c/m en la composición [Truax 1977; Dashow 1980, 1999a, 1999b].

Una detallada explicación de la técnica pasó a ser un capítulo obligado en todos los textos importantes de realización de música por computadora [Moore 1990; Roads 1996a; Dodge y Jerse 1997].

También hay que mencionar, sin embargo, que se encontraron ciertas discrepancias entre los resultados de la implementación de la FM propuesta originalmente por Chowning, y los previstos por las fórmulas presentadas; este aspecto fue exhaustivamente analizado por Frode Holm [1992].

La única extensión a la FM simple que propuso Chowning en su artículo original de 1973, consistía en adicionar una segunda portante, modulada por la misma onda modulante. Esta segunda portante puede agregar nuevos componentes en otra región del espectro, creando así una formante espectral. Este principio, extendido a tres portantes, fue utilizado algunos años más tarde para la síntesis de la voz cantada [Chowning 1980, 1989].


dos portantes con una modulante

fig. 9


El uso de dos operadores modulantes ("FM doble") fue propuesto en 1977 por Bill Schottstaedt, quien demostró su aplicación en la síntesis imitativa de instrumentos acústicos [Schottstaedt 1977]. Andrew Horner diseñó años más tarde un algoritmo que optimiza los parámetros de la FM doble, de modo de poder aproximar cualquier espectro armónico dado [Horner 1996].


una portante con dos modulantes

fig. 10


La fundamentación matemática general para el caso de FM con onda modulante compleja, fue presentada por Marc LeBrun [1977].


Sobre Turenas

Turenas fue completada en la primavera de 1972, pero integra todo el trabajo de investigación sobre espacialización y síntesis FM realizado en los años previos. "Es difícil decir en qué momento se comienza una una obra, cuando la composición está tan intrínsecamente ligada a la investigación. La pieza se desarrolló durante un período de años, y finalmente la terminé cuando llegué a la conclusión de que había logrado suficiente control gestual-musical sobre la computadora" [Roads 1985a].

El título es un anagrama del término inglés "natures" (naturalezas), aludiendo a las reflexiones de Chowning acerca de cómo nuestro conocimiento sobre los atributos de los sonidos naturales puede ser aplicado a la composición musical, así como también de cómo los modelos de síntesis FM y de espacialización del sonido, por él desarrollados y usados en esta obra, buscaban reproducir algunos de esos atributos.

Para la generación de la partitura se utilizó el programa SCORE, creado por Leland Smith, mientras que la síntesis de sonido fue realizada con MUSIC 10, uno de los tantos lenguajes que surgieron durante esos años, tanto en Stanford como en otros centros, siguiendo el modelo Music N. Creado por Poole y el propio Chowning, quien escribió el subprograma para síntesis de FM, MUSIC 10 deriva su nombre de la computadora para la cual fue desarrollado, la histórica DEC PDP-10 de la empresa Digital Equipment Corporation; junto a su sucesora la PDP-11, fueron dos de las máquinas que prestaron mayores servicios a la computer music durante más dos décadas [Roads 1996a; Chadabe 1997].

Las computadoras de la época no tenían capacidad suficiente para almacenar la información correspondiente a tantos minutos de audio, por lo tanto la obra debía ser computada por secciones, y transferida a cinta analógica, la que era luego empalmada para armar la obra completa. Años más tarde, aquellas primeras piezas fueron computadas nuevamente, esta vez utilizando exclusivamente medios digitales.

En Turenas Chowning combina elementos rigurosamente compuestos con otros más improvisados, una dualidad que aparece frecuentemente en sus obras. En ese sentido es quizás la pieza donde el componente de improvisación juega un papel mayor, ubicándose así en el extremo opuesto a Stria, que fue compuesta de manera totalmente formalizada.

Hay en la pieza materiales sonoros de tipologías marcadamente diferentes en todas sus dimensiones (espectro, registro, duración, envolvente dinámica), que por momentos interactúan de diversas maneras de oposición y contraste (yuxtaposición, superposición); en otros momentos por el contrario son transformados gradualmente unos en otros, a través de procesos de interpolación tímbrica.

En el nivel más alto de articulación formal podemos distinguir tres grandes partes, con materiales y características formales diferentes, separadas además por breves silencios suspensivos:

I - del comienzo a 3:35
articulada principalmente siguiendo proporciones de la serie de Fibonacci
presenta materiales contrastantes entre sonidos breves percusivos y notas largas de espectro armónico
está subdividida en dos partes, la transición entre ambas articulada por una breve sección (2:03-2:19)

II - 3:35 a 7:45
de carácter más improvisado, no presenta articulaciones formales tan claras
se subdivide en dos partes (diferenciadas fundamentalmente por las características espectrales de los sonidos utilizados), con una sección de superposición entre ambas (4:44-5:01)

III - 7:45 al final
tanto en materiales como articulación, de características generales similares a la primera parte, de la cual es una especie de reexposición variada.


sonograma de Turenas

fig. 11


I

En el inicio de la pieza es fácil comenzar a establecer segmentaciones formales locales, ya que se presentan series de sonidos muy breves en el registro agudo, que se alternan con pasajes de silencio. Si observamos las longitudes de los segmentos, encontramos las siguientes duraciones en segundos:


            13           8       5    
            8       5    5    3  3  2 

Como se ve, las proporciones siguen la serie de Fibonacci, y esas mismas relaciones van a jugar un papel muy importante, con algunas excepciones y libertades aisladas, a lo largo de la pieza, especialmente en la primera y la tercera parte.


sonograma 0:00-1:17

fig. 12


En esta serie, concebida por el matemático italiano Leonardo Fibonacci (c. 1170-1250), cada término es la suma de los dos precedentes: 0, 1, 1, 2, 3, 5, 8, 13, 21, 34, … . Hay que destacar que a medida que se incrementa la serie, el cociente entre dos términos consecutivos de la misma se aproxima indefinidamente a la proporción áurea. Como es sabido, se llama proporción o sección áurea a la división de una magnitud en dos partes desiguales, de forma tal que la relación entre la parte menor y la mayor sea la misma que entre la parte mayor y el total. La solución a la ecuación es:

(√5 ± 1) ÷ 2 ≈ (1.61803988 , 0.61803988)         [ambas soluciones son inversa una de la otra]

De esta forma, cocientes como 3:2, 5:3, 8:5, 13:8 (o sus inversos), tienen proporciones crecientemente áureas.

Los tres primeros segmentos están constituidos por breves "granos" de 0.05 segundos de duración. La envolvente de amplitud tiene ataque instantáneo, y su caída es del tipo presentado por Chowning en su artículo como la modificación de una exponencial, con un segundo pico de amplitud 0.015 segundos después del ataque [Chowning 1973]:


oscilograma de un grano

fig. 13


El contenido de cada grano es una onda sinusoidal pura, y como se puede ver arriba en la figura 12, las frecuencias están distribuidas de forma aleatoria dentro de franjas que van variando en cada grupo: aproximadamente de 3700 a 8550 Hz en el primero, 2300 a 8500 Hz en el segundo, y 2500 a 7900 Hz en el tercero.

Si bien todos los granos tienen la misma duración, hay cierta irregularidad temporal dada por la presencia de "huecos" que se producen al omitir uno, dos, y en algún caso hasta tres granos, generando así separaciones que llegan a 0.2 segundos.


oscilograma 0:00-0:08

fig. 14


Se notan también fluctuaciones de amplitud que corresponden a los cambios de localización de la fuente, aunque la reducción monofónica sólo muestra las variaciones de distancia. Para obtener una idea de la ubicación angular de los sonidos es necesario observar el original cuadrafónico, y allí se puede ver cómo los granos no están distribuidos irregularmente, sino que se van desplazando de forma gradual entre los cuatro canales, siguiendo una trayectoria compleja.


oscilograma cuadrafónico 0:00-0:08

fig. 15


La duración y envolvente de los granos, su forma de onda, y ubicación en el registro, le imprimen un carácter percusivo, de sonoridad metálica.

El siguiente segmento (segundo 26) comienza de forma similar, pero pronto la frecuencia de los granos comienza a converger hasta establecerse en aproximadamente 5400 Hz (segundo 29), de manera que los sonidos discretos se transforman en un sonido que se percibe como continuo, aunque de textura rugosa debido a su conformación granular.


sonograma 0:26-0:35

fig. 16


En el sonograma se puede apreciar claramente la fluctuación tanto de altura como de intensidad producida por el efecto Doppler de la trayectoria de Lissajous. También llega a verse que la distribución temporal de los granos se hace más densa. Una observación detallada del oscilograma correspondiente da una información más precisa, y permite comprobar que la densidad llega a duplicarse: al final de la secuencia, el intervalo temporal entre los granos es de 0.025 segundos, lo que resulta en una frecuencia granular de 40 Hz.

Si volvemos a la primera figura, veremos que la siguiente aparición del sonido granulado ocurre luego de un intervalo de 10 segundos, por primera vez una magnitud temporal fuera de la serie de Fibonacci (¿2 × 5?, ¿2 + 8?), que volverá a aparecer en otras partes de la pieza. A partir de allí (0:44-1:16) se repiten segmentos con las mismas proporciones del comienzo (exceptuando la duración del último silencio), pero esta vez con sonido continuo. La textura granular es similar a la planteada en el segmento anterior, el intervalo temporal entre los granos varía en cada caso dependiendo del ámbito de frecuencia que recorra el sonido:

ámbito de frecuencia     intervalo temporal entre granos
1    5000 a 6850 0.028 (35.71 Hz)
2 3100 a 5350 0.033 (30.3 Hz)
3 4450 a 9900 0.025 (40 Hz)

Las curvas de frecuencia corresponden siempre al efecto Doppler, las trayectorias en todos los casos siguen figuras de Lissajous; como ejemplo, la figura 1 mostrada anteriormente representa el recorrido del primer sonido (0:44-0:52) [Zelli 2001].


sonograma 0:31-1:29

fig. 17


Otro elemento nuevo es la aparición de un segundo nivel de la textura, conformada por sonidos de tipología claramente contrastante con la anterior: notas largas en el registro grave, y de espectro armónico. Las notas aparecen y desaparecen lentamente, con envolventes de ataque y caída larga. Sus duraciones aproximadas son:

B2    0:33 a 1:05
Bb2 0:47 a 1:19
E2 0:53 a 1:27

Las tres notas están ubicadas en la segunda octava debajo del Do central (C4); sin embargo, debido a una distribución de energía casi homogénea en todos los componentes del espectro, pueden percibirse en una octava superior.

Este nivel de textura tiene un comienzo (0:33) enmascarado por el final del sonido visto anteriormente (0:26-0:34), y se prolonga hasta después de la nueva aparición de un material asociado con el nivel anterior (1:16). Las tres notas presentan además un comportamiento temporal autónomo en sus entradas y duraciones, por lo que introducen no sólo un segundo nivel textural, sino también de articulación formal independiente.

Volviendo al primer nivel, en 1:16 comienza un segmento en el que ocurre una desarrollada interpolación tímbrica, que culmina con los sonidos largos de espectro inarmónico que se escuchan a partir de 1:35 aproximadamente. La transformación ocurre gradualmente, y es difícil por tanto establecer una segmentación interna.


sonograma 1:16-1:55

fig. 18


El comienzo expone brevemente un sonido continuo granulado como en los segmentos anteriores, aunque la envolvente de cada grano varía, pasando a tener caída exponencial simple:


grano de caída exponencial - 1:21

fig. 19


Sin embargo, ese sonido continuo, que en su comienzo se ubica alrededor de los 5900 Hz, casi inmediatamente empieza a disgregarse en breves granos de diferentes frecuencias, siguiendo un proceso inverso al que se había dado en 0:29. Observando el comportamiento global de las frecuencias en ese primer segmento (1:16-1:29), se ve que hay una mayor expansión de las mismas hacia el registro grave. A partir de ese momento (1:29, significativamente 13 segundos después del comienzo), la onda sinusoidal, que había conformado todos los granos desde el inicio de la pieza, comienza a ser modulada en frecuencia, y por tanto empiezan a aparecer bandas laterales. El índice de modulación va aumentando paulatinamente, y con él la cantidad de componentes del espectro.


sonograma 1:16-1:35

fig. 20


Si bien la envolvente conserva su forma, los sonidos van haciéndose más largos y espaciados a la vez que se desplazan hacia frecuencias más graves (ver fig. 18), y los granos se transforman así en sonidos similares a campanas. Sus espectros presentan grados de inarmonicidad característicos, producto de la relación entre frecuencia portante y modulante.

Mediante análisis espectral por transformada de Fourier, es posible estimar con cierto grado de aproximación las frecuencias componentes del espectro, lo cual a su vez permite determinar las frecuencias portante y modulante, y calcular la relación entre ambas. Se puede realizar un análisis de ese tipo en el final de la secuencia, ubicada aproximadamente entre 1:35 y 1:54. Observar que en la siguiente figura se cambió la escala del eje de las frecuencias, llegando solamente hasta los 9000 Hz, de modo de lograr mayor definición en la representación de ese ámbito.


sonograma 1:35-1:54

fig. 21


La relación entre las frecuencias portante y modulante en estos seis sonidos es la indicada abajo, siempre teniendo claro que se trata de estimados aproximados, estando el grado de imprecisión determinado por las limitaciones inherentes al análisis de Fourier:

866/1044   ≈   0.829
162/556   0.291
505/648   0.779
64/220   0.290
247/349   0.707
165/233   0.707

Los sonidos 1, 3, 5 y 6 tienen una relación c/m que paulatinamente llega al valor aproximado de 1/√2, mientras que los sonidos 2 y 4 presentan un cociente c/m en el rango de 1 - 1/√2. En todo caso son cocientes que, como señala Chowning en su artículo, generan espectros inarmónicos apropiados para reproducir sonidos de tipo campanas.

La siguiente figura, en la que nuevamente se agrandó la escala temporal y de frecuencia (0 a 6000 Hz), permite ver con más detalle la configuración del espectro.


sonograma 1:39-1:55

fig. 22


Una de las propiedades características de este tipo de sonido, y que se puede apreciar claramente en la figura anterior comparando el sonograma con el oscilograma, es que la extensión del espectro va decreciendo proporcionalmente a la energía total del sonido, algo que puede implementarse fácilmente con la síntesis FM, haciendo que el índice de modulación siga la misma envolvente que la amplitud.

El siguiente sonido (1:55) culmina el proceso de transformación tímbrica de la secuencia anterior, a la vez que inicia la transición hacia la segunda sección de esta primera parte. La relación c/m es la misma que en los últimos dos sonidos anteriores:

87.4/123.5 ≈ 0.707 ≈ 1/√2

produciendo por tanto la misma familia de espectro. La envolvente de intensidad es también igual, tal como se puede observar en la figura (prestar atención a la muy ampliada escala de frecuencia, de 0 a 2400 Hz):


sonograma 1:55-2:10

fig. 23


El comportamiento tímbrico es marcadamente diferente, sin embargo, debido a la evolución del índice de modulación. Como se puede ver en el sonograma, el sonido comienza con un componente sinusoidal puro, la onda portante, de frecuencia aproximada 87.4 Hz, que correspondería a la nota F2. A diferencia de los sonidos anteriores, el índice de modulación comienza a crecer, y con él la amplitud de las bandas laterales, después del ataque. Es por eso que, a pesar de la envolvente de intensidad, el sonido se percibe como un crescendo, con un comportamiento más similar al de un tam-tam. Se llega un máximo de amplitud espectral hacia 2:02, y luego las bandas laterales van disminuyendo junto con la amplitud general, hasta fusionarse con la nota que se inicia en 2:08.

El pasaje que se inicia en 1:55 sigue una secuencia decreciente-creciente de Fibonacci, con una peculiar modificación. En la figura siguiente está indicada lo que sería estrictamente una serie de Fibonacci, junto con la articulación formal real de la pieza dada por los momentos de inicio de los eventos. Como se puede ver, el segundo segmento es más corto de lo que correspondería (4.5 segundos en vez de 5), pero los cuatro siguientes están proporcionalmente expandidos de manera de volver a coincidir con la serie estricta en 2:16. De esa forma, el intervalo temporal entre el inicio de la secuencia de sonidos descendente y la ascendente es de exactamente 13 segundos.


sonograma 1:56-2:22

fig. 24


Un plano de textura está conformado por notas largas de espectro armónico como las que habían aparecido de 0:33 a 1:27, con las alturas F3, F#3, C4 (el mismo trífono anterior E-Bb-B, invertido y transportado), más A4. El otro plano presenta una secuencia de sonidos cortos percusivos descendente (2:03-2:07) y otra ascendente (2:16-2:19). La evolución tímbrica de los sonidos en este caso es diferente del pasaje iniciado en 1:16. Comienza de forma similar: sonidos breves conformados por una onda sinusoidal no modulada de frecuencia alta, con envolvente de amplitud de caída exponencial, produciendo una sonoridad metálica aguda. El intervalo temporal entre granos está en el orden de 0.05 segundos, y a medida que los sonidos bajan en frecuencia, el intervalo crece hasta llegar a unos 0.15 segundos.


sonograma 2:03-2:07

fig. 25


Las envolventes de amplitud tienen forma de exponencial modificada, presentando hacia el final de la secuencia su segundo pico de amplitud 0.03 segundos después del ataque. La diferencia más significativa, sin embargo, está en la evolución del índice de modulación, que como se puede ver presenta valores altos en las 2 primeras centésimas de segundo con una caída rápida hasta 0, dejando la portante sin modulación por el resto del sonido.


grano 2:06

fig. 26


Para sonidos breves de portantes en el registro grave, este comportamiento de las envolventes de amplitud y modulación produce timbres similares a un tom-tom o tambor de madera. De 2:26 a 2:29 hay un proceso similar retrogradado, aunque truncado a los 3 segundos, llegando a un entorno de frecuencia de aproximadamente 1650 Hz.


sonograma 2:16-2:20

fig. 27


El aceleramiento es irregular, los intervalos temporales entre eventos es de aproximadamente 0.14 segundos al comienzo, y 0.04 segundos al final de la secuencia.

Desde aquí hasta el final de la primera parte de la pieza (2:20-3:35), se elabora fundamentalmente sobre materiales ya expuestos: estos sonidos percusivos van articulando segmentos siempre según las proporciones de la serie de Fibonacci, alternándose y superponiéndose con notas largas de espectro armónico que siguen una secuencia temporal independiente.

Este segundo nivel consiste en un canon a 4 voces con el diseño melódico ascendente-descendente F-F#-C-B-A-G#. Cada voz tiene su entrada en una octava diferente, y repite el motivo con un aceleramiento constante y gradual.


sonograma 2:20-3:35

fig. 28


Las entradas ocurren cada aproximadamente 20 segundos, aunque las envolventes tienen ataque largo, y el momento de aparición de cada nota es algo impreciso.

entrada   alturas
1ª voz  2:22   F4 F#4 C5 B4 A4 G#4
2ª voz  2:42   F3 F#3 C4 B3 A3 G#3
3ª voz  3:02   F5 F#5 C6 B5 A5 G#5
4ª voz  2:23   F2 F#2 C3 B2 (abreviado)

Las clases de altura utilizadas (las cuatro notas escuchadas anteriormente, más G# y B, que a su vez había aparecido hacia el principio de la pieza), pueden ordenarse en un conjunto que alterna intervalos de 1 y 2 semitonos: F-F#-G#-A-B-C. Estas notas conforman un subconjunto de la denominada escala disminuida.

Los sonidos percusivos que aparecen en 3:19 tienen un comportamiento ascendente, similar al de 2:16. La secuencia dura 5 segundos, luego de lo cual aparece la cuarta voz del canon, la más grave, y aumenta el aceleramiento de las voces.


sonograma 3:17-3:36

fig. 29


Luego de 10 segundos (nuevamente la misma magnitud fuera de la serie de Fibonacci aparecida anteriormente), este proceso termina bruscamente en un silencio de algo más de un segundo, que marca la separación de la segunda parte de la obra que comienza a continuación.

II

Con una duración de 4:10, esta segunda parte es la más larga de la pieza, y se extiende de 3:36 hasta el silencio en 7:44. Es de carácter más bien improvisado y estructura libre, y está constituido principalmente por sonidos muy breves, de distribución temporal aleatoria. La densidad de eventos va variando de forma no lineal, aunque predominan las densidades altas.

Hay en esta segunda parte dos tipologías tímbricas marcadamente diferenciadas, que establecen una clara subdivisión de la misma en dos secciones que se superponen: la primera, más corta, va desde el comienzo en 3:35 hasta 5:02; la segunda se inicia en 4:44, y se extiende hasta el final de esta parte en 7:44.


sonograma 3:35-7:44

fig. 30


La distribución temporal de los eventos en la primera sección varía de manera irregular, entre momentos de gran densidad, y otros con pausas que llegan hasta alrededor de 4 segundos:


sonograma 3:35-5:04

fig. 31


La duración de los sonidos va de algo menos de 0.1 segundo, hasta aproximadamente 0.5 segundos para los sonidos más largos, y su característica más saliente es una envolvente de intensidad con forma de curva de Gauss:


oscilograma 3:36-3:40

fig. 32


Desde el punto de vista de su espectro, los sonidos utilizados en esta sección presentan grados muy variados de armonicidad e inarmonicidad. En el comienzo (3:36) los espectros contienen no más de 4 ó 5 parciales de amplitud significativa, los que en muchos casos pertenecen a series armónicas de dos fundamentales diferentes, por lo que cada evento conforma en realidad un intervalo de dos notas de espectro armónico muy reducido. Entre ellos se intercalan, con frecuencia cada vez mayor, sonidos con una sola fundamental, generados por una modulación de cociente c/m = 1.

La densidad de eventos decrece paulatinamente, y hacia 3:58, luego de una pausa de algo menos de 1 segundo, comienza un proceso diferente en el que van a aparecer sonidos fuertemente inarmónicos, resultado de incrementar gradualmente el valor de m respecto a c. La evolución de ese valor en los primeros 5 segundos es la siguiente:

c/m m/c
132/136 ≈ 0.970     1.030
623/650 ≈ 0.958     1.043
740/779 ≈ 0.950     1.053
661/713 ≈ 0.927     1.079
699/768 ≈ 0.910     1.099
441/495 ≈ 0.890     1.122
263/294 ≈ 0.894     1.118 ←
623/705 ≈ 0.885     1.130
157/175 ≈ 0.897     1.115 ←
350/398 ≈ 0.879     1.137
416/482 ≈ 0.863     1.159
312/362 ≈ 0.862     1.160
555/648 ≈ 0.856     1.168
208/245 ≈ 0.846     1.178
262/310 ≈ 0.845     1.183

El primer sonido de la serie tiene una frecuencia portante de 132 Hz (aproximadamente C3), pero la modulante es ligeramente mayor. La desviación es bastante pequeña (3%) y el índice de modulación relativamente bajo; la nota, muy breve, es percibida como armónica. En la nota siguiente (Eb5) la desviación es algo mayor, y la inarmonicidad a partir de allí se hace notoria. Como se ve en la tabla anterior, el valor de m respecto a c sigue creciendo en forma casi monótona, exceptuando las dos irregularidades marcadas. Si, como es posible, este proceso ya había comenzado antes de lo que se indica aquí, la desviación resultante era demasiado pequeña para ser ponderada.

El efecto sobre el espectro se puede apreciar en la figura siguiente: las bandas laterales van dejando de conformar una serie armónica, y las bandas inferiores de frecuencia negativa, al reflejarse respecto a 0, ya no coinciden con las bandas superiores.


sonograma-oscilograma 3:58-4:03

fig. 33


El proceso continúa hasta 4:30, llegando a un cociente c/m = 0.5 (1/2) que se mantiene hasta el final de esta sección en 5:01. Hacia 4:14 el valor de c/m pasa por 0.666 (2/3), generando en ese momento nuevamente un espectro armónico. Ese cociente produce series armónicas con fundamental c/2, en las que están ausentes todos los armónicos múltiplos de 3. De esta manera se van alternando durante este fragmento sonidos de espectros armónicos e inarmónicos, como se muestra en la figura:


sonograma-oscilograma 3:58-4:35

fig. 34


El cociente 1/2, por su parte, genera series armónicas de fundamental c, conteniendo solamente los armónicos impares. Espectros de estas características, con envolventes del tipo utilizado en este pasaje, resultan en timbres muy similares a los de un clarinete, especialmente en los registros medio y medio-grave.

Hacia 4:34 comienzan a intercalarse sonidos con el mismo tipo de envolvente pero relación c/m = 8/1; en este caso la fundamental coincide con la frecuencia modulante, y la portante es el 8º armónico. Para valores normales del índice de modulación, la fundamental -la banda lateral inferior de orden 8- puede no estar presente en el espectro, o tener muy poca energía; en ningún caso, sea cual sea el valor de I, llega a tener una amplitud significativa. En el registro grave, el timbre resultante tiene mucha similitud con el de un fagot.


sonograma 4:33-4:45

fig. 35


En el sonograma anterior se pueden ver claramente los dos tipos diferentes de espectro. La siguiente figura muestra el espectrograma de las dos notas indicadas arriba: un E3 (165 Hz) de "clarinete", y un C2 (66 Hz) de "fagot".


4:34.8 - espectrograma E3 'clarinete' 4:35.7 - espectrograma C2 'fagot'
4:34.8 E3 "clarinete" 4:35.7 C2 "fagot"

fig. 36


Cabe mencionar que, en toda la obra, estos son algunos de los sonidos que en mayor grado se aproximan a una síntesis de tipo imitativa de instrumentos acústicos.

En esta primera sección de la segunda parte de la pieza hay, además de los sonidos descritos, otro plano conformado por tres sonidos largos con ataques y caídas muy graduales, que enmascaran el momento preciso de inicio y final de cada uno de ellos. Los tres están ubicados en el registro más grave y mantienen un dinámica baja, aspectos éstos que no ayudan a discriminar el grado exacto de armonicidad/inarmonicidad de sus espectros, que resulta algo ambiguo.

La tabla siguiente muestra las duraciones aproximadas de cada sonido, y la relación entre sus frecuencias portante y modulante:

3:45-4:05  65.6/86.6 ≈ 0.755
4:13-4:32  61.8/84.4 ≈ 0.732
4:42-5:00  46.4/63.6 ≈ 0.729

La lectura de la tabla parecería indicar que se trata de espectros claramente inarmónicos, con cocientes c/m similares a las vistas en pasajes anteriores. Sin embargo, una observación más detenida de las frecuencias de las bandas laterales resultantes muestra que en todos los casos se pueden aproximar a espectros armónicos con fundamental percibida.

Si se calcula el valor absoluto de las primeras bandas laterales (recordar que las frecuencias negativas se reflejan respecto a 0), y se ordenan ascendentemente, se verá que en el caso de las dos primeras notas hay una importante aproximación a los componentes impares de una serie armónica de fundamental 21 Hz, como se puede comprobar en la siguiente tabla:

21.3 22.6   ≈  21
65.6 61.8   ≈  63
107.9 107.0   ≈  105
152.4 146.2   ≈  147
194.9 191.4   ≈  189
239.2 230.6   ≈  231
281.7 275.8   ≈  273
326.0 315.0   ≈  315
368.5 360.2   ≈  357
  399.4   ≈  399
  444.6   ≈  441
  483.8   ≈  483
  529.0   ≈  525
  568.2   ≈  567

El grado de coincidencia es mayor en la segunda nota, y se extiende además a un mayor número de bandas laterales. Ambas notas se perciben con una misma altura aproximada, que se ubicaría entre Mi y Fa de la octava más grave del registro, con algunos armónicos algo "desafinados".

La tercera nota, por su parte, tiene un alto grado de coincidencia con una serie armónica de fundamental 16 Hz, siempre contando únicamente los armónicos impares.

17.2  ≈  16
46.4  ≈  48
80.8  ≈  80
110.0  ≈  112
144.4  ≈  144
173.6  ≈  176
208.0  ≈  208
237.2  ≈  240
271.6  ≈  272
300.8  ≈  304
335.2  ≈  336
364.4  ≈  368
398.8  ≈  400

El gradual aumento de intensidad de esta tercera nota coincide con la aparición, en 4:44, de sonidos de una diferente tipología, que van a constituir la siguiente sección de esta segunda parte. La transición ocurre al crecer paulatinamente de intensidad estos nuevos sonidos, a la vez que los anteriores comienzan a disminuir su frecuencia de aparición; el último de ellos, en 5:01, marca el fin de la superposición entre las secciones.


sonograma 4:42-5:03

fig. 37


La segunda sección es más extensa, y como puede verse fácilmente en el sonograma, presenta a lo largo de sus tres minutos conformaciones muy diferentes, tanto en densidad temporal como espectral. De hecho, es en esta sección que aparece el pasaje de mayor densidad en el espectro de toda la pieza (7:15-7:22), así como el de máxima energía (7:42-7:43).


sonograma 4:45-7:45

fig. 38


Los distintos momentos de esta sección, determinados por materiales tímbricos de características disímiles, configuran en algunos casos límites bastante claros entre ellos; en otros, por el contrario, presentan transiciones continuas o superposiciones.

Característico a toda la sección en general son los sonidos muy breves, con duraciones entre aproximadamente 0.05 y 0.20 segundos, y las envolventes de intensidad con ataque instantáneo y caída en diversos tipos de exponenciales simples o modificadas. Este tipo de envolventes "percusivas" constituye un importante rasgo diferenciador respecto a la sección anterior, a la vez que unificador de los muy heterogéneos materiales de ésta.

Otro aspecto profusamente trabajado a lo largo de toda esta sección es el de la espacialidad, con la configuración de espacios de diferentes características de reverberación, así como también el de la localización, estableciendo variadas relaciones entre la dinámica de los eventos y su proximidad/lejanía.

El primer minuto consiste en un gradual proceso de acercamiento de los sonidos que habían comenzado en 4:44, llegando a una máxima proximidad en 5:18, alejándose nuevamente hasta desaparecer en 5:45.


sonograma 4:44-5:46

fig. 39


Los eventos tienen una duración inferior a 0.1 segundo, y su envolvente presenta un ataque instantáneo y una caída que aproxima mediante tres segmentos lineales una curva exponencial:


granos 5:13

fig. 40


Ampliando la escala temporal se ve que el mayor grado de modulación aparece en el ataque, disminuyendo luego con la amplitud global, hasta quedar solamente la frecuencia portante.


grano ampliado 5:13

fig. 41

c/m ≈ 700/500 ≈ 1.4


Este comportamiento, con algunos rasgos comunes a sonidos aparecidos anteriormente, genera tímbricas de carácter percusivo, en un continuo que en el grave se asemeja a tambores de parche o madera, y a medida que se desplaza hacia el agudo se aproxima a algún tipo de xilófono, pudiendo tener incluso algunas resonancias metálicas, pero sin llegar en ningún caso a conformar un intento de síntesis imitativa.

Luego de un silencio de unos dos segundos, estos sonidos reaparecen en 5:47, pero presentando más variantes en la envolvente y comportamiento del índice de modulación, lo que produce una diversidad tímbrica algo mayor. También se establece más de un nivel de proximidad/lejanía, y el proceso de acercamiento y posterior alejamiento no es tan lineal. La secuencia vuelve a desaparecer, esta vez de forma algo más abrupta, en 6:13.


sonograma 5:45-6:14

fig. 42


El silencio dura poco más de un segundo, y en 6:14 aparece una serie de eventos más espaciados, con una envolvente de amplitud diferente, del tipo de los eventos del comienzo de la pieza (comparar la figura 44 con la figura 13).


sonograma 6:12-6:22

fig. 43


grano 6:15

fig. 44


Esta segunda tipología conforma un nivel de textura que se extiende hasta el final de esta segunda parte (7:44), sufriendo grandes transformaciones en densidad temporal, ubicación registral y comportamiento de modulación, llegando al mayor grado de densidad espectral de la pieza en 7:15-7:25.

A este nivel se le superponen además otros en distintos momentos, configurando una textura resultante que evoluciona de manera bastante compleja durante el resto de esta segunda sección.

Uno de esos niveles adicionales, conformado por sonidos de caída exponencial vistos en el segmento anterior, hace una aparición de 13 segundos en 6:22, y tras 5 segundos de silencio reaparece en 6:40 por 8 segundos. Esta relación 13-5-8 es la única clara segmentación dentro de la serie de Fibonacci que se pudo encontrar en toda la segunda parte de la obra.


sonograma 6:13-6:53

fig. 45


Este segundo nivel, cuya aparición enmascara al anterior, comienza en un ambiente reverberado y con un índice de modulación significativo, generando el amplio espectro que muestra el espectrograma. Entre 6:28 y 6:29 los sonidos se acercan (observar el incremento de amplitud), disminuyendo la reverberación a la vez que el grado de modulación, como se puede ver en la reducción del espectro. A medida de que vuelven a alejarse, la modulación desaparece, dejando sonidos puros sin bandas laterales (franja inferior del espectrograma, 6:30-6:35). Esta reducción del espectro permite ver nuevamente los sonidos del nivel anterior, que reaparecen entre los 3 y 5 kHz, bajando luego de frecuencia a medida que aumenta su densidad temporal.


sonograma 6:21-6:36

fig. 46


El siguiente segmento (6:40-6:48) se puede subdividir a su vez en dos mitades aproximadamente iguales, marcada por el súbito cambio de comportamiento que ocurre hacia 6:44. Los eventos, que comienzan como sinusoidales sin bandas laterales (franja inferior del espectrograma), se acercan e incorporan un alto grado de modulación, que genera un espectro amplio e inarmónico, cuya densidad es aumentada por la reverberación.


sonograma 6:39-6:49

fig. 47


Los sonidos analizados presentan cocientes c/m entre 1.31 y 1.37 aproximadamente.


grano 6:45

fig. 48

c/m ≈ 588/448 ≈ 1.312


La tipología es la misma analizada anteriormente (ver figura 41), aunque con un índice de modulación notoriamente mayor.

Este cambio en el segundo nivel coincide con una sensible reducción de la densidad temporal del otro, del cual aparece a partir de entonces solamente un par de eventos aislados, indicados en la figura 47 alrededor de 6:47 y 6:48. Debido a esta escasa distribución temporal, cuando concluye el segmento discutido anteriormente (6:40-6:48), se produce un silencio de unos 4 segundos, interrumpido únicamente por un solitario evento en 6:50.


sonograma 6:46-6:53

fig. 49


A partir de 6:52 hasta 7:26, todos los sonidos que aparecen tienen envolvente con exponencial modificada. Esto en absoluto significa una homogeneidad tímbrica de este pasaje, ya que las diferencias en magnitud y comportamiento del índice de modulación, relación c/m, y registro, generan timbres muy variados.


sonograma 6:52-7:26

fig. 50


Hacia 7.09 este nivel comienza a bifurcarse en un plano que se desplaza hacia el agudo y otro que se mantiene en el registro grave, produciendo en las frecuencias más bajas un sonido, similar a un tom-tom grave, cuyas apariciones son bastante notorias en el pasaje que sigue hasta el final de esta sección:


sonograma 7:09

fig. 51


Simultáneamente con esta separación de planos registrales, aparece un nivel de eventos inarmónicos fuertemente modulados, que entre 7:15 y 7:16 tiene un gran incremento en intensidad e índice de modulación. El espectro se hace entonces tan denso, que entre 7:16 y 7:22 el espectrograma muestra bandas continuas de ruido, aunque el análisis revela que no hay componentes de ruido propiamente en la síntesis, sino que es realizada mediante modulación de componentes sinusoidales.


sonograma 7:16

fig. 52


Ante una forma de onda tan compleja y un espectro tan denso, sin embargo, resulta extremadamente difícil realizar una ingeniería inversa para determinar los parámetros de la síntesis. Sonidos de características generales muy similares fueron obtenidos por el autor de este trabajo utilizando relaciones c/m inarmónicas (0.275) e índices de modulación exageradamente altos ( > 100).

Después de 7:22 comienza a bajar nuevamente la densidad espectral, y las franjas continuas van confluyendo en bandas discretas. Estos sonidos se alejan en un ambiente muy reverberado, y desaparecen en 7:26.


sonograma 7:21-7:26

fig. 53


Enmascarado por ese final, se inicia con muy baja intensidad el último segmento de esta segunda parte de la obra, en el que aparecen sonidos con los dos tipos de envolvente vistos en esta sección. El evento que marca el comienzo de este nivel está ubicado en 7:25.75, aunque el evento siguiente (segunda flecha) puede resultar más claramente perceptible, tanto a nivel auditivo, como su visualización en el sonograma. El proceso es de aceleramiento por aumento de densidad en la distribución temporal de eventos, a la vez que se incrementa la intensidad hasta llegar al momento de mayor energía de toda la pieza (7:43). Al igual que la primera parte, ésta culmina súbitamente con un silencio que determina su separación de la parte siguiente.


sonograma 7:26-7:44

fig. 54


III


sonograma 7:45-10:05

fig. 55


Luego de este silencio de casi 2 segundos, la aparición en 7:45 de tres sonidos largos de espectro inarmónico marcan claramente el cambio de material, y nos refieren inmediatamente a los sonidos de campanas de la primera parte (aproximadamente 1:30-1:50).


sonograma 7:45-8:03

fig. 56


La envolvente de ataque instantáneo y caída exponencial es del mismo tipo de la utilizada anteriormente; incluso la relación temporal entre los ataques es, proporcionalmente algo expandida, la misma de los tres sonidos en 1:34-1:39 (ver figura 21). Las relaciones c/m son también bastante similares a las ya utilizadas para la generación de sonidos inarmónicos, en los dos primeros casos es algo mayor a 1/√2, mientras que en el tercer sonido la relación es aproximadamente el inverso. La tabla de las frecuencias portante y modulante, y sus cocientes, es la siguiente:

175/246.5   ≈   0.709
185.5/261.3   0.709
123.6/87.8   1.407

La sección 7:53-9:16 está constituida por notas largas de espectro armónico, que, sin llegar a conformar un canon como el iniciado en 2:22, presenta también un paulatino incremento de la densidad temporal y registral. El comienzo es incluso similar, reproduciendo la misma relación interválica, transportada. Primero aparecen las clases de altura E-F-B-Bb en diferentes octavas, luego se agregan G y Ab para completar el hexáfono visto anteriormente, pero transportado un semitono hacia abajo: E-F-G-Ab-Bb-B.


sonograma 7:53-9:17

fig. 57


Se llega a un máximo de energía entre 8:42 y 8:50, cuando se superponen varias notas Mi en las octavas graves, hasta llegar al E0 (aproximadamente 20.67 Hz), en el límite inferior del rango audible. Luego de eso la textura se hace menos densa, terminando con la bajada B3-Bb3-Ab3-G3-E3.

Superpuesto a ese final, comienza en otro nivel de textura una sección que reproduce la parte inicial de la pieza; la principal diferencia es de espacialidad: los sonidos se mueven ahora en un ambiente mucho más reverberante que al principio.


sonograma 8:57-9:56

fig. 58


Finalmente, durante la pausa de 10 segundos entre el penúltimo y el último segmento (9:31-9:41) aparecen dos sonidos en el registro grave, que combinan espectro inarmónico con envolvente de ataque y caída largas.


sonograma 9:30-9:56

fig. 59


Las relaciones entre frecuencia portante y modulante son:

123.5/86.5   ≈   1.428
82.5/60.23   ≈   1.369

Estos sonidos aparecen algo desfasados (9:31 y 9:39), y se superponen logrando cierta fusión espectral: la primera banda lateral inferior del primer sonido cae dentro del ancho de banda crítico de la segunda banda inferior reflejada del segundo sonido.

|123.5 - 86.5| ≈ |82.5 - (2 × 60.23)|

Este espectro inarmónico se prolonga en un plano grave por debajo de la última trayectoria del sonido granulado (9:41-9:54), y la pieza termina cuando desaparece esta señal hacia 9:56.



Fuentes y recursos

El análisis fue realizado sobre la versión estereofónica editada en el disco compacto John Chowning del sello Wergo (WER 2012-50, 1988), y la versión original cuadrafónica producida en CCRMA.

Para el análisis y la representación gráfica de los sonidos se utilizaron los programas Snd, desarrollado por Bill Schottstaedt en CCRMA, Universidad de Stanford, California [Schottstaedt 2003], y Wavesurfer, desarrollado por Kåre Sjölander y Jonas Beskow en el CTT (Centro de Tecnología del Habla) del Kungliga Tekniska Högskolan (Instituto Real de Tecnología) de Estocolmo, Suecia [Sjölander y Beskow 2003].

La representación de las funciones de Bessel fue realizada utilizando Dataplot, creado por James J. Filliben y Alan Heckert en el SED (División de Ingeniería Estadística), del National Institute of Standards and Technology, Estados Unidos [Filliben y Heckert 1978-2002].

La imágenes fueron editadas usando Gimp, de Peter Mattis y Spencer Kimball [Mattis y Kimball 2003].

Todos los programas utilizados son libres y de código abierto: Gimp es distribuido bajo los términos de la Licencia General Pública (GPL) [GNU Project 1991], WaveSurfer bajo el estilo de licencia BSD [Open Source Initiative 1999], Dataplot y Snd no están limitados por ningún tipo de licencia o acuerdo.

La figura 1 está basada en un diagrama de Chowning, reproducido en Dodge [1997].

Un agradecimiento especial a Juan Pampín, por haberme facilitado una copia de la versión cuadrafónica de Turenas.


Referencias

Camilleri, Lelio, 1993. - "Electroacoustic music: Analysis and listening processes." Sonus (Contemporary Music Materials), 1.
Chadabe, Joel, 1997. - Electric Sound. Upper Saddle River, New Jersey: Prentice Hall.
Chowning, John, 1971. - "The simulation of moving sound sources." Journal of the Audio Engineering Society 19:1. Reimpreso en: Computer Music Journal 1:3, 1977.
Chowning, John, 1973. - "The synthesis of complex audio spectra by means of Frequency Modulation." Journal of the Audio Engineering Society 21:7. Reimpreso en: Curtis Roads & John Strawn, eds. 1985 Foundations of Computer Music. Cambridge, Massachusetts: MIT Press.
Chowning, John, 1980. - "Computer synthesis of the singing voice." En: J. Sundberg & E. Jansson, eds. Sound Generation in Winds, Strings, and Computers. Publication 29. Stockholm: Royal Swedish Academy of Music.
Chowning, John, 1987. - Entrevista de Johannes Goebel. En el librillo del CD John Chowning, Wergo WER 2012-50, 1988.
Chowning, John, 1989. - "Frequency modulation synthesis of the singing voice." En: Max Mathews & J. Pierce, eds. 1989. Current Directions in Computer Music Research. Cambridge, Massachusetts: MIT Press.
Chowning, John, 2000. - "Digital sound synthesis, acoustics, and perception: A rich intersection." Proceedings of the COST G-6 Conference on Digital Audio Effects (DAFX-00). Verona.
Chowning, John, Bernard Mont-Reynaud, 1986. - "Intelligent analysis of composite acoustic signals." Department of Music Report STAN-M-36. Stanford: Stanford University.
Chowning, John, John Grey, Loren Rush, James Anderson Moorer, 1974. - "Computer simulation of music instrument tones in reverberant environments." Department of Music Report STAN-M-2. Stanford: Stanford University.
Chowning, John, Loren Rush, Bernard Mont-Reynaud, Chris Chafe, W. Andrew Schloss, Julius Orion Smith, 1984. - "Intelligent systems for the analysis of digitized acoustic signals." Department of Music Report STAN-M-15. Stanford: Stanford University.
Code, David Loberg, 1990. - "Observations in the Art of Speech: Paul Lansky's Six Fantasies." Perspectives of New Music, 28:1.
Cogan, Robert, 1985. - New images of musical sound. Cambridge, Massachusetts: Harvard University Press.
Cook, Nicholas, 1987. - A guide to musical analysis. New York: George Braziller.
Dashow, James, 1980. - "Spectra as chords." Computer Music Journal 4:1
Dashow, James, 1987. - "Looking into Sequence Symbols." Perspectives of New Music 25:1-2
Dashow, James, 1999a. - "The Dyad System (Part One)." Perspectives of New Music 37:1
Dashow, James, 1999b. - "The Dyad System (Parts Two and Three)." Perspectives of New Music 37:2
DeBellis, Mark, 1999. - "What is Musical Intuition: Tonal Theory as Cognitive Science." Philosophical Psychology 12:4
Dodge, Charles, 1985. - "In Celebration: The Composition and its Realization in Synthetic Speech." En: Curtis Roads, ed. 1985. Composers and the Computer. Los Altos, California: William Kaufmann.
Dodge, Charles, 1989. - "On Speech Songs." En: Max Mathews & J. Pierce, eds: Current Directions in Computer Music Research. Cambridge, Massachusetts: MIT Press.
Dodge, Charles, Thomas Jerse, 1997. - Computer Music. Synthesis, composition, and performance. Schirmer Books, 2ª ed.
Filliben, James, Alan Heckert, 1978-2002. - Dataplot. http://www.itl.nist.gov/div898/software/dataplot/homepage.htm
Gardner, Mark B, 1962. - "Binaural detection of single-frequency signals in presence of noise." Journal of the Acoustical Society of America 34.
Gardner, Mark B, 1969. - "Image fusion, broadening, and displacement in sound location." Journal of the Acoustical Society of America 46.
GNU Project, 1991. - General Public License, Version 2. http://www.gnu.org/copyleft/gpl.html, traducción al español: http://gugs.sindominio.net/licencias/gples.html
Harvey, Jonathan, 1981. - "Mortuos Plango, Vivos Voco: A realization at IRCAM." Computer Music Journal 5:4. Reimpreso en: Curtis Roads, ed. 1989. The Music Machine. Cambridge, Massachusetts: MIT Press.
Hirst, David, 1996. - "The use of MQ plots in the analysis of electro-acoustic music." MikroPolyphonie 1.01. http://farben.latrobe.edu.au/mikropol/volume1/hirst-d/hirst.html
Holm, Frode, 1992. - "Understanding FM implementations: A call for common standards." Computer Music Journal 16:1.
Horner, Andrew, James Beauchamp, Lippold Haken, 1993. - "FM matching synthesis using genetic algorithms." Computer Music Journal 17:4.
Horner, Andrew, 1996. - "Double-modulator FM matching of instrument tones." Computer Music Journal 20:2.
LeBrun, Marc, 1977. - "A derivation of the spectrum of FM with complex modulating wave." Computer Music Journal 1:4. Reimpreso en: Curtis Roads & John Strawn, eds. 1985. Foundations of Computer Music. Cambridge, Massachusetts: MIT Press.
Lerdahl, Fred, 1992. - "Cognitive Constraints on Compositional Systems." Contemporary Music Review, vol. 6.
Lerdahl, Fred, Ray Jackendoff, 1983. - A Generative Theory of Tonal Music. Cambridge, Massachusetts: MIT Press.
Mathews, Max, 1963. - "The digital computer as a musical instrument." Science 142:11.
Mathews, Max, Joan Miller, John Pierce, Richard Moore, Jean-Claude Risset, 1969. - The Technology of Computer Music. Cambridge, Massachusetts: MIT Press.
Mattis, Peter, Spencer Kimball, 2003. - Gimp 1.2.3. http://www.gimp.org/
Moore, Richard, 1990. - Elements of Computer Music. Prentice Hall.
Morril, Dexter, 1977. - "Trumpet algorithms for computer composition." Computer Music Journal 1:1. Reimpreso en: Curtis Roads & John Strawn, eds. 1985 Foundations of Computer Music. Cambridge, Massachusetts: MIT Press.
Open Source Initiative, 1999. - The BSD License. http://www.opensource.org/licenses/bsd-license.php
Roads, Curtis, 1985a. - "John Chowning on composition". En Curtis Roads, ed. 1985. Composers and the computer. William Kaufmann.
Roads, Curtis, 1985b. - "The realization of nscor". En Curtis Roads, ed. 1985. Composers and the computer. William Kaufmann.
Roads, Curtis, 1996a. - The Computer Music Tutorial. Cambridge, Massachusetts: MIT Press.
Roads, Curtis, 1996b. - "Materials and montage in Clang-tint". En Proceedings Volume II of the works of the International Academy of Electroacoustic Music, Bourges.
Saunders, Steve, 1977. - "Improved FM audio synthesis methods for real-time digital music generation." Computer Music Journal 1:1. Reimpreso en: Curtis Roads & John Strawn, eds. 1985 Foundations of Computer Music. Cambridge, Massachusetts: MIT Press.
Schottstaedt, Bill, 1977. - "The simulation of Natural Instrument tones using Frequency Modulation with a complex modulating wave." Computer Music Journal 1:4. Reimpreso en: Curtis Roads & John Strawn, eds. 1985 Foundations of Computer Music. Cambridge, Massachusetts: MIT Press.
Schottstaedt, Bill, 2003. - Snd 6.7 http://www-ccrma.stanford.edu/software/snd/ © 1996-2003 The Board of Trustees of Stanford University.
Schroeder, Manfred R, 1962. - "Natural sounding artificial reverberation." Journal of the Audio Engineering Society 10.
Sjölander, Kåre, Jonas Beskow, 2003. - WaveSurfer 1.5. http://www.speech.kth.se/wavesurfer/ © 2003 Kåre Sjölander, Jonas Beskow.
Stroppa, Marco, 1984. - "The analysis of electronic music." Contemporary Music Review 1.
Truax, Barry, 1977. - "Organizational techniques for c:m ratios in Frequency Modulation." Computer Music Journal 1:4. Reimpreso en: Curtis Roads & John Strawn, eds. 1985 Foundations of Computer Music. Cambridge, Massachusetts: MIT Press.
Truax, Barry, 1982."Timbral construccion in Arras as a stochastic process." Computer Music Journal 6:3. Reimpreso en: Curtis Roads, ed. 1989. The Music Machine. Cambridge, Massachusetts: MIT Press.
Vaggione, Horacio, 1984. - "The making of Octour." Computer Music Journal 8:2. Reimpreso en: Curtis Roads, ed. 1989. The Music Machine. Cambridge, Massachusetts: MIT Press.
Wendt, Klaus, 1961. - "The transmission of room information." Journal of the Audio Engineering Society 9.
Zelli, Bijan, 2001. - "Realle und virtuelle Räume in der Computermusik." Trabajo de Doctorado, Technische Universität Berlin.


- volver al principio -
hp@eumus.edu.uy