Encabezamiento ATI

 

Curso 01:   Música Electroacústica: TEMA 6: La computer music
 


 

 

                               Chowning / Xenakis

 

                                     1.- EL ORDENADOR

Cuando hablamos de sintetizadores generalmente nos referimos a medios de producción de tipo analógico. En cambio, cuando hablamos de ordenadores nos referimos a medios de producción digital: el sonido se puede cuantificar como si se tratara de una onda repetitiva.

Para describir la aparición del ordenador hay que remontarse a finales del siglo XIX con la máquina creada por el matemático Babitt y su ayudante Ada Byron. Estos primeros ingenios eran mecánicos, compuestos por engranajes así como por otros mecanismos y ocupaban grandes espacios. Hasta la mitad del siglo XX no advertimos un cambio fundamental, y éste se produce con la aparición de los ordenadores con válvulas electrónicas.

En los años 60 aparece ya el ordenador moderno tal y como ahora lo conocemos, hecho con tarjetas de circuito impreso, que más tarde, hacía los años 70, serán sustituidos por circuitos integrados o chips. Von Neumann sugiere la estructura actual de la mayoría de los ordenadores: una unidad central de proceso, una memoria y un programa.

La aparición del ordenador moderno y su incorporación a la Música Electroacústica como controlador y gestor de aparatos productores de sonido, también como generador de la propia música, revoluciona el mundo de la composición musical en general y de la Música Electroacústica en particular. Aparece así lo que se denomina genéricamente Música por Ordenador o Informática Musical (Computer Music).
 


                     
2.- ANTECEDENTES DE LA MÚSICA POR ORDENADOR

En los años 50, con los ordenadores de ese momento, había dos tendencias que definían la Música por Ordenador:

Computer-generated sound (síntesis de sonido por ordenador) y

Computer-assisted composition (música generada por el ordenador o composición algorítmica).

Los sintetizadores no eran tan ágiles como en la actualidad, por lo tanto, la música en datos numéricos que generaba el ordenador se pasaba a notación tradicional y se interpretaba con instrumentos acústicos. Esta práctica llega hasta nuestros días, aunque ahora el ordenador rea­liza todas las tareas a la vez. Los datos generados por la máquina se pueden ver gráficamente, numéricamente, en notación musical y escucharlos al mismo tiempo con el sonido digitalizado o sampleado de los instrumentos.

1953.-La llegada de los ordenadores con el propósito de componer música como diferente a la manipulación o creación de sonidos se podría iniciar quizás cuando Iannis Xenakis comenzó la denominada "música estocástica", que es un método de composición que utiliza computadores y sistemas de probabilidad matemáticas. Diferentes algoritmos de probabilidad fueron usados para crear piezas bajo un paquete de parámetros. Xenakis uso un ordenador para ayudarse a calcular las trayectorias de velocidad de los glisandos en su composición orquestal Metastasis, que se estrenaría en 1955.

en 1955, Lejaren Hiller y Leonard Isaacson, de la Universidad de Illinois compusieron la Illiac String Quartet, el primer trabajo completo de música asistida por ordenador, usando algoritmos de composición. La pieza fué así nombrada mezclando el nombre de la Universidad (Illi-nois) con la computadora utilizada (UNIV-AC).

En la Illiac Suite (de Hiller e Isaacson), las notas las generó la máquina con un programa propio utilizando técnicas seriales y sistemas de interpretación extraídos del "Cuarteto nº 4" de Bela Bartok, y después las tocó un cuarteto de cuerda. Hiller postulaba que “el ordenador debería poder analizar las normas de un particular estilo y componer de acuerdo con el". Y comenta: "Observé que si podíamos programar un ordenador para simular un "Camino" a través, dice, de un espacio corriente; podíamos también simular un "Camino" a través de una cuadrícula definida para representar elementos musicales tales como las alturas, duraciones rítmicas y la elección de timbres...”


                       
                                          ordenador Illiac.1957

1956 Martin Klein y Douglas Bolitho usaron un ordenador Datatron para componer música. Este ordenador fué usado para componer melodías populares; que fueron derivadas de datos numericos aleatorios aleatorio numérico; y que fueron “mapeados” en un preprogramado esquema tonal.

1956.- Se establece un estudio electrónico en la radio japonesa de Tokio.

1957 contempla un nuevo desarrollo en la tecnología de los ordenadores. La primera vez que se utilizó un ordenador de manera convincente para generar sonidos ocurrió en Laboratories Bell Telephone, por Max Mathews y Miller, y se denominaron los programas MUSIC. (las versiones de la 1 a la 3 fueron completamente experimentales y escritas en lenguaje ensamblador).



En este año, realizan el MUSIC I y más tarde el MUSIC-N: Constaban de bloques atómicos y predefinidos; Audio Input, Ouput, e Inputs de Control; Osciladores, Filtros, Amplificadores, Generadores de Envolvente. Con grupos predefinidos de parámetros se creaban los Patch (o instrumentos). Con una colección de instrumentos formaba una Orquesta; y una partitura general controlaba la Orquesta.



Más tarde Mathews dejó Bell Labs y trabajó en Stanford, que llegó a ser el centro más importante para música electrónica por computador.

1958 Se funda el Studio for Experimental Music en la University of Illinois, dirigido por Hiller. El estudio llegó a ser más tarde, uno de los más importantes centros para las investigaciones en música electrónica en los Estados Unidos.

                                         
MUSIC II

1959.- Mathews continúa con la experimentación con programas de ordenador para crear el material de sonido. MUSIC4 requería muchos instrumentos diferentes para el grosor del acorde mientras que MUSIC5 permitió a una partitura hacer referencia a un instrumento como una plantilla, que podía ser llamado en adelante cuantas veces fuera necesaria.

1960.- MUSIC III

1961.-El MUSIC , fue usado en la creación de "Bicycle Built for Two" , de Mathews.

El trabajo teórico, Meta + Hodos, escrito por James Tenney .

1962. MUSIC4, el primer programa operativo de ordenador para síntesis de sonido, que usaba un primitivo convertidor digital-analógico. MUSIC4 ya fué escrito en FORTRAN. Se realiza una versión para IBM 7094.: El MUSIC4B y una segunda posterior, el MUSIC4BF, en una adaptación del Music4B al Fortran.

PLF 2 fue desarrollado por James Tenney. Este programa de computador fué usado para escribir Four Stochastic Studies, Ergodos y otras.

1963 Lejaren Hiller y Robert Baker compusieron Computer Cantata.

Chowning (que había recibido una copia del MUSIC4B de manos de Mathews) y Andrew Moorer crean MUSIC 10 y SCORE, siendo uno de los primeros Sistemas de Computación Integrado, aunque de resultados muy lentos.

1964.-Gottfried Michael Koenig usó PR-1 (Project 1), un programa de ordenador que fue escrito en Fortran e implementado sobre un IBM 7090. El propósito del programa fue proveer datos para calcular las estructuras en las composiciones musicales; escrito para llevar a cabo operaciones algorítmicas y seriales sobre los datos entrantes. La segunda versión de PR-1, fué terminada en 1965.

1967 Max Mathews y Moore desarrollaron GROOVE, un sistema de control digital a tiempo real para síntesis analógica, que eventualmente fué usado por los compositores Laurie Spiegel y Emmanuel Ghent en los 70.

1968 Lejaren Hiller y John Cage componen HPSCHD.

1968.- MUSIC V fue ya totalmente creado en FORTRAN. Así que podía ser portado a cualquier sistema que corriera FORTRAN (MUSIC V fué el más maduro de los lenguajes MUSIC-N y posiblemente, el más influyente) con descendientes directos:

las variantes del Music V incluyen el MUSIC360 ( para los ordenadores IBM360, por Hale y Howe); y el MUSIC11 (para el PDP11 , programado por Vercoe, MIT). Ëste último evolucionó posteriormente a Csound (en los 80 ), hoy ampliamente utilizado.

1970 .Charles Dodge compuso Earth's Magnetic Field. Este es un gran ejemplo del mapeo de estadísticas numéricas en datos musicales.

1972. Charles Dodge compuso Speech Songs (1972) basadas en investigaciones tempranas sobre la síntesis del habla.


El Systems Concepts Digital Synthesizer (SCDS), construido por Peter Samson para la CCRMA (de Standford), generaba señales y procesaba elementos ejecutándolos todos en paralelo y capaz de hacerlo en tiempo real.
Tenía 256 osciladores digitales, 128 modificadores de señal ( filtros, reverb, potenciómetros de amplitud), una memoria rápida para comunicar valores entre elementos en proceso, y una memoria mayor para las reverberaciones y la tabla de almacenaje.

Durante cerca de 10 años fué el principal ordenador del grupo en sus experimentos.



1973 SAWDUST, un lenguaje de Herbert Brun, utiliza funciones tales como: ELEMENT, LINK, MINGLE, MERGER, VARY, y TURN.

1981 Larry Austin compone Canadian Coastlines, una composición que utiliza un mapa geográfico de Canadá en orden a determinar contenidos texturales rítmicos y melódicos.

Variantes del Music V : Los nuevos desarrollos incluyen Cmusic (por Moore), llamados así porque fueron escritos enteramente en el lenguaje de programación denominado C.

1985 HMSL, Fue lanzado el “Hierarchical Music Specification Language”. La organización básica es una serie de estructura de datos denominadas “morphs”, llamados así por el diseño flexible o morfológico de este software. Dentro de la superestructura de estos“morphs” existen otros datos de estructuras denominadas tipos de “morphs”, que son usados para controlar aspectos rutinarios de alto nivel .

1986 Otra variante de Music V es implementada: el Sound, por Barry Vercoe, del MIT.

Jam Factory fue diseñado por el programador David Zicarelli. Él estuvo intentando crear un programa que pudiera leer de una entrada MIDI e improvisar inmediatamente con cierto nivel de eficacia mientras permitía mejorar su habilidad.

Joel Chadabe, Offenhartz, Widoff, and Zicarelli comenzaron a trabajar sobre un programa algorítmico que podría ser usado como un entorno para la improvisación. El ejecutante debería estar sentado en el computador y introducir datos en tiempo real por un panel de rublos y Bárcenas que cambiaban los parámetros de ese algoritmo así . la versión original se denominó "Maestro," después "RMan" (Random Manager), y finalmente, "M."

Music Mouse, escrito por Laurie Speigel, fue diseñado para hacer un sistema de performance completo e independiente. Podría ser usado desde un controlador MIDI o como una estación de trabajo usando el sonido interno Macintosh . Diferentemente a otros programas para el entorno Macintosh, Music Mouse no fue preparado para ser usado como un programa grabador ejecutor. En vez de eso, el programa permitía al programador “tocar” el computador.

El programa Max fue escrito en lenguaje C y fue desarrollado en el IRCAM por Miller Puckette, Más tarde fué preparado para una distribución por Intelligent Music( la compañía que también distribuyó M. y Jam Factory) pero fue la compañía Opcode la que eventualmente lo lanzó. La intención original de Puckette fue construir un lenguaje que podría controlar el sintetizador 4X, del IRCAM. Y que no necesitaba una implementación gráfica. Las gráficas fueron añadida en una versión posterior de Max para ordenador en Macintosh usando MIDI para este propósito. Sobre 1989, Zicarelli modernizó y expandió el programa para el entorno Windows.

Dentro del apartado de síntesis y proceso de sonido por ordenador hay que tener en cuenta los equipos híbridos, es decir el control por medio de un ordenador del sintetizador analógico, técnica que Peter Zinovieff (EMS, Londres) trabajó extensivamente en su estudio de Londres.


                                  
3.- LOS PROGRAMAS MUSIC

El primer trabajo realizado íntegramente en síntesis de sonido a través de ordenador lo realiza el ingeniero Max Mathews, de Bell Telephone Laboratories, New Jersey 1959, cuando, digitalizando conversaciones de teléfono, se le ocurrió digitalizar un sonido. Los programas denominados genéricamente MUSIC, producen la serie MUSIC I, II, III y IV (Utilizando ordenadores IBM 704,1958/60 ; IBM 7090 ,1960/3; e IBM 7094, 1963/6 ). El que se extiende por todo el mundo es el MUSIC IV, y el primer composi­tor que lo utiliza es James Tenney en 1961 para componer la obra Stochastic String Quartet.



 

Otros compositores pioneros en estas técnicas son, en Francia, Pierre Barbaud y en Holanda G.M. Koening, fundador del estudio de Utrech. El MUSIC IV y, más tarde, el MUSIC V, simulaban en software los operaciones de un estudio de música electrónica y calculaban y escribían la señal digital resultante en banda magnética de ordenador, todo ello en tiempo no real.

 

La digitalización del sonido resolvía toda una serie de problemas que los sistemas analógicos eran incapaces de resolver, permitiendo una síntesis perfecta del sonido: la ventaja principal con respecto a la analógica es la precisión numérica con que se puede expresar cualquier parámetro del sonido y sobre todo la posibilidad de repetirlo, lo cual es casi imposible en los equipos analógicos (la adición de sonidos analógicos creaba una serie de interferencias que imposibilitaban la sincronización de ondas y reducían los medios analógicos a que sólo se pudieran utilizar satisfactoriamente partiendo de sonidos complejos y filtrando elementos para establecer timbres aceptables); en cambio, el ordenador puede resolver cualquier timbre por adición, ya que tan sólo es un problema de cálculo y la sincronización de ondas es un hecho.

 

Además del avance en los métodos de síntesis, el ordenador también permitió la realización precisa de experimentos psicoacústicos.

                                          
 4.- LOS AUTORES

Desde 1960, dos investigadores, ingenieros y músicos (John Chowning y James Moorer) en la Sanford University, California, trabajaban para generar sonidos, no por Síntesis Aditiva (sumar sinusoides), sino por otro tipo de síntesis, que se va a denominar Síntesis por Modulación de Frecuencia (una onda modula a otra y la transforma). Con pocos oscila­dores se consiguen sonidos vivos y complejos. En los 70, el MUSIC 10 (evolución de MUSIC V), escrito para mainframe PDP10, es utilizado por ambos como herramienta básica. Mejorarán el programa cuando crean el Center for Computer Research in Music and Acoustic (CCRMA), e igualmente se mejoraría en el Institute de Recherche et Coordina­tion Acoustic/Musique (IRCAM, París), dirigido y creado por el compositor francés Pierre Boulez.

En 1968, el compositor e ingeniero francés Jean Claude Risset, creador de la teoría de los glisandos continuos (Ligeti llevará esta forma de estructura a la orquesta sinfónica), trabaja en Bell y, posteriormente, en CCRMA, y realiza Little Boy (1968) utilizando un nuevo proceso de síntesis: después de analizar el sonido de algunos instrumentos mediante ordenador, propuso un modelo del sonido más realista extrayendo parámetros no tenidos en cuenta hasta entonces y que nuestra percepción reconoce, como, por ejemplo, la importancia de la evolución independiente de los diferentes armónicos o parciales en un sonido. Su modelo de síntesis aditiva se basa en utilizar envolventes de amplitud y frecuencia independientes para cada armónico, resultando así el timbre más interesante y menos "electrónico" o carente de vida. Hoy día muchos sintetizadores digitales comerciales utilizan este modelo más o menos simplificado.

Chowning presenta, en 1972, dos obras, Sabelithe y Turenas, para enseñar la nueva síntesis de sonido, desde entonces llamada Síntesis de FM (que aunque ya se conocía en los sintetizadores analógicos no se empleaba por su falta de precisión), y un programa que había desarrollado para mover espacialmente los sonidos produci­dos por el ordenador, trabajando por primera vez con la cuadrafonía, en lugar de la estereofonía.

A su regreso a Marsella y al IRCAM en los 70, Risset produce Dialogues y Songues (1978), una transformación desde sonidos del violín y la flau­ta hasta timbres complejos de FM.

En Francia, el matemático y compositor Iannis Xenakis crea la Música Estocástica, música realizada por procesos aleatorios y automáticos. Trabaja en los 70 en el Centre D'Etudes de Mathématique et Automatique Musicales (CEMA) en París y crea varias obras: Polyto­pe de Cluny (1972-74) para luz y sonido (600 flashes, 2 lasers y 7 canales de cinta) y Diatope (1977).

También en 1970, John Appleton y Sidney Alonso, en el Dartmouth College (New Hampshire, EE UU), Willian Buxton (Universidad de Toronto) y Cameron Jones con New England Digital Cooporation crean ordenadores específicos para música capaces de produ­cir sonidos en tiempo real : el compositor enviaba limitados mensajes al ordenador a través de una ter­minal, de botones o de un teclado. Son instrumentos digitales cerrados en sí mismos, como el Synclavier (1975) o el Fairlight (Australia ), comercializado en 1979.

           
5.- LA INTERFAZ MIDI Y LAS "ESTACIONES DE TRABAJO"

En 1983 aparece un nuevo invento que revoluciona y acerca la tecnología al usuario: la interfaz MIDI (Musical Instrument Digital Interface). Se trata de un comunicador entre los ordenadores personales y otros aparatos musicales, como sintetizadores de última generación, samplers (digitalizadores de señal), mesas de mezclas, cámaras de efectos...

La aparición de la interfaz MIDI abarata los estudios y permite tener en la propia casa un estudio donde poder trabajar y realizar las obras u otros trabajos informático-musicales.

Sobre todo, el Apple Macintosh, creado por Steve Jobs, quien posteriormente creara el Next, han permitido que el ordenador se haya convertido en un instrumento polivalente, a nivel de composición y de generación o transformación de sonido, con lo que el estudio de música electrónica digital ha pasado a ser una realidad a nivel individual o privada, y cada compositor puede disponer de un equipo para crear música en su propia casa y acceder a programas vía línea telefónica. Hoy en día también el entorno PC (en su origen, para servicios de ofimática) disfruta de condiciones adecuadas para estas prácticas, debido a su amplio desarrollo multimedia, a unos precios aún más populares.
 


Las Workstations : En 1988 aparece la primera workstation para música: un ordenador capaz de realizar todas las tareas informático-musicales pero lo suficientemente pequeño como para poder instalarlo en la propia casa o para tener puestos independientes y conectarse por red.

 

 Esta primera estación de trabajo se llamó NEXT PC y permitía reali­zar las tareas que años antes había que desarrollar en los grandes centros ya nombrados.

 

Actualmente se investiga paralelamente en el desarrollo de nuevas workstation, y en el de los propios ordenadores.


                  
6.- MÚSICA POR ORDENADOR O INFORMÁTICA MUSICAL

La definición actual de Música por Ordenador o Informática Musical sería: variedad de tareas realizadas con el ordenador y encaminadas a actividades musica­les. Estas tareas comprenden la grabación, transforma­ción y reproducción de archivos o secuencias musica­les, la elaboración de partituras y la síntesis directa de sonido en forma digital, sonido listo para su conver­sión en señales de audio vía convertidor digital-analó­gico; su amplificación y su transmisión a las columnas de sonido.

Con la aparición del ordenador personal en los años 80, se produce una auténtica revolución. La tecnología, un tanto alejada del compositor, se ha acerca­do a él de forma sustancial. Ya no es necesario trasla­darse a lugares alejados para poder componer. Cada compositor puede tener, con un presupuesto aborda­ble, un laboratorio propio, y trasladarse a centros más grandes sólo en contadas ocasiones. Incluso los gran­des ordenadores de los laboratorios antes citados se han desmantelado, siendo sustituidos por Workstation u ordenadores personales, cada día más potentes. Aparecen programas cada vez de más fácil manejo para realizar todo tipo de actividades relacionadas con la composición por ordenador. A los compositores se les ha abierto un amplio camino para el desarrollo de la imaginación creativa, y cualquiera que se esté forman­do actualmente no debe concebir el mundo de la com­posición sin al menos un elemental conocimiento del campo de la Música por Ordenador y de áreas afines, pues quedaría irremisiblemente limitado en su activi­dad y contemplaría la rápida evolución de la composi­ción como un mero espectador.

Por otro lado, desde Subotnick, muchos compositores usa actualmente la tecnología MIDI para componer sus obras, incluyendo instrumentos acústicos (tales como James Mobberley, en su Caution to the Winds para piano y cinta magnetica) y, en realidad, siendo precedidos por la serie de los Synchronisms de Davidovsky, algunas décadas antes.

 

--------------------------------------------------------------------------------

A  Fuentes y Bibliografía

 

 

 

 

                       MATERIAL COMPLEMENTARIO:

 

 

 

 

 

 

 

 

Cualquier aspecto referente a tendencias, técnicas, procedimientos, autores u obras, no contemplados en estos apuntes (corrientes no electroacústicas o tradicionales), se pueden consultar en la Guía musical del S.XX, en el CD del curso. Audiciones recomendadas para cada tema también incluidas en el CD (archivos de audio).

 

 

A Guía de organología   

 

                               

 

                 Mapa del sitio                                                                                        @Ommalaga2009