About

Live coding en México: una revisión a partir del concierto “A la escucha del código fuente”

Hernani Villaseñor Ramírez.
Doctorado en Música, FaM UNAM.
marzo, 2019

El viernes primero de marzo del 2019 se llevó a cabo en el museo Ex Teresa Arte Actual el concierto A la escucha del código fuente: una aproximación al live coding en México del cual estuve a cargo de la curaduría. Este evento estuvo enmarcado dentro de las actividades paralelas de la exposición Modos de oír: prácticas de arte y sonido en México. Para organizar este concierto partí de la premisa de que el live coding en México puede dividirse en tres etapas desde el año 2006 hasta la fecha: una etapa de exploración, una de enseñanza y configuración, y otra de consolidación. A partir de esta idea invité a Marianne Teixido, Emilio Ocelotl, Alejandro Hernández, Jaime Jalil, Karen del Valle, Eduardo Meléndez, José Carlos Hasbun, Malitzin Cortés, Libertad Figueroa, Isaura Román, Rodrigo Frenk, Mitzi Olvera y Jaime Lobato quienes conformaron cuatro grupos de tres o cuatro personas. Para realizar el concierto se montaron tres pantallas con el objetivo de mostrar el código fuente y en algunos casos imagen —una pantalla al fondo del espacio y dos de manera lateral—. El sonido de cada grupo salió mezclado a través de un sistema estéreo y los participantes se colocaron en una mesa al frente. Pero ¿qué resume este concierto?, ¿qué muestra de las tres etapas propuestas? y ¿cómo se ha transformado el live coding en México?

imagen1
Publicidad del concierto. Diseño por Ex Teresa Arte Actual.
imagen2
Libertad Figueroa, Isaura Román y Malitzin Cortés. Ex Teresa, 1 de marzo 2019. Archivo personal.
imagen3.JPG
Jaime Lobato, Mitzi Olvera y Rodrigo Frenk. Ex Teresa, 1 de marzo 2019. Archivo personal.

A continuación, haré una breve descripción de cada etapa, en las que, creo, se puede dividir el desarrollo del live coding en México.

La primera etapa puede rastrearse entre los años 2006 y 2009 en ciertas actividades realizadas por integrantes del Taller de Audio del Centro Multimedia (CMM), como algunos conciertos de la agrupación mU, formada por Ernesto Romero, Eduardo Meléndez y Ezequiel Netri o en algunos conciertos realizados por el propio Netri.1 En esta etapa se menciona poco el término live coding, el cual es tomado de las ideas de TOPLAP, una organización de promoción y difusión del live coding surgida en Europa, esto se puede observar a través de algunos conciertos que mU anunció en el sitio web de TOPLAP (véase wiki de eventos).


mU en Habitación del Ruido, septiembre 2006. Ciudad de México.


imagen4
Publicidad del acto en vivo Prácticas con código vivo. CCEMX, julio 2009. Imagen del blog de Ezequiel Netri.

La segunda etapa puede establecerse entre los años 2010 y 2014 también en el Centro Multimedia, quizá no como una continuación de las actividades de mU, sino del proyecto educativo que el Taller de Audio proponía desde el año 2007. Este programa se orientaba a la enseñanza de software libre y de código abierto para las artes como SuperCollider, Processing, Arduino, Pure Data y Fluxus. Aunque el tema de live coding era revisado de manera general en algunos cursos y talleres, es hasta finales del año 2010 que el Taller de Audio organiza el primer concierto de live coding.2 Es así que, durante los siguientes años y hasta finales del 2014, el Taller de Audio organizó regularmente sesiones de live coding que se caracterizaron por la escritura de código fuente desde cero, una duración de nueve minutos por participación, la proyección del código para el público, la participación de un live coder de sonido y otro de imagen por turno, y un uso predominante de los softwares SuperCollider y Fluxus.3 Pese a que el concepto de live coding en el CMM estaba influenciado por las ideas expuestas en el sitio web de TOPLAP, esta segunda etapa se caracterizó por el desarrollo de una forma particular de hacer live coding que trataba de responder a la pregunta ¿qué es y cómo se hace live coding? En esta etapa, la participación colectiva y la búsqueda de diferentes modos de aproximarse a los nueve minutos desde cero configuraron, junto a las características antes mencionadas, un modo de creación que quizá puede identificarse como el “estilo mexicano de live coding” (Griffiths, 2012). El soporte de un espacio institucional que permitía reunirse y facilitaba infraestructura técnica y social propició un intercambio de ideas entre participantes y la creación de una comunidad en torno al live coding.

imagen5.JPG
Elihú Garret y Valeri Faxtar en la sesión 23 de live coding. Casa Vecina, junio 2013. Archivo personal.
imagen6.JPG
Mitzi Olvera y Aristóteles Benítez en la sesión 22 de live coding. Facultad de Ciencias, UNAM, mayo 2013. Archivo personal.

La tercera etapa puede identificarse a inicios del 2015 cuando ocurren algunos cambios en el Taller de Audio del Centro Multimedia que dejan sin sede a la comunidad de live coding formada en años anteriores. Hasta ese momento, el Centro Multimedia había sido —y lo sigue siendo para otras comunidades— un punto de encuentro que mantenía cohesionada a dicha comunidad. Después de un periodo de mucha actividad, el live coding en México pierde fuerza como práctica colectiva, sin embargo, algunos participantes de las sesiones del CMM continuaron organizando eventos de manera esporádica, lo que coincide con dos momentos a nivel global que van a propiciar la consolidación de algunos actores de la escena mexicana de live coding a nivel internacional:4 uno es el desarrollo de la práctica de live coding en un contexto de música electrónica bailable bajo el movimiento Algorave, surgido en Inglaterra y rápidamente diseminado en Europa, el norte de América y Japón; y otro, es la Conferencia Internacional de Live Coding (ICLC), celebrada cada año desde el 2015 en distintas ciudades del mundo, de las cuales una fue organizada en Morelia, México en el año 2017.

La práctica desde cero, en nueve minutos y por pares desarrollada en el CMM pasó a una preparación más elaborada del código fuente para tocar en vivo en eventos de una mayor extensión, los cuales encontraron en el Algorave una forma de adherirse a un movimiento global. Nuevos softwares como TidalCycles y mas tarde Hydra aparecen como una alternativa a SuperCollider y Fluxus, de los cuales se observa un uso cada vez más extendido. Además de lo antes mencionado, hay otros dos factores de movilidad que han contribuido a consolidar, a nivel global, el live coding en México: uno es la participación de varios live coders mexicanos en Algoraves internacionales y en las conferencias ICLC y el otro es el fenómeno de diáspora que se observa en la migración hacia Canadá, España, Brasil y Alemania por motivos de estudio o de trabajo. Por último, es necesario aclarar que si bien el presente texto habla de una práctica de live coding en México, esta ha padecido, como muchas prácticas artísticas en el país, de una centralización en la capital. Sin embargo, el live coding ha tenido resonancia en ciudades como Morelia, Guadalajara y Toluca, en las cuales se observa el desarrollo de escenas locales.

A pesar de una consolidación y desarrollo estético del live coding en México, me parece que recientemente hay una fuerte adherencia a las corrientes y formas de pensamiento propuestas por Toplap, Algorave e ICLC, lo cual pone a la escena mexicana en un contexto global, pero deja de lado un componente de búsqueda para configurar la práctica desde lo local, en lo estético, lo tecnológico5 y lo social, y aquí cabe preguntar: ¿es necesario un espacio institucional para mantener la cohesión de una comunidad y para desarrollar discursos locales?


Referencias

Ex Teresa Arte Actual, post de Facebook, 1/03/2019. Disponible: https://www.facebook.com/events/1107524856073072/. Última consulta: 10/03/2019.

Griffiths, Dave. (2012). “Mexican livecoding style”. Dave’s blog of art and programming, 21/11/2012. Disponible: http://www.pawfal.org/dave/blog/2012/11/mexican-livecoding-style/. Última consulta: 14/03/2019.

Toplap.org. “ManifiestoDraft”. Toplap.org. Disponible: https://toplap.org/wiki/ManifestoDraft. Última consulta: 16/03/2019.

Villaseñor, Hernani. (s.d.). “Live coding en México”. Disponible: http://www.hernanivillasenor.com/archivos/html/livecoding.html. Última consulta: 14/03/2019.


Notas

1 Por ejemplo, el concierto titulado Prácticas con código vivo: Re-modulación en vivo de código abierto a través de SuperCollider, llevado a cabo el 14 de julio de 2009 en el Centro Cultural de España dentro del ciclo Sinescenia.

2 El primer concierto colectivo de live coding en el CMM se realizó el 9 de diciembre de 2010. Véase http://cmm.cenart.gob.mx/cartelera/2010/diciembre.html#livecoding.

3 Se organizaron alrededor de 30 sesiones de live coding en el CMM y distintas sedes. Una descripción de estas sesiones puede leerse en la siguiente nota http://noticias.canal22.org.mx/2012/07/25/live-coding-apuesta-por-un-cadaver/.

4 Por ejemplo el dúo Mico Rex, Alexandra Cárdenas, Malitzin Cortés, y el grupo RGGTRN.

5 Respecto a lo tecnológico recientemente el dúo Piranha Lab, ha comenzado a organizar encuentros de live coding con el objetivo de visibilizar tecnologías desarrolladas en México y Latinoamérica, por ejemplo CaosBox, Instrument, Orbit, Cine vivo e Hydra.

 

La orquestación en la multipercusión

Andrea Sorrenti
marzo, 2019

Estudiando el repertorio para multipercusión, hay un paso obligado y sumamente creativo que yo personalmente defino como orquestación. Buscando el termino “orquestar” en la RAE, la primera definición propuesta es “[i]nstrumentar una composición musical para orquesta” y, probablemente, también sea la definición más común en un discurso musical; pero, la última definición que la RAE propone es “[o]rganizar algo, prepararlo con anterioridad sin atender otras opciones.”1 Esta última definición es la que me parece una buena descripción del proceso creativo que se realiza durante el estudio de una obra para multipercusión.

El proceso al que me refiero es el de elegir los elementos o los instrumentos específicos que van a constituir el set-up. El caso es que, cuando al principio de una obra para multipercusión el compositor especifica la lista de elementos que hay que utilizar, generalmente no va más allá del nombre de dichos elementos. Esto quiere decir que si los elementos de los que estamos hablando son teclados (marimba, vibráfono, glockenspiel, entre otros) no hay mucho que cuestionar, pero si estamos hablando de cualquier otro instrumento de percusión u objeto entonces se abre una lista infinita de posibilidades.

A manera de ejemplo describiré esta problemática aplicada a una obra que afronté durante el tercer semestre de investigación de mi maestría pudiendo explorar muy a fondo las posibilidades de la orquestación creativa: estoy hablando de Monkey Chant (2006) de Glenn Kotche. La obra está escrita para batería y electrónica en vivo. El set-up no se aleja mucho de la estructura estándar de una batería, pero tiene algunos elementos poco comunes como una kalimba y unos alm-glocken. Pero, lo que caracteriza la pieza, lo que es su verdadero corazón pulsante y que permite al intérprete experimentar infinitas posibilidades, es su tarola preparada.

En primer lugar, Glenn Kotche sugiere utilizar un parche especifico, el Evans HD.

imagen 1

La peculiaridad de éste es que tiene unos hoyos pequeños en toda su circunferencia. Gracias a estas cavidades preexistentes se pueden atorar al parche los elementos pedidos por el compositor. En las notas de la pieza, la lista de lo que se necesita para poder preparar la tarola está compuesta por: unos micrófonos de contacto, varios resortes pequeños, varios resortes largos, un palillo largo, cables eléctricos e hilo de pescar amarrado a la punta de una baqueta (Kotche, 2006). El compositor, además de indicar esta lista de elementos, sugiere utilizar varios tamaños de resortes que tengan distintas tensiones, cortar parte de la baqueta que tiene el hilo de pescar para que no estorbe mucho y ponerle brea para que la fricción resuene más, así como ponerle cinta al palillo para que no se caiga de la caja de resonancia del tambor y aplicarle cera de abejas para la fricción, entre otros detalles (ibid.).

Leyendo las notas de la partitura, la frase que yo considero más importante es: “[e]l intérprete debería experimentar para encontrar un sonido que le gusta.”2 De hecho, a pesar de todos los detalles proporcionados, poder armar el parche preparado y luego encontrar los sonidos deseados fue una experimentación larga e interesante. Respecto a los resortes, probé varios de diferente tamaño, grosor y flexibilidad, y formé tres grupos que tuvieran tres alturas diferentes, cada uno constituido por dos o tres resortes. Afiné la tensión del parche en cada zona del grupo para poder mejorar el sonido deseado. Y, para poder usar el hilo de pescar, lo amarré en la parte interna del parche a una pequeña arandela de metal para que aguantara la tensión al friccionar la baqueta; la parte del nodo de la baqueta la tuve que lijar para obtener un sonido más fuerte.

imagen 2
Tarola preparada

Captura de pantalla 2019-03-11 a la(s) 00.20.14.png
vista frontal y trasera del parche

Con estos ejemplos de experiencia práctica de orquestación de un set-up puedo afirmar que esta fase en el estudio de una obra para multipercusión es un momento sumamente importante y, si se quiere, constantemente mutable. La atención en la elección de los elementos que formarán el instrumento multipercusión contribuye a la calidad y a la buena presentación del performance.

Esto es algo que, según mi opinión, debe de ser desarrollado a lo largo de la carrera académica porque hace falta trabajar bastante para que el percusionista sensibilice la escucha de un instrumento tan cambiante. A la par, también el aspecto creativo y resolutivo, tiene que ser entrenado. El hecho de ensuciarse las manos, de aprender a usar herramientas, es algo que también debe de ser incluido en el camino del aprendizaje para ser percusionista, porque es algo que el repertorio contemporáneo para este (multi)instrumento exige.


 

 


Bibliografía

Kotche, Glenn (2006). Monkey Chant for Solo Drumkit. Sin editorial.


Notas

1 Cf. Orquestar en Real Academia Española. Disponible en: http://dle.rae.es/?id=RFXOG1O (consultado por última vez en marzo de 2019).

2 Texto original: “The performer should experiment to find a sound that he or she likes”  en Kotche, Glenn (2006). Monkey Chant for Solo Drumkit. Sin editorial. Traducción por el autor.

Breve historia del Centro Latinoamericano de Altos Estudios Musicales (CLAEM)

Emilia Bahamonde
marzo, 2019

Una de las principales cunas de experimentación musical en el cono sur se constituyó entre 1961 y 1962 por el Centro Latinoamericano de Altos Estudio Musicales (CLAEM) que formaba parte del Instituto Torcuato Di Tella en Buenos Aires. El compositor argentino Alberto Ginastera fundó el Centro en 1962 y lo dirigió hasta su cierre a principios de los años 70. Más de 50 compositores provenientes de distintos países latinoamericanos pasaron por este centro, entre ellos figuraban Jorge Antunes (Brazil), Blas Emilio Atehortúa (Colombia), Cesar Bolaños (Peru), Gabriel Brnčić (Chile), Mariano Etkin (Argentina), Eduardo Kusnir (Argentina), Mesías Maiguashca (Ecuador), Antonio Mastrogiovanni (Uruguay), Alcides Lanza (Argentina), Marlos Nobre (Brazil), Jacqueline Nova (Colombia), Joaquín Orellana (Guatemala), Graciela Paraskevaídis (Argentina), Jorge Sarmientos (Guatemala), Édgar Valcárcel (Peru) y Alberto Villalpando (Bolivia). En estas instalaciones también se gestaron algunos de los primeros festivales de música experimental latinoamericanos.

Fueron varios los estilos musicales de vanguardia explorados en el CLAEM, entre ellos politonalidad, aleatorismo, microtonalismo y géneros relacionados. La tendencia era traspasar los límites de la música clásica contemporánea, algo que usualmente denominaban como Música Experimental. La música electrónica también entraba dentro de esta categoría al incluir trabajos con manipulación y procesamiento de sonidos generados electrónicamente, así como conciertos de música asistida por ordenador o con instrumentos eléctricos. El CLAEM se destacaba en la región por tener uno de los estudios de música electroacústica mejor equipados, conocido como el Laboratorio de Música Experimental, el cual funcionó desde 1963. Uno de los aportes más curiosos fue el del convertidor gráfico analógico denominado “Catalina”, inventado por el ingeniero Fernando von Reichenbach, quien sería director del laboratorio durante algunos años. Este dispositivo tenía la capacidad de transformar determinados gráficos en sonidos.

El CLAEM colaboró con el Centro de Artes Visuales y el Centro de Experimentación Audiovisual en algunas propuestas interdisciplinares de tendencia avant-garde que incluían arte pop, happenings, neofiguración e incluso arte para el consumo de masas (Herrera, 2016). En estas instalaciones se organizaba anualmente el Festival de Música Contemporánea y además se gestaban presentaciones con obras de alumnos destacados, sobretodo de aquellos que gozaban de las becas bianuales que se otorgaban a jóvenes de toda Latinoamérica (Burucúa, 2014).

Puesto que en ocasiones los compositores no podían pagar a los músicos para que interpretasen sus composiciones, algunos profesores y alumnos se organizaron para actuar como intérpretes, creando en 1969 el Grupo de Experimentación Musical. Este grupo se especializaba en realizar improvisaciones en vivo, algo que motivó a algunos críticos musicales a cuestionar las habilidades de los compositores como ejecutantes. Incluso los compositores se veían limitados en sus habilidades al realizar los performances. Y es que la tradición musical velaba por el virtuosismo de los ejecutantes. Con el tiempo la capacidad de improvisar en vivo y de realizar una ejecución de tinte avant-garde se convirtió en algo más importante que la técnica y la composición espontánea reemplazó al virtuosismo (Herrera, 2018).

Algunas de las figuras de la música contemporánea que destacaron como profesores en Centro fueron Luigi Nono, Yannis Xenakis, Bruno Maderna, Olivier Messiaen, Luigi Dallapiccola, Gilbert Chase y Gilbert Amy. La influencia de los músicos extranjeros más las nuevas ideas traídas por los músicos que estudiaron en el exterior incrementaron la tendencia hacia una música con estética europea. Al respecto José Emilio Burucúa nos comenta:

“La situación económica floreciente trajo aparejada la existencia de teatros y organizaciones que sustentaban dichas actividades y atraían un público considerable. Las ciudades del interior del país también tuvieron sus organizaciones de conciertos” (Burucúa, 2014: 193).

A inicios de la década de los setenta la dictadura militar redujo los fondos económicos hacia proyectos culturales debido a que pensaban que podrían ser cuna de rebeliones, argumentando que la razón en realidad era la crisis económica. Lamentablemente esto condujo al cierre de actividades del CLAEM a finales de 1971. El aporte realizado por el CLAEM como parte del Instituto Di Tella fue trascendental para el desarrollo de la música académica latinoamericana del siglo XX. Hasta el día de hoy se han realizado varios tributos y festivales en homenaje a la labor realizada en sus instalaciones como por ejemplo el festival internacional La música en el Di Tella – resonancias de la modernidad y la parodia creada por Les Luthiers con el personaje Johann Sebastian Mastropiero, quien habría fundado el Centro de Altos Estudios Musicales “Manuela”.


Bibliografía

Burucúa, J. E. (2014). Historia Argentina. Arte, sociedad y política. Buenos Aires: Penguin Random House Grupo Editorial Argentina.

Herrera, E. (2016). Di Tella Institute. Routledge Encyclopedia of Modernism   Routledge. Recuperado el 24 de febrero de 2019 de: https://rucore.libraries.rutgers.edu/rutgers-lib/50605/PDF/1/play/

Herrera, E. (2018). “Experimentation and Legitimacy at CLAEM” en Alonso-Minutti, A.R., Herrera, E., & Madrid, A.L. Experimentalisms in Practice: Music Perspectives from Latin America. Nueva York: Oxford University Press.

 

La escena como espacio de transformación de las prácticas interpretativas

María Clara Lozada Ocampo
febrero, 2019

Dentro del modelo conservatorio la interpretación de música académica occidental se ha construido a partir de la reiteración de ciertos cánones que incluyen un conjunto de obras y unas maneras de tocarlas más o menos estables. La formación de intérpretes inicia a partir del canon tradicional que incluye obras de los siglos XVIII a principios del XX, y en el que se insertan también algunas de repertorio anterior (siglo XVII) y posterior (siglos XX y XXI), pero que luego se consideran ramas de especialización distintas: la música antigua y la contemporánea, respectivamente; en ese sentido se enfoca en desarrollar las capacidades necesarias para tocar este repertorio de manera por lo menos satisfactoria, perpetuando una forma específica de hacer y de pensar ejecutantes con ciertas habilidades, comportamientos y, sobre todo, formas de descifrar un texto escrito y convertirlo en sonido. Así pues, se genera un modelo de intérprete ideal que en abstracto tiene determinadas características (toca ciertas obras de cierta manera dentro de un cierto rito), las cuales se busca alcanzar mediante prácticas reiteradas que generan una identidad más o menos establecida (aunque dentro de la misma práctica existan también contradicciones que contrapongan a la figura del intérprete mediador entre obra y público contra la del virtuoso, por ejemplo), y es la escena, el momento del concierto público, el acontecimiento más importante y el lugar donde se exponen, reiteran, cristalizan y perpetúan.

El pensar al intérprete como un modelo ideal no sólo obvia la especificidad de cada sujeto y lo intenta hacer coincidir con una figura que tiene sus contradicciones, sino que además naturaliza las prácticas y dinámicas que reitera para la construcción de estos cuerpos que terminan produciendo sentido de forma consciente e inconsciente y establecen un cierto estado de las cosas como si fuera el único posible. Pero ese estado de las cosas lleva ya un buen tiempo problematizándose desde distintos ámbitos, y una de las formas de hacerlo es generando espacios de enunciación en los que esas prácticas y dinámicas se desnaturalicen y se revelen como mecanismos rígidos, de forma similar a como Bergson concibe la comicidad.

Según Bergson la comicidad tiene varias características: es humana, está dirigida a la inteligencia (y no a la sensibilidad) grupal y denuncia vicios caracterizados por su rigidez, es decir, pone en evidencia el funcionamiento mecánico de aquello que parecería natural y lleva la atención de la aparente flexibilidad del alma a la rigidez mecánica del cuerpo. Así, centra la atención no en el acto (que es deseado) sino en el gesto inconsciente (que tiene que ver con la producción de exceso de sentido), dando al sujeto plena conciencia de sí mismo, y por eso mismo funciona como correctivo al ser remedio para la vanidad. Para el autor hay, además, un tipo de comicidad muy específica, la profesional, que se traduce en los hábitos mentales y las particularidades de carácter que hacen a los individuos de un cierto grupo parecerse entre sí y distinguirse de otros; la risa, en este caso, reprime las tendencias separatistas y flexibiliza la rigidez para adaptar a los sujetos de nuevo a la totalidad de la sociedad (Bergson, 2014).

Pero ¿podrían estos modelos ideales de intérprete problematizarse, desnaturalizarse y quizás transformarse dentro de la propia práctica interpretativa al revelar, como en lo cómico, aquellos mecanismos rígidos que existen y parecen naturales, generando otras realidades posibles? ¿Puede esto hacerse en el mismo espacio de enunciación que se ha encargado de canonizar las prácticas? Mi hipótesis es que las prácticas interpretativas son susceptibles a ser problematizadas y cuestionadas en escena, y este ejercicio propiciaría el pensamiento de otras realidades en las que los límites impuestos por los discursos oficiales o institucionales se difuminen y las relaciones entre cuerpos, espacios y conceptos que forman parte de la práctica se subviertan o transformen; de esta forma, pues, se estaría aprovechando el principal espacio de enunciación canónica de la práctica, el concierto público, como un espacio de cuestionamiento transformación.

En mi experiencia personal, he intentado llevar a cabo esta tarea a partir del trabajo con obras que me han ayudado a cuestionar este estado canónico de las cosas al cuestionar el modelo de intérprete, y los conceptos de obra y concierto/escena. Un ejemplo de ellas es Pirouette on a Moon Sliver de Amy Beth Kristen, que problematiza la naturalización de las funciones escénicas del intérprete instrumentista pues requiere la construcción del personaje de Arlequín, lo que implica recitar y cantar las líneas de un texto poético, reírse y generar determinados estados de ánimo notados en la partitura. En este caso el cuerpo del intérprete es llevado al centro del acontecimiento pues se ponen en evidencia su voz y su entrenamiento como artista escénico, así como se enfatiza el resultado como un acontecimiento no solamente musical sino también cercano a lo teatral.



Referencias bibliográficas

Bergson, Henri. (2014). La risa. Ensayo sobre el significado de la comicidad. Buenos Aires: Ediciones Godot.

Hacia una problematización de la técnica de la composición musical

Mtro. Nicolás Esteban Hernández Bustos
Programa de Doctorado en Música
UNAM-México, febrero de 2019

El proceso de creación de Rio Negro ha generado diversos aprendizajes, reflexiones y preguntas. He abordado la obra con un interés por indagar sobre aquello que la técnica, especialmente en la composición, es. Podríamos comenzar con las siguientes preguntas: ¿qué es lo técnico en la composición? ¿tiene que ver lo técnico con lo objetivo y no con lo subjetivo? ¿qué sería lo objetivo y lo subjetivo en el proceso creativo?

Rio Negro partió de realizar un estudio más o menos profundo de las posibilidades instrumentales de la flauta evidenciadas en diversas obras de autores contemporáneos: Haas, Saariaho, Furrer, Sciarrino, entre otros, además de un estudio de los textos de Levine y Mitropoulos-Bott (2005), Robert Dick (1989) y Artaud y Geay (1980). Sumado a lo anterior, la composición de la obra ha contado con una participación activa por parte de María Clara Lozada (flautista). La razón de ser de mencionar estos datos se hará evidente más adelante, aunque, de antemano ya se puede notar un acercamiento al instrumento desde una perspectiva bastante acotada, eurocentrista, y siguiendo unas ciertas tendencias estéticas.

Los primeros bosquejos de la obra se dieron como ideas aparentemente espontaneas que iba registrando en partitura sin pensar por el momento en una estructura global de la obra o en particularidades específicas de su organización. Estos primeros bosquejos fueron concebidos como fragmentos musicales de diferentes duraciones donde exponía y realizaba un primer desarrollo de algunos gestos o motivos, algunos de ellos tomarían relevancia en la estructuración posterior de la obra. Al final de este primer momento el resultado fue un grupo numeroso de fragmentos musicales de diversas longitudes (de 10 a 50 segundos) los cuales consideraba el material para abordar la composición de la pieza. No había hasta aquí, por lo menos en mi consideración, obra alguna, Rio Negro aún no era.

imagen 1
Ejemplo de una de las hojas de fragmentos iniciales

El siguiente paso fue entonces pensar en una estructura, en una selección y organización coherente del material y en un desarrollo interesante de dichas ideas. ¿Qué es y de donde sale aquello a lo que llamo estructura coherente y desarrollo interesante? ¿son ideas objetivas o subjetivas? ¿son ideas que traigo de un estudio de las formas musicales? ¿ideas que leo implícitas en el estudio de las obras antes citadas? ¿son simplemente supuestos que me hago para dar sentido y orientar la actividad que estoy haciendo? También considero que esta manera de abordar el proceso creativo refleja una influencia clara de la siguiente idea: construir a partir del material, dejar que el material indique el camino que debe seguir su desarrollo. Estas premisas han llegado a mí de otros compositores en clases magistrales y seminarios, igualmente, de clara influencia eurocentrista. Aquí se abre entonces otro campo de preguntas, ¿qué es aquello que llamo material? ¿cómo es que un supuesto material podría indicar un camino de desarrollo? ¿no sería más bien que las operaciones técnicas que conozco son las que indican una posible transformación de dicho material?

Imaginé entonces un orden y una estructura muy general la cual ayudaría en el proceso de escribir la obra, ahora sí, de considerar por primera vez lo que finalmente Rio Negro sería. Algo muy importante debo aclarar en este momento: me propuse someter a Rio Negro a tres versiones, o, mejor dicho, a tres situaciones: ser una obra para flauta sola (idea primera), ser una obra para flauta y electrónica (para servir de excusa en mi inicio de la exploración de los recursos electrónicos) y, finalmente, ser una obra que combinara textos y una especie de performance (útil para el seminario interdisciplinar al que asisto). Con lo anterior en mente es inevitable pensar en la problemática tan grande que supone una obra que cumpla con esas características, aunque, mi solución, un poco grosera y desconsiderada fue la siguiente: pensaría especialmente en la versión instrumental solista, ya que era la de mayor interés y atracción para mí; en un segundo plano estaría la electrónica que realizaría como una exploración de ciertos recursos computacionales a partir de grabaciones de la versión instrumental; y por último estaría la versión interdisciplinar, no porque no encuentre interesante la interacción con la poesía y el performance, pero consideré que poner sobre mi espalda demasiado trabajo quizá no me permitiría enfocarme tanto en las reflexiones sobre el proceso creativo que aquí me competen.

Algo muy interesante en la elaboración de Rio Negro ya como obra fue que no consistió en una simple ordenación del material obtenido en el primer acercamiento. Varios cambios importantes empezaron a surgir, el primero de ellos afectaba directamente la interválica de un gesto que yo había identificado como importante para la obra. Me decidí por cambiar las alturas iniciales por unas alturas que había calculado de la siguiente manera: usaría solo intervalos de segundas y terceras, evitaría el uso de secuencias (entendiendo secuencia como es usada en la armonía de la llamada práctica común, ej: Do-Re-Mi seguido de Mi-Fa#-Sol#) y buscaría la menor cantidad de repeticiones de una altura posible. Finalmente, me parecía que tener un supuesto control sobre el material me permitiría más fácilmente generar unidad y desarrollo durante la obra. Vemos entonces que mis decisiones siguen una cierta idea estética formal, pues a mi juicio consciente o no en dicho momento, es más adecuado el uso de un material interválico que de algún modo está justificado bajo algún parámetro que el uso de un material por así llamarlo espontáneo (aunque seguramente realizado bajo una lógica ya interiorizada en mi pensamiento musical). Pero, ¿realmente dicha justificación trae como resultado siempre una música más adecuada o más bella? ¿la versión primera no constituía en si misma ya un gesto musical que podría generar desarrollo? ¿mi posición es resultado de una influencia directa de la “economía de medios” como herramienta compositiva ampliamente promovida desde la aparición del motivo y el tema musical, o incluso desde antes con los modos griegos? Y, sumado a esto, como se pregunta Rowell en su introducción a la filosofía de la música “¿La economía de medíos es un criterio estético válido o importa (a la larga) si un compositor elige a partir de un conjunto pequeño y preseleccionado de posibilidades de todos los sonidos disponibles en el mundo? Podemos admirar la economía; pero, ¿debe influir en nuestro juicio?” (Rowell, 1985: 216-217).

imagen 2
Gesto espontáneo
imagen 3.png
Gesto calculado

Sin embargo, contradiciendo el párrafo anterior, otro gesto que tomó importancia en la estructura de la obra, consistente en una pequeña melodía microtonal, no sufrió la misma transformación. Este material (que aparece también insistentemente en la parte electrónica) tenía entonces, según mi opinión, el potencial suficiente para realizar su papel durante la obra. ¿Qué hizo que lo juzgara de manera diferente al del caso anterior? ¿bajo que supuestos esta melodía era adecuada? ¿tiene que ver con que mi experiencia con el uso de la microtonalidad es menor que con el cromatismo? ¿no tenía entonces procedimientos que aplicar a la formulación de este material? Si admito que, en ciertas ocasiones (como fue aquí el caso), el cálculo o la espontaneidad son pertinentes para el planteamiento de un pasaje musical, ¿qué criterios guían la decisión de usar el uno o el otro? Debemos pensar en lo anterior sin descuidar el hecho de que la espontaneidad a la que me refiero lleva consigo muchos procedimientos que se ejecutan desde el inconsciente.

imagen 4
Pequeña melodía microtonal

Otro hecho que pongo en consideración es el siguiente: Rio Negro al no ser solamente un ordenamiento de la lluvia de ideas iniciales me llevó a un proceso de expansión de cada material musical por medio de desarrollos o ideas secundarias, al igual que a construir conexiones tanto con los fragmentos precedentes como con los procedentes. El plan general que me había hecho en un principio pasaba a un segundo plano y lo que tomaba importancia era esa construcción en micro, específica de un cierto pasaje o momento musical. Algo importante cabe señalar aquí: los desarrollos correspondientes al primer gesto usaron también procedimientos calculados, inversión, aumentación y disminución y re-ordenamiento de los intervalos, algo más sencillo con los ritmos y con el timbre (por medio de la variación de las articulaciones, posición de la embocadura y uso del sonido del aire y llaves); en cuanto al segundo gesto, su desarrollo fue mucho más intuitivo. Seguimos entonces aquí en la misma dualidad entre lo calculado y lo aparentemente espontáneo. Lo anterior nos remite entonces a fijarnos en la relación imaginación-procedimientos técnicos-creación.

Antes de hablar de dicha relación me permito volver al tema que aquí es central: la técnica. Tomando en cuenta un primer plano superficial planteado por Heidegger, la técnica sería una cuestión de medios y fines (Heidegger, 1997), lo cual lo lleva también a pensar en la causalidad, donde un fin también puede ser la misma causa. Heidegger señala que, si bien considera correcta esta primera aproximación, lograr una verdadera inmersión en lo que la técnica es (su esencia) requiere superar este primer plano. ¿Pero cuál es el fin que busco con Rio Negro y cuales sus causas y sus medios? ¿es acaso la causa de la creación de Rio Negro el mismo fin de simplemente traer una obra a la existencia? ¿dónde quedan los estudios mencionados al inicio en esta red de causas, fines y medios?

Llevemos por un momento esta reflexión al pensamiento de Ortega y Gasett. El filósofo español nos introduce en su Meditación de la técnica (Ortega Y Gasset, 1983) a la idea de proyecto, a la imaginación y realización de un proyecto de vida, aquello que nos humaniza dándole sentido a nuestra existencia. Para Ortega, el hombre es un ser reflexivo con voluntad de vivir, contradiciendo la idea de instinto de supervivencia Ortega afirma que el hombre tiene en sus manos la decisión de suplir sus necesidades básicas o bien, dejarse morir. Pensaríamos rápidamente que la técnica serían aquellos procedimientos para suplir las necesidades básicas, pero, el poder saciar éstas hace que el hombre pueda dedicarse a otras actividades donde encuentra el verdadero sentido de su vida, dejando el hecho de alimentarse o calentarse en otro plano, un plano más básico (Ortega Y Gasset, 1983: 323). Ortega nos conduce entonces en su reflexión a la idea de que el ser humano se caracteriza por que siente como vitales necesidades que biológicamente no lo son, que son superfluas pero que le generan un bienestar, éstas son las llamadas necesidades humanas. Bajo esta mirada, el placer estético del arte se situaría en este tipo de necesidades, dicho de otra manera, el arte nos humaniza. Con el deseo de avanzar, Ortega propone pensar la situación del hombre en el mundo. El hombre habita en un mundo que no le facilita el suplemento de todas sus necesidades de manera total, pero este mundo tampoco le presenta una dificultad insuperable, por el contrario, el hombre es un ser que vive en un mundo que es una red de facilidades y dificultades. El hombre se gana su vida luchando contra cada dificultad. La parte biológica no nos asegura el ser, suplir nuestras necesidades biológicas básicas no nos hace humanos, entonces el hombre hace su vida a partir de la superación de las dificultades no naturales y se vuelve un proyecto: el hombre vive en cuanto tiene un proyecto de vida que realizar. “El hombre es, pues, ante todo, algo que no tiene realidad ni corporal ni espiritual; es un programa como tal; por lo tanto, lo que aún no es, sino que aspira a ser” (Ortega Y Gasset, 1983: 338). Desde esta perspectiva Ortega pone a la técnica en función de la imaginación. La técnica surge para saciar una necesidad, pero las necesidades humanas son inventadas, el hombre imagina su propio proyecto de vida. De hecho, Ortega ya desde principios del siglo pasado advierte que, aunque cada día la técnica es más abundante, parece que el hombre ha dejado de imaginar, de desear, de buscar ser mediante un proyecto, lo cual traerá un retroceso en la técnica la cual no se sabrá para qué utilizarla (Ortega Y Gasset, 1983: 344). Por los propósitos que sigo en este momento dejaremos de lado la cuestión del peligro y el supuesto dejar de imaginar para centrarnos en la idea de la técnica en servicio de la imaginación.

Podemos pensar ahora que Rio Negro, o cualquier otra obra, es una necesidad imaginada, es un proyecto no biológicamente vital pero que hace parte de la construcción de la identidad del individuo. Se requeriría en este momento una reflexión sobre el papel de la imaginación en el proceso creativo, sin embargo, seguiré la conducción de mi discurso abandonando este punto sin dejar de mencionar que mi tesis de maestría sería una introducción al tema de la imaginación creativa. Aun así, un par de preguntas deberíamos tener en cuenta: ¿hay algún tipo de relación diferente a la subordinación de la técnica a la imaginación? ¿quizá una relación en dirección contraria o una relación bidireccional? Ya en la tesis de maestría antes mencionada me aventuré a plantear una relación bidireccional entre la imaginación y los instrumentos técnicos (es decir, en un plano superficial, conocimientos, procedimientos y herramientas), ya que desde ese momento intuía que era necesario diferenciar la relación del hombre con los instrumentos técnicos y la relación del hombre con la técnica, lo que me ha llevado a emprender la presente investigación. Otros cuestionamientos que se vislumbran con las ideas de Ortega apuntan al hecho de la construcción de identidad, a la creación de sentido de nuestra existencia por medio de esos proyectos que imaginamos y realizamos, es decir, ¿es la técnica la realización de un proyecto imaginario por medio del cual me construyo, me identifico y le doy sentido a mi existencia? ¿cómo funciona Rio Negro en dicha construcción? ¿yo creo a Rio Negro, o la obra me crea a mí, o ambas?

Un posible camino diferente al planteado hasta el momento es propuesto por el filósofo francés Jacques Ellul. Aunque mi lectura y comprensión del concepto de Sistema técnico de Ellul es aún muy temprana y burda, ya considero una idea como portadora de un gran dinamismo para el estado de nuestra reflexión actual. Jacques contradice la idea más superficial de la técnica que la describe como un medio para alcanzar un fin, según él, la técnica no tiene fines, no hay un objetivo o finalidad impuesto por alguien, la técnica se da simplemente porque hay una posibilidad de desarrollo o cambio a partir de lo ya dado. También dice que modificar el sistema, dirigirlo a un fin específico es imposible, la única alternativa que tenemos es introducirle elementos técnicos y esperar por el resultado que estos produzcan (Esquirol, 2011). Esto nos podría llevar a pensar en que quizá la técnica no es aquel medio por el que elaboramos algo imaginado sino que la técnica es lo que propiamente nos permite imaginar algo. Esta idea es muy explosiva y más al pensarla desde la composición: la música no progresa ni evoluciona en el sentido de que mejora; cambia, pero es un cambio sin sentido en cuanto a que no tenemos unos objetivos planteados a los que llegar, “no necesitamos llevar al hombre a la luna”, hacemos la música porque estamos en la posibilidad de hacerlo, partiendo de lo ya dado e introduciendo algunos objetos técnicos que producen resultados diferentes: la electrónica, las técnicas extendidas, la organización tonal, los PCS, etc.

Hasta el momento, en toda nuestra reflexión no hemos salido de un primer plano, el que Heidegger llamaría instrumental, los medios y los fines, que, si bien no responde a la pregunta de lo que la técnica es, sí nos abre el camino para una investigación más a fondo. Volvamos nuevamente a Rio Negro. Tras unas primeras interpretaciones de la obra, procedí a hacer correcciones que consideraba pertinentes, esto con la ayuda de comentarios recibidos por algunas personas que escucharon la obra, María Clara y su profesor de flauta, así como con ideas provenientes de María Granillo, mi maestra de composición. Traje entonces a un primer plano asuntos que tenían que ver con conceptos como balance y equilibrio, donde el conocimiento de las posibilidades técnicas de la flauta ya no garantizaba la consecución de mis objetivos, de hecho, llegué a pensar que dicho conocimiento no era siquiera esencial en lo que estaba haciendo, lo que me apremiaba era entonces una especie de búsqueda de sentido que hiciera de Rio Negro algo valioso y, en el amplio sentido de la palabra, bello en sí mismo. No puedo definir en este momento aquello que buscaba, es por así decirlo un concepto movedizo, nada estable, indefinible, pero sobre el que buscaba edificar toda la obra. No me atrevería tampoco a decir que aquello que iba más allá de ese primer plano de conocimiento era ya lo propiamente técnico, pero intuyo que es por lo menos un plano más profundo en eso llamado técnica.

Durante este proceso vino la creación de la parte electrónica. Esta consistió en hacer una grabación de la obra y tomar de allí gestos y sonoridades para ser trabajadas en la computadora. Las herramientas digitales usadas fueron muy básicas, reducidas al software Audacity y a un conocimiento muy banal de este. Mi mundo se componía de las posibilidades que el clickear cada opción del programa me permitiera, sin duda alguna una paleta de herramientas totalmente reducida y quizá insignificante en comparación con el universo de los expertos en el audio digital. A pesar de lo anterior, después de un tiempo probando los efectos y procesos del software, me encontré nuevamente ante el mismo problema que tenía antes, no era cuestión de complejidad en la edición, ni abundancia de efectos, más bien el problema tenía que ver con la construcción de una música guiada por una cierta lógica que tuviese sentido coherente y sometida a un juicio estético.

Las ideas anteriores, donde ese primer plano de conocimiento instrumental queda supeditado a algo más profundo en el acto creativo me llevan a pensar en la intuición que tanto teóricos como compositores han expresado: en la creación hay algo más que el despliegue de recursos técnicos y es quizá eso lo que es realmente la técnica. A principios del siglo pasado Oskar Adler (1958) partía de la idea de que en la creación musical hay algo más de fondo, que no cambia, que lo que cambia son los medios de reproducción: “Es más aún, hasta podría decirse que todo “desarrollo” del arte en la acepción más elevada de la palabra, no es que digamos un desarrollo ulterior de la vivencia artística, sino solamente de los medios de reproducción, y entonces podríamos decir que el arte de un hombre de la época prehistórica, no es inferior al de un artista del siglo XVIII” (Adler, 1958: 81). Esta intuición nos lleva a pensar que aquello que la técnica de la composición es sería algo común entre Bach, Wagner, Cage y Lavista, eso que los hace creadores musicales y que hace que reconozcamos al Clave bien temperado y a 4:33 como música.

Lastimosamente, dichas intuiciones han terminado en conclusiones de índole metafísica, esotérica o teológica. Por ejemplo, en el caso de Adler, ese trasfondo es una conexión con un todo creador. Otro ejemplo es una entrevista realizada por Tannenbaum a Stockhausen, donde el compositor alemán inicia con una fuerte crítica al exceso de razonamiento de las herramientas técnicas de la composición, apuntando a una esencia de la composición que iría más allá de éstas, pero, su explicación posterior sería igualmente de naturaleza metafísica, presentando la idea de una supuesta inteligencia universal que se comunica con él a través de la intuición (Stockhausen & Mya, 1988).

Lo que me interesa para esta investigación sobre la técnica inicia en esa intuición de un más allá de un plano instrumental, pero, busca generar toda una reflexión a través de la práctica creadora y pensamientos desde campos de conocimiento como la filosofía, la sociología y probablemente la psicología, los cuales podrían, si bien no llegar a una respuesta definitiva de lo que la técnica es, sí dilucidar aspectos interesantes de la creación musical que pudiesen impactar y dinamizar tanto a mis procesos creativos, a la pedagogía de la composición, así como al pensamiento musical general. Nuestra pregunta de partida sería entonces: ¿qué es la técnica de la composición? O en otras palabras ¿qué son y cómo se constituyen los planos que van más allá de las herramientas y conocimientos operativos en la creación musical? Parto igualmente de la hipótesis de que existen planos más profundos en la creación musical, donde yacen asuntos esenciales a la música, atravesados por cuestiones imaginativas, sociales, culturales, económicas y tecnológicas. Considero que emprender un camino de investigación y reflexión al respecto no solo impactaría mi quehacer creativo, sino que podría hacer aportes significativos a diversos campos del arte y de la música. Espero igualmente que el tomar conciencia de estos aspectos me permita una liberación de la técnica entendiéndola en términos de Ellul: la liberación no como un rechazo o negación de la técnica sino como una toma de consciencia que permita ver espacios o momentos en los que se pueda actuar o intervenir, liberándonos de una actitud de consumidores pasivos y poniéndonos en una de activos (Esquirol, 2011).

Quiero terminar expresando un miedo que no deja de recorrer mis pensamientos, una hipótesis macabra: es posible que eso que busco, que en esos supuestos planos profundos no haya nada.


Bibliografía

Adler, O. (1958). Crítica de la música pura. Kier.

Artaud, P.-Y., & Geay, G. (1980). Flûtes au présent. Editions Jobert & Editions musicales transatlantiques.

Dick, R. (1989). The Other Flute: A Performance Manual of Techniques. New York: Multiple Breath.

Esquirol, J. M. (2011). Los filósofos contemporáneos y la técnica. De Ortega a Sloterdijk.

Heidegger, M. (1997). Filosofía, Ciencia y Técnica. Santiago de Chile: Editorial Universitaria S.A.

LEVINE, C., & Mitropoulos-Bott, C. (2005). La flauta-posibilidades técnicas, Huelva. Idea Books.

Ortega Y Gasset, J. (1983). Meditación de la técnica, Obras Completas, tomo V. Madrid, Alianza Editorial, 319–375.

Rowell, L. (1985). Introducción a la Filosofía de la Música. Gedisa.

Stockhausen, K., & Mya, T. (1988). Entrevista sobre el genio musical. (E. T. S.A., Ed.) (Carlos Alo). Madrid.

Para escuchar El séptimo sello

Mario Pérez Magallón
Ciudad de México, febrero de 2019


Esta película de 1956 es la número 19 dentro de la extensa filmografía del director sueco Ingmar Bergman. Aunque Bergman previamente ya había realizado obras notables como Un verano con Mónica (1953) o Sonrisas de una noche de verano (1955), es con esta obra que comenzó a adquirir reconocimiento como director fuera de Suecia. A partir de este largometraje inician las producciones que se pueden considerar como el núcleo del universo bergmaniano. Se puede considerar que El séptimo sello marca el inicio de una nueva etapa creativa en el cine de Bergman: de más madurez y también de mayor soltura narrativa.

A diferencia de las obras de juventud, en esta película es evidente que Bergman se aleja poco a poco del melodrama que coquetea con la comedia involuntaria, y que se acerca cada vez más a un tono mucho más sombrío e inquietante. En El séptimo sello se observa también una mayor pericia en la dirección de escena y en la fotografía —trabajo en colaboración con el fotógrafo Gunnar Fischer—. También se puede escuchar y apreciar un tratamiento mucho más detallado de las inserciones musicales, así como del diseño sonoro en general.

Aunque son notables los efectos sonoros que sirven para acentuar el efecto dramático de ciertas escenas o como transición entre secuencias, ya no se perciben las bajadas o subidas de volumen abruptas. Se podría decir que estos efectos sonoros están muy bien colocados en su tiempo y en su espacio. Traten de invocar a su memoria sonora y recordarán que el sonido es un elemento con bastante presencia y protagonismo en esta película.

Desde la primera secuencia que nos sitúa en una playa fría y rocosa, en donde descansa el caballero cruzado Antonius Block, escuchamos con total detalle el sonido de gaviotas y del mar; detalles sonoros que ayudan a crear la atmósfera y el ambiente propicios. Poco más adelante, cuando se nos presenta a Jof, el personaje del artista viajero, la visión que tiene de la Virgen María está flanqueada por sonidos suaves y armónicos que son una especie de paréntesis en medio de la realidad sombría circundante. Es como ver otra realidad, le dice a su esposa Mia.

Escena inicial de la película

Y así como dicha visión es un paréntesis de belleza, permitámonos un paréntesis más para mencionar que estos nombres no son fortuitos: en español son José y María. Metáfora de la santa pareja de peregrinos del cristianismo que, con su niño a cuestas, se abren camino a través de la desolación. Lo cual nos lleva a un paréntesis final de vital importancia: Cuando el cordero abrió el séptimo sello, se hizo silencio en el cielo como por media hora. Y vi a los siete ángeles que estaban en pie ante Dios; y se les dieron siete trompetas. Es de este pasaje bíblico de donde Bergman parte para la elaboración de esta película. En apenas estas pocas palabras podemos leer y escuchar dos referencias a la dimensión sonora: el silencio del cielo y el sonido en potencia de las trompetas. Silencio y sonido; tensión y reposo.

Bergman parece entender bien este dialogismo y juega con él a lo largo de toda la película: casi siempre vemos en pantalla sucesiones de parejas: el caballero cruzado Antonius y su escudero Jöns, el mismo caballero y la Muerte, José y María, el escudero y su nueva pareja, entre otras parejas. Bergman nos presenta, del mismo modo, opuestos y complementarios que no pueden ser indiferentes al ser humano, aunque así lo deseara: vida y muerte, noche y día, luz y oscuridad, Dios y Diablo. Vaya, el estar situados temporalmente en las Cruzadas del siglo XII nos recuerda los eternos conflictos entre opuestos. Lo cual nos lleva necesariamente a un símbolo de gran mayor importancia dentro de la película: el tablero de ajedrez. Recordemos estos versos del poema “Ajedrez” (1960) de Jorge Luis Borges que mucha luz arrojan sobre este eterno juego de opuestos:

Cuando los jugadores se hayan ido,
cuando el tiempo los haya consumido,
ciertamente no habrá cesado el rito.

En el Oriente se encendió esta guerra
cuyo anfiteatro es hoy toda la Tierra.
Como el otro, este juego es infinito.

Tablero de ajedrez original que aparece en la película

Pero regresemos al asunto del sonido y de la música de este largometraje. Una de las muchas llamadas “funciones” que tiene la música dentro de una película es la de ambientar la época en la que el director (o todo el equipo artístico) quiera ubicarnos. Un mérito a señalar en El séptimo sello es que Bergman, junto al compositor Erik Nordgren, compusieron las tres piezas —Bergman la letra; Nordgren la música— que interpretan los cómicos viajeros. La única pieza preexistente que retoman es el Dies Irae, un himno latino del siglo XIII atribuido al franciscano Tomás de Celano. Dicha pieza se encuentra en perfecta consonancia temática al hacer referencia a los Días de la ira/ aquellos en que los siglos se reduzcan a cenizas; ya que los desvalidos personajes de esta historia están esperando la noche del fin de los tiempos, la noche de juicio final; aquella en que después de media hora de silencio, retruenen las trompetas de los ángeles. No es una sorpresa que al final el caballero Antonius Block y su séquito sucumban a la danza de la muerte, y los únicos que logren evadirla sean los ya mencionados miembros de la santa familia.

Y así como el caballero Antonius Block y sus conocidos llegaron al final de sus días, a estas breves notas también les llegó su final.

Cartel original de la película
Guion original de la película

Reflexiones sobre la escucha y el aprendizaje automático

Aarón Escobar Castañeda

Facultad de música, UNAM 

Hoy en día estamos en un momento en el que cualquier persona con una computadora e internet puede tener acceso a un poder de cómputo lo suficientemente alto para interpretar muchísima información. Asimismo, es posible acceder al estado actual del aprendizaje de máquinas e implementaciones tecnológicas (o productos culturales), desde bases de datos, código, artículos, publicaciones académicas, blogs, videos y libros.

Esto habla, por un lado, de una democratización del conocimiento enfocado en el aprendizaje de máquinas y la inteligencia artificial, una forma de construcción del conocimiento que funciona de manera colectiva y descentralizada (aunque también institucionalizada, véase ISMIR1) que interesa a las grandes corporaciones desarrollar lo más rápido y eficientemente posible.

Por otro lado, esto habla también de una estrategia para la inmediata cooptación del conocimiento nuevo por las empresas y su abierta cartera de trabajo para futuras contrataciones en los grandes consorcios corporativos (Facebook, Amazon, Google, Apple, Microsoft, etc): una vieja y nueva forma de control en la que el mismo capital va creciendo económica y tecnológicamente, cada vez más rápido. Por esa razón, actualmente muchas empresas abren cada vez más su código, organizando concursos a lo largo del año2 para el desarrollo de herramientas específicas, así como congresos anuales donde es posible encontrar todo tipo de proyectos relacionados con la vigilancia, la asistencia médica, etc.3

La anterior es una estrategia bastante acertada, ya que implica una diversificación económica y educativa que va hacia todos lados y en todas direcciones. Entre más rápido avance el conocimiento en el desarrollo del aprendizaje de máquinas, más ingresos pueden percibir las empresas, más subjetividades pueden moldear y más inteligente se va haciendo el sistema. Si las corporaciones, agencias gubernamentales y privadas son capaces de desarrollar mayor poder de pensamiento y análisis de datos, pueden actuar con mayor eficacia frente a posibles cambios dentro del propio sistema, pudiendo así impulsar nuevas estrategias para llegar a más nichos de consumo y/o mantener a la población en un estado de ensoñación eterno.

¿Qué aproximaciones a la escucha ha desatado esta nueva forma de acceder a la información? ¿De qué manera se aproxima la inteligencia artificial al mundo del sonido, en el que es posible captar, encapsular, analizar y clasificar datos, posibilitando relaciones casi inmediatas entre la producción-emisión y la transmisión en red de los mismos?

Jonathan Crary señala que las formas en las que escuchamos, miramos o nos concentramos en un objeto cualquiera tienen un profundo carácter histórico. Las formas en las cuales nos acercamos a dicho objeto y lo que miramos de ese objeto, van cambiando a través de los siglos, de manera que también modelan nuestra subjetividad.4 Con las nuevas inserciones de dispositivos tecnológicos en nuestra vida, surgen nuevas formas de mirar, escuchar e interactuar, además de otros mecanismos para concentrar o disipar nuestra atención (Crary llama a esto “recepción en estado de distracción”).

En este sentido, las diferentes formas de escucha no necesariamente involucran la presencia sonora sino también otras formas de presencia que nos obligan a atender y entender la información que circula a través de los medios. Por ejemplo, Crawford señala que actualmente podemos pensar en una forma de escucha en línea, en la que podemos dar cuenta del proceso imparable de la transmisión de información en red, de manera similar a como funciona nuestro oído (es imposible cerrar la audición completamente, al igual que es imposible cerrar la transmisión en red debido a su carácter descentralizado).

Escuchar en línea puede ser entendido en cualquier número de contextos: sean wikis, MUD’s, blogs, listas de correo e incluso alimentadores RSS. [. . . ] Escuchar no es una metáfora común para la actividad en línea. De hecho, la participación en línea ha tendido a confundirse con aportar una “voz”. “Hablar”se ha convertido en la metáfora dominante para la participación en espacios en línea tales como blogs, wikis, sitios de noticias y listas de discusión.5

Poner atención online es también entendido como una práctica de escucha o la forma de atender a algo o de entender algo. Pero ¿quiénes son los que atienden y filtran esta información?, ¿para qué fines es empleada la información extraída?, ¿de qué forma se entiende esta información? En respuesta, Kate Crawford destaca diferentes tipos de escucha que pueden actuar en la red: una persona, una compañía y un partido político. Estas dos últimas con la posibilidad de desarrollar una capacidad mayor para poder escuchar a más personas al mismo tiempo.

Es cierto que actualmente mucha de la información, sonora, “vocal” y sensible que las compañías guardan es vendida/traficada/comercializada a los grandes consorcios corporativos, para ofrecer más productos y servicios que son completamente dinámicos y adaptables a necesidades y situaciones diversas de los consumidores. Cada vez es más común escuchar decir a alguien que ha dicho algo por la mañana y después de unas horas ha encontrado anuncios o información relacionada con aquello que había sido expresado en sus cuentas de correo, teléfono o redes sociales. Esto hace evidente que el “sistema” nos vigila, y que puede predecir cada uno de los pasos que damos. Estos procesos son mejor conocidos como minería de datos, bigdata o machine learning.

Hay mucha información que fluye y prácticamente es asequible por cualquiera que esté interesado en tomarla y aprender de ella. Evidentemente, también hay mucha información que es inasequible o está encriptada. Además, es posible generar una base de datos propia, comprarla u obtener alguna base de datos pública que esté disponible en línea. Prueba de ello son diversas plataformas que cuentan con una amplia diversidad de temas de interés para realizar análisis de datos con diversos fines.6

Cabe agregar que la extracción de información online es posible básicamente sobre cualquier página de internet; sabiendo utilizar esta tecnología es factible construir bases de datos, ya sean basadas en videos, imágenes, correos, tweets, mensajes de Facebook, etc. Un buen ejemplo de ello es la librería Beautiful Soup, de Python,7 e incluso Youtube y Google han generado grandes bases de datos basadas en los contenidos que todos subimos a sus servidores. Un dato importante es que muchos de estos contenidos pueden ser descargados bajo licencias Creative Commons para su análisis, observación o implementación en proyectos y aplicaciones.8

Un ejemplo interesante a propósito de lo anterior es el proyecto de Daniel Jones y Peter Gregson, The Listening Machine (la máquina que escucha), que es definido por sus propios creadores como un

sistema automatizado que genera una pieza de música continua basada en la actividad de 500 usuarios de Twitter alrededor del Reino Unido. Sus conversaciones, pensamientos y sentimientos son transferidos en patrones musicales en tiempo real, a los cuales te puedes sintonizar en cualquier momento a través de cualquier dispositivo conectado a la red.9

Este sistema, basado en la observación de patrones de comportamiento para su transducción a piezas musicales, es un claro ejemplo de la escucha online que menciona Crawford. Si bien el hecho de usar este tipo de información para vaciarla en un objeto artístico sería lo más ingenuo que podemos hacer con estos datos, cabría preguntarnos: ¿qué nos dice esta “sonificación musicalizada” de nuestros hábitos más entrañables (como mirar, por ejemplo, cien o más veces al día la pantalla de nuestro teléfono celular)? Y para los centros de poder, ¿qué representan todas estas herramientas y nuevas posibilidades de vigilancia para observar y desentrañar nuestros patrones de comportamiento, así como para localizarnos físicamente en cualquier momento con un detalle y certeza brutales?

Citando a la autora Wendy Hui Kyong Chun, quien habla acerca de los hábitos que hemos creado a partir del uso de las tecnologías actuales, y específicamente de internet, hay que tener en cuenta lo siguiente:

El hábito es información: éste forma y conecta. Los hábitos son anticipaciones creativas basadas en repeticiones pasadas que hacen mapas de la red sobre el futuro histórico. A través de los hábitos, las redes son escaladas, porque cada tic [gesto] individual se convierte en un indicador de inclinaciones colectivas.10

La idea del hábito la encuentro especialmente importante porque determina nuestra subjetividad: “a través del análisis de los hábitos de las acciones individuales se aglutinan los cuerpos en una quimera monstruosamente conectada”.11 Considero que una forma de salir de este determinismo y esos hábitos tan fuertemente arraigados en la sociedad es, primeramente, hacernos dueños de nuestra información. En vez de regalársela a las compañías, habría que vendérselas, si es que de verdad la quieren. Si se las vendemos, inevitablemente nos cobrarían por usar los servicios de internet que estamos acostumbrados a usar de manera aparentemente gratuita. ¿Qué pasaría entonces? Tal vez usaríamos otras redes, otras formas de comunicación diseñadas para y por nosotros, redes sociales descentralizadas, abiertas, ajenas a las corporaciones, más bien generadas por comunidades interesadas en la privacidad, el valor de los datos, el anonimato. Ejemplo de ello puede ser la plataforma multimedia Archive, el colectivo Riseup, la red social Diaspora o el uso de cryptomonedas y la tecnología de Blockchain.12

Por otro lado, las recientes aproximaciones al reconocimiento de señales de audio (Music Information Retrival, MIR) están mayoritariamente centradas en desarrollar algoritmos para el control automático de dispositivos para la guerra, robots de rescate, herramientas de vigilancia, análisis clínico y reconocimiento de géneros musicales. Estos algoritmos identifican información relevante de audio, la cual extraen en grandes cantidades para almacenarla en listas de valores separados por comas (csv por sus siglas en inglés). Esta información tiene que ser analizada y organizada en clases o clusters —proceso conocido como entrenamiento o training— con programas enfocados en el aprendizaje de máquinas o machine learning. Entre los programas utilizados para estos objetivos están WEKA, R, CAFFE, la librería Scikit-learn, Tensorflow, entre otros. Los asistentes personales “inteligentes” se han convertido en una parte fundamental para “comunicarnos” con la tecnología, enviando información en `tiempo real” a las empresas que ofrecen estos servicios.

Además, los sistemas de vigilancia que utilizan máquinas que escuchan han sido importantes para revelar información clave sobre el comportamiento de una persona a través de los micrófonos insertos en casi todos los dispositivos móviles o fijos que utilizamos actualmente, sin mencionar lo referente a la vigilancia satelital. Actualmente se ha desplegado una oleada de diferentes dispositivos con el objetivo de vigilar y tener todo bajo control a través del análisis de datos. Esto puede ocurrir a través de dispositivos electrónicos que mandan información directamente a los centros especializados sobre los usos individuales de la electricidad, el internet, el tráfico, los datos personales, etc., pero puede también suceder a través de dispositivos tan variados como muñecos (jugetes)13 y cápsulas inteligentes.14

Ante el riesgo que esto implica, algunos países, como Alemania,15 han tomado medidas contra el esparcimiento de dispositivos de vigilancia disfrazados de electrodomésticos o juguetes, pero debido a la enorme cantidad de población y la desenfrenada velocidad de producción de consumibles, no se ha podido regular plenamente este tipo de situaciones. Esto me lleva a decir que actualmente estamos en una época que se caracteriza por la falta de regulaciones y políticas públicas que frenen el libre esparcimiento de la información y los desarrollos tecnológicos que sirvan a fines como los antes señalados. Esta falta de regulación hace posible que tanto agencias gubernamentales como privadas usen todos estos datos para llevar a cabo los desarrollos más sofisticados relacionados con asistencia policial y militar.16

La creación de armas autónomas es inevitable, así como el surgimiento de nuevas formas orden y control. El gobierno de EEUU ha mostrado abiertamente en un documento titulado Human Systems Roadmap Review17 el uso de sistemas de aprendizaje automático para delegar decisiones a las máquinas cuando así se requiera, además de la colaboración humano/máquina y el empleo de armas autónomas que simulan las capacidades cognitivas, psicomotoras y perceptivas del humano, llegando a ser capaces de detectar enemigos y tomar la decisión de disparar cuando la máquina considere conveniente. Todas estas estrategias están siendo destinadas las llamadas “guerra cyber-electrónicas”.18

Ahora bien, para que decisiones de este tipo sean tomadas por un robot, es necesario que las máquinas puedan explicarse por sí mismas, es decir, justificar las razones por las cuales han decidido llevar a cabo cierta acción, lo que implica un mecanismo de aprendizaje profundo que involucra procesos increíblemente complejos:

“El aprendizaje profundo es especialmente críptico debido a su increíble complejidad. Está más o menos inspirado en el proceso por el cual las neuronas en el cerebro aprenden en respuesta a una entrada. Muchas capas simuladas de neuronas y sinapsis son datos etiquetados y su comportamiento se ajusta hasta que aprenden a reconocer, por ejemplo, un gato en una fotografía. Pero el modelo aprendido por el sistema está codificado en el peso de muchos millones de neuronas y, por lo tanto, es muy difícil de examinar. Cuando una red de aprendizaje profundo reconoce a un gato, por ejemplo, no está claro si el sistema se enfoca en los bigotes, las orejas o incluso la [silueta] del gato en una imagen”.19

Se ha vuelto común pensar en este tipo de sistemas como “cajas negras”, donde no se sabe por qué ni cómo es que un determinado problema es resuelto por el algoritmo. Ante la complejidad que esto conlleva, agencias como DARPA (Defense Advanced Research Projects Agency) actualmente financian proyectos destinados a la autoexplicación de sistemas basados en el aprendizaje de máquinas. Algunos avances en los proyectos de empresas como Charles River Analytics han logrado que el sistema de aprendizaje automático señale áreas de imágenes que son relevantes para la clasificación, así como explicaciones basadas en datos que devuelve el sistema y que posteriormente pueden ser convertidas a lenguaje natural.20

Ideas finales

Después de exponer lo anterior, quisiera llevar mis reflexiones hacia la pregunta de qué injerencia puede tener el arte dentro de la ciencia o el desarrollo tecnológico, al aplicar tecnologías de aprendizaje de máquinas para el terreno de la creación de obras o proyectos artísticos.

Como hemos visto, el aprendizaje de máquinas se hace cada vez más cotidiano y más necesario para acceder a la enorme red de información actualmente disponible. La pregunta es si el uso de machine learning en el arte puede aportar algo a este debate, o si se limita a legitimar las prácticas de vigilancia y guerra de las que hablamos antes, sin siquiera cuestionar qué es lo que soporta, a una escala más amplia, este tipo de desarrollos tecnológicos.

Pese a que cada vez se hace más común la utilización del aprendizaje de máquinas en las artes, aún faltan más iniciativas artísticas que cuestionen las implicaciones socio-políticas, lejos de las implementaciones tecnocráticas, para generar un conocimiento que trascienda las “clásicas” aproximaciones científicas, mismas que se suelen basar en la dominación humana, al punto de atentar contra la propia vida sensible y la ecología de nuestro planeta.

Atendiendo a una perspectiva que cuestione el trasfondo socio-cultural de las prácticas de machine learning, está la posibilidad de apropiarse de la tecnología para conocer su funcionamiento, límites y posibilidades, además de anticipar futuras formas de desarrollo y tomar las medidas necesarias para su transformación en favor de una ética adecuada para las futuras integraciones tecnológicas dentro de las sociedades, así como dentro del medio ambiente. Al respecto Fritjof Capra señala la necesidad urgente de una ética ecológica en relación al uso de la tecnociencia, que contemple plenamente la vida y las interrelaciones de todos los organismos.

Dicha ética se necesita urgentemente, puesto que mucho de lo que los científicos están haciendo no es constructivo y respetuoso con la vida […]. Con físicos diseñando sistemas de armas capaces de borrar la vida de la faz de la tierra, con químicos contaminando el planeta, con biólogos soltando nuevos y desconocidos microorganismos sin conocer sus consecuencias, con psicólogos y otros científicos torturando animales en nombre del progreso científico… con todo ello en marcha, la introducción de estándares “ecoéticos” en el mundo científico [y tecnológico] resulta de la máxima urgencia.21

Como artistas y ciudadanos, considero de suma importancia tomar el control sobre las tecnologías relacionadas con el aprendizaje automático de máquinas. No vivir solamente siendo usuarios de la tecnología, sino apropiarnos de ella y de las legislaciones que existen al respecto.

Si algún día construimos cerebros de máquinas que superen los cerebros humanos en inteligencia general, entonces esta nueva superinteligencia podría volverse muy poderosa. Y, como el destino de los gorilas ahora depende más de nosotros los humanos que de los gorilas mismos, entonces el destino de nuestra especie dependería de las acciones de la superinteligencia de la máquina.22 Pareciera absurdo, pero por momentos me imagino que en unos años será posible vivir en un estado (pólitico y territorial) dominado las máquinas “inteligentes”. Si llegásemos a presenciar la llegada de la singularidad tecnológica, —es decir, el momento en el que las máquinas se vuelvan capaces de desarrollar su propio software, generando una autopoiesis recursiva y por tanto un auto-mejoramiento constante y exponencial, ¿qué o quien podría detenerlas de su propia autoevolución desenfrenada?

Ni siquiera el conocimiento de toda la humanidad podría competir contra estas nuevas tecnologías, ya que la capacidad de entendimiento humano se vería sobrepasada por millones de redes inteligentes interconectadas; cambios sociales inimaginables que superan por mucho los actuales conceptos de dominación y control, imposibles de prever o comprender por cualquier ser humano.

Sin embargo, como señala Nick Bostrom:

“Tenemos una ventaja: podemos construir las cosas. En principio, podríamos construir una especie de superinteligencia que protegería los valores humanos. Ciertamente tendremos una razón fuerte para hacerlo. En la práctica, el problema del control -el problema de cómo controlar lo que haría la superinteligencia- parece bastante difícil. También parece que sólo tendremos una oportunidad. Una vez que exista una superinteligencia antipática, nos impediría reemplazarla o cambiar sus preferencias. Nuestro destino estaría sellado. […] Este es posiblemente el desafío más importante y desalentador que la humanidad haya enfrentado. Y, —ya sea que tengamos éxito o fracasamos— probablemente sea el último desafío al que nos enfrentaremos”.23

Para concluir, me quedo con la reflexión del papel que juegan la fantasía y la imaginación en la construcción de los imaginarios colectivos del futuro, ya que de cierta forma son capaces de construir todo un arsenal de posibles realidades. El género de la ciencia ficción, por ejemplo, podría ser considerado una herramienta para prepararnos, una herramienta que contribuya a la generación de subjetividades que de múltiples formas se encuentren preparadas para los escenarios que en unos cuantos años podríamos enfrentar.

Tal vez nuestra tarea sea imaginar cómo y dónde queremos estar en el futuro. Ahora nos toca soñar y hacer que nuestros sueños se hagan realidad en favor del bien común y de todo(s) lo(s) que tiene(n) que estar presente(s) para que eso suceda.


Referencias

Jonathan Crary. Suspensions of Perception: Attention, Spectacle, and Modern Culture. October books. MIT Press, 2001.

Kate Crawford. Following You: Disciplines of Listening in Social Media. The Sound Studies Reader. Taylor & Francis, 2012.

Wendy Hui Kyong Chun. Updating to Remain the Same: Habitual New Media. The MIT Press, 2016.

Fritjof Capra. La trama de la vida: Una nueva perspectiva de los sistemas vivos. Colección compactos. Editorial Anagrama S.A., 2009.

Nick Bostrom. Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2014.


4 Jonathan Crary. Suspensions of Perception: Attention, Spectacle, and Modern Culture. October books. MIT Press, 2001, p.1

5 Kate Crawford. Following You: Disciplines of Listening in Social Media. The Sound Studies Reader. Taylor & Francis, 2012, p.79.

7 https://www.digitalocean.com/community/tutorials/ how-to-scrape-web-pages-with-beautiful-soup-and-python-3

10 Wendy Hui Kyong Chun. Updating to Remain the Same: Habitual New Media. The MIT Press, 2016, p.3.

11 Idem, p.3.

15 Idem.

16 https://www.army.mil/article/176368/using_long_distance_control_ army_tests_robotic_vehicle_along_challenging_australian_terrain, https: //insights.sei.cmu.edu/sei_blog/2017/06/army-robotics-in-the-military.html, https://gcn.com/articles/2017/05/22/dod-ai-machine-learning.aspx

17 http://www.defenseinnovationmarketplace.mil/resources/NDIA_Human_ Systems_Conference_2016_HSCOI_DistroA_FINAL.pdf

20Idem.

21Fritjof Capra. La trama de la vida: Una nueva perspectiva de los sistemas vivos. Colección compactos. Editorial Anagrama S.A., 2009, p.32.

22Nick Bostrom. Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2014, p. 2.

23Nick Bostrom. Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2014, p.2.