Aplicando procesos a la batería

El mejor sitio para empezar a ajustar un compresor es encontrar primero el umbral aproximado, con una tasa bastante alta y un rápido tiempo de liberación

Si bien no hay reglas estandarizadas para el seteo de un compresor, siempre es bueno tener un inicio. Saber de donde empezar para luego modificar el seteo hasta que digamos, “esto suena bien”.

La idea de este post es detallar los pasos que seguí para el seteo de los compresores que usé en la mezcla de la batería.

La batería que voy a usar de ejemplo es la que se grabó para la canción de “Solo es Instinto” del disco de Mariano Wettstein (IG @wettma) que se llama “Viaje de Ida”
Primero, el ruteo que hago es enviar la batería a un bus donde es procesado por un compresor SSL y luego por TransWide, ambos de Waves. El compresor está seteado para que no comprima más de 2-3 dB. Nota: no uso como una compresión paralela. A este bus le mando también el bajo y cualquier otro instrumento que sea grave o percusivo.

Bus B
Imagen del Bus B

Segundo, el MixBus tiene insertado un EQ HPF a los 30 Hz para limpiar cualquier subgrave, luego por un compresor SSL que está seteado para que no comprima mas de 1 dB, con un ataque de 10ms y un tiempo de relajamiento en automático. No tiene makeup gain.

Master Bus
Master

Primera Escucha

Solamente la batería y los procesos descritos arriba.

Batería solo sin procesar

Se puede escuchar que el bombo tiene pocos graves. La caja está por detrás. Tanto los toms como los OH no es algo que esté molestando mucho, capaz que los toms se pueden ajustar un poco el sonido para que tengan un poco más de pegada. 

Veamos como suena con los demás instrumentos. Nota: los demás instrumentos tienen poca edición y casi nula mezcla, me enfoco más en la batería. Si tienen un EQ y los niveles están ajustados para que se pueda apreciar los cambios en la batería. 

Para exagerar, dejo un wav con la batería sin procesar y con los instrumentos. Podrán apreciar que no se une a la mezcla. Es algo obvio lo que digo. Pero…

Batería sin procesar y con los instrumentos

Bombo

El primer cuerpo que decido atacar es el bombo. Lo que hice fue duplicar la pista y en esta agregue un instrumento virtual para reemplazar el sonido original del bombo y conseguir los graves que necesito. Luego lo mezclo con el bombo original para que éste le de la pegada necesaria. 

Al bombo original primero lo pasó por un EQ donde le sacó unos 10 dB (sin miedo) en los 300Hz para sacarle ese sonido medioso que tiene. Luego enfatizo unos 4 dB en los 4.000Hz para tener el sonido del parche. Antes de enviarlo al compresor, bajo casi 6 dB el nivel de salida del EQ para que no llegue tan “caliente” al compresor. 

Utilizo el API-2500. El tiempo de ataque es de 1 ms, el ratio en 2:1 y el tiempo de relajamiento en 200 ms. Decidí un tiempo de ataque muy rápido para los transitorios y que no me haga clipear en el master, necesito que el sonido del parche sea escuchado. Al grave lo tengo por el canal donde duplique el bombo. Para el bombo duplicado primero lo pasé por una puerta de ruido, luego por el Addictive Trigger donde está sampleado con un bombo de 22” x 14”. Luego lo pasé por un compresor donde le aplique una reducción de ganancia de unos 2-3 dB dependiendo el golpe.

Bombo sin procesar
Bombo procesado

Caja

Para la caja, primero lo pasé por el EQ donde le aumenté unos 5 dB los 75 Hz para darle más cuerpo, le saqué en la zona 500 Hz, y luego subí casi 3 dB en la zona de los 7.000 Hz para tener un poco más ataque. La caja es el único cuerpo que va a un bus auxiliar con una reverb. Antes de enviar la señal al compresor, la salida del EQ está disminuida 3,5 dB para que no llegue tan “caliente” la señal al compresor. El tiempo de ataque es rápido para agarrar los transitorios, con una tasa de compresor de 3:1 y un tiempo de relajamiento de 100 ms. El umbral está de tal manera para comprimir unos 3-4 dB.

Caja sin procesar
Caja procesada

Toms

Para que tengan más pegada, baje en los 500 Hz para sacarle ese sonido medioso (típico de batería) y comprimí la señal en unos 3 dB. No les hice más procesos que esos ya que no era necesario. Se hizo una buena toma en la grabación. 

El compresor funciona más como contención de las pegadas más fuertes. Al tener el umbral en -22 dB no puede comprimir más de 2 dB. 

Estos mismos procesos se aplican a los 3 toms.

Over

No se hace más que aplicar un HPF a partir de los 700 Hz. 

OH

Resultado Final

Primero la batería en solo con todos los procesos aplicados.

Batería procesada
Batería procesada con los instrumentos

Esto es una guía que apliqué para este caso. Recuerden que cada canción tiene su tratamiento especial. Estos seteos que muestro se aplicaron a esta muestra de la batería y no necesariamente se aplican a otras batería de otros temas, etc.

Hasta la próxima!!!

Técnica de ecualización (Yin-Yang)

Un poco de historia

¿De donde viene la palabra ecualización?

En los primeros años de la telefonía, en los Laboratorios Bells, se encontraron con un problema: las frecuencias altas disminuían a medida que el cable de teléfono se hacía cada vez mas largo. Haciendo que la voz se hiciera inentendible. Idearon un dispositivo eléctronica capaz de aumentar las frecuencias altas en el receptor. Haciendo esto, en ambas partes el sonido era igual. El nombre que le dieron a este circuito fue: ecualizador.

El post no es para hablar de los controles que existen en el ecualizador. Cosa que en un futuro si lo haré, pero si me interesa poder hablar de una técnica que me gusta usar en mis mezclas.

Ecualización y fase

La operación de un ecualizador envuelve un mecanismo de delay. El delay es bastante corto, al rededor de 1ms. Group Delay es el término que generalmente de usa para describir las frecuencias que están siendo afectadas por este delay, si bien no es muy prociso, es bien conocido que algunas frecuencias son mas afectadas que otras. A pesar de esto, este mecanismo de delay da como resultado una interacción no deseada en la fase.

¿Porque hay un cambio de fase o una interacción no deseada?

El circuito de un ecualizador utiliza capacitores y bobinas para aplicar los filtros del ecualizador (el ecualizador es un filtro). Estos componentes hacen que el voltage AC que pasa por ellos sufra un cambio de fase. Si se combina la señal con una versión de sí misma desfasada (después de pasar por el capacitor o bobina), la respuesta de frecuencia de altera. El plugin entonces simula este comportamiento. Es más, sin ese delay, no habría ecualización.

Veamos como ejemplo esta onda de 100Hz.

Gráfico
En el gráfico, el desface es de 1/3π radianes (un poco más de 18°). Si bien este desfazaje es mucho mas que 1ms, se quiere ejemplificar lo que ocurre en el ecualizador.

Nos fijemos en la onda de color azul que es la señal original cuando entra al EQ. Al pasar por los filtros, la copia desfazada (onda de color roja) que se suma a la onda original, va a producir una onda resultante con cancelaciones.

¿Qué pasa entonces con todo esto? Este cambio de fase ocurre tanto al aumentar como al disminuir la ganancia del filtro de la frecuencia. Es un mito que los ecualizadores causan mayor desfazaje al aumentar. Sin embargo es correcto decir que se nota más cuando aumentamos la ganancia, por la simple razón que estamos aumentado el nivel de la frecuencia, y con eso se hace mas audible. Por esto es preferible disminuir que aumentar. Y para dar otra razón, al aumentar la ganancia, aumentamos el riesgo de hacer clip.

Todo lo anterior sirve para dar introducción a lo que siempre utilizo en mis mezclas, que es una técnica a la que se llama La frecuencia Yin-Yang

Veamos el siguiente gráfico

Eq yin-yang
Ecualización yin-yang

¿Se bajó 20 dB los graves o se subió 20 dB los agudos?

Sin importar en cual de las dos frecuencias se utiliza la ecualización yin-yang, nos enseña un importante concepto en nuestra percepción de la frecuencia: vamos a tener el mismo efecto tanto si aumentamos los agudos o si disminuimos los graves.

Por ejemplo, para tener mas brillo, o aumentamos los agudos, o disminuimos los graves. Seguro se nos va a presentar un trabajo en el que vamos a tener que tratar frecuencias específicas, pero vale la pena recordar que siempre hay mas de una ruta para llegar al mismo destino.

Por último, veamos unos ejemplos

Voz con reverb y compresores. ¿Subo agudos o bajo graves?
Voz con reverb y compresores. ¿Subo agudos o bajo graves?
Voz sin reverb y compresores. ¿Subo agudos o bajo graves?
Voz sin reverb y compresores. ¿Subo agudos o bajo graves?

Leo los comentarios para ver si pueden distinguir.

Si es que todavía no lo habían hecho, los invito a que en su próxima mezcla traten esta técnica.

Nos vemos en el próximo post.

Flujo de trabajo. De la producción a la mezcla

En las grandes producciones de discos, gran porcentaje del presupuesto se destina a la producción de las canciones.

Una producción es necesaria ya que ahorra tiempo y dinero a la hora de grabar y luego en la edición y mezcla.

El músico debe ser capaz de aceptar las directivas de su productor. Hay que lograr la separación de lo creativo (músico) a la dirección (productor)

La siguiente figura muestra un flujo de trabajo en una producción común

Flujo de trabajo

El productor puede hacer su aporte en cada etapa, pero generalmente tiene un rol más activo en la etapa de Arreglos y en la etapa de Grabación.

Cada etapa tiene efecto sobre la etapa que le sigue. Por ejemplo, si en la etapa de grabación se elige un micrófono incorrecto o se microfonea de forma errónea, va a tener un efecto en la etapa de mezcla.

Hay una gran unión entre la etapa de Arreglos, Grabación y Mezcla, por lo que es sumamente importante que el productor tenga conocimientos en grabación, edición y/o mezcla ya que un buen productor se anticipa a la mezcla.

Un punto a favor de tener a un productor en las diferentes etapas y proceso de trabajo es que se asegura que la mezcla este siempre en la mente durante todo el proceso.

Etapa de Grabación

La calidad de grabación tiene una enorme influencia en la etapa de mezcla. Hay un famoso dicho que dice:

Basura entra, basura sale

Grabaciones con poca calidad van a tener que ser arregladas en la etapa de mezcla. Pero por mas experimentado que sea el ingeniero de mezcla, no podrá hacer mucho mas de lo que le llega.

Etapa de Edición

Como se ve en el gráfico de bloques de arriba, hay una conexión de ida y vuelta entre esta etapa y la Etapa de Grabación. Esto significa que cuando se esta editando y, por ejemplo, se decide que el sonido de la guitarra (por poner algún instrumento) no es el que sirve, se graba nuevamente. En esta etapa también se corrigen los comienzos y finales de cada pista, conteo, ruidos de voces de los músicos, pasos, etc. La idea es dejar únicamente el propio sonido del instrumento. Se corrigen también los errores (si es que los hay) de por ejemplo, el bombo y la nota del bajo (la alineación).

Etapa de Mezcla

Esta la etapa donde se empieza a mezclar propiamente dicho. No voy a desarrollar mucho sobre esta etapa ya que hice un post anterior sobre esta etapa. Lo pueden leer acá

Etapa de Master

En esta última etapa se preparan los niveles para poder ser reproducidos en diferentes plataformas, diferentes formatos, etc.

Experiencia personal

Tuve la oportunidad de trabajar en el último tema del cantautor cordobés Mariano Wettstein (lo pueden buscar en instagram como @wettsma). El tema se llama «Zambita de mi Barrio». Trabajé controlando los procesos usados en la mezcla: ecualizaciones, compresiones, etc.

Se destino un gran porcentaje del presupuesto para la producción. Dió sus frutos. No estuve presente en la grabación, por lo que cuando llego la Etapa de Mezcla personalmente me encontré con una sesión donde ya la misma grabación estaba «mezclada». Esto se debe a que el músico está concentrado en la ejecución del instrumento y se desliga de la responsabilidad de estar pensando «como está sonando». Debería ser así en todas las grabaciones, pero no siempre ocurre. Esto es muy común que pase con grabaciones donde no le dan importancia al rol del productor o no están familiarizado con.

Como parte final agrego una pequeña entrevista que le hice a @wettsma donde cuenta un poco la experiencia de trabajar con un productor (en este caso en particular con dos) al grabar Zambita de mi Barrio

¿Quiénes fueron los productores? Ignacio Serfaty y Facundo Herrera

Contame por qué o la razón por lo que preferiste realizar este trabajo con productores, teniendo en cuenta que tu anterior trabajo, Viaje de Ida, fuiste tu propio productor. Siempre tenía en mente trabajar con productores, por curiosidad, por buscar otros sonidos, pero más que nada para tener una visión externa sobre la música propia. 

¿Crees que mejoró la parte artística? La mejoró totalmente. Incluso me dió otras herramientas para futuros proyectos.

¿Cómo fue la experiencia, como músico, que un productor te dijera como tocar, o más que todo que dirigiera? Increible, todo me pareció totalmente fructífero. Incluso la exigencia de hacer una toma mejor, fueron mayores a cuando las hago solo y se noto en el resultado final. Ayudó mucho la clase de personas que son ellos dos y la buena química entre los tres.

Ya habían trabajado juntos en otro proyecto con los productores. ¿Crees que el hecho que se conozcan con anterioridad influye en la calidad y buen flujo del trabajo? Nos conocemos del ambiente, hemos compartido escenario con La Madre Del Borrego y de la noche de Córdoba. Seguramente ayudó conocernos de antes, pero eso tampoco te da seguridad que durante la grabación y producción salga todo bien. Por suerte en este caso, si.

Creo yo que muchas bandas, sobre todo las que se inician, no “aceptan” que alguien les diga que hacer y cómo ya que son sus canciones, ¿opinas lo mismo? y en caso afirmativo ¿cómo crees entonces que deben encarar un proyecto de grabación? En mi caso, me puse una meta con respecto a eso, si suma a la música, hay que dejar el ego de lado y aceptar lo que venga.

Links

Zambita de mi Barrio

Mariano Wettstein

Nos vemos en el próximo post.

Aplicando el método de Michael Brauer (Brauerizing) a la voz

¿De qué se trata este método? ¿Quién es Michael Brauer? Ventajas y desventajas.

El método que diseñó (y patento) Michael Brauer (MB para el resto del post) es la de comprimir por buses aprovechando las características tonales de cada compresor. De esta forma asignamos la batería y bajo a un bus con un compresor «especial» para low-end, las guitarras las asignamos a un bus con un compresor característico, etc. Es necesario conocer bien como «suena» cada compresor para poner en práctica este método.

Como ventaja podemos hablar que ganamos es un sonido tight, con más cuerpo. También se puede hablar que podemos asignar un mismo instrumento a diferentes buses y aprovechar las características del compresor para darle caracter al sonido. Al ser una compreción post fader depende del nivel de fader para comprimir. A medida que mas nivel tenga el instrumento, mas compresión va a tener. Por último, al ser compresiones por etapa, cada compresor va a aplicar en promedio unos 3dB de compresión, que es más que aceptable (desde mi punto de vista).

Como desventaja, podemos decir que MB utiliza hardware (y qué equipos tiene!) por lo que replicar en un entorno digital sea hace un poco complicado el seteo y el ruteo.

A la voz le da un tratamiento diferente. Divide la voz en verso y en estribillo cada uno asignados a diferentes compresores para darle su característica tonal de acuerdo al momento de la canción.

Michael Brauer

Para resumir: Michael Brauer es un ingeniero de mezclas con sede en Nueva York. Recibió un Grammy por «Mejor Álbum Vocal Pop» por su trabajo en Continuum de John Mayer, «Mejor Álbum Alternativo» por Paracaídas de Coldplay, y también por «Mejor Álbum de Rock» por «Viva la Vida or Death and All His Friends» de Coldplay.

Pueden visitar su página para conocer más: https://www.mbrauer.com/

A la práctica

Utilicé una sesión con un teclado y voz. Para entender es mejor empezar por lo básico.

Al teclado lo envié a un bus (reverb). No tiene ecualizador ni compresión.

A la voz tambíen lo envié al bus con reverb pero también a tres diferentes buses más. Cada uno de ellos con un compresor diferente. La salida de la voz va a un bus dummy (no va a ningún lado) y la salida de los buses de compresión va a un MixBus.

MB utiliza 5 buses (4 para comprimir y 1 sin comprimir). En el ejemplo que explico acá solo uso 3 buses para comprimir y no separe la pista en verso y estribillo.

La imagen a continuación grafica el ruteo.

Los compresores (plug-ins) que se detallan son los que MB utiliza pero en su versión hardware

Se crean los buses necesarios y se inserta un generador de tono, el compresor y por último, un vúmetro.

Lo siguiente que se hace es calibrar los compresores con un tono de 1Khz y en -18 dB. El proceso es ajustar el umbral hasta que el VU marque -1 y con el Make-Up Gain ajustar hasta que el VU marque 0. Si bien no se especifica si MB lo hace en su mezcla de voces, acá lo decidí hacer para obtener un nivel parejo en los compresores.

Primero seteamos el threshold (rojo) y el VU deberá marce en -1. Luego con el control de input gain (make-up gain para otros), marcado en verde, seteamos para subir hasta que el VU marque 0.

Una vez listo esta etapa, asignamos los envíos a los buses de los compresores. Es importante dejar el nivel del envío a 0 (unity gain). No se debe mover del cero. Para mezclar el sonido de cada compresor vamos a utilizar el fader del bus.

Imagen de como debería queadar la sesión.

Acá se abren las posibilidades, podemos sumar los tres sonidos de los buses para enviarlos al bus de mezcla. En el verso, utilizar un bus en particular y en el estribillo otro, etc.

La compresión total va a ser de unos 8 dB pero en forma modular (cada módulo aportará unos 3dB de compresión). Este total de compresión va a depender de nuestro seteo.

La compresión de cada uno de los plug-in es de unos 3dB. El Fairchild está comprimiendo un pcoo más porque el seteo fue un poco mas fuerte que es de los demás.

Mezcla final

Acá están los audios finales. Para el ejemplo con compresión se uso exactamente lo que se ve en la última imagen

Con compresión
Sin compresión

Nos vemos en el próximo post!

Campo estéreo

El 14 de diciembre de 1931, Alan Dower Blumlein, ingeniero en EMI, sento las bases en su patente número 394325 para lo que hoy se conoce como Estéreo. Él en su momento lo describió como “Sonido Binaural”.

El término binaural se refiere a que justamente envuelve a los dos oídos. Nuestro cerebro usa las diferencias en la llegada del sonido al oído derecho e izquierdo para determinar la localización de la fuente. Estas diferencias pueden ser: amplitud, tiempo (fase) y frecuencia.

Hoy en día tenemos lo que se llama pan pots o control de panorama para crear (simular) la localización del sonido.

Básicamente lo que hace el control es dividir la señal mono hacia el canal L y canal R. Efectivamente lo que sucede en el control es que se altera el nivel entre los dos parlantes. Para panear algo totalmente a la izquierda requiere que se atenúe totalmente la señal que se envía al canal derecho. Si se envía al centro, ambos canales reciben la misma cantidad de señal.

El reloj

Usualmente se utilizan las horas del reloj para describir la posición del paneo. Va desde las 7:00 hasta las 17:00. Siendo las 07:00 el paneo extremo izquierda y las 17:00 el extremo derecho.

La distribución de las horas en el campo estéreo

En un DAW se representa con los números de 0 a 100. Existe una regla general para posicionar los instrumentos. Como por ejemplo, el bombo y bajo al centro, las guitarras a los costados, etc. Pero las reglas no solo están para seguirlas, si no también para romperlas.

  • Overhead – 70% alrededor del centro
  • Bombo – centro
  • Caja – en la misma posición como “viene” desde los overhead
  • Tom 1 – 14:00
  • Tom 2 – 13:00
  • Tom 3 – 10:00
  • Bajo – centro
  • Voces – centro o un poquito desfasado para la izquierda
  • Guitarra I power chord – extremo izquierdo
  • Guitarra II power chord – extremo derecho
  • Reverb ambiental – 100% dispersado

Ahora bien, ¿cómo podemos llevarlo a la práctica?. Utilizaremos ProTools y una guitarra acústica que grabamos en Adipal Estudio (www.adipalestudio.com.ar). El técnico de grabación fue Mariano Wettstein (@wettsma). La guitarra pertenece a la canción En Vuelo de Flor Carmona

El primer paneo que vamos a realizar es colocar la guitarra a las 9. Vemos entonces como suena.

Guitarra a las 9

Al ser un canal mono lo único que se hace es el girar el pan pot hasta la posición deseada. En el DAW se ve de la siguiente manera.

Pan pot con el plug ins de Waves PAZ Analyzer

No se alcanza a ver en la captura, pero en el master se ve el nivel que llega a cada uno de los canales. Como dijimos arriba, el control de paneo es prácticamente un atenuador.

¿Y si queremos ocupar espacio dentro del campo para que vaya desde las 9 hasta las 15:00?. Un error común es duplicar la pista y panear cada una a sus lugares correspondientes.

Lo único que vamos a lograr as aumentar la señal de la guitarra en 3dB y que la señal se transforme en un Big Mono.

Para que realmente haya un campo estéreo «puro», cada canal tiene que reproducir señales distintas. Que haya separación en cada canal. Hay un medidor que es muy útil usarlo mientras editamos y mezclamos. Nos muestra la correlación que hay entre el canal L y el canal R. En un extremo izquierdo del medidor tenemos el -1, al medio el 0 y en el extremo derecho el +1. ¿Qué significa?

  • -1: los canales están desfasados 180 grados
  • 0: un perfecto estéreo
  • +1: senal totalmente mono. Ambos canales reproducen lo mismo

Si colocan el medidor de correlación, duplican una pista mono y la colocan extremo-extremo verán que el medidor va a marcar +1.

Veamos entonces como el Big Mono en el DAW y que nos muestra el analizador. Primero el audio:

Big Mono

Captura de pantalla del DAW con el analizador:

Un perfecto sonido mono.

Se aprecia que no solamente el nivel aumenta, si no que seguimos con una señal mono.

Como último, comento una técnica que se pueda usar para crear un estéreo con una pista mono. Hay que tener cuidado con el uso porque genera cancelaciones de face y el sonido va a cambiar.

  • Duplicamos la pista mono y paneamos a los extremos
  • En una de las pistas retrasamos unos pocos milisegundos
  • Ajustar el nivel a gusto

Con esto pasos vamos a crear un estéreo para evitar el big mono.

Veamos entonces como suena:

Estéreo creado

Por último la captura de pantalla del DAW con el analizador:

Si bien en el DAW se paneo de otra forma para ocupar un espacio dentro del horario de 8 a 11, se aplicó la misma técnica mencionada arriba.

En el analizador se puede apreciar algunos pasajes que están fuera de fase (en el plug ins lo denomina Anti Phase) por eso hay que utilizar con cuidado ya que podemos hacer que el resultado sea feo.

Si escuchan el primer audio y lo comparan con este último verán que suena levemente diferente, sobre todo en los medios-altos.

La localización de los instrumentos es un etapa dentro del proceso de mezcla. Es importante conceptualizar la mezcla y ya desde la primer escucha del tema saber que lugar va a ocupar cada instrumento dentro del campo. Si existe el campo estéreo está para usarlo. Despejen el centro

Nos vemos en el próximo post!!

¿Qué es mezclar?

Se podría sintetizar en una respuesta como la siguiente: Es un proceso técnico-artístico. Técnico porque los sonidos son balanceados, tratados y combinados. Artístico porque como todo arte, es una representación de emociones, ideas creativas.

Siempre buscamos en la música que nos despierte diferentes emociones. Por eso, nosotros como ingenieros de mezcla debemos saber captar lo que la música quiere representar emocionalmente.

Hay un ejercicio que podemos hacer para comparar diferentes mezclas y que nos va a ayudar a diferenciar las mezclas que estamos escuchando. Para hacerlo debemos crear una sesión en cualquier DAW e importar unos 20 segundos de las canciones que nos gustan o que nos despierten diferentes emociones. Recomiendo hacer un cross over entre canción y canción. Darle play y prestar atención a las diferentes mezclas y anotar que emociones nos despiertan. Después estas canciones nos pueden servir para referencias.

¿A qué nivel?

En 1993 2 investigadores de Bell Labs, Harvey Fletcher y W.A. Munson llevaron a cabo uno de los experimentos más significativos en la psicoacústica. Los experimentos estuvieron basados en una serie de test sobre un grupo de personas. Cada test implicaba la ejecución de una frecuencia en particular seguida de un tono de referencia de 1KHz. El receptor tenía que escoger cuál de los 2 sonidos era el más fuerte. Sucesivas pruebas incluían diferentes frecuencias a diferentes niveles. Esencialmente lo que Fletcher y Munson trataban de concluir era que tan alto o bajo tenían que estar las frecuencias ejecutadas para percibirse como la de la referencia (1KHz). Los resultados fueron explayados en un gráfico que se conoce como CURVAS FLETCHER-MUNSON.

Curvas Fletcher-Munson

Cada curva del gráfico es conocida como curva fon y está basado en el nivel de referencia de 1KHz. Para dar un ejemplo de cómo se lee, podemos ver la curva de 20-fon donde se aprecia que un tono de 1KHz se ejecuta a 20dBSPL. Para que un tono de 100Hz se perciba igual de fuerte, este tono tiene que ser ejecutado a 50dBSPL.

El gráfico también nos muestra que nuestra percepción de frecuencia tiene un alza en 3,5KHz (que es la frecuencia de resonancia del canal auditivo). No es por coincidencia que esa también es la frecuencia del llanto del bebé.

Es evidente que a niveles más altos nuestra percepción de frecuencia se vuelve más pareja. La curva de 0-fon es la más despareja, y la curva de 100-fon es la más pareja.

Otra manera de ver el grafico es que a medida que subimos el nivel de la música se perciben más altos y bajos. Es natural que niveles altos hagan a la música más atractiva.

Mientras más alta se ejecute la música percibimos más altos y bajos en comparación con los medios. El hecho que nuestra percepción de frecuencia se altera en relación al nivel, es una cuestión fundamental en la mezcla.

Es importante entonces verificar nuestra mezcla a diferentes niveles y tratar de hacerla perfecta en todos los niveles.

¿Por dónde empiezo?

Lo primero y principal, es escuchar el tema con los audios en bruto. Nos da una idea general de lo que la canción quiere transmitir. Es importante ir anotando las emociones, o ideas que se nos van ocurriendo. Sirven de mucho a la hora de mezclar. Ideas de paneo, ideas de automatización, ideas de niveles. Si participaste de la grabación, este punto debería estar cubierto. Me refiero a que ya las has escuchado a la canción.

Segundo, es fundamental eliminar todos los sonidos que no sean propios del tema: el buzz de los amplificadores de las guitarras, conteo, charla entre los músicos, tos antes de cantar, etc.

Por último: nombrar las pistas, ordenarlas por instrumentos, etc. Creo yo que teniendo esto listo es más fácil concentrarse en la propia mezcla. Llegar a un nivel de concentración puede llevar tiempo y durante este proceso hay fluidez de creatividad. Si nos olvidamos de eliminar una tos, el golpe de las baquetas, de limpiar el buzz del amplificador, o nos salteamos algunos de los puntos anteriores fácilmente perderemos esa fluidez.

Por último, pongo un gráfico que me pareció interesante en cómo se grafica el proceso de creación y las preguntas que nos tenemos que hacer para conseguir la mezcla «perfecta».

Hasta el próximo post