Aplicando procesos a la batería

El mejor sitio para empezar a ajustar un compresor es encontrar primero el umbral aproximado, con una tasa bastante alta y un rápido tiempo de liberación

Si bien no hay reglas estandarizadas para el seteo de un compresor, siempre es bueno tener un inicio. Saber de donde empezar para luego modificar el seteo hasta que digamos, “esto suena bien”.

La idea de este post es detallar los pasos que seguí para el seteo de los compresores que usé en la mezcla de la batería.

La batería que voy a usar de ejemplo es la que se grabó para la canción de “Solo es Instinto” del disco de Mariano Wettstein (IG @wettma) que se llama “Viaje de Ida”
Primero, el ruteo que hago es enviar la batería a un bus donde es procesado por un compresor SSL y luego por TransWide, ambos de Waves. El compresor está seteado para que no comprima más de 2-3 dB. Nota: no uso como una compresión paralela. A este bus le mando también el bajo y cualquier otro instrumento que sea grave o percusivo.

Bus B
Imagen del Bus B

Segundo, el MixBus tiene insertado un EQ HPF a los 30 Hz para limpiar cualquier subgrave, luego por un compresor SSL que está seteado para que no comprima mas de 1 dB, con un ataque de 10ms y un tiempo de relajamiento en automático. No tiene makeup gain.

Master Bus
Master

Primera Escucha

Solamente la batería y los procesos descritos arriba.

Batería solo sin procesar

Se puede escuchar que el bombo tiene pocos graves. La caja está por detrás. Tanto los toms como los OH no es algo que esté molestando mucho, capaz que los toms se pueden ajustar un poco el sonido para que tengan un poco más de pegada. 

Veamos como suena con los demás instrumentos. Nota: los demás instrumentos tienen poca edición y casi nula mezcla, me enfoco más en la batería. Si tienen un EQ y los niveles están ajustados para que se pueda apreciar los cambios en la batería. 

Para exagerar, dejo un wav con la batería sin procesar y con los instrumentos. Podrán apreciar que no se une a la mezcla. Es algo obvio lo que digo. Pero…

Batería sin procesar y con los instrumentos

Bombo

El primer cuerpo que decido atacar es el bombo. Lo que hice fue duplicar la pista y en esta agregue un instrumento virtual para reemplazar el sonido original del bombo y conseguir los graves que necesito. Luego lo mezclo con el bombo original para que éste le de la pegada necesaria. 

Al bombo original primero lo pasó por un EQ donde le sacó unos 10 dB (sin miedo) en los 300Hz para sacarle ese sonido medioso que tiene. Luego enfatizo unos 4 dB en los 4.000Hz para tener el sonido del parche. Antes de enviarlo al compresor, bajo casi 6 dB el nivel de salida del EQ para que no llegue tan “caliente” al compresor. 

Utilizo el API-2500. El tiempo de ataque es de 1 ms, el ratio en 2:1 y el tiempo de relajamiento en 200 ms. Decidí un tiempo de ataque muy rápido para los transitorios y que no me haga clipear en el master, necesito que el sonido del parche sea escuchado. Al grave lo tengo por el canal donde duplique el bombo. Para el bombo duplicado primero lo pasé por una puerta de ruido, luego por el Addictive Trigger donde está sampleado con un bombo de 22” x 14”. Luego lo pasé por un compresor donde le aplique una reducción de ganancia de unos 2-3 dB dependiendo el golpe.

Bombo sin procesar
Bombo procesado

Caja

Para la caja, primero lo pasé por el EQ donde le aumenté unos 5 dB los 75 Hz para darle más cuerpo, le saqué en la zona 500 Hz, y luego subí casi 3 dB en la zona de los 7.000 Hz para tener un poco más ataque. La caja es el único cuerpo que va a un bus auxiliar con una reverb. Antes de enviar la señal al compresor, la salida del EQ está disminuida 3,5 dB para que no llegue tan “caliente” la señal al compresor. El tiempo de ataque es rápido para agarrar los transitorios, con una tasa de compresor de 3:1 y un tiempo de relajamiento de 100 ms. El umbral está de tal manera para comprimir unos 3-4 dB.

Caja sin procesar
Caja procesada

Toms

Para que tengan más pegada, baje en los 500 Hz para sacarle ese sonido medioso (típico de batería) y comprimí la señal en unos 3 dB. No les hice más procesos que esos ya que no era necesario. Se hizo una buena toma en la grabación. 

El compresor funciona más como contención de las pegadas más fuertes. Al tener el umbral en -22 dB no puede comprimir más de 2 dB. 

Estos mismos procesos se aplican a los 3 toms.

Over

No se hace más que aplicar un HPF a partir de los 700 Hz. 

OH

Resultado Final

Primero la batería en solo con todos los procesos aplicados.

Batería procesada
Batería procesada con los instrumentos

Esto es una guía que apliqué para este caso. Recuerden que cada canción tiene su tratamiento especial. Estos seteos que muestro se aplicaron a esta muestra de la batería y no necesariamente se aplican a otras batería de otros temas, etc.

Hasta la próxima!!!

Flujo de trabajo. De la producción a la mezcla

En las grandes producciones de discos, gran porcentaje del presupuesto se destina a la producción de las canciones.

Una producción es necesaria ya que ahorra tiempo y dinero a la hora de grabar y luego en la edición y mezcla.

El músico debe ser capaz de aceptar las directivas de su productor. Hay que lograr la separación de lo creativo (músico) a la dirección (productor)

La siguiente figura muestra un flujo de trabajo en una producción común

Flujo de trabajo

El productor puede hacer su aporte en cada etapa, pero generalmente tiene un rol más activo en la etapa de Arreglos y en la etapa de Grabación.

Cada etapa tiene efecto sobre la etapa que le sigue. Por ejemplo, si en la etapa de grabación se elige un micrófono incorrecto o se microfonea de forma errónea, va a tener un efecto en la etapa de mezcla.

Hay una gran unión entre la etapa de Arreglos, Grabación y Mezcla, por lo que es sumamente importante que el productor tenga conocimientos en grabación, edición y/o mezcla ya que un buen productor se anticipa a la mezcla.

Un punto a favor de tener a un productor en las diferentes etapas y proceso de trabajo es que se asegura que la mezcla este siempre en la mente durante todo el proceso.

Etapa de Grabación

La calidad de grabación tiene una enorme influencia en la etapa de mezcla. Hay un famoso dicho que dice:

Basura entra, basura sale

Grabaciones con poca calidad van a tener que ser arregladas en la etapa de mezcla. Pero por mas experimentado que sea el ingeniero de mezcla, no podrá hacer mucho mas de lo que le llega.

Etapa de Edición

Como se ve en el gráfico de bloques de arriba, hay una conexión de ida y vuelta entre esta etapa y la Etapa de Grabación. Esto significa que cuando se esta editando y, por ejemplo, se decide que el sonido de la guitarra (por poner algún instrumento) no es el que sirve, se graba nuevamente. En esta etapa también se corrigen los comienzos y finales de cada pista, conteo, ruidos de voces de los músicos, pasos, etc. La idea es dejar únicamente el propio sonido del instrumento. Se corrigen también los errores (si es que los hay) de por ejemplo, el bombo y la nota del bajo (la alineación).

Etapa de Mezcla

Esta la etapa donde se empieza a mezclar propiamente dicho. No voy a desarrollar mucho sobre esta etapa ya que hice un post anterior sobre esta etapa. Lo pueden leer acá

Etapa de Master

En esta última etapa se preparan los niveles para poder ser reproducidos en diferentes plataformas, diferentes formatos, etc.

Experiencia personal

Tuve la oportunidad de trabajar en el último tema del cantautor cordobés Mariano Wettstein (lo pueden buscar en instagram como @wettsma). El tema se llama «Zambita de mi Barrio». Trabajé controlando los procesos usados en la mezcla: ecualizaciones, compresiones, etc.

Se destino un gran porcentaje del presupuesto para la producción. Dió sus frutos. No estuve presente en la grabación, por lo que cuando llego la Etapa de Mezcla personalmente me encontré con una sesión donde ya la misma grabación estaba «mezclada». Esto se debe a que el músico está concentrado en la ejecución del instrumento y se desliga de la responsabilidad de estar pensando «como está sonando». Debería ser así en todas las grabaciones, pero no siempre ocurre. Esto es muy común que pase con grabaciones donde no le dan importancia al rol del productor o no están familiarizado con.

Como parte final agrego una pequeña entrevista que le hice a @wettsma donde cuenta un poco la experiencia de trabajar con un productor (en este caso en particular con dos) al grabar Zambita de mi Barrio

¿Quiénes fueron los productores? Ignacio Serfaty y Facundo Herrera

Contame por qué o la razón por lo que preferiste realizar este trabajo con productores, teniendo en cuenta que tu anterior trabajo, Viaje de Ida, fuiste tu propio productor. Siempre tenía en mente trabajar con productores, por curiosidad, por buscar otros sonidos, pero más que nada para tener una visión externa sobre la música propia. 

¿Crees que mejoró la parte artística? La mejoró totalmente. Incluso me dió otras herramientas para futuros proyectos.

¿Cómo fue la experiencia, como músico, que un productor te dijera como tocar, o más que todo que dirigiera? Increible, todo me pareció totalmente fructífero. Incluso la exigencia de hacer una toma mejor, fueron mayores a cuando las hago solo y se noto en el resultado final. Ayudó mucho la clase de personas que son ellos dos y la buena química entre los tres.

Ya habían trabajado juntos en otro proyecto con los productores. ¿Crees que el hecho que se conozcan con anterioridad influye en la calidad y buen flujo del trabajo? Nos conocemos del ambiente, hemos compartido escenario con La Madre Del Borrego y de la noche de Córdoba. Seguramente ayudó conocernos de antes, pero eso tampoco te da seguridad que durante la grabación y producción salga todo bien. Por suerte en este caso, si.

Creo yo que muchas bandas, sobre todo las que se inician, no “aceptan” que alguien les diga que hacer y cómo ya que son sus canciones, ¿opinas lo mismo? y en caso afirmativo ¿cómo crees entonces que deben encarar un proyecto de grabación? En mi caso, me puse una meta con respecto a eso, si suma a la música, hay que dejar el ego de lado y aceptar lo que venga.

Links

Zambita de mi Barrio

Mariano Wettstein

Nos vemos en el próximo post.

Sensibilidad

Es un concepto que indica la capacidad del micrófono de captar sonido débiles y convertirlos en señales eléctricas. Se define como el cociente entre la tensión eléctrica en bornas del micrófono cuando está en circuito abierto y la presión que incide sobre su diafragma en campo libre.

\[ S = \frac{E}{p} \]

La sensibilidad, cuya unidad fundamental es el V/Pa, suele expresarse en mV/Pa debido a que el micrófono proporciona muy poca tensión por cada Pascal.

En las características técnicas de un micrófono es común expresar la sensibilidad en dB, indicando la sensibilidad de referencia So.

\[ S = 20 log \frac{S}{S_o} \]

Por ejemplo, un micrófono con una sensibilidad de S = -60dB (re 1V/µbar) recibe una presión de 94dB, la tensión que éste genera es E = Sp. La sensibilidad S expresada linealmente es:

\[ S = 10^\frac{-60}{20} = 0,001 V/µbar \]

Como vemos que la tensión de salida es muy chica (10mV). Este es el motivo por el cual es deseable micrófonos con sensibilidades altas, lo que significa valores en dB cercanos a cero.

La variación de la sensibilidad con respecto al ángulo de incidencia da lugar a una carácteristica de la que se detalla a continuación:

Directividad

Da una idea de la variación de la sensibilidad en función de la orientación del micrófono, o del ángulo con el que incide una onda sonora.

Un micrófono omnidireccional es aquel cuya sensibilidad es independiente de la dirección de incidencia del sonido. Por el contrario, un micrófono direccional es aquel cuya sensibilidad varía en función de la dirección de incidencia del sonido.

Para graficar la directividad se utilizan los conocidos graficos polares, que se calculan a partir de lo que se llama ecuación polar. A quien le interese:

\[ R(\theta) = \frac{p(\theta)}{p_m}\]

Patrones directivos

Básicamente, los micrófonos pueden ser omnidireccionales (que la sensibilidad no varía con el ángulo de incidencia), o direccionales, dentro de los cuales existes, los cardioides, supercardioides, hipercardioides o bidireccionales (figura en 8).

CaracterísticaR(x)
Omnidireccional1
Bidireccionalcos(x)
Cardioide½(1+ cos(x))
Hipercardioide¼(1 + 3 cos(x))
Supercardioide½[(√3 - 1) + (3 - √3) cos(x)]

La tabla anterior muestra la clasificación de micófonos y sus características directivas.

Se presentan a continuación los gráficos de cada clasificación y de su directiva. Para ello se utilizo un código en Python con la librería matplot.lib para realizar los gráficos.

Se puso a modo de ejemplo un micrófono con una sensibilidad de 28mV

gráfico sensibilidad
Sensibilidad
Radianes

El segundo gráfico representa los radianes. Un círculo completo es 2π (360°) que para los gráficos mostrados anteriormente, es el punto de mayor sensibilidad en los micrófonos. Por el contrario π equivale a 180° es el de menos sensibilidad, π/2 a 90° y 3π/2 son 270° .

Con esto en cuenta podemos ver y entender la figura n°1 y como cambia la sensibilidad de acuerdo al ángulo de incidencia sobre el micrófono.

No por nada, en vivo, el monitor de escenario se coloca a 180° del micrófono ( π ) que es donde un micrófono cardioide (el mas usado en vivo, como el Shure SM-58) tiene menos sensibilidad.

Podemos entender mejor los gráficos si pensamos en mV (lo que realmente es). Por ejemplo, si miramos el tipo cardioide sabemos que a 2π (0°) la sensibilidad es máxima, en nuestro ejemplo, entrega 28mV. Si nos movemos en el eje y nos vamos a π (180°) nos entrega casi nada de voltaje.

Código Python para los gráficos

Para quien le interese, acá dejo, como siempre, el código que use para poder realizar los gráficos.

#IMPORTO LOS MODULOS A UTILIZAR
import numpy as np
import matplotlib.pyplot as plt
import math

#GENERO VALORES EQUIDISTANTES ENTRE -2*pi Y 2*pi
x = np.arange((-2*np.pi), (2*np.pi), 0.01)

#SENSIBILIDAD DEL MICRÓFONO EXPRESADO EN MV
s = 28

#CALCULO DE SENSIBILIDADES
bi = s*np.cos(x)
di = (s/2)*(1+np.cos(x))
su = (s/2)*((np.sqrt(3)-1)+(3-np.sqrt(3))*np.cos(x))
hy = s/4* (1+3*np.cos(x))

#CREO EL SUBGRÁFICO
fig, ((ax1, ax2), (ax3, ax4)) = plt.subplots(2, 2,figsize=(9, 5), dpi=120)

#GENERO LOS DIFERENTES GRÁFICOS
ax1.plot(x, bi)
ax2.plot(x, di, 'tab:orange')
ax3.plot(x, su, 'tab:green')
ax4.plot(x, hy, 'tab:red')

#AGREGO TITULOS Y LABELS
ax1.set_title('Bidireccional', fontsize = 8)
ax1.set_ylabel('mV', fontsize = 6)

ax2.set_title('Direccional', fontsize = 8)
ax2.set_ylabel('mV', fontsize = 6)

ax3.set_title('Supercardioide', fontsize = 8)
ax3.set_ylabel('mV', fontsize = 6)

ax4.set_title('Hipercardioide', fontsize = 8)
ax4.set_ylabel('mV', fontsize = 6)

#LIMITO EL EJE Y
plt.ylim(-29, 29)

#LIMITO EL EJE X Y LE AGREGO LOS VALORES A LOS PUNTOS
plt.setp((ax1,ax2,ax3,ax4), 
         xticks=[-2*np.pi, -np.pi, 0, np.pi, 2*np.pi], 
         xticklabels=[r'$-2\pi$', r'$-\pi$', r'$0$', r'$+\pi$', r'$2\pi$'],
        yticks=[-28, 0, 28])

#CENTRO LA FIGURA Y REALIZO UN AJUSTE PARA QUE LOS GRÁFICOS ESTEN ORDENADOS
fig.tight_layout()

#SI DESEO GUARDAR LA IMAGEN ELIMINAR # DE LA LINEA DE ABAJO
#plt.savefig("nombre imagen.png")

#MUESTRO LA IMAGEN
plt.show()

Nos vemos en el próximo post!!

Aplicando el método de Michael Brauer (Brauerizing) a la voz

¿De qué se trata este método? ¿Quién es Michael Brauer? Ventajas y desventajas.

El método que diseñó (y patento) Michael Brauer (MB para el resto del post) es la de comprimir por buses aprovechando las características tonales de cada compresor. De esta forma asignamos la batería y bajo a un bus con un compresor «especial» para low-end, las guitarras las asignamos a un bus con un compresor característico, etc. Es necesario conocer bien como «suena» cada compresor para poner en práctica este método.

Como ventaja podemos hablar que ganamos es un sonido tight, con más cuerpo. También se puede hablar que podemos asignar un mismo instrumento a diferentes buses y aprovechar las características del compresor para darle caracter al sonido. Al ser una compreción post fader depende del nivel de fader para comprimir. A medida que mas nivel tenga el instrumento, mas compresión va a tener. Por último, al ser compresiones por etapa, cada compresor va a aplicar en promedio unos 3dB de compresión, que es más que aceptable (desde mi punto de vista).

Como desventaja, podemos decir que MB utiliza hardware (y qué equipos tiene!) por lo que replicar en un entorno digital sea hace un poco complicado el seteo y el ruteo.

A la voz le da un tratamiento diferente. Divide la voz en verso y en estribillo cada uno asignados a diferentes compresores para darle su característica tonal de acuerdo al momento de la canción.

Michael Brauer

Para resumir: Michael Brauer es un ingeniero de mezclas con sede en Nueva York. Recibió un Grammy por «Mejor Álbum Vocal Pop» por su trabajo en Continuum de John Mayer, «Mejor Álbum Alternativo» por Paracaídas de Coldplay, y también por «Mejor Álbum de Rock» por «Viva la Vida or Death and All His Friends» de Coldplay.

Pueden visitar su página para conocer más: https://www.mbrauer.com/

A la práctica

Utilicé una sesión con un teclado y voz. Para entender es mejor empezar por lo básico.

Al teclado lo envié a un bus (reverb). No tiene ecualizador ni compresión.

A la voz tambíen lo envié al bus con reverb pero también a tres diferentes buses más. Cada uno de ellos con un compresor diferente. La salida de la voz va a un bus dummy (no va a ningún lado) y la salida de los buses de compresión va a un MixBus.

MB utiliza 5 buses (4 para comprimir y 1 sin comprimir). En el ejemplo que explico acá solo uso 3 buses para comprimir y no separe la pista en verso y estribillo.

La imagen a continuación grafica el ruteo.

Los compresores (plug-ins) que se detallan son los que MB utiliza pero en su versión hardware

Se crean los buses necesarios y se inserta un generador de tono, el compresor y por último, un vúmetro.

Lo siguiente que se hace es calibrar los compresores con un tono de 1Khz y en -18 dB. El proceso es ajustar el umbral hasta que el VU marque -1 y con el Make-Up Gain ajustar hasta que el VU marque 0. Si bien no se especifica si MB lo hace en su mezcla de voces, acá lo decidí hacer para obtener un nivel parejo en los compresores.

Primero seteamos el threshold (rojo) y el VU deberá marce en -1. Luego con el control de input gain (make-up gain para otros), marcado en verde, seteamos para subir hasta que el VU marque 0.

Una vez listo esta etapa, asignamos los envíos a los buses de los compresores. Es importante dejar el nivel del envío a 0 (unity gain). No se debe mover del cero. Para mezclar el sonido de cada compresor vamos a utilizar el fader del bus.

Imagen de como debería queadar la sesión.

Acá se abren las posibilidades, podemos sumar los tres sonidos de los buses para enviarlos al bus de mezcla. En el verso, utilizar un bus en particular y en el estribillo otro, etc.

La compresión total va a ser de unos 8 dB pero en forma modular (cada módulo aportará unos 3dB de compresión). Este total de compresión va a depender de nuestro seteo.

La compresión de cada uno de los plug-in es de unos 3dB. El Fairchild está comprimiendo un pcoo más porque el seteo fue un poco mas fuerte que es de los demás.

Mezcla final

Acá están los audios finales. Para el ejemplo con compresión se uso exactamente lo que se ve en la última imagen

Con compresión
Sin compresión

Nos vemos en el próximo post!

Timbre

¿Qué es lo que escuchamos cuando oímos un sonido, por ejemplo, la nota en una guitarra acústica?

Parte Teórica

Los sonidos que escuchamos son ondas complejas, es decir que está formada por ondas simultáneas. No importa que tan compleja sea, o que tan largo sea su período, siempre se puede reducir en ondas simples.

En esta descomposición se pueden encontrar las siguientes frecuencias.

Frecuencia fundamental:  la frecuencia fundamental es el componente más bajo de la onda periódica.

Armónicos:  Un armónico es un componente de una onda periódica que es un múltiple entero de la frecuencia fundamental. Por ejemplo, la frecuencia que es dos veces la frecuencia fundamental se llama segundo armónico. Para el cálculo de la frecuencia de los armónicos se utiliza la siguiente fórmula.

\[ F_{armónico} = F_{fundamental} * n \] siendo n un número entero.

La relación entre las diferentes frecuencias, diferentes amplitudes y diferentes fases hace que la onda resultante sea propia de lo que estemos escuchando.

En otra palabra, el timbre: calidad de un sonido relacionado con su estructura armónica.

Gracias a la transformada de Fourier podemos descomponer esta onda compleja en onda puras.

Josehp Fourier

Jean-Baptiste Joseph Fourier (francés: /ʒozɛf fuʁje/; Auxerre, Francia, 21 de marzo de 1768-París, 16 de mayo de 1830) fue un matemático y físico francés conocido por sus trabajos sobre la descomposición de funciones periódicas en series trigonométricas convergentes llamadas Series de Fourier, método con el cual consiguió resolver la ecuación del calor. La transformada de Fourier recibe su nombre en su honor. Fue el primero en dar una explicación científica al efecto invernadero en un tratado.

¿Qué es entonces la transformada de Fourier? Según Wikipedia: es una transformación matemática empleada para transformar señales entre el dominio del tiempo (o espacial) y el dominio de la frecuencia, que tiene muchas aplicaciones en la física y la ingeniería. Es reversible, siendo capaz de transformarse en cualquiera de los dominios al otro. El propio término se refiere tanto a la operación de transformación como a la función que produce.

En el caso de una función periódica en el tiempo (por ejemplo, un sonido musical continuo, pero no necesariamente sinusoidal), la transformada de Fourier se puede simplificar para el cálculo de un conjunto discreto de amplitudes complejas, llamado coeficientes de las series de Fourier. Ellos representan el espectro de frecuencia de la señal del dominio-tiempo original.

De la misma forma en que la transformada de Fourier nos descompone la señal entre el dominio del tiempo y el dominio de la frecuencia, la transformada de Fourier inversa hace la operación inversa (del dominio de frecuencia al dominio del tiempo)

Entonces la relación entre la frecuencia fundamental y sus armónicos nos da el timbre característico del instrumento.

Para quien le guste las matemáticas, estas serían las formulas:

Transformada de Fourier

\[F(\omega) = \int_{-\infty}^{\infty} f(t) e^{-it\omega} dt \]

Transformada de Fourier inversa

\[F(t) = \int_{-\infty}^{\infty} f(\omega) e^{it\omega} {d\omega} \]

Parte práctica

Con la ayuda de mi hermano Mariano (www.instagram.com/wettsma) le pedí que grabara la quinta cuerda al aire de una guitarra criolla y una eléctrica. Con esto se podrán ver las diferencias en la composición de una misma nota, pero en diferentes instrumentos.

La quinta cuerda al aire es la nota LA (110Hz) –como dije arriba no es que ponen un oscilador a 110Hz y va a sonar ese LA, depende del instrumento y de los armónicos como vamos a ver.

También le pedí que grabar dos armónicos naturales (en el traste 12 y en el 5).

La idea es pasarlo por la transformada de Fourier y ver el espectro de esa nota.

Como siempre, utilicé Python y Jupyter Notebook para el código y generar los gráficos que incluyo en el post.

Para generar los gráficos utilicé el código que detallo abajo. Las librerías que use fueron: matplotlib.pyplot, scipy.wavefile y scipy.fftpack

import matplotlib.pyplot as plt
from scipy.io import wavfile
from scipy.fftpack import fft,fftfreq

direccion = "dirección del archivo de audio"

samplerate, data = wavfile.read(direccion)

datafft = fft(data)

fftabs = abs(datafft)

samples = data.shape[0]
freqs = fftfreq(samples,1/samplerate)

fig, ax = plt.subplots(figsize=(15,7))
plt.xlim( [10, samplerate/2] )
plt.xscale( 'log' )
plt.xticks([10, 100, 1000, 10000],["10", "100", "1kHz", "10kHz"])
plt.yticks([])
plt.grid( True )
plt.xlabel( 'Frecuencia (Hz)' )
plt.plot(freqs[:int(freqs.size/2)],fftabs[:int(freqs.size/2)], color="r")

Para generar la onda compleja a partir de la suma de ondas simple, utilicé el siguiente código.

import numpy as np
from scipy.io import wavfile

sampleRate = 44100
frequency = 110
length = 5

t = np.linspace(0, length, sampleRate * length)
f = np.sin(frequency * 2 * np.pi * t)
a1 = np.sin((frequency*2) * 2 * np.pi * t1)
a2 = np.sin((frequency*3) * 2 * np.pi * t)
a3 = np.sin((frequency*4) * 2 * np.pi * t)
a4 = np.sin((frequency*5) * 2 * np.pi * t)
a5 = np.sin((frequency*6) * 2 * np.pi * t)
a6 = np.sin((frequency*7) * 2 * np.pi * t)
y = f + a1 + a2 + a3 + a4 + a5 + a6

wavfile.write('La Artificial.wav', sampleRate, y)

Empecemos: el primer audio que se van a escuchar es del LA de la guitarra criolla.

LA (110Hz) guitarra criolla

Al pasar el audio por la transformada de Fourier:

LA (110Hz) guitarra criolla.
Nota: El primer pico de 50Hz no es parte de la nota. Se trata de un ruido en la línea eléctrica y quedo grabado. Por lo que para los ejemplos mostrados en este post hay que omitirlo. Únicamente aparecen en las grabaciones de la guitarra criolla

El primer pico (lean la leyenda del gráfico anterior) corresponde a la frecuencia fundamente. Los demás picos son los armónicos (interesante el tercer armónico)

Seguimos: la nota LA en la guitarra eléctrica

LA (110Hz) guitarra eléctrica
FFT de LA (110Hz) de la guitarra eléctrica

Claramente se ve la diferencia. Si comparamos ambas guitarras el cuerpo de la guitarra eléctrica no «genera» tanto armónicos a diferencia de la caja de resonancia de la guitarra criolla.

Para comparar con otro instrumento, este es el LA en un piano de cola

LA (110Hz) piano de cola
FFT del LA (110Hz) de un piano de cola

Muchos armónicos se pueden relacionar con un sonido mas «lindo».

Como contrapartida generé un sonido complejo utilizando el segundo código que al principio del post copié. Es lo que se llama transformada de Fourier inversa.

El audio generado:

LA (110Hz) «artificial»

Y al pasarlo por la FFT se generó este gráfico:

LA (110Hz) artificial

Todas las onda con el mismo nivel. Por eso suena como suena, tiene su propio timbre.

Armónicos natural (mas gráficos)

Nuevamente con la ayuda de Mariano le pedi que grabara los armónicos naturales tanto de la guitarra criolla, como la de la eléctrica. Fueron los del traste 12 y 5. Se generaron estos audios y gráficos:

Armónico natural traste 12 guitarra criolla
Armónico natural traste 12 guitarra criolla
Armónico natural traste 12 guitarra eléctrica
Armónico natural traste 12 guitarra eléctrica

¿Que pasó aca? Al tocar de esta forma, escondemos la frecuencia natural y solo se escuchan los armónicos n° 2, 3 y 4 (guitarra criolla) y los armónicos n° 2 y 3 (guitarra eléctrica).

Veamos que ocurre con el armónico natural tocado en el traste 5:

Armónico natural traste 5 guitarra criolla
Armónico natural traste 5 guitarra criolla
Armónico natural traste 5 guitarra eléctrica
Armónico natural traste 5 guitarra eléctrica

Lo mismo que en el anterior armónico natural, pero en este caso tiene el tercer armónico es el que sobresale auditivamente.

Espero que con estos gráficos se haya podido entender lo que es el timbre y porque cada instrumento suena como suena.

Hasta el próximo post!!

Modos de resonancia

¿Qué son los modos de resonancia? ¿Cómo los puedo identificar en mi sala?

Es mejor siempre empezar por la definición. Según Wikipedia: “Dentro del campo de la Acústica ondulatoria, recibe el nombre de modo propio aquella onda estacionaria generada en el interior de un determinado espacio, por ejemplo, una sala o habitación. Este tipo de interferencias, ya sean constructivas (suma) o destructivas (cancelación), vienen dadas por la interacción entre las ondas incidentes y reflejadas dentro del recinto.”

En otras palabras, cuando en un recinto cerrado la distancia entre paredes es igual a media longitud de onda de una frecuencia, se produce una onda estacionaria. Esto se traduce en una pérdida de la calidad acústica de la habitación.

Me imagino que alguna vez deben haber estado dentro de una habitación escuchando música y en ciertas notas se escucha más fuerte, como retumbando y al moverse esa nota se acentúa o disminuye según se mueven dentro de la habitación en los diferentes ejes.

Arriba: modo de resonancia fundamental (dimensión de la sala corresponde a 1/2 longitud de onda). Abajo: modo de resonancia n° 2.

En el gráfico anterior se aprecia que cuando media longitud de onda coincide con alguna dimensión de la sala (largo, ancho, alto) se produce una onda estacionaria. Si nuestra sala fuera el primer gráfico y el modo se produce a lo largo, al posicionarnos en el medio estaríamos en la presencia de un nodo (cancelación)

Presión vs desplazamiento de partículas

¿Qué es lo que pasa dentro de la habitación entonces?  Supongamos que medidos la presión sonora dentro de la habitación. Veremos que la onda sonora viaje hacia su derecha y es reflejada por la superficie hacia la izquierda retornando fuera de fase (polaridad invertida en ½ período) La onda sonora que va hacia la izquierda interactúa con la onda que viaja hacia la derecha. De ésta interacción se producen sumas (antinodos) y cancelaciones (nodos).

Es interesante saber qué es lo que pasa con la presión sonora y el desplazamiento de las partículas del aire. Por cada nodo en la presión sonora, hay un antinodo en el desplazamiento de las partículas y viceversa (en los puntos de la onda en que la presión sonora es máxima el desplazamiento es mínimo). Particularmente el desplazamiento de las partículas de aire esta fuera de fase a la presión sonora en 90° y varía sinusoidalmente en la misma frecuencia que la fuente.

Presión de la onda estacionaria y el desplazamiento de las partículas del aire

Tomemos como punto el inicio del gráfico (línea azul) que sería el extremo de nuestra sala. Observemos los puntos de color naranja en el gráfico, vemos que en donde la presión es mínima, el desplazamiento es máximo, esto corresponde a un cuarto de longitud de onda para éste modo (si la frecuencia es 100Hz, un cuarto es 0,86 mts) Si bien esta medida difiere de acuerdo al modo, es por esto que los absorbentes de porosidad son efectivos a la distancia de un cuarto de longitud de onda desde la pared para la frecuencia específica.

Tipo de modos

Existen tres tipos de ondas estacionarias.

  • Axial: resonancia que está asociada con dos paredes paralelas
  • Tangencial: resonancia que involucra 4 paredes paralelas
  • Oblicuo: resonancia que involucra las 6 paredes

En la siguiente imagen se pueden ver cómo interactúan estos modos con las superficies

Diferentes tipos de modos

Existe una fórmula que sirve para calcular estos modos (Rayleigh). Cabe destacar que esta fórmula sirve para habitaciones paralelepípedas.

\[ F_k,m,n = \frac{c}{2} \sqrt{\biggl(\frac{k}{L_x}\biggr)^2 + \biggl(\frac{m}{L_y}\biggr)^2 + \biggl(\frac{n}{L_z}\biggr)^2 } \]

Donde

  • Lx, Ly, Lz = medidas de la sala
  • k, m, n = modos de la sala. Son números enteros (0, 1, 2, 3…)

Con la combinación de k, m, n nos da una frecuencia que está asociada con el modo propio de la sala. Si elegimos k=1, m=0, n=0, reemplazamos en la fórmula con las medidas de nuestra sala y el resultado es una frecuencia que pertenece al modo 1,0,0.

Tomemos por ejemplo una habitación con las siguientes medidas.

LargoAnchoAlto
8,5 mts4,8 mts3 mts

Al reemplazar estos valores en la fórmula nos da una serie de frecuencias que son los modos para estas medidas. Siguiendo con las medidas de la tabla anterior se calculó los modos axiales.

El siguiente gráfico muestra la distribución de éstos modos.

Distribución de los modos axiales para las medidas de ejemplo

Se puede observar que la densidad de los modos es mayor a medida que la frecuencia aumenta. En cierto punto es tan denso la cantidad de modos (la separación entre los modos es muy pequeña) que prácticamente la respuesta de frecuencia de la sala se suaviza.  

La siguiente ecuación se usa para determinar el número aproximado de modos para un ancho de banda determinado.

\[ \Delta N = \biggl[\frac{4 \pi Vf^2}{c^3} + \frac{\pi Sf}{2c^2} + \frac{L}{8c} \biggr] \Delta f \]

Aplicando la fórmula nos da el siguiente gráfico

La densidad modal aumenta con la frecuencia

Se puede observar en el gráfico como crece exponencialmente la cantidad de modos a medida que la frecuencia aumenta.

Algunos de los resultados: para 39Hz nos da una densidad de N=0,16. Para 1000Hz N=39,81 y, para 16000Hz N=9671,15.

Los modos son más importantes en habitaciones más pequeñas donde la densidad modal es baja. En habitaciones grandes, la densidad modal es relativamente alto, excepto a frecuencias extremadamente bajas, y los modos juegan un papel menos importante.

Nos vemos en el siguiente post!!

Campo estéreo

El 14 de diciembre de 1931, Alan Dower Blumlein, ingeniero en EMI, sento las bases en su patente número 394325 para lo que hoy se conoce como Estéreo. Él en su momento lo describió como “Sonido Binaural”.

El término binaural se refiere a que justamente envuelve a los dos oídos. Nuestro cerebro usa las diferencias en la llegada del sonido al oído derecho e izquierdo para determinar la localización de la fuente. Estas diferencias pueden ser: amplitud, tiempo (fase) y frecuencia.

Hoy en día tenemos lo que se llama pan pots o control de panorama para crear (simular) la localización del sonido.

Básicamente lo que hace el control es dividir la señal mono hacia el canal L y canal R. Efectivamente lo que sucede en el control es que se altera el nivel entre los dos parlantes. Para panear algo totalmente a la izquierda requiere que se atenúe totalmente la señal que se envía al canal derecho. Si se envía al centro, ambos canales reciben la misma cantidad de señal.

El reloj

Usualmente se utilizan las horas del reloj para describir la posición del paneo. Va desde las 7:00 hasta las 17:00. Siendo las 07:00 el paneo extremo izquierda y las 17:00 el extremo derecho.

La distribución de las horas en el campo estéreo

En un DAW se representa con los números de 0 a 100. Existe una regla general para posicionar los instrumentos. Como por ejemplo, el bombo y bajo al centro, las guitarras a los costados, etc. Pero las reglas no solo están para seguirlas, si no también para romperlas.

  • Overhead – 70% alrededor del centro
  • Bombo – centro
  • Caja – en la misma posición como “viene” desde los overhead
  • Tom 1 – 14:00
  • Tom 2 – 13:00
  • Tom 3 – 10:00
  • Bajo – centro
  • Voces – centro o un poquito desfasado para la izquierda
  • Guitarra I power chord – extremo izquierdo
  • Guitarra II power chord – extremo derecho
  • Reverb ambiental – 100% dispersado

Ahora bien, ¿cómo podemos llevarlo a la práctica?. Utilizaremos ProTools y una guitarra acústica que grabamos en Adipal Estudio (www.adipalestudio.com.ar). El técnico de grabación fue Mariano Wettstein (@wettsma). La guitarra pertenece a la canción En Vuelo de Flor Carmona

El primer paneo que vamos a realizar es colocar la guitarra a las 9. Vemos entonces como suena.

Guitarra a las 9

Al ser un canal mono lo único que se hace es el girar el pan pot hasta la posición deseada. En el DAW se ve de la siguiente manera.

Pan pot con el plug ins de Waves PAZ Analyzer

No se alcanza a ver en la captura, pero en el master se ve el nivel que llega a cada uno de los canales. Como dijimos arriba, el control de paneo es prácticamente un atenuador.

¿Y si queremos ocupar espacio dentro del campo para que vaya desde las 9 hasta las 15:00?. Un error común es duplicar la pista y panear cada una a sus lugares correspondientes.

Lo único que vamos a lograr as aumentar la señal de la guitarra en 3dB y que la señal se transforme en un Big Mono.

Para que realmente haya un campo estéreo «puro», cada canal tiene que reproducir señales distintas. Que haya separación en cada canal. Hay un medidor que es muy útil usarlo mientras editamos y mezclamos. Nos muestra la correlación que hay entre el canal L y el canal R. En un extremo izquierdo del medidor tenemos el -1, al medio el 0 y en el extremo derecho el +1. ¿Qué significa?

  • -1: los canales están desfasados 180 grados
  • 0: un perfecto estéreo
  • +1: senal totalmente mono. Ambos canales reproducen lo mismo

Si colocan el medidor de correlación, duplican una pista mono y la colocan extremo-extremo verán que el medidor va a marcar +1.

Veamos entonces como el Big Mono en el DAW y que nos muestra el analizador. Primero el audio:

Big Mono

Captura de pantalla del DAW con el analizador:

Un perfecto sonido mono.

Se aprecia que no solamente el nivel aumenta, si no que seguimos con una señal mono.

Como último, comento una técnica que se pueda usar para crear un estéreo con una pista mono. Hay que tener cuidado con el uso porque genera cancelaciones de face y el sonido va a cambiar.

  • Duplicamos la pista mono y paneamos a los extremos
  • En una de las pistas retrasamos unos pocos milisegundos
  • Ajustar el nivel a gusto

Con esto pasos vamos a crear un estéreo para evitar el big mono.

Veamos entonces como suena:

Estéreo creado

Por último la captura de pantalla del DAW con el analizador:

Si bien en el DAW se paneo de otra forma para ocupar un espacio dentro del horario de 8 a 11, se aplicó la misma técnica mencionada arriba.

En el analizador se puede apreciar algunos pasajes que están fuera de fase (en el plug ins lo denomina Anti Phase) por eso hay que utilizar con cuidado ya que podemos hacer que el resultado sea feo.

Si escuchan el primer audio y lo comparan con este último verán que suena levemente diferente, sobre todo en los medios-altos.

La localización de los instrumentos es un etapa dentro del proceso de mezcla. Es importante conceptualizar la mezcla y ya desde la primer escucha del tema saber que lugar va a ocupar cada instrumento dentro del campo. Si existe el campo estéreo está para usarlo. Despejen el centro

Nos vemos en el próximo post!!

Teorema de Nyquist

¿Qué dice el teorema? ¿Qué pasa si no se cumple?

Este teorema dice: Según el teorema de muestreo de Nyquist-Shannon, para poder digitalizar una señal analógica y transmitirla por un medio eléctrico a grandes distancias y poder recuperarla en el extremo distante con la máxima fidelidad posible, se requiere que la señal analógica sea muestreada al menos dos veces su frecuencia máxima. [Wikipedia]

De este teorema surge la frecuencia de muestreo de 44.1kHz. El rango de escucha del oído humano va desde los 20Hz hasta los 20.000Hz. La frecuencia de muestreo de 44.100Hz cumple con el teorema.

Para poder graficar una onda pura vamos a usar Python y vamos a cambiar la frecuencia de muestreo para ejemplificar ambos casos.

import numpy as np
import matplotlib.pyplot as plt

f = 50  #Frecuencia en Hertz
f_s = 44100  #Sampleo, o cantidad de muestras por segundos

f_s_b = 10 #Sampleo, o cantidad de muestras por segundos donde no se cumple el teorema de Nyquist

t = np.linspace(0, 1, 2 * f_s) #Función para crear un array equidistante
x = np.sin(f * 2 * np.pi * t)

fig, ax = plt.subplots(figsize=(15,7))
ax.plot(t, x)
ax.set_ylim(1.5,-1.5)
ax.set_xlabel('Tiempo [s]')
ax.set_ylabel('Amplitud Señal')
ax.set_title('50Hz con Frecuencia de Muestreo de 44100Hz')
plt.show()

El gráfico que se genera es el siguiente

1 segundo de una onda de 50Hz

Al código de arriba lo modifico para que la resolución sea de 10Hz. Veamos que onda se genera:

import numpy as np
import matplotlib.pyplot as plt

f = 50  #Frecuencia en Hertz
f_s = 44100  #Sampleo, o cantidad de muestras por segundos

f_s_b = 10 #Sampleo, o cantidad de muestras por segundos donde no se cumple el teorema de Nyquist

t = np.linspace(0, 1, 2 * f_s) #Función para crear un array equidistante
x = np.sin(f * 2 * np.pi * t)

fig, ax = plt.subplots(figsize=(15,7))
ax.plot(t, x)
ax.set_ylim(1.5,-1.5)
ax.set_xlabel('Tiempo [s]')
ax.set_ylabel('Amplitud Señal')
ax.set_title('50Hz con Frecuencia de Muestreo de 10Hz')
plt.show()
1 segundo de una onda de 50Hz

Claramente se ve la diferencia entre una onda y la otra. A este error se le denomina aliasing. Trae en los resultados falsos picos, datos erróneos. Justamente el término aliasing viene de alias. Según la RAE:

1. m. Apodo o sobrenombre.
2. adv. Por otro nombre. Alfonso Tostado, alias el Abulense.
3. adv. desus. De otro modo.

El propio nombre lo dice, no es una copia exacta, es un alias. Hoy no es una configuración que sea necesario tener pendiente, ya que practicamente cualquier DAW trae como predeterminado el valor de 44.100 Hz. Pero es importante conocer todos los aspectos del sonido digital.

El código de Python para generar la onda

Hasta el próximo post!!!

Respuesta al impulso

Personalmente siempre me pregunte como se veía lo que escuchamos. En el audio digital si grabamos por ejemplo una batería, vemos al bombo como golpes de corta duración, entonces asociamos lo que vemos a lo que escuchamos. Si por ejemplo grabamos una guitarra con unos acordes para dar sustain a la canción, vemos como la forma de onda es mas larga si la comparamos con la del bombo.

¿Pero que pasa en un recinto? ¿Cómo se ve?

Navegando por internet se encuentran grabaciones de respuesta al impulso. En este caso se van a usar unas que se hicieron en un recinto en Manchester, Inglaterra. El lugar se llama The Bridgewater Hall. Estas grabaciones son la respuesta al impulso (fue de una pistola que se usa para dar largada a una carrera de caballos, tipo una pistola a cebitas).

El primer audio es con el receptor (micrófono en este caso) cerca de la fuente, y el segundo audio es uno mas alejado.

Respuesta cerca (cerca para el resto del post)
Respuesta lejos (lejos para el resto del post)

Se cargaron los sonidos al software de medición. Se llama ARTA (http://www.artalabs.hr/) Es una programa shareware, se puede medir, importar, analizar, etc, pero pueden guardar ni cargar proyectos.

Veamos entonces como se ve el primer impulso.

El sonido directo con las primeras reflexiones.

Se puede ver en la imagen que a la primera reflexión le toma un poco más de 40ms en llegar al oído del receptor. Con una velocidad del sonido de 344 m/s recorre 1360 cm hasta llegar al oyente. Las otras reflexiones que llegan después están a un nivel bastante alto. Recordemos que el nivel con que llegan estas reflexiones (también del tiempo) nos da una «idea» (que tan grande o chico es) del recinto y que tan cerca (o lejos) estemos del sonido directo.

Abro paréntesis

Abro un paréntesis para hablar sobre las reflexiones y como reconocerlas. Volviendo a la primera reflexión que recorre 1360 cm, si en el caso que estemos haciendo un análisis de las reflexiones para tratarlas, hay que tener en cuenta que la distancia que recorre es la suma del recorrido desde la fuente hasta la superficie mas el recorrido desde la superficie hasta el receptor. Una vez que calculemos la distancia de recorrido (regla de tres simples: si la velocidad del sonido es 344 m/s, cuanto recorre en 40 ms?) nos resultará fácil saber que superficie está reflejando el sonido. Solo debemos mirar y observar en nuestro recinto o habitación que superficie está a determinada distancia para que en la suma de los recorridos de como resultado los 1360cm. Si en el caso que sea necesario, podremos aplicar el tratamiento acústico. Para el estudio de estas reflexiones se usa el gráfico ETC (Energy Time Curves).

El paint en su máxima expresión

En la imagen se grafica el recorrido del sonido directo y el sonido reflejado llegando 40ms después. A continuación podemos ver el gráfco ETC

Gráfico ETC del sonido cerca. Cada pico es una reflexión.

El gráfico ETC sirve para estudiar las reflexiones. En el eje Y se detalla el nivel de la reflexión y en el eje X el tiempo transcurrido. Según diferentes papers el nivel de las reflexiones deberían estar entre 10dB-15dB por debajo del sonido directo. Los picos, mientras mas altos sean, mas alto en nivel es la reflexión.

El gráfico ETC no muestra información con respecto a la frecuencia. Para ello se usa otro tipo de gráfico que se llama Waterfall

Cierro paréntesis

Volvamos entonces con la comparación de los sonidos. Ahora vamos con la respuesta al impuso del segundo sonido (lejos)

El sonido directo y las primeras reflexiones. Segundo sonido

Lo primero que vemos es que la primera reflexión llega antes de los 40ms. Esto es correcto ya que a medida que estemos más lejos de la fuente la diferencia de llegada entre ambos sonidos (directo y reflexión) es más chica.

Podemos observar también que las siguientes reflexiones que llegan, lo hacen a un menor nivel (nuevamente comparado con el gráfico anterior)

El siguiente gráfico que se muestra es el tiempo de reverberación (RT60 ó T60). Wikipedia dice al respecto: Se define como el tiempo que transcurre — hasta que decae a una determinada intensidad — las reflexiones de un sonido directo. Esa intensidad es de 60dB. Si el entorno es muy ruidoso, se puede usar el T30 o T20. En estos casos, lo cambia es la intensidad, 30dB y 20dB respectivamente.

Decaimiento de la energía de la respuesta al impulso cerca
Decaimiento de la energía de la respuesta al impulso lejos

Podemos observar que en la respuesta desde la posición mas alejada, el sonido el ser más débil, se vuelve imperceptible más rápido. El cálculo del tiempo de reverberación es de 2,2 segundos. Para el punto mas cercano el tiempo de reverberación que se calcula es de 2,3 segundos. Resultados que están bien, ya que el tiempo de reverberación se calcula en base a los metros cuadrados del recinto. Dato que no varia por más que estemos en cualquier punto del lugar.

Tabla T60 calculado para el sonido cerca. Se observa también que están incluídos el T20 y T30:

F (Hz)T30 (s)T20 (s)T60user(s) 
Wide2.3432.3442.339

Tabla T60 calculado para el sonido lejano. Se observa también que están incluídos el T20 y T30:

F (Hz)T30 (s)T20 (s)T60user(s)
Wide2.2982.3262.269

Anexo

Como gráfico de color, el siguiente gráfico ETC muestra el sonido lejos comparado con un gráfico ETC de un comedor, donde sus dimensiones son de aproximadamente 4 metros x 5 metros.

La curva de color verde (o algo parecido) pertenece al sonido cerca. La de negro al comedor.

El en gráfico se ve claramente como el sonido decae mas rápido al ser una sala más chica (si se compara con la otra curva)

Espero que sea claro el posteo.

Nos vemos en el próximo.!!

Fuente

¿Qué es mezclar?

Se podría sintetizar en una respuesta como la siguiente: Es un proceso técnico-artístico. Técnico porque los sonidos son balanceados, tratados y combinados. Artístico porque como todo arte, es una representación de emociones, ideas creativas.

Siempre buscamos en la música que nos despierte diferentes emociones. Por eso, nosotros como ingenieros de mezcla debemos saber captar lo que la música quiere representar emocionalmente.

Hay un ejercicio que podemos hacer para comparar diferentes mezclas y que nos va a ayudar a diferenciar las mezclas que estamos escuchando. Para hacerlo debemos crear una sesión en cualquier DAW e importar unos 20 segundos de las canciones que nos gustan o que nos despierten diferentes emociones. Recomiendo hacer un cross over entre canción y canción. Darle play y prestar atención a las diferentes mezclas y anotar que emociones nos despiertan. Después estas canciones nos pueden servir para referencias.

¿A qué nivel?

En 1993 2 investigadores de Bell Labs, Harvey Fletcher y W.A. Munson llevaron a cabo uno de los experimentos más significativos en la psicoacústica. Los experimentos estuvieron basados en una serie de test sobre un grupo de personas. Cada test implicaba la ejecución de una frecuencia en particular seguida de un tono de referencia de 1KHz. El receptor tenía que escoger cuál de los 2 sonidos era el más fuerte. Sucesivas pruebas incluían diferentes frecuencias a diferentes niveles. Esencialmente lo que Fletcher y Munson trataban de concluir era que tan alto o bajo tenían que estar las frecuencias ejecutadas para percibirse como la de la referencia (1KHz). Los resultados fueron explayados en un gráfico que se conoce como CURVAS FLETCHER-MUNSON.

Curvas Fletcher-Munson

Cada curva del gráfico es conocida como curva fon y está basado en el nivel de referencia de 1KHz. Para dar un ejemplo de cómo se lee, podemos ver la curva de 20-fon donde se aprecia que un tono de 1KHz se ejecuta a 20dBSPL. Para que un tono de 100Hz se perciba igual de fuerte, este tono tiene que ser ejecutado a 50dBSPL.

El gráfico también nos muestra que nuestra percepción de frecuencia tiene un alza en 3,5KHz (que es la frecuencia de resonancia del canal auditivo). No es por coincidencia que esa también es la frecuencia del llanto del bebé.

Es evidente que a niveles más altos nuestra percepción de frecuencia se vuelve más pareja. La curva de 0-fon es la más despareja, y la curva de 100-fon es la más pareja.

Otra manera de ver el grafico es que a medida que subimos el nivel de la música se perciben más altos y bajos. Es natural que niveles altos hagan a la música más atractiva.

Mientras más alta se ejecute la música percibimos más altos y bajos en comparación con los medios. El hecho que nuestra percepción de frecuencia se altera en relación al nivel, es una cuestión fundamental en la mezcla.

Es importante entonces verificar nuestra mezcla a diferentes niveles y tratar de hacerla perfecta en todos los niveles.

¿Por dónde empiezo?

Lo primero y principal, es escuchar el tema con los audios en bruto. Nos da una idea general de lo que la canción quiere transmitir. Es importante ir anotando las emociones, o ideas que se nos van ocurriendo. Sirven de mucho a la hora de mezclar. Ideas de paneo, ideas de automatización, ideas de niveles. Si participaste de la grabación, este punto debería estar cubierto. Me refiero a que ya las has escuchado a la canción.

Segundo, es fundamental eliminar todos los sonidos que no sean propios del tema: el buzz de los amplificadores de las guitarras, conteo, charla entre los músicos, tos antes de cantar, etc.

Por último: nombrar las pistas, ordenarlas por instrumentos, etc. Creo yo que teniendo esto listo es más fácil concentrarse en la propia mezcla. Llegar a un nivel de concentración puede llevar tiempo y durante este proceso hay fluidez de creatividad. Si nos olvidamos de eliminar una tos, el golpe de las baquetas, de limpiar el buzz del amplificador, o nos salteamos algunos de los puntos anteriores fácilmente perderemos esa fluidez.

Por último, pongo un gráfico que me pareció interesante en cómo se grafica el proceso de creación y las preguntas que nos tenemos que hacer para conseguir la mezcla «perfecta».

Hasta el próximo post