Flujo de trabajo. De la producción a la mezcla

En las grandes producciones de discos, gran porcentaje del presupuesto se destina a la producción de las canciones.

Una producción es necesaria ya que ahorra tiempo y dinero a la hora de grabar y luego en la edición y mezcla.

El músico debe ser capaz de aceptar las directivas de su productor. Hay que lograr la separación de lo creativo (músico) a la dirección (productor)

La siguiente figura muestra un flujo de trabajo en una producción común

Flujo de trabajo

El productor puede hacer su aporte en cada etapa, pero generalmente tiene un rol más activo en la etapa de Arreglos y en la etapa de Grabación.

Cada etapa tiene efecto sobre la etapa que le sigue. Por ejemplo, si en la etapa de grabación se elige un micrófono incorrecto o se microfonea de forma errónea, va a tener un efecto en la etapa de mezcla.

Hay una gran unión entre la etapa de Arreglos, Grabación y Mezcla, por lo que es sumamente importante que el productor tenga conocimientos en grabación, edición y/o mezcla ya que un buen productor se anticipa a la mezcla.

Un punto a favor de tener a un productor en las diferentes etapas y proceso de trabajo es que se asegura que la mezcla este siempre en la mente durante todo el proceso.

Etapa de Grabación

La calidad de grabación tiene una enorme influencia en la etapa de mezcla. Hay un famoso dicho que dice:

Basura entra, basura sale

Grabaciones con poca calidad van a tener que ser arregladas en la etapa de mezcla. Pero por mas experimentado que sea el ingeniero de mezcla, no podrá hacer mucho mas de lo que le llega.

Etapa de Edición

Como se ve en el gráfico de bloques de arriba, hay una conexión de ida y vuelta entre esta etapa y la Etapa de Grabación. Esto significa que cuando se esta editando y, por ejemplo, se decide que el sonido de la guitarra (por poner algún instrumento) no es el que sirve, se graba nuevamente. En esta etapa también se corrigen los comienzos y finales de cada pista, conteo, ruidos de voces de los músicos, pasos, etc. La idea es dejar únicamente el propio sonido del instrumento. Se corrigen también los errores (si es que los hay) de por ejemplo, el bombo y la nota del bajo (la alineación).

Etapa de Mezcla

Esta la etapa donde se empieza a mezclar propiamente dicho. No voy a desarrollar mucho sobre esta etapa ya que hice un post anterior sobre esta etapa. Lo pueden leer acá

Etapa de Master

En esta última etapa se preparan los niveles para poder ser reproducidos en diferentes plataformas, diferentes formatos, etc.

Experiencia personal

Tuve la oportunidad de trabajar en el último tema del cantautor cordobés Mariano Wettstein (lo pueden buscar en instagram como @wettsma). El tema se llama «Zambita de mi Barrio». Trabajé controlando los procesos usados en la mezcla: ecualizaciones, compresiones, etc.

Se destino un gran porcentaje del presupuesto para la producción. Dió sus frutos. No estuve presente en la grabación, por lo que cuando llego la Etapa de Mezcla personalmente me encontré con una sesión donde ya la misma grabación estaba «mezclada». Esto se debe a que el músico está concentrado en la ejecución del instrumento y se desliga de la responsabilidad de estar pensando «como está sonando». Debería ser así en todas las grabaciones, pero no siempre ocurre. Esto es muy común que pase con grabaciones donde no le dan importancia al rol del productor o no están familiarizado con.

Como parte final agrego una pequeña entrevista que le hice a @wettsma donde cuenta un poco la experiencia de trabajar con un productor (en este caso en particular con dos) al grabar Zambita de mi Barrio

¿Quiénes fueron los productores? Ignacio Serfaty y Facundo Herrera

Contame por qué o la razón por lo que preferiste realizar este trabajo con productores, teniendo en cuenta que tu anterior trabajo, Viaje de Ida, fuiste tu propio productor. Siempre tenía en mente trabajar con productores, por curiosidad, por buscar otros sonidos, pero más que nada para tener una visión externa sobre la música propia. 

¿Crees que mejoró la parte artística? La mejoró totalmente. Incluso me dió otras herramientas para futuros proyectos.

¿Cómo fue la experiencia, como músico, que un productor te dijera como tocar, o más que todo que dirigiera? Increible, todo me pareció totalmente fructífero. Incluso la exigencia de hacer una toma mejor, fueron mayores a cuando las hago solo y se noto en el resultado final. Ayudó mucho la clase de personas que son ellos dos y la buena química entre los tres.

Ya habían trabajado juntos en otro proyecto con los productores. ¿Crees que el hecho que se conozcan con anterioridad influye en la calidad y buen flujo del trabajo? Nos conocemos del ambiente, hemos compartido escenario con La Madre Del Borrego y de la noche de Córdoba. Seguramente ayudó conocernos de antes, pero eso tampoco te da seguridad que durante la grabación y producción salga todo bien. Por suerte en este caso, si.

Creo yo que muchas bandas, sobre todo las que se inician, no “aceptan” que alguien les diga que hacer y cómo ya que son sus canciones, ¿opinas lo mismo? y en caso afirmativo ¿cómo crees entonces que deben encarar un proyecto de grabación? En mi caso, me puse una meta con respecto a eso, si suma a la música, hay que dejar el ego de lado y aceptar lo que venga.

Links

Zambita de mi Barrio

Mariano Wettstein

Nos vemos en el próximo post.

Sensibilidad

Es un concepto que indica la capacidad del micrófono de captar sonido débiles y convertirlos en señales eléctricas. Se define como el cociente entre la tensión eléctrica en bornas del micrófono cuando está en circuito abierto y la presión que incide sobre su diafragma en campo libre.

\[ S = \frac{E}{p} \]

La sensibilidad, cuya unidad fundamental es el V/Pa, suele expresarse en mV/Pa debido a que el micrófono proporciona muy poca tensión por cada Pascal.

En las características técnicas de un micrófono es común expresar la sensibilidad en dB, indicando la sensibilidad de referencia So.

\[ S = 20 log \frac{S}{S_o} \]

Por ejemplo, un micrófono con una sensibilidad de S = -60dB (re 1V/µbar) recibe una presión de 94dB, la tensión que éste genera es E = Sp. La sensibilidad S expresada linealmente es:

\[ S = 10^\frac{-60}{20} = 0,001 V/µbar \]

Como vemos que la tensión de salida es muy chica (10mV). Este es el motivo por el cual es deseable micrófonos con sensibilidades altas, lo que significa valores en dB cercanos a cero.

La variación de la sensibilidad con respecto al ángulo de incidencia da lugar a una carácteristica de la que se detalla a continuación:

Directividad

Da una idea de la variación de la sensibilidad en función de la orientación del micrófono, o del ángulo con el que incide una onda sonora.

Un micrófono omnidireccional es aquel cuya sensibilidad es independiente de la dirección de incidencia del sonido. Por el contrario, un micrófono direccional es aquel cuya sensibilidad varía en función de la dirección de incidencia del sonido.

Para graficar la directividad se utilizan los conocidos graficos polares, que se calculan a partir de lo que se llama ecuación polar. A quien le interese:

\[ R(\theta) = \frac{p(\theta)}{p_m}\]

Patrones directivos

Básicamente, los micrófonos pueden ser omnidireccionales (que la sensibilidad no varía con el ángulo de incidencia), o direccionales, dentro de los cuales existes, los cardioides, supercardioides, hipercardioides o bidireccionales (figura en 8).

CaracterísticaR(x)
Omnidireccional1
Bidireccionalcos(x)
Cardioide½(1+ cos(x))
Hipercardioide¼(1 + 3 cos(x))
Supercardioide½[(√3 - 1) + (3 - √3) cos(x)]

La tabla anterior muestra la clasificación de micófonos y sus características directivas.

Se presentan a continuación los gráficos de cada clasificación y de su directiva. Para ello se utilizo un código en Python con la librería matplot.lib para realizar los gráficos.

Se puso a modo de ejemplo un micrófono con una sensibilidad de 28mV

gráfico sensibilidad
Sensibilidad
Radianes

El segundo gráfico representa los radianes. Un círculo completo es 2π (360°) que para los gráficos mostrados anteriormente, es el punto de mayor sensibilidad en los micrófonos. Por el contrario π equivale a 180° es el de menos sensibilidad, π/2 a 90° y 3π/2 son 270° .

Con esto en cuenta podemos ver y entender la figura n°1 y como cambia la sensibilidad de acuerdo al ángulo de incidencia sobre el micrófono.

No por nada, en vivo, el monitor de escenario se coloca a 180° del micrófono ( π ) que es donde un micrófono cardioide (el mas usado en vivo, como el Shure SM-58) tiene menos sensibilidad.

Podemos entender mejor los gráficos si pensamos en mV (lo que realmente es). Por ejemplo, si miramos el tipo cardioide sabemos que a 2π (0°) la sensibilidad es máxima, en nuestro ejemplo, entrega 28mV. Si nos movemos en el eje y nos vamos a π (180°) nos entrega casi nada de voltaje.

Código Python para los gráficos

Para quien le interese, acá dejo, como siempre, el código que use para poder realizar los gráficos.

#IMPORTO LOS MODULOS A UTILIZAR
import numpy as np
import matplotlib.pyplot as plt
import math

#GENERO VALORES EQUIDISTANTES ENTRE -2*pi Y 2*pi
x = np.arange((-2*np.pi), (2*np.pi), 0.01)

#SENSIBILIDAD DEL MICRÓFONO EXPRESADO EN MV
s = 28

#CALCULO DE SENSIBILIDADES
bi = s*np.cos(x)
di = (s/2)*(1+np.cos(x))
su = (s/2)*((np.sqrt(3)-1)+(3-np.sqrt(3))*np.cos(x))
hy = s/4* (1+3*np.cos(x))

#CREO EL SUBGRÁFICO
fig, ((ax1, ax2), (ax3, ax4)) = plt.subplots(2, 2,figsize=(9, 5), dpi=120)

#GENERO LOS DIFERENTES GRÁFICOS
ax1.plot(x, bi)
ax2.plot(x, di, 'tab:orange')
ax3.plot(x, su, 'tab:green')
ax4.plot(x, hy, 'tab:red')

#AGREGO TITULOS Y LABELS
ax1.set_title('Bidireccional', fontsize = 8)
ax1.set_ylabel('mV', fontsize = 6)

ax2.set_title('Direccional', fontsize = 8)
ax2.set_ylabel('mV', fontsize = 6)

ax3.set_title('Supercardioide', fontsize = 8)
ax3.set_ylabel('mV', fontsize = 6)

ax4.set_title('Hipercardioide', fontsize = 8)
ax4.set_ylabel('mV', fontsize = 6)

#LIMITO EL EJE Y
plt.ylim(-29, 29)

#LIMITO EL EJE X Y LE AGREGO LOS VALORES A LOS PUNTOS
plt.setp((ax1,ax2,ax3,ax4), 
         xticks=[-2*np.pi, -np.pi, 0, np.pi, 2*np.pi], 
         xticklabels=[r'$-2\pi$', r'$-\pi$', r'$0$', r'$+\pi$', r'$2\pi$'],
        yticks=[-28, 0, 28])

#CENTRO LA FIGURA Y REALIZO UN AJUSTE PARA QUE LOS GRÁFICOS ESTEN ORDENADOS
fig.tight_layout()

#SI DESEO GUARDAR LA IMAGEN ELIMINAR # DE LA LINEA DE ABAJO
#plt.savefig("nombre imagen.png")

#MUESTRO LA IMAGEN
plt.show()

Nos vemos en el próximo post!!

Aplicando el método de Michael Brauer (Brauerizing) a la voz

¿De qué se trata este método? ¿Quién es Michael Brauer? Ventajas y desventajas.

El método que diseñó (y patento) Michael Brauer (MB para el resto del post) es la de comprimir por buses aprovechando las características tonales de cada compresor. De esta forma asignamos la batería y bajo a un bus con un compresor «especial» para low-end, las guitarras las asignamos a un bus con un compresor característico, etc. Es necesario conocer bien como «suena» cada compresor para poner en práctica este método.

Como ventaja podemos hablar que ganamos es un sonido tight, con más cuerpo. También se puede hablar que podemos asignar un mismo instrumento a diferentes buses y aprovechar las características del compresor para darle caracter al sonido. Al ser una compreción post fader depende del nivel de fader para comprimir. A medida que mas nivel tenga el instrumento, mas compresión va a tener. Por último, al ser compresiones por etapa, cada compresor va a aplicar en promedio unos 3dB de compresión, que es más que aceptable (desde mi punto de vista).

Como desventaja, podemos decir que MB utiliza hardware (y qué equipos tiene!) por lo que replicar en un entorno digital sea hace un poco complicado el seteo y el ruteo.

A la voz le da un tratamiento diferente. Divide la voz en verso y en estribillo cada uno asignados a diferentes compresores para darle su característica tonal de acuerdo al momento de la canción.

Michael Brauer

Para resumir: Michael Brauer es un ingeniero de mezclas con sede en Nueva York. Recibió un Grammy por «Mejor Álbum Vocal Pop» por su trabajo en Continuum de John Mayer, «Mejor Álbum Alternativo» por Paracaídas de Coldplay, y también por «Mejor Álbum de Rock» por «Viva la Vida or Death and All His Friends» de Coldplay.

Pueden visitar su página para conocer más: https://www.mbrauer.com/

A la práctica

Utilicé una sesión con un teclado y voz. Para entender es mejor empezar por lo básico.

Al teclado lo envié a un bus (reverb). No tiene ecualizador ni compresión.

A la voz tambíen lo envié al bus con reverb pero también a tres diferentes buses más. Cada uno de ellos con un compresor diferente. La salida de la voz va a un bus dummy (no va a ningún lado) y la salida de los buses de compresión va a un MixBus.

MB utiliza 5 buses (4 para comprimir y 1 sin comprimir). En el ejemplo que explico acá solo uso 3 buses para comprimir y no separe la pista en verso y estribillo.

La imagen a continuación grafica el ruteo.

Los compresores (plug-ins) que se detallan son los que MB utiliza pero en su versión hardware

Se crean los buses necesarios y se inserta un generador de tono, el compresor y por último, un vúmetro.

Lo siguiente que se hace es calibrar los compresores con un tono de 1Khz y en -18 dB. El proceso es ajustar el umbral hasta que el VU marque -1 y con el Make-Up Gain ajustar hasta que el VU marque 0. Si bien no se especifica si MB lo hace en su mezcla de voces, acá lo decidí hacer para obtener un nivel parejo en los compresores.

Primero seteamos el threshold (rojo) y el VU deberá marce en -1. Luego con el control de input gain (make-up gain para otros), marcado en verde, seteamos para subir hasta que el VU marque 0.

Una vez listo esta etapa, asignamos los envíos a los buses de los compresores. Es importante dejar el nivel del envío a 0 (unity gain). No se debe mover del cero. Para mezclar el sonido de cada compresor vamos a utilizar el fader del bus.

Imagen de como debería queadar la sesión.

Acá se abren las posibilidades, podemos sumar los tres sonidos de los buses para enviarlos al bus de mezcla. En el verso, utilizar un bus en particular y en el estribillo otro, etc.

La compresión total va a ser de unos 8 dB pero en forma modular (cada módulo aportará unos 3dB de compresión). Este total de compresión va a depender de nuestro seteo.

La compresión de cada uno de los plug-in es de unos 3dB. El Fairchild está comprimiendo un pcoo más porque el seteo fue un poco mas fuerte que es de los demás.

Mezcla final

Acá están los audios finales. Para el ejemplo con compresión se uso exactamente lo que se ve en la última imagen

Con compresión
Sin compresión

Nos vemos en el próximo post!

Timbre

¿Qué es lo que escuchamos cuando oímos un sonido, por ejemplo, la nota en una guitarra acústica?

Parte Teórica

Los sonidos que escuchamos son ondas complejas, es decir que está formada por ondas simultáneas. No importa que tan compleja sea, o que tan largo sea su período, siempre se puede reducir en ondas simples.

En esta descomposición se pueden encontrar las siguientes frecuencias.

Frecuencia fundamental:  la frecuencia fundamental es el componente más bajo de la onda periódica.

Armónicos:  Un armónico es un componente de una onda periódica que es un múltiple entero de la frecuencia fundamental. Por ejemplo, la frecuencia que es dos veces la frecuencia fundamental se llama segundo armónico. Para el cálculo de la frecuencia de los armónicos se utiliza la siguiente fórmula.

\[ F_{armónico} = F_{fundamental} * n \] siendo n un número entero.

La relación entre las diferentes frecuencias, diferentes amplitudes y diferentes fases hace que la onda resultante sea propia de lo que estemos escuchando.

En otra palabra, el timbre: calidad de un sonido relacionado con su estructura armónica.

Gracias a la transformada de Fourier podemos descomponer esta onda compleja en onda puras.

Josehp Fourier

Jean-Baptiste Joseph Fourier (francés: /ʒozɛf fuʁje/; Auxerre, Francia, 21 de marzo de 1768-París, 16 de mayo de 1830) fue un matemático y físico francés conocido por sus trabajos sobre la descomposición de funciones periódicas en series trigonométricas convergentes llamadas Series de Fourier, método con el cual consiguió resolver la ecuación del calor. La transformada de Fourier recibe su nombre en su honor. Fue el primero en dar una explicación científica al efecto invernadero en un tratado.

¿Qué es entonces la transformada de Fourier? Según Wikipedia: es una transformación matemática empleada para transformar señales entre el dominio del tiempo (o espacial) y el dominio de la frecuencia, que tiene muchas aplicaciones en la física y la ingeniería. Es reversible, siendo capaz de transformarse en cualquiera de los dominios al otro. El propio término se refiere tanto a la operación de transformación como a la función que produce.

En el caso de una función periódica en el tiempo (por ejemplo, un sonido musical continuo, pero no necesariamente sinusoidal), la transformada de Fourier se puede simplificar para el cálculo de un conjunto discreto de amplitudes complejas, llamado coeficientes de las series de Fourier. Ellos representan el espectro de frecuencia de la señal del dominio-tiempo original.

De la misma forma en que la transformada de Fourier nos descompone la señal entre el dominio del tiempo y el dominio de la frecuencia, la transformada de Fourier inversa hace la operación inversa (del dominio de frecuencia al dominio del tiempo)

Entonces la relación entre la frecuencia fundamental y sus armónicos nos da el timbre característico del instrumento.

Para quien le guste las matemáticas, estas serían las formulas:

Transformada de Fourier

\[F(\omega) = \int_{-\infty}^{\infty} f(t) e^{-it\omega} dt \]

Transformada de Fourier inversa

\[F(t) = \int_{-\infty}^{\infty} f(\omega) e^{it\omega} {d\omega} \]

Parte práctica

Con la ayuda de mi hermano Mariano (www.instagram.com/wettsma) le pedí que grabara la quinta cuerda al aire de una guitarra criolla y una eléctrica. Con esto se podrán ver las diferencias en la composición de una misma nota, pero en diferentes instrumentos.

La quinta cuerda al aire es la nota LA (110Hz) –como dije arriba no es que ponen un oscilador a 110Hz y va a sonar ese LA, depende del instrumento y de los armónicos como vamos a ver.

También le pedí que grabar dos armónicos naturales (en el traste 12 y en el 5).

La idea es pasarlo por la transformada de Fourier y ver el espectro de esa nota.

Como siempre, utilicé Python y Jupyter Notebook para el código y generar los gráficos que incluyo en el post.

Para generar los gráficos utilicé el código que detallo abajo. Las librerías que use fueron: matplotlib.pyplot, scipy.wavefile y scipy.fftpack

import matplotlib.pyplot as plt
from scipy.io import wavfile
from scipy.fftpack import fft,fftfreq

direccion = "dirección del archivo de audio"

samplerate, data = wavfile.read(direccion)

datafft = fft(data)

fftabs = abs(datafft)

samples = data.shape[0]
freqs = fftfreq(samples,1/samplerate)

fig, ax = plt.subplots(figsize=(15,7))
plt.xlim( [10, samplerate/2] )
plt.xscale( 'log' )
plt.xticks([10, 100, 1000, 10000],["10", "100", "1kHz", "10kHz"])
plt.yticks([])
plt.grid( True )
plt.xlabel( 'Frecuencia (Hz)' )
plt.plot(freqs[:int(freqs.size/2)],fftabs[:int(freqs.size/2)], color="r")

Para generar la onda compleja a partir de la suma de ondas simple, utilicé el siguiente código.

import numpy as np
from scipy.io import wavfile

sampleRate = 44100
frequency = 110
length = 5

t = np.linspace(0, length, sampleRate * length)
f = np.sin(frequency * 2 * np.pi * t)
a1 = np.sin((frequency*2) * 2 * np.pi * t1)
a2 = np.sin((frequency*3) * 2 * np.pi * t)
a3 = np.sin((frequency*4) * 2 * np.pi * t)
a4 = np.sin((frequency*5) * 2 * np.pi * t)
a5 = np.sin((frequency*6) * 2 * np.pi * t)
a6 = np.sin((frequency*7) * 2 * np.pi * t)
y = f + a1 + a2 + a3 + a4 + a5 + a6

wavfile.write('La Artificial.wav', sampleRate, y)

Empecemos: el primer audio que se van a escuchar es del LA de la guitarra criolla.

LA (110Hz) guitarra criolla

Al pasar el audio por la transformada de Fourier:

LA (110Hz) guitarra criolla.
Nota: El primer pico de 50Hz no es parte de la nota. Se trata de un ruido en la línea eléctrica y quedo grabado. Por lo que para los ejemplos mostrados en este post hay que omitirlo. Únicamente aparecen en las grabaciones de la guitarra criolla

El primer pico (lean la leyenda del gráfico anterior) corresponde a la frecuencia fundamente. Los demás picos son los armónicos (interesante el tercer armónico)

Seguimos: la nota LA en la guitarra eléctrica

LA (110Hz) guitarra eléctrica
FFT de LA (110Hz) de la guitarra eléctrica

Claramente se ve la diferencia. Si comparamos ambas guitarras el cuerpo de la guitarra eléctrica no «genera» tanto armónicos a diferencia de la caja de resonancia de la guitarra criolla.

Para comparar con otro instrumento, este es el LA en un piano de cola

LA (110Hz) piano de cola
FFT del LA (110Hz) de un piano de cola

Muchos armónicos se pueden relacionar con un sonido mas «lindo».

Como contrapartida generé un sonido complejo utilizando el segundo código que al principio del post copié. Es lo que se llama transformada de Fourier inversa.

El audio generado:

LA (110Hz) «artificial»

Y al pasarlo por la FFT se generó este gráfico:

LA (110Hz) artificial

Todas las onda con el mismo nivel. Por eso suena como suena, tiene su propio timbre.

Armónicos natural (mas gráficos)

Nuevamente con la ayuda de Mariano le pedi que grabara los armónicos naturales tanto de la guitarra criolla, como la de la eléctrica. Fueron los del traste 12 y 5. Se generaron estos audios y gráficos:

Armónico natural traste 12 guitarra criolla
Armónico natural traste 12 guitarra criolla
Armónico natural traste 12 guitarra eléctrica
Armónico natural traste 12 guitarra eléctrica

¿Que pasó aca? Al tocar de esta forma, escondemos la frecuencia natural y solo se escuchan los armónicos n° 2, 3 y 4 (guitarra criolla) y los armónicos n° 2 y 3 (guitarra eléctrica).

Veamos que ocurre con el armónico natural tocado en el traste 5:

Armónico natural traste 5 guitarra criolla
Armónico natural traste 5 guitarra criolla
Armónico natural traste 5 guitarra eléctrica
Armónico natural traste 5 guitarra eléctrica

Lo mismo que en el anterior armónico natural, pero en este caso tiene el tercer armónico es el que sobresale auditivamente.

Espero que con estos gráficos se haya podido entender lo que es el timbre y porque cada instrumento suena como suena.

Hasta el próximo post!!

Modos de resonancia

¿Qué son los modos de resonancia? ¿Cómo los puedo identificar en mi sala?

Es mejor siempre empezar por la definición. Según Wikipedia: “Dentro del campo de la Acústica ondulatoria, recibe el nombre de modo propio aquella onda estacionaria generada en el interior de un determinado espacio, por ejemplo, una sala o habitación. Este tipo de interferencias, ya sean constructivas (suma) o destructivas (cancelación), vienen dadas por la interacción entre las ondas incidentes y reflejadas dentro del recinto.”

En otras palabras, cuando en un recinto cerrado la distancia entre paredes es igual a media longitud de onda de una frecuencia, se produce una onda estacionaria. Esto se traduce en una pérdida de la calidad acústica de la habitación.

Me imagino que alguna vez deben haber estado dentro de una habitación escuchando música y en ciertas notas se escucha más fuerte, como retumbando y al moverse esa nota se acentúa o disminuye según se mueven dentro de la habitación en los diferentes ejes.

Arriba: modo de resonancia fundamental (dimensión de la sala corresponde a 1/2 longitud de onda). Abajo: modo de resonancia n° 2.

En el gráfico anterior se aprecia que cuando media longitud de onda coincide con alguna dimensión de la sala (largo, ancho, alto) se produce una onda estacionaria. Si nuestra sala fuera el primer gráfico y el modo se produce a lo largo, al posicionarnos en el medio estaríamos en la presencia de un nodo (cancelación)

Presión vs desplazamiento de partículas

¿Qué es lo que pasa dentro de la habitación entonces?  Supongamos que medidos la presión sonora dentro de la habitación. Veremos que la onda sonora viaje hacia su derecha y es reflejada por la superficie hacia la izquierda retornando fuera de fase (polaridad invertida en ½ período) La onda sonora que va hacia la izquierda interactúa con la onda que viaja hacia la derecha. De ésta interacción se producen sumas (antinodos) y cancelaciones (nodos).

Es interesante saber qué es lo que pasa con la presión sonora y el desplazamiento de las partículas del aire. Por cada nodo en la presión sonora, hay un antinodo en el desplazamiento de las partículas y viceversa (en los puntos de la onda en que la presión sonora es máxima el desplazamiento es mínimo). Particularmente el desplazamiento de las partículas de aire esta fuera de fase a la presión sonora en 90° y varía sinusoidalmente en la misma frecuencia que la fuente.

Presión de la onda estacionaria y el desplazamiento de las partículas del aire

Tomemos como punto el inicio del gráfico (línea azul) que sería el extremo de nuestra sala. Observemos los puntos de color naranja en el gráfico, vemos que en donde la presión es mínima, el desplazamiento es máximo, esto corresponde a un cuarto de longitud de onda para éste modo (si la frecuencia es 100Hz, un cuarto es 0,86 mts) Si bien esta medida difiere de acuerdo al modo, es por esto que los absorbentes de porosidad son efectivos a la distancia de un cuarto de longitud de onda desde la pared para la frecuencia específica.

Tipo de modos

Existen tres tipos de ondas estacionarias.

  • Axial: resonancia que está asociada con dos paredes paralelas
  • Tangencial: resonancia que involucra 4 paredes paralelas
  • Oblicuo: resonancia que involucra las 6 paredes

En la siguiente imagen se pueden ver cómo interactúan estos modos con las superficies

Diferentes tipos de modos

Existe una fórmula que sirve para calcular estos modos (Rayleigh). Cabe destacar que esta fórmula sirve para habitaciones paralelepípedas.

\[ F_k,m,n = \frac{c}{2} \sqrt{\biggl(\frac{k}{L_x}\biggr)^2 + \biggl(\frac{m}{L_y}\biggr)^2 + \biggl(\frac{n}{L_z}\biggr)^2 } \]

Donde

  • Lx, Ly, Lz = medidas de la sala
  • k, m, n = modos de la sala. Son números enteros (0, 1, 2, 3…)

Con la combinación de k, m, n nos da una frecuencia que está asociada con el modo propio de la sala. Si elegimos k=1, m=0, n=0, reemplazamos en la fórmula con las medidas de nuestra sala y el resultado es una frecuencia que pertenece al modo 1,0,0.

Tomemos por ejemplo una habitación con las siguientes medidas.

LargoAnchoAlto
8,5 mts4,8 mts3 mts

Al reemplazar estos valores en la fórmula nos da una serie de frecuencias que son los modos para estas medidas. Siguiendo con las medidas de la tabla anterior se calculó los modos axiales.

El siguiente gráfico muestra la distribución de éstos modos.

Distribución de los modos axiales para las medidas de ejemplo

Se puede observar que la densidad de los modos es mayor a medida que la frecuencia aumenta. En cierto punto es tan denso la cantidad de modos (la separación entre los modos es muy pequeña) que prácticamente la respuesta de frecuencia de la sala se suaviza.  

La siguiente ecuación se usa para determinar el número aproximado de modos para un ancho de banda determinado.

\[ \Delta N = \biggl[\frac{4 \pi Vf^2}{c^3} + \frac{\pi Sf}{2c^2} + \frac{L}{8c} \biggr] \Delta f \]

Aplicando la fórmula nos da el siguiente gráfico

La densidad modal aumenta con la frecuencia

Se puede observar en el gráfico como crece exponencialmente la cantidad de modos a medida que la frecuencia aumenta.

Algunos de los resultados: para 39Hz nos da una densidad de N=0,16. Para 1000Hz N=39,81 y, para 16000Hz N=9671,15.

Los modos son más importantes en habitaciones más pequeñas donde la densidad modal es baja. En habitaciones grandes, la densidad modal es relativamente alto, excepto a frecuencias extremadamente bajas, y los modos juegan un papel menos importante.

Nos vemos en el siguiente post!!

Campo estéreo

El 14 de diciembre de 1931, Alan Dower Blumlein, ingeniero en EMI, sento las bases en su patente número 394325 para lo que hoy se conoce como Estéreo. Él en su momento lo describió como “Sonido Binaural”.

El término binaural se refiere a que justamente envuelve a los dos oídos. Nuestro cerebro usa las diferencias en la llegada del sonido al oído derecho e izquierdo para determinar la localización de la fuente. Estas diferencias pueden ser: amplitud, tiempo (fase) y frecuencia.

Hoy en día tenemos lo que se llama pan pots o control de panorama para crear (simular) la localización del sonido.

Básicamente lo que hace el control es dividir la señal mono hacia el canal L y canal R. Efectivamente lo que sucede en el control es que se altera el nivel entre los dos parlantes. Para panear algo totalmente a la izquierda requiere que se atenúe totalmente la señal que se envía al canal derecho. Si se envía al centro, ambos canales reciben la misma cantidad de señal.

El reloj

Usualmente se utilizan las horas del reloj para describir la posición del paneo. Va desde las 7:00 hasta las 17:00. Siendo las 07:00 el paneo extremo izquierda y las 17:00 el extremo derecho.

La distribución de las horas en el campo estéreo

En un DAW se representa con los números de 0 a 100. Existe una regla general para posicionar los instrumentos. Como por ejemplo, el bombo y bajo al centro, las guitarras a los costados, etc. Pero las reglas no solo están para seguirlas, si no también para romperlas.

  • Overhead – 70% alrededor del centro
  • Bombo – centro
  • Caja – en la misma posición como “viene” desde los overhead
  • Tom 1 – 14:00
  • Tom 2 – 13:00
  • Tom 3 – 10:00
  • Bajo – centro
  • Voces – centro o un poquito desfasado para la izquierda
  • Guitarra I power chord – extremo izquierdo
  • Guitarra II power chord – extremo derecho
  • Reverb ambiental – 100% dispersado

Ahora bien, ¿cómo podemos llevarlo a la práctica?. Utilizaremos ProTools y una guitarra acústica que grabamos en Adipal Estudio (www.adipalestudio.com.ar). El técnico de grabación fue Mariano Wettstein (@wettsma). La guitarra pertenece a la canción En Vuelo de Flor Carmona

El primer paneo que vamos a realizar es colocar la guitarra a las 9. Vemos entonces como suena.

Guitarra a las 9

Al ser un canal mono lo único que se hace es el girar el pan pot hasta la posición deseada. En el DAW se ve de la siguiente manera.

Pan pot con el plug ins de Waves PAZ Analyzer

No se alcanza a ver en la captura, pero en el master se ve el nivel que llega a cada uno de los canales. Como dijimos arriba, el control de paneo es prácticamente un atenuador.

¿Y si queremos ocupar espacio dentro del campo para que vaya desde las 9 hasta las 15:00?. Un error común es duplicar la pista y panear cada una a sus lugares correspondientes.

Lo único que vamos a lograr as aumentar la señal de la guitarra en 3dB y que la señal se transforme en un Big Mono.

Para que realmente haya un campo estéreo «puro», cada canal tiene que reproducir señales distintas. Que haya separación en cada canal. Hay un medidor que es muy útil usarlo mientras editamos y mezclamos. Nos muestra la correlación que hay entre el canal L y el canal R. En un extremo izquierdo del medidor tenemos el -1, al medio el 0 y en el extremo derecho el +1. ¿Qué significa?

  • -1: los canales están desfasados 180 grados
  • 0: un perfecto estéreo
  • +1: senal totalmente mono. Ambos canales reproducen lo mismo

Si colocan el medidor de correlación, duplican una pista mono y la colocan extremo-extremo verán que el medidor va a marcar +1.

Veamos entonces como el Big Mono en el DAW y que nos muestra el analizador. Primero el audio:

Big Mono

Captura de pantalla del DAW con el analizador:

Un perfecto sonido mono.

Se aprecia que no solamente el nivel aumenta, si no que seguimos con una señal mono.

Como último, comento una técnica que se pueda usar para crear un estéreo con una pista mono. Hay que tener cuidado con el uso porque genera cancelaciones de face y el sonido va a cambiar.

  • Duplicamos la pista mono y paneamos a los extremos
  • En una de las pistas retrasamos unos pocos milisegundos
  • Ajustar el nivel a gusto

Con esto pasos vamos a crear un estéreo para evitar el big mono.

Veamos entonces como suena:

Estéreo creado

Por último la captura de pantalla del DAW con el analizador:

Si bien en el DAW se paneo de otra forma para ocupar un espacio dentro del horario de 8 a 11, se aplicó la misma técnica mencionada arriba.

En el analizador se puede apreciar algunos pasajes que están fuera de fase (en el plug ins lo denomina Anti Phase) por eso hay que utilizar con cuidado ya que podemos hacer que el resultado sea feo.

Si escuchan el primer audio y lo comparan con este último verán que suena levemente diferente, sobre todo en los medios-altos.

La localización de los instrumentos es un etapa dentro del proceso de mezcla. Es importante conceptualizar la mezcla y ya desde la primer escucha del tema saber que lugar va a ocupar cada instrumento dentro del campo. Si existe el campo estéreo está para usarlo. Despejen el centro

Nos vemos en el próximo post!!

Teorema de Nyquist

¿Qué dice el teorema? ¿Qué pasa si no se cumple?

Este teorema dice: Según el teorema de muestreo de Nyquist-Shannon, para poder digitalizar una señal analógica y transmitirla por un medio eléctrico a grandes distancias y poder recuperarla en el extremo distante con la máxima fidelidad posible, se requiere que la señal analógica sea muestreada al menos dos veces su frecuencia máxima. [Wikipedia]

De este teorema surge la frecuencia de muestreo de 44.1kHz. El rango de escucha del oído humano va desde los 20Hz hasta los 20.000Hz. La frecuencia de muestreo de 44.100Hz cumple con el teorema.

Para poder graficar una onda pura vamos a usar Python y vamos a cambiar la frecuencia de muestreo para ejemplificar ambos casos.

import numpy as np
import matplotlib.pyplot as plt

f = 50  #Frecuencia en Hertz
f_s = 44100  #Sampleo, o cantidad de muestras por segundos

f_s_b = 10 #Sampleo, o cantidad de muestras por segundos donde no se cumple el teorema de Nyquist

t = np.linspace(0, 1, 2 * f_s) #Función para crear un array equidistante
x = np.sin(f * 2 * np.pi * t)

fig, ax = plt.subplots(figsize=(15,7))
ax.plot(t, x)
ax.set_ylim(1.5,-1.5)
ax.set_xlabel('Tiempo [s]')
ax.set_ylabel('Amplitud Señal')
ax.set_title('50Hz con Frecuencia de Muestreo de 44100Hz')
plt.show()

El gráfico que se genera es el siguiente

1 segundo de una onda de 50Hz

Al código de arriba lo modifico para que la resolución sea de 10Hz. Veamos que onda se genera:

import numpy as np
import matplotlib.pyplot as plt

f = 50  #Frecuencia en Hertz
f_s = 44100  #Sampleo, o cantidad de muestras por segundos

f_s_b = 10 #Sampleo, o cantidad de muestras por segundos donde no se cumple el teorema de Nyquist

t = np.linspace(0, 1, 2 * f_s) #Función para crear un array equidistante
x = np.sin(f * 2 * np.pi * t)

fig, ax = plt.subplots(figsize=(15,7))
ax.plot(t, x)
ax.set_ylim(1.5,-1.5)
ax.set_xlabel('Tiempo [s]')
ax.set_ylabel('Amplitud Señal')
ax.set_title('50Hz con Frecuencia de Muestreo de 10Hz')
plt.show()
1 segundo de una onda de 50Hz

Claramente se ve la diferencia entre una onda y la otra. A este error se le denomina aliasing. Trae en los resultados falsos picos, datos erróneos. Justamente el término aliasing viene de alias. Según la RAE:

1. m. Apodo o sobrenombre.
2. adv. Por otro nombre. Alfonso Tostado, alias el Abulense.
3. adv. desus. De otro modo.

El propio nombre lo dice, no es una copia exacta, es un alias. Hoy no es una configuración que sea necesario tener pendiente, ya que practicamente cualquier DAW trae como predeterminado el valor de 44.100 Hz. Pero es importante conocer todos los aspectos del sonido digital.

El código de Python para generar la onda

Hasta el próximo post!!!

Respuesta al impulso

Personalmente siempre me pregunte como se veía lo que escuchamos. En el audio digital si grabamos por ejemplo una batería, vemos al bombo como golpes de corta duración, entonces asociamos lo que vemos a lo que escuchamos. Si por ejemplo grabamos una guitarra con unos acordes para dar sustain a la canción, vemos como la forma de onda es mas larga si la comparamos con la del bombo.

¿Pero que pasa en un recinto? ¿Cómo se ve?

Navegando por internet se encuentran grabaciones de respuesta al impulso. En este caso se van a usar unas que se hicieron en un recinto en Manchester, Inglaterra. El lugar se llama The Bridgewater Hall. Estas grabaciones son la respuesta al impulso (fue de una pistola que se usa para dar largada a una carrera de caballos, tipo una pistola a cebitas).

El primer audio es con el receptor (micrófono en este caso) cerca de la fuente, y el segundo audio es uno mas alejado.

Respuesta cerca (cerca para el resto del post)
Respuesta lejos (lejos para el resto del post)

Se cargaron los sonidos al software de medición. Se llama ARTA (http://www.artalabs.hr/) Es una programa shareware, se puede medir, importar, analizar, etc, pero pueden guardar ni cargar proyectos.

Veamos entonces como se ve el primer impulso.

El sonido directo con las primeras reflexiones.

Se puede ver en la imagen que a la primera reflexión le toma un poco más de 40ms en llegar al oído del receptor. Con una velocidad del sonido de 344 m/s recorre 1360 cm hasta llegar al oyente. Las otras reflexiones que llegan después están a un nivel bastante alto. Recordemos que el nivel con que llegan estas reflexiones (también del tiempo) nos da una «idea» (que tan grande o chico es) del recinto y que tan cerca (o lejos) estemos del sonido directo.

Abro paréntesis

Abro un paréntesis para hablar sobre las reflexiones y como reconocerlas. Volviendo a la primera reflexión que recorre 1360 cm, si en el caso que estemos haciendo un análisis de las reflexiones para tratarlas, hay que tener en cuenta que la distancia que recorre es la suma del recorrido desde la fuente hasta la superficie mas el recorrido desde la superficie hasta el receptor. Una vez que calculemos la distancia de recorrido (regla de tres simples: si la velocidad del sonido es 344 m/s, cuanto recorre en 40 ms?) nos resultará fácil saber que superficie está reflejando el sonido. Solo debemos mirar y observar en nuestro recinto o habitación que superficie está a determinada distancia para que en la suma de los recorridos de como resultado los 1360cm. Si en el caso que sea necesario, podremos aplicar el tratamiento acústico. Para el estudio de estas reflexiones se usa el gráfico ETC (Energy Time Curves).

El paint en su máxima expresión

En la imagen se grafica el recorrido del sonido directo y el sonido reflejado llegando 40ms después. A continuación podemos ver el gráfco ETC

Gráfico ETC del sonido cerca. Cada pico es una reflexión.

El gráfico ETC sirve para estudiar las reflexiones. En el eje Y se detalla el nivel de la reflexión y en el eje X el tiempo transcurrido. Según diferentes papers el nivel de las reflexiones deberían estar entre 10dB-15dB por debajo del sonido directo. Los picos, mientras mas altos sean, mas alto en nivel es la reflexión.

El gráfico ETC no muestra información con respecto a la frecuencia. Para ello se usa otro tipo de gráfico que se llama Waterfall

Cierro paréntesis

Volvamos entonces con la comparación de los sonidos. Ahora vamos con la respuesta al impuso del segundo sonido (lejos)

El sonido directo y las primeras reflexiones. Segundo sonido

Lo primero que vemos es que la primera reflexión llega antes de los 40ms. Esto es correcto ya que a medida que estemos más lejos de la fuente la diferencia de llegada entre ambos sonidos (directo y reflexión) es más chica.

Podemos observar también que las siguientes reflexiones que llegan, lo hacen a un menor nivel (nuevamente comparado con el gráfico anterior)

El siguiente gráfico que se muestra es el tiempo de reverberación (RT60 ó T60). Wikipedia dice al respecto: Se define como el tiempo que transcurre — hasta que decae a una determinada intensidad — las reflexiones de un sonido directo. Esa intensidad es de 60dB. Si el entorno es muy ruidoso, se puede usar el T30 o T20. En estos casos, lo cambia es la intensidad, 30dB y 20dB respectivamente.

Decaimiento de la energía de la respuesta al impulso cerca
Decaimiento de la energía de la respuesta al impulso lejos

Podemos observar que en la respuesta desde la posición mas alejada, el sonido el ser más débil, se vuelve imperceptible más rápido. El cálculo del tiempo de reverberación es de 2,2 segundos. Para el punto mas cercano el tiempo de reverberación que se calcula es de 2,3 segundos. Resultados que están bien, ya que el tiempo de reverberación se calcula en base a los metros cuadrados del recinto. Dato que no varia por más que estemos en cualquier punto del lugar.

Tabla T60 calculado para el sonido cerca. Se observa también que están incluídos el T20 y T30:

F (Hz)T30 (s)T20 (s)T60user(s) 
Wide2.3432.3442.339

Tabla T60 calculado para el sonido lejano. Se observa también que están incluídos el T20 y T30:

F (Hz)T30 (s)T20 (s)T60user(s)
Wide2.2982.3262.269

Anexo

Como gráfico de color, el siguiente gráfico ETC muestra el sonido lejos comparado con un gráfico ETC de un comedor, donde sus dimensiones son de aproximadamente 4 metros x 5 metros.

La curva de color verde (o algo parecido) pertenece al sonido cerca. La de negro al comedor.

El en gráfico se ve claramente como el sonido decae mas rápido al ser una sala más chica (si se compara con la otra curva)

Espero que sea claro el posteo.

Nos vemos en el próximo.!!

Fuente

Reverb – plug ins

En esta entrada voy a hablar sobre los parámetros básicos que podemos encontrar en cualquier reverb (plug-ins). Utilice la reverb IR1 Convolution Reverb de Waves para los ejemplos que subo a este post.

Nuestros oídos están acostumbrados a escuchar y a estar en ambientes reverberantes. Habitación, cocina, comedor, baño, etc. Utilizamos la reverb en nuestra mezcla, no solo para dar la dimensión, si no también para “posicionar” en un espacio el instrumento.

Los parámetros encontrados en la mayoría de los plug-ins están estrechamente relacionados con las propiedades de los espacios acústicos.

Los plug-ins varían en el diseño interno, y algunos están diseñados para ciertas aplicaciones. Es importante aclarar que por más que dos controles sean iguales en diferentes plug-ins pueden que estén diseñados de distintas formas y pueden tener diferentes resultados. Como regla principal (y es aplicable a todo) leer siempre los manuales. Para eso se escriben. Hay mucha información ahí dentro y está bueno que sean leídos.

Direct sound

El sonido directo no es parte de la reverb. Es el sonido que viaja por la distancia mas corta entre la fuente y el receptor. Es la primera instancia del sonido que llega a los oídos y por lo tanto nos provee cierta información psicoacústica. Tanto el nivel como el contenido en las frecuencias altas contribuyen a la percepción de la profundidad.

El sonido directo es la señal “seca” que alimenta al plug-ins para que simule la reverb. Algunos plug-ins proveen este control que determina la “cantidad” de señal que se mezcla con la señal procesada (dry/wet mix). Si el plug-ins se conecta via auxiliar, la señal original (la propia del canal) se mezcla de todas formas, y la copia que se envía al plug.ins (direct sound) se vuelve redundante una vez que se mezcla con la reverb. Este no es el caso si se conecta como insert. Como regla general, si la reverb se conecta via auxiliar, hay que apagar el control de direct sound. Si esta conectada en el insert hay que dejarlo prendido.

Con el sonido directo activado
Sin el sonido directo activado

Pre-delay

Es la diferencia entre el tiempo de llegada del sonido directo y el tiempo de llegada de la primera reflexión. Esta diferencia nos da una pista sobre el “tamaño” del recinto, donde en recintos grandes el pre-delay es grande (toma mas tiempo en la primera reflexión en llegar a nuestros oídos). También nos provee de la distancia entre la fuente y el receptor.

Es importante aclarar que la mientras mas cerca estemos de la fuente mas largo es el pre-delay. Se puede ver bien en la imagen que se añade.

Distancia del sonido directo y pre-delay

El pre-delay se expresa generalmente en milisegundos, y para resultados más naturales nuestro cerebro requiere que este tiempo este por debajo de los 50ms. Igualmente, tiempos grandes se puede usar, por ejemplo, para tratar de hacer que el instrumento este mas al frente en la mezcla.

Pre-delay a 0 ms
Pre-delay a 35 ms

Early Reflections (ER)

Poco después del sonido directo, empiezan a llegar al receptor las reflexiones de las superficies de la habitación. La mayoría de estas reflexiones solo “rebotan” una o dos veces en las superficies y llegan a un tiempo mayor a del sonido directo (en realidad a los pocos milisegundos después). Nuestro cerebro los identifica como un sonido discreto que esta correlacionado a la señal original. Proveen a nuestro cerebro información a las características del espacio y también la distancia de la señal al receptor.

Dependiendo de las propiedades del recinto, las ER pueden llegar dentro de los primeros 100 ms luego del sonido directo. Cabe destacar que las ER dentro de los primeros 35 ms entran en la zona Haas y por lo tanto nuestro cerebro las distinguen de una de una manera un poco diferente (una diferencia muy pequeña digamos)

El nivel de las ER sugiere que tan grande es el recinto. Una habitación grande tendrá sus superficies más alejadas del receptor, por lo tanto, estas reflexiones deberán viajar largas distancias y serán más bajas.

Con relación a la profundidad, el nivel de reflexiones tempranas podría tener nuevamente un efecto opuesto a lo que inicialmente parece. Cuanto más lejos esté el oyente de la fuente de sonido, mayor será la distancia que recorre el sonido reflejado, es la diferencia en la distancia de viaje entre los sonidos directos y reflejados lo que importa aquí: una fuente de sonido cercana tendrá una ruta directa muy corta pero una ruta reflejada larga. Cuanto más lejos está la fuente del oyente, menor será la diferencia de distancia entre los dos caminos. En la práctica, cuanto más lejos estén la fuente y el oyente, el sonido directo y el reflejado estarán más cerca en nivel (ER más fuertes denotan una mayor distancia entre la fuente y el receptor)

Reverberación (reflexiones tardías)

La reverberación consiste en las reflexiones que rebotan en varias superficies. Como el sonido es absorbido para vez que golpea una superficie, estas reflexiones a medida que rebotan con mas superficies, mas se absorben, dando como resultado una reverberación que decae en amplitud. El nivel de la reverberación es un factor importante en nuestra percepción de profundidad.

Ratios de reverberación y dimensión

La reverberación es la herramienta principal que se emplea para añadir profundidad a la mezcla. Para entender como se hace, primero es importante entender que pasa en la naturaleza.

La ley de la inversa del cuadrado define como un sonido decae en amplitud en relación a la distancia que recorre. Por ejemplo, si el sonido a un metro de distancia provoca 60dB SPL, el sonido 5 metros mas lejos decaerá 14 dB (a unos 46 dB SPL). Se debe tener en claro que mientras mas lejos se encuentre el oyente de la fuente, el nivel del sonido directo se escuchara con menos nivel. Como la reverberación es una colección densa de todas las reflexiones del recinto, y si bien esas reflexiones caen en nivel, sumando todas resulta en un sonido relativamente alto.

Si el receptor se encuentra a 1 metro de la fuente, supongamos que escucha el sonido directo a 60 dB SPL y la reverberación a 43 dB SPL. Si el oyente se va alejando de la fuente, el sonido directo se escuchará mas bajo, pero la reverberación seguirá estando en el mismo nivel. A cierta distancia tanto el nivel del sonido directo como el de la reverberación estarán al mismo nivel, a esa distancia se la llama distancia crítica.

El ratio directo-reverb es comúnmente usado en la mezcla en orden para colocar un instrumento más lejano dentro del plano. Como muchos plug ins no tienen un control separado para controlar la reverberación, generalmente conseguimos este efecto con el control de dry/wet.

Decay Time

¿Cuánto tiempo tarda en la reverb para desaparecer? En acústica, se usa una medición que se llama RT60, que es cuando el sonido decae 60dB. En términos prácticos, 60dB es la diferencia entre un sonido muy alto y un sonido apenas se puede percibir. En términos reales podemos hablar que en una habitación chica un tiempo de decaimiento puede ser unos 20ms, mientras que en una iglesia puede llegar a tomar unos 4 segundos aproximadamente.

Nuevamente el tiempo de decaimiento nos da una pista sobre lo grande que es una habitación. Nos da también una pista sobre que tan reflectiva son los materiales que esa habitación tiene.

En los plug ins podemos encontrar que el control “size” controla (valga la redundancia) el tiempo de decaimiento.

Tiempo de decaimiento a 0,2 s
Tiempo de decaimiento a 3,6 s

Size

Este parametro determina la dimensión del recinto simulado, y en la mayoría de los casos está linkeado con el tiempo de decaimiento y las primeras reflexiones (ER). Cambiando este control trae como consecuencia los cambios en las dimensiones del recinto, un «size» chico simula una habitación pequeña, por ejemplo, un baño. Por el contrario, un «size» grande simula un recinto grande, por ejemplo, una iglesia, un estadio, etc. Esto combinado con el control del tiempo de decaimiento podemos hacer mas pronunciado esta simulación.

Size de 0,25
Size de 4

Density

El parámetro de la densidad en un plug ins puede venir para las ER, para la reverberación o unificada para ambas.

La densidad nos da una idea del tamaño de la habitación, donde unas reflexiones densas sugieren una habitación pequeña (el sonido rápidamente refleja y se re-refleja en las superficies cercanas)

Seteos altos nos ayudan a suavizar los transientes en los elementos percusivos. Por el contrario, seteos bajos causan un efecto metálico similar al “flutter echo”. ¡¡¡Pero!!!, este tipo de seteos puede retener cierta claridad cuando se aplican a sonidos con un gran sustain, como los pads o voces.

Ratio densidad de 0,25
Ratio densidad de 4

Difussion

El término difusión se usa para describir la dispersión del sonido. Un sonido en un campo correctamente difuso, trae como beneficio una respuesta mas uniforme en las frecuencias. Diferentes plug ins tratan de imitar el comportamiento de lo que pasa en la naturaleza de muchas maneras. En la mayoría de los casos esta implementación es muy básica a lo que realmente ocurre. Densidad y difusión muchas veces se confunden porque su efecto es muy similar. Debido a esta variedad de formas, es esencial leer el manual del plug ins que estemos usando para ver como es su implementación y luego probar diferentes seteos para ver cual se adapta mejor a nuestra mezcla.

Frecuencia y damping

El tratamiento para las frecuencias en las reverb puede ocurrir en tres puntos a lo largo de su camino:

  • Pre-reverb
  • Damping
  • Post-reverb

Algunos emuladores traen estos tres controles por separados. Otros ofrecen solo el control de damping. De todas maneras, si nuestro plug ins no trae el control de Pre-reverb ni el de Post-reverb, manualmente podemos insertar un EQ en nuestra señal.

Usar EQ Pre-reverb: las frecuencias graves pueden producir una reverb larga, bien “boomy”. Un filtro pasa alto antes de la reverb puede prevenir esto, filtrando el contenido de las frecuencias graves (bombos, bajos, etc) Mucha información de frecuencias agudas pueden producir una luminosa y una poco deseada cola en la reverb.

Damping se refiere al comportamiento de las frecuencias a lo largo del tiempo. Frecuencias agudas son fácilmente absorbidas: toma solo 76mm de lana de vidrio para absorber frecuencias mayores a 940Hz. Mientras que tomaría 1 metro de lana de vidrio poder absorber frecuencia de 94Hz. Las frecuencias altas también son absorbidas por el aire, especialmente cuando el sonido viaja grandes distancias. La reverb natural de un espacio absorbente hace que las frecuencias agudas decaigan mas rápido que las graves, dando como resultado un contenido pobre en frecuencias agudas a lo largo del tiempo.

Este parámetro usualmente representa el ratio entre el decaimiento de la reverb y el decaimiento de la frecuencia. Por ejemplo: un tiempo de decaimiento de 4 segundos y un damping HF de 0.5 significa que las frecuencias agudas decaerán dentro de los 2 segundos. Si el plug ins solo tiene un control de “damping” es probable que solo ajustaran el damping en las frecuencias agudas (HF)

HF damping: ratio 0,25 en 2500 Hz
HF damping: ratio 1 en 2500 Hz

Usar EQ Post-reverb: ayuda a mezclar la reverb en nuestra mezcla. Atenuando las frecuencias agudas nos ayuda a incrementar la lejanía del instrumento. Frecuencias graves pueden hacer que nuestra reverb sea mas grande, mas impactante y cálida.

Teniendo un buen manejo de estos controles nos ayudan a posicionar los elementos en el plano Z (hablando en un plano de 3D). O dicho de otra manera, nos ayuda a darle profundidad a nuestra mezcla.

Bongo Cerca
Bongo Lejos

Compresores

¿Qué hace un compresor? ¿Cuáles son sus controles básicos? ¿Qué pasa cuando comprimo demasiado un instrumento?

Creo que el compresor es la herramienta más usada y también la herramienta «más mal usada» (¿hay una mejor manera de escribirlo?). No es un secreto que los compresores puedan hacer el sonido más fuerte, más grande, más potente. Tampoco es un secreto, desde que los compresores se han añadido en cada canal en las consolas analógicas, que la cantidad de compresión en las mezclas ha crecido constantemente, desde compresiones transparentes, a evidentes, pasando a compresiones “heavy”, a hiper-comprimidas, y también a ultra-comprimidas.

Si el compresor es usado incorrectamente suprime la dinámica. La dinámica es un aspecto crucial de una pieza musical y un gran “mensaje” de la expresión musical.

Se puede hacer una analogía con la vida cotidiana para entender el concepto del mal uso del compresor y que aburrida que puede hacerse una pieza musical. Pensemos que imposible serían nuestras vidas si no pudiésemos alterar la potencia de nuestras voces. ¿Qué aburrido sería nuestra forma de cantar? Es por eso que un compresor mal usado y que hiper comprime a la música pierde el sentido y se escucha siempre igual.

Hay un ejercicio que es interesante hacer, que es escuchar un disco de los años ’90 y compararlo con un disco de pop de esta época. Con el mismo volumen van a notar que el disco pop de esta época va a sonar mucho mas fuerte que el disco de los ’90. Esto es porque hay una “guerra del volumen” (no voy a profundizar en el tema, pueden buscar en Google donde hay varios resultados interesantes) Me refiero a que hoy el que se escucha mas fuerte gana presencia. ¿Porqué hablo de esto? Por que me parece interesante saber a como el compresor se puede usar de una forma para lograr un objetivo de hacer el sonido mas fuerte.

Mas adelante en el post voy a subir un archivo de un piano donde va a estar sin compresión, otro comprimido de la forma en la cual fue mezclado, y por último un audio comprimido de una forma excesiva para que se vea claramente en como la dinámica se pierde y suena todo igual.

Controles Principales

Umbral

Define el nivel en donde la reducción (compresión) empieza. Cualquier señal que exceda ese nivel es considerada una señal comprimida (será reducida en nivel) La señal que esté por encima del umbral no será comprimida. Generalmente se calibra en dB.

Umbral

Hay dos tipos de umbral. Un umbral variable o umbral fijo. Un compresor con el umbral variable ofrece un control especialmente para establecer el umbral. En cambio, uno fijo, que no tiene un control específico para establecer el umbral, ofrece un control de ganancia de entrada. Mientras más aumentemos el nivel de entrada más alto será el umbral.

Por ejemplo, si el umbral está establecido en 2 dB y el nivel de señal es de 6 dB, la cantidad que sobrepasa es de 4dB. Si el nivel de la señal está por debajo del umbral la cantidad que sobrepasa es 0 dB.

Ratio

El ratio se puede comparar con la gravedad. La gravedad afecta a los objetos forzándolos a quedarse en el suelo. El ratio determina el grado por el cual la señales que sobrepasan el umbral son forzadas hacia abajo. Mientras mas chico es el ratio, mas fácil es para la señal saltar más alto arriba del umbral.

Ratio

Una vez que la señal sobrepasa el umbral, este control determina el ratio entre los cambios del nivel de entrada y los cambios de la señal de salida (la notación usada es entrada:salida) Por ejemplo, con un ratio 2:1, un incremento de 2 dB en la señal de entrada por encima del umbral, resultara en un incremento de 1 dB en la señal de salida por encima del umbral. Pongo esta imagen donde hay más ejemplos.

Ratio

En las imágenes el umbral esta seteado en -12 dB y el nivel de entrada es de -6 dB (6 dB por encima del umbral). Con un ratio de 2:1 la señal deja al compresor a -9 dB (3 dB por encima del umbral). Con un ratio de 6:1 la señal lo deja a -11 dB (1 dB por encima del umbral), y con un ratio de inf:1 la señal deja al compresor a la misma señal que el umbral.

Tiempo de ataque y de liberación

Los compresores modernos pueden responder instantáneamente a los cambios de nivel. En orden para retener algo del ataque natural del instrumento, o que el nivel inicial del sonido del instrumento se vea poco afectado o directamente que el compresor no afecte su sonido. Para hacerlos necesitaremos bajar los tiempos de respuesta del compresor.

El ataque y la liberación también se conocen como constantes de tiempo o tiempos de respuesta. El ataque determina qué tan rápido puede aumentar la reducción de ganancia, mientras que la liberación determina qué tan rápido la reducción de ganancia puede caer. Esencialmente, un ajuste más largo en cualquiera de ellos simplemente ralentizará la velocidad a la que la reducción de ganancia aumenta (ataque) o disminuye (liberación).

Generalmente los tiempos de ataque y liberación se establecen en milisegundos. El ataque usualmente varía entre 0,010 ms y 250 ms. El tiempo de liberación se sitúa dentro del rango de 5 a 3000 ms. Es importante entender que ambos tiempos determinan la rapidez en que la reducción de la ganancia puede cambiar y no el tiempo que toma en cambiar. En la práctica, ambos definen que tanto tiempo tardan en cambiar la reducción de la ganancia establecido por la cantidad de dB. Por ejemplo, 1 segundo en el tiempo de liberación denota que la reducción de la ganancia toma un segundo en caer 10 dB.

La siguiente figura muestra el efecto en la forma de onda con diferentes tiempos de ataque y liberación. En todos los gráficos tienen un ratio de 2:1 y el umbral es de 6 dB. La señal de entrada (a) aumenta instantáneamente desde los 6 dB a los 12 dB, después nuevamente cae instantáneamente a 6 dB. En todos los casos la cantidad que sobre pasa es de 6 dB, así que con el rato de 2:1 la cantidad de ganancia que reduce es de 3 dB. Podemos ver en (b) que si no hay tiempo de ataque y relajación la señal que sobre pasa el umbral es constantemente reducida en 3 dB. Cuando hay algo de tiempo de ataque y de relajación (c-e) toma un cierto tiempo antes de que se complete la reducción en la ganancia, y también cierto tiempo hasta que la reducción de la ganancia decaiga.

Ataque y Liberación

Ejemplo

A continuación dejo dos audios de una grabación que realice de unas teclas para una canción. La idea acá es mostrar el sonido al «natural», sin compresión. A continuación, el mismo segmento pero con una compresión brutal para que se pueda entender como el sonido queda flaco, sin dinámica y, desde mi punto de vista, feo.

Tecla sin compresión
Tecla con compresión (agresiva)

Se podrá escuchar que la tecla pierde su naturalidad. Sobre todo su ataque en la nota y suena sin sentido. Sin dinámica. Personalmente prefiero usar el compresor como un control sobre el toque (hay casos en el cual salteo esta regla para hacer sobresalir un instrumento).

Eso es todo por ahora. Nos vemos en el próximo post!!!