Aplicando el método de Michael Brauer (Brauerizing) a la voz

¿De qué se trata este método? ¿Quién es Michael Brauer? Ventajas y desventajas.

El método que diseñó (y patento) Michael Brauer (MB para el resto del post) es la de comprimir por buses aprovechando las características tonales de cada compresor. De esta forma asignamos la batería y bajo a un bus con un compresor «especial» para low-end, las guitarras las asignamos a un bus con un compresor característico, etc. Es necesario conocer bien como «suena» cada compresor para poner en práctica este método.

Como ventaja podemos hablar que ganamos es un sonido tight, con más cuerpo. También se puede hablar que podemos asignar un mismo instrumento a diferentes buses y aprovechar las características del compresor para darle caracter al sonido. Al ser una compreción post fader depende del nivel de fader para comprimir. A medida que mas nivel tenga el instrumento, mas compresión va a tener. Por último, al ser compresiones por etapa, cada compresor va a aplicar en promedio unos 3dB de compresión, que es más que aceptable (desde mi punto de vista).

Como desventaja, podemos decir que MB utiliza hardware (y qué equipos tiene!) por lo que replicar en un entorno digital sea hace un poco complicado el seteo y el ruteo.

A la voz le da un tratamiento diferente. Divide la voz en verso y en estribillo cada uno asignados a diferentes compresores para darle su característica tonal de acuerdo al momento de la canción.

Michael Brauer

Para resumir: Michael Brauer es un ingeniero de mezclas con sede en Nueva York. Recibió un Grammy por «Mejor Álbum Vocal Pop» por su trabajo en Continuum de John Mayer, «Mejor Álbum Alternativo» por Paracaídas de Coldplay, y también por «Mejor Álbum de Rock» por «Viva la Vida or Death and All His Friends» de Coldplay.

Pueden visitar su página para conocer más: https://www.mbrauer.com/

A la práctica

Utilicé una sesión con un teclado y voz. Para entender es mejor empezar por lo básico.

Al teclado lo envié a un bus (reverb). No tiene ecualizador ni compresión.

A la voz tambíen lo envié al bus con reverb pero también a tres diferentes buses más. Cada uno de ellos con un compresor diferente. La salida de la voz va a un bus dummy (no va a ningún lado) y la salida de los buses de compresión va a un MixBus.

MB utiliza 5 buses (4 para comprimir y 1 sin comprimir). En el ejemplo que explico acá solo uso 3 buses para comprimir y no separe la pista en verso y estribillo.

La imagen a continuación grafica el ruteo.

Los compresores (plug-ins) que se detallan son los que MB utiliza pero en su versión hardware

Se crean los buses necesarios y se inserta un generador de tono, el compresor y por último, un vúmetro.

Lo siguiente que se hace es calibrar los compresores con un tono de 1Khz y en -18 dB. El proceso es ajustar el umbral hasta que el VU marque -1 y con el Make-Up Gain ajustar hasta que el VU marque 0. Si bien no se especifica si MB lo hace en su mezcla de voces, acá lo decidí hacer para obtener un nivel parejo en los compresores.

Primero seteamos el threshold (rojo) y el VU deberá marce en -1. Luego con el control de input gain (make-up gain para otros), marcado en verde, seteamos para subir hasta que el VU marque 0.

Una vez listo esta etapa, asignamos los envíos a los buses de los compresores. Es importante dejar el nivel del envío a 0 (unity gain). No se debe mover del cero. Para mezclar el sonido de cada compresor vamos a utilizar el fader del bus.

Imagen de como debería queadar la sesión.

Acá se abren las posibilidades, podemos sumar los tres sonidos de los buses para enviarlos al bus de mezcla. En el verso, utilizar un bus en particular y en el estribillo otro, etc.

La compresión total va a ser de unos 8 dB pero en forma modular (cada módulo aportará unos 3dB de compresión). Este total de compresión va a depender de nuestro seteo.

La compresión de cada uno de los plug-in es de unos 3dB. El Fairchild está comprimiendo un pcoo más porque el seteo fue un poco mas fuerte que es de los demás.

Mezcla final

Acá están los audios finales. Para el ejemplo con compresión se uso exactamente lo que se ve en la última imagen

Con compresión
Sin compresión

Nos vemos en el próximo post!

Timbre

¿Qué es lo que escuchamos cuando oímos un sonido, por ejemplo, la nota en una guitarra acústica?

Parte Teórica

Los sonidos que escuchamos son ondas complejas, es decir que está formada por ondas simultáneas. No importa que tan compleja sea, o que tan largo sea su período, siempre se puede reducir en ondas simples.

En esta descomposición se pueden encontrar las siguientes frecuencias.

Frecuencia fundamental:  la frecuencia fundamental es el componente más bajo de la onda periódica.

Armónicos:  Un armónico es un componente de una onda periódica que es un múltiple entero de la frecuencia fundamental. Por ejemplo, la frecuencia que es dos veces la frecuencia fundamental se llama segundo armónico. Para el cálculo de la frecuencia de los armónicos se utiliza la siguiente fórmula.

\[ F_{armónico} = F_{fundamental} * n \] siendo n un número entero.

La relación entre las diferentes frecuencias, diferentes amplitudes y diferentes fases hace que la onda resultante sea propia de lo que estemos escuchando.

En otra palabra, el timbre: calidad de un sonido relacionado con su estructura armónica.

Gracias a la transformada de Fourier podemos descomponer esta onda compleja en onda puras.

Josehp Fourier

Jean-Baptiste Joseph Fourier (francés: /ʒozɛf fuʁje/; Auxerre, Francia, 21 de marzo de 1768-París, 16 de mayo de 1830) fue un matemático y físico francés conocido por sus trabajos sobre la descomposición de funciones periódicas en series trigonométricas convergentes llamadas Series de Fourier, método con el cual consiguió resolver la ecuación del calor. La transformada de Fourier recibe su nombre en su honor. Fue el primero en dar una explicación científica al efecto invernadero en un tratado.

¿Qué es entonces la transformada de Fourier? Según Wikipedia: es una transformación matemática empleada para transformar señales entre el dominio del tiempo (o espacial) y el dominio de la frecuencia, que tiene muchas aplicaciones en la física y la ingeniería. Es reversible, siendo capaz de transformarse en cualquiera de los dominios al otro. El propio término se refiere tanto a la operación de transformación como a la función que produce.

En el caso de una función periódica en el tiempo (por ejemplo, un sonido musical continuo, pero no necesariamente sinusoidal), la transformada de Fourier se puede simplificar para el cálculo de un conjunto discreto de amplitudes complejas, llamado coeficientes de las series de Fourier. Ellos representan el espectro de frecuencia de la señal del dominio-tiempo original.

De la misma forma en que la transformada de Fourier nos descompone la señal entre el dominio del tiempo y el dominio de la frecuencia, la transformada de Fourier inversa hace la operación inversa (del dominio de frecuencia al dominio del tiempo)

Entonces la relación entre la frecuencia fundamental y sus armónicos nos da el timbre característico del instrumento.

Para quien le guste las matemáticas, estas serían las formulas:

Transformada de Fourier

\[F(\omega) = \int_{-\infty}^{\infty} f(t) e^{-it\omega} dt \]

Transformada de Fourier inversa

\[F(t) = \int_{-\infty}^{\infty} f(\omega) e^{it\omega} {d\omega} \]

Parte práctica

Con la ayuda de mi hermano Mariano (www.instagram.com/wettsma) le pedí que grabara la quinta cuerda al aire de una guitarra criolla y una eléctrica. Con esto se podrán ver las diferencias en la composición de una misma nota, pero en diferentes instrumentos.

La quinta cuerda al aire es la nota LA (110Hz) –como dije arriba no es que ponen un oscilador a 110Hz y va a sonar ese LA, depende del instrumento y de los armónicos como vamos a ver.

También le pedí que grabar dos armónicos naturales (en el traste 12 y en el 5).

La idea es pasarlo por la transformada de Fourier y ver el espectro de esa nota.

Como siempre, utilicé Python y Jupyter Notebook para el código y generar los gráficos que incluyo en el post.

Para generar los gráficos utilicé el código que detallo abajo. Las librerías que use fueron: matplotlib.pyplot, scipy.wavefile y scipy.fftpack

import matplotlib.pyplot as plt
from scipy.io import wavfile
from scipy.fftpack import fft,fftfreq

direccion = "dirección del archivo de audio"

samplerate, data = wavfile.read(direccion)

datafft = fft(data)

fftabs = abs(datafft)

samples = data.shape[0]
freqs = fftfreq(samples,1/samplerate)

fig, ax = plt.subplots(figsize=(15,7))
plt.xlim( [10, samplerate/2] )
plt.xscale( 'log' )
plt.xticks([10, 100, 1000, 10000],["10", "100", "1kHz", "10kHz"])
plt.yticks([])
plt.grid( True )
plt.xlabel( 'Frecuencia (Hz)' )
plt.plot(freqs[:int(freqs.size/2)],fftabs[:int(freqs.size/2)], color="r")

Para generar la onda compleja a partir de la suma de ondas simple, utilicé el siguiente código.

import numpy as np
from scipy.io import wavfile

sampleRate = 44100
frequency = 110
length = 5

t = np.linspace(0, length, sampleRate * length)
f = np.sin(frequency * 2 * np.pi * t)
a1 = np.sin((frequency*2) * 2 * np.pi * t1)
a2 = np.sin((frequency*3) * 2 * np.pi * t)
a3 = np.sin((frequency*4) * 2 * np.pi * t)
a4 = np.sin((frequency*5) * 2 * np.pi * t)
a5 = np.sin((frequency*6) * 2 * np.pi * t)
a6 = np.sin((frequency*7) * 2 * np.pi * t)
y = f + a1 + a2 + a3 + a4 + a5 + a6

wavfile.write('La Artificial.wav', sampleRate, y)

Empecemos: el primer audio que se van a escuchar es del LA de la guitarra criolla.

LA (110Hz) guitarra criolla

Al pasar el audio por la transformada de Fourier:

LA (110Hz) guitarra criolla.
Nota: El primer pico de 50Hz no es parte de la nota. Se trata de un ruido en la línea eléctrica y quedo grabado. Por lo que para los ejemplos mostrados en este post hay que omitirlo. Únicamente aparecen en las grabaciones de la guitarra criolla

El primer pico (lean la leyenda del gráfico anterior) corresponde a la frecuencia fundamente. Los demás picos son los armónicos (interesante el tercer armónico)

Seguimos: la nota LA en la guitarra eléctrica

LA (110Hz) guitarra eléctrica
FFT de LA (110Hz) de la guitarra eléctrica

Claramente se ve la diferencia. Si comparamos ambas guitarras el cuerpo de la guitarra eléctrica no «genera» tanto armónicos a diferencia de la caja de resonancia de la guitarra criolla.

Para comparar con otro instrumento, este es el LA en un piano de cola

LA (110Hz) piano de cola
FFT del LA (110Hz) de un piano de cola

Muchos armónicos se pueden relacionar con un sonido mas «lindo».

Como contrapartida generé un sonido complejo utilizando el segundo código que al principio del post copié. Es lo que se llama transformada de Fourier inversa.

El audio generado:

LA (110Hz) «artificial»

Y al pasarlo por la FFT se generó este gráfico:

LA (110Hz) artificial

Todas las onda con el mismo nivel. Por eso suena como suena, tiene su propio timbre.

Armónicos natural (mas gráficos)

Nuevamente con la ayuda de Mariano le pedi que grabara los armónicos naturales tanto de la guitarra criolla, como la de la eléctrica. Fueron los del traste 12 y 5. Se generaron estos audios y gráficos:

Armónico natural traste 12 guitarra criolla
Armónico natural traste 12 guitarra criolla
Armónico natural traste 12 guitarra eléctrica
Armónico natural traste 12 guitarra eléctrica

¿Que pasó aca? Al tocar de esta forma, escondemos la frecuencia natural y solo se escuchan los armónicos n° 2, 3 y 4 (guitarra criolla) y los armónicos n° 2 y 3 (guitarra eléctrica).

Veamos que ocurre con el armónico natural tocado en el traste 5:

Armónico natural traste 5 guitarra criolla
Armónico natural traste 5 guitarra criolla
Armónico natural traste 5 guitarra eléctrica
Armónico natural traste 5 guitarra eléctrica

Lo mismo que en el anterior armónico natural, pero en este caso tiene el tercer armónico es el que sobresale auditivamente.

Espero que con estos gráficos se haya podido entender lo que es el timbre y porque cada instrumento suena como suena.

Hasta el próximo post!!