El mejor sitio para empezar a ajustar un compresor es encontrar primero el umbral aproximado, con una tasa bastante alta y un rápido tiempo de liberación
Si bien no hay reglas estandarizadas para el seteo de un compresor, siempre es bueno tener un inicio. Saber de donde empezar para luego modificar el seteo hasta que digamos, “esto suena bien”.
La idea de este post es detallar los pasos que seguí para el seteo de los compresores que usé en la mezcla de la batería.
La batería que voy a usar de ejemplo es la que se grabó para la canción de “Solo es Instinto” del disco de Mariano Wettstein (IG @wettma) que se llama “Viaje de Ida” Primero, el ruteo que hago es enviar la batería a un bus donde es procesado por un compresor SSL y luego por TransWide, ambos de Waves. El compresor está seteado para que no comprima más de 2-3 dB. Nota: no uso como una compresión paralela. A este bus le mando también el bajo y cualquier otro instrumento que sea grave o percusivo.
Segundo, el MixBus tiene insertado un EQ HPF a los 30 Hz para limpiar cualquier subgrave, luego por un compresor SSL que está seteado para que no comprima mas de 1 dB, con un ataque de 10ms y un tiempo de relajamiento en automático. No tiene makeup gain.
Primera Escucha
Solamente la batería y los procesos descritos arriba.
Se puede escuchar que el bombo tiene pocos graves. La caja está por detrás. Tanto los toms como los OH no es algo que esté molestando mucho, capaz que los toms se pueden ajustar un poco el sonido para que tengan un poco más de pegada.
Veamos como suena con los demás instrumentos. Nota: los demás instrumentos tienen poca edición y casi nula mezcla, me enfoco más en la batería. Si tienen un EQ y los niveles están ajustados para que se pueda apreciar los cambios en la batería.
Para exagerar, dejo un wav con la batería sin procesar y con los instrumentos. Podrán apreciar que no se une a la mezcla. Es algo obvio lo que digo. Pero…
Bombo
El primer cuerpo que decido atacar es el bombo. Lo que hice fue duplicar la pista y en esta agregue un instrumento virtual para reemplazar el sonido original del bombo y conseguir los graves que necesito. Luego lo mezclo con el bombo original para que éste le de la pegada necesaria.
Al bombo original primero lo pasó por un EQ donde le sacó unos 10 dB (sin miedo) en los 300Hz para sacarle ese sonido medioso que tiene. Luego enfatizo unos 4 dB en los 4.000Hz para tener el sonido del parche. Antes de enviarlo al compresor, bajo casi 6 dB el nivel de salida del EQ para que no llegue tan “caliente” al compresor.
Utilizo el API-2500. El tiempo de ataque es de 1 ms, el ratio en 2:1 y el tiempo de relajamiento en 200 ms. Decidí un tiempo de ataque muy rápido para los transitorios y que no me haga clipear en el master, necesito que el sonido del parche sea escuchado. Al grave lo tengo por el canal donde duplique el bombo. Para el bombo duplicado primero lo pasé por una puerta de ruido, luego por el Addictive Trigger donde está sampleado con un bombo de 22” x 14”. Luego lo pasé por un compresor donde le aplique una reducción de ganancia de unos 2-3 dB dependiendo el golpe.
Caja
Para la caja, primero lo pasé por el EQ donde le aumenté unos 5 dB los 75 Hz para darle más cuerpo, le saqué en la zona 500 Hz, y luego subí casi 3 dB en la zona de los 7.000 Hz para tener un poco más ataque. La caja es el único cuerpo que va a un bus auxiliar con una reverb. Antes de enviar la señal al compresor, la salida del EQ está disminuida 3,5 dB para que no llegue tan “caliente” la señal al compresor. El tiempo de ataque es rápido para agarrar los transitorios, con una tasa de compresor de 3:1 y un tiempo de relajamiento de 100 ms. El umbral está de tal manera para comprimir unos 3-4 dB.
Toms
Para que tengan más pegada, baje en los 500 Hz para sacarle ese sonido medioso (típico de batería) y comprimí la señal en unos 3 dB. No les hice más procesos que esos ya que no era necesario. Se hizo una buena toma en la grabación.
El compresor funciona más como contención de las pegadas más fuertes. Al tener el umbral en -22 dB no puede comprimir más de 2 dB.
Estos mismos procesos se aplican a los 3 toms.
Over
No se hace más que aplicar un HPF a partir de los 700 Hz.
Resultado Final
Primero la batería en solo con todos los procesos aplicados.
Esto es una guía que apliqué para este caso. Recuerden que cada canción tiene su tratamiento especial. Estos seteos que muestro se aplicaron a esta muestra de la batería y no necesariamente se aplican a otras batería de otros temas, etc.
Es muy común que escuchen la palabra aislar. Ya sea para evitar que el sonido de una habitación se propage a otras habitaciones. O para no escuchar al vecino, etc.
Pero, ¿qué es?, ¿de qué se trata?. Trataré de explicar en este post con un poco de teoría y gráficos qué es la aislación.
El próposito de la aislación es atenuar el sonido que pasa de una habitación a otra. Por regla general, mientras mas pesada la pared mejor el aislamiento. La habilidad de una pared para atenuar el sonido se especifica con el término de Pérdida de Transmisión (TL por las siglas en inglés) que se define como la diferencia en dB del SPL que hay en la sala emisora (e) y el SPL de la sala receptora (r).
Hay tres regiones que se diferencian con el comportamiento de la pared o panel.
Región I controlada por la rigidez
Región II controlada por la masa
Región III controlada por el efecto coincidente
Al final de este documento hay una tabla con los coeficientes de los materiales mas comunes que nos encontraremos a la hora de construir o calcular lo que en este post se detalla
Región I – Controlada por la rigidez
A bajas frecuencias, la pared se comporta como un todo, y la transmisión del sonido a través de la pared depende principalmente por la rigidez.
Para conocer el TL en la Región I utilizamos la siguiente ecuación
Donde a y b es el ancho y alto del panel, h es el espesor, E es la elasticidad de Young y σ es el ratio de Poisson.
Frecuencia de Resonancia
A medida que la frecuencia de incidencia aumenta, la pared empezará a resonar a una serie de frecuencias, llamadas frecuencias de resonancias. La frecuencia mas baja marca la transición entre la Región I y la Región II.
La frecuencia de resonancia mas baja es la que marca la transición entre la Región I y la Región II
ρw es la densidad volumétrica del material, E es la elasticidad de Young y σ es el ratio de Poisson. Como se explicaba arriba, la frecuencia de resonancia que marca la transición entre las Regiones es la frecuencia de resonancia mas baja y se denomina frecuencia fundamental y corresponde cuando m,n = 1. Si reemplazamos estos valores en la fórmula de frecuencia de resonancia nos queda
Para frecuencias mas altas que la primera frecuencia de resonancia, la pérdida de transmisión es controlada por la masa del panel y es independiente de la rigidez del mismo.
El coeficiente de transmisión de la potencia sonora para una incidencia normal esta dado por la siguiente ecuación
\[ \frac{1}{a_{tn}} = 1 + \bigg(\frac{\pi f M_s}{\rho_0 c_0}\bigg)^{2} \]
Ms es la densidad superficial y se calcula multiplicando ρw (densidad volumétrica) y h (espesor de la pared) => Ms = ρw h.
ρ0 y c0es la densidad y la velocidad del aire, respectivamente.
Entonces el TL para una incidencia normal está relacionada con el coeficiente de transmisión de la potencia sonora y está dado por
\[ TL_n = 10 \ log_{10} (1/a_{tn}) \]
Para una incidencia difusa se encontro experimentalmente que el TL en esta región esta relacionada con el TLn y se calcula con la siguiente expresión
\[ TL = TL_n – 5 \]
En el gráfico anterior se muestra la pendiente característica de esta región. Aumenta 6dB al duplicar la frecuencia. Lo que lleva a la definición de la Ley de Masa
Ley de Masa
Básicamente lo que dice esta ley, es que cuando se duplica la masa la aislación aumenta 6dB. Si la masa disminuye el doble, la aislación disminuye 6dB. Para una misma masa, cuando se aumenta la frecuencia, la aislación aumenta 6dB, y lo mismo ocurre cuando decrece la frecuencia.
Masa: En física, la densidad de área , o densidad por unidad de superficie , se representa por σ, se refiere a la cantidad de masa que posee un material por unidad de área.
\[ \sigma = \frac{m}{A} \]
Por ejemplo, un ladrillo maciso tiene un densidad superficial de 270 Kg/m2.
Frecuencia crítica
A medida que la frecuencia aumenta dentro de esta región, la longitud de onda del material se mueve al «ritmo» de la frecuencia incidente y ocurre un efecto que se llama efecto de coincidencia (longitud de ondas iguales). Primero ocurre a un ángulo de 90°. Cuando esta condición se cumple, la onda incidente y la onda vibratoria del panel se suman, resultando en una caída abrupta de la aislación. Este punto es la transición de la Región II a la Región III.
La frecuencia crítica es la transición entre la Región II y la Región III
Esto es lo que se llama frecuencia crítica y se calcula
\[ f_c = \frac{\sqrt{3}c^{2}}{\pi c_L h} \]
Si combinamos la densidad superficial y la expresión anterior encontramos que el producto Msfc es una función la propiedad física del panel y de la velocidad del sonido (c)
Región III – Controlada por la frecuencia (damping)
Para todas las frecuencia que esten por arriba de la frecuencia crítica, el TL depende fuertemente de la frecuencia de la onda de incidencia y de las pérdidas internas del material de la pared.
Para las ondas sonoras que golpean a la pared en todas las direcciones (incidencia difusa) y que son mayores a la frecuencia crítica, la siguiente formulación empirica se aplica para el cálculo del TL
El término η es el coeficiente de damping del material de la pared.
El TL en esta región es proporcional a 33,22log10(f). Si la frecuencia de duplica vemos que el TL se incrementa en 33,22log10(2) = 10dB/octava
Ejemplo
Una puerta de madera tiene dimensiones de 0,9 m de anho, 1.8 m de alto y 35 mm de espesor. Se desea calcula el TL para las siguientes frecuencias: (a) 63 Hz, (b) 250 Hz y (c) 2000 Hz
Se tienen las siguientes propiedades de acuerdo a la tabla del apéndice
c (velocidad del sonido) = 344 m/s
ρ (densidad del aire) = 1.196 Kg/m3
cL (velocidad de onda longitudinal) = 3.860 m/s
ρw (densidad) = 770 Kg/m3
MSfc (frecuencia crítica del material) = (11.900 Hz-Kg/m2) * (344/346,1)2 = 11.756 Hz-Kg/m2(para los fines prácticos del ejemplo decido bajar a 11.700 Hz-Kg/m2)
η (factor pérdida internal del material) = 0,008
E (elasticidad Young) = 11,2 GPa
σ (ratio de Poisson) = 0,15
Primero calculamos la primera frecuencia de resonancia
El TL para la frecuencia 64 Hz se calcula entonces
\[ TL = 10 \ log_{10}(1/0,004042) = 23,9 dB \]
(b) para 250 Hz
Para este caso f1,1 = 94,5 Hz < 250 Hz < 434,1 Hz (fc) por lo tanto esta frecuencia está en la Región II. Primero calculamos el coeficiente de transmisión para una incidencia normal.
Ya con este dato del TL para una incidencia normal calculamos
\[ TL = 34,2 – 5 = 29,2 dB \]
(c) para la frecuencia 2000 Hz
Al ser esta frecuencia mayor a la frecuencia crítica f = 2000 Hz > 434,1 Hz, en este caso recae en la Región III y el TL se calcula de la siguiente forma. Primero calculamos para la incidencia normal
En diseños preliminares, es necesario realizar una estimación de la pérdida. Veremos un método rápido para realizar la curva de TL para las Regiones II y III. Si las dimensiones a y bson por lo menos 20 veces mas grandes que el espesor h, la primera resonancia del panel usualmente es menor a los 125 Hz, por lo que la mayor porción de ésta pérdida estará dada en las Regiones II y III.
En la Región II, controladad por la masa, el TL para una incidencia aleatoria está dada por
Para frecuencia por encima de los 60 Hz, el término (πMSf/ρ0c0) es usualmente mayor a 1, por lo tanto la ecuación puede reescribirse de la siguiente manera
Tanto c0 como ρ0 se pueden escribir como valores constantes de 344 m/s y 1196 Kg/m3 respectivamente, por lo que se puede reemplazar la anterior fórmula como constantes, quedando como ecuación final
\[ 20 \ log_{10}(1196*344/\pi) = 42,3 dB \]
Entonces para frecuencias por debajo de la Región II, el TL se puede calcular aproximadamente mediante la siguiente ecuación
Este método aproximado reemplaza la transición con «pico y valles» entre la Región II y la Región III, por una línea recta o «meseta» como se muesta en la siguiente imagen
El alto de la meseta (TLp) y el ancho (▲fP) dependen del material. Algunos valores se muestran a continuación
Material
TLp, dB
▲fp = f2 - f1, octavas
f2/f1
Aluminio
29
3,5
11
Ladrillo
37
2,2
4,5
Concreto
38
2,2
4,5
Vidrio
27
3,3
10
Lidrillo hueco cerámico
30
2,7
6,5
Ladrillo hueco
32
3
8
Acero
40
3,5
11
En la Región III la curva de TL es a razón de 10db/octava. Aunque es mejor, siendo conservadores, que para las dos primeras octavas se dibuje la línea a razón de 10dB/octava. El resto de la curva se debería dibujar a razón de 6dB/octava.
En los primeros años de la telefonía, en los Laboratorios Bells, se encontraron con un problema: las frecuencias altas disminuían a medida que el cable de teléfono se hacía cada vez mas largo. Haciendo que la voz se hiciera inentendible. Idearon un dispositivo eléctronica capaz de aumentar las frecuencias altas en el receptor. Haciendo esto, en ambas partes el sonido era igual. El nombre que le dieron a este circuito fue: ecualizador.
El post no es para hablar de los controles que existen en el ecualizador. Cosa que en un futuro si lo haré, pero si me interesa poder hablar de una técnica que me gusta usar en mis mezclas.
Ecualización y fase
La operación de un ecualizador envuelve un mecanismo de delay. El delay es bastante corto, al rededor de 1ms. Group Delay es el término que generalmente de usa para describir las frecuencias que están siendo afectadas por este delay, si bien no es muy prociso, es bien conocido que algunas frecuencias son mas afectadas que otras. A pesar de esto, este mecanismo de delay da como resultado una interacción no deseada en la fase.
¿Porque hay un cambio de fase o una interacción no deseada?
El circuito de un ecualizador utiliza capacitores y bobinas para aplicar los filtros del ecualizador (el ecualizador es un filtro). Estos componentes hacen que el voltage AC que pasa por ellos sufra un cambio de fase. Si se combina la señal con una versión de sí misma desfasada (después de pasar por el capacitor o bobina), la respuesta de frecuencia de altera. El plugin entonces simula este comportamiento. Es más, sin ese delay, no habría ecualización.
Veamos como ejemplo esta onda de 100Hz.
Nos fijemos en la onda de color azul que es la señal original cuando entra al EQ. Al pasar por los filtros, la copia desfazada (onda de color roja) que se suma a la onda original, va a producir una onda resultante con cancelaciones.
¿Qué pasa entonces con todo esto? Este cambio de fase ocurre tanto al aumentar como al disminuir la ganancia del filtro de la frecuencia. Es un mito que los ecualizadores causan mayor desfazaje al aumentar. Sin embargo es correcto decir que se nota más cuando aumentamos la ganancia, por la simple razón que estamos aumentado el nivel de la frecuencia, y con eso se hace mas audible. Por esto es preferible disminuir que aumentar. Y para dar otra razón, al aumentar la ganancia, aumentamos el riesgo de hacer clip.
Todo lo anterior sirve para dar introducción a lo que siempre utilizo en mis mezclas, que es una técnica a la que se llama La frecuencia Yin-Yang
Veamos el siguiente gráfico
¿Se bajó 20 dB los graves o se subió 20 dB los agudos?
Sin importar en cual de las dos frecuencias se utiliza la ecualización yin-yang, nos enseña un importante concepto en nuestra percepción de la frecuencia: vamos a tener el mismo efecto tanto si aumentamos los agudos o si disminuimos los graves.
Por ejemplo, para tener mas brillo, o aumentamos los agudos, o disminuimos los graves. Seguro se nos va a presentar un trabajo en el que vamos a tener que tratar frecuencias específicas, pero vale la pena recordar que siempre hay mas de una ruta para llegar al mismo destino.
Por último, veamos unos ejemplos
Leo los comentarios para ver si pueden distinguir.
Si es que todavía no lo habían hecho, los invito a que en su próxima mezcla traten esta técnica.
En las grandes producciones de discos, gran porcentaje del presupuesto se destina a la producción de las canciones.
Una producción es necesaria ya que ahorra tiempo y dinero a la hora de grabar y luego en la edición y mezcla.
El músico debe ser capaz de aceptar las directivas de su productor. Hay que lograr la separación de lo creativo (músico) a la dirección (productor)
La siguiente figura muestra un flujo de trabajo en una producción común
El productor puede hacer su aporte en cada etapa, pero generalmente tiene un rol más activo en la etapa de Arreglos y en la etapa de Grabación.
Cada etapa tiene efecto sobre la etapa que le sigue. Por ejemplo, si en la etapa de grabación se elige un micrófono incorrecto o se microfonea de forma errónea, va a tener un efecto en la etapa de mezcla.
Hay una gran unión entre la etapa de Arreglos, Grabación y Mezcla, por lo que es sumamente importante que el productor tenga conocimientos en grabación, edición y/o mezcla ya que un buen productor se anticipa a la mezcla.
Un punto a favor de tener a un productor en las diferentes etapas y proceso de trabajo es que se asegura que la mezcla este siempre en la mente durante todo el proceso.
Etapa de Grabación
La calidad de grabación tiene una enorme influencia en la etapa de mezcla. Hay un famoso dicho que dice:
Basura entra, basura sale
Grabaciones con poca calidad van a tener que ser arregladas en la etapa de mezcla. Pero por mas experimentado que sea el ingeniero de mezcla, no podrá hacer mucho mas de lo que le llega.
Etapa de Edición
Como se ve en el gráfico de bloques de arriba, hay una conexión de ida y vuelta entre esta etapa y la Etapa de Grabación. Esto significa que cuando se esta editando y, por ejemplo, se decide que el sonido de la guitarra (por poner algún instrumento) no es el que sirve, se graba nuevamente. En esta etapa también se corrigen los comienzos y finales de cada pista, conteo, ruidos de voces de los músicos, pasos, etc. La idea es dejar únicamente el propio sonido del instrumento. Se corrigen también los errores (si es que los hay) de por ejemplo, el bombo y la nota del bajo (la alineación).
Etapa de Mezcla
Esta la etapa donde se empieza a mezclar propiamente dicho. No voy a desarrollar mucho sobre esta etapa ya que hice un post anterior sobre esta etapa. Lo pueden leer acá
Etapa de Master
En esta última etapa se preparan los niveles para poder ser reproducidos en diferentes plataformas, diferentes formatos, etc.
Experiencia personal
Tuve la oportunidad de trabajar en el último tema del cantautor cordobés Mariano Wettstein (lo pueden buscar en instagram como @wettsma). El tema se llama «Zambita de mi Barrio». Trabajé controlando los procesos usados en la mezcla: ecualizaciones, compresiones, etc.
Se destino un gran porcentaje del presupuesto para la producción. Dió sus frutos. No estuve presente en la grabación, por lo que cuando llego la Etapa de Mezcla personalmente me encontré con una sesión donde ya la misma grabación estaba «mezclada». Esto se debe a que el músico está concentrado en la ejecución del instrumento y se desliga de la responsabilidad de estar pensando «como está sonando». Debería ser así en todas las grabaciones, pero no siempre ocurre. Esto es muy común que pase con grabaciones donde no le dan importancia al rol del productor o no están familiarizado con.
Como parte final agrego una pequeña entrevista que le hice a @wettsma donde cuenta un poco la experiencia de trabajar con un productor (en este caso en particular con dos) al grabar Zambita de mi Barrio
¿Quiénes fueron los productores?Ignacio Serfaty y Facundo Herrera
Contame por qué o la razón por lo que preferiste realizar este trabajo con productores, teniendo en cuenta que tu anterior trabajo, Viaje de Ida, fuiste tu propio productor. Siempre tenía en mente trabajar con productores, por curiosidad, por buscar otros sonidos, pero más que nada para tener una visión externa sobre la música propia.
¿Crees que mejoró la parte artística?La mejoró totalmente. Incluso me dió otras herramientas para futuros proyectos.
¿Cómo fue la experiencia, como músico, que un productor te dijera como tocar, o más que todo que dirigiera?Increible, todo me pareció totalmente fructífero. Incluso la exigencia de hacer una toma mejor, fueron mayores a cuando las hago solo y se noto en el resultado final. Ayudó mucho la clase de personas que son ellos dos y la buena química entre los tres.
Ya habían trabajado juntos en otro proyecto con los productores. ¿Crees que el hecho que se conozcan con anterioridad influye en la calidad y buen flujo del trabajo?Nos conocemos del ambiente, hemos compartido escenario con La Madre Del Borrego y de la noche de Córdoba. Seguramente ayudó conocernos de antes, pero eso tampoco te da seguridad que durante la grabación y producción salga todo bien. Por suerte en este caso, si.
Creo yo que muchas bandas, sobre todo las que se inician, no “aceptan” que alguien les diga que hacer y cómo ya que son sus canciones, ¿opinas lo mismo? y en caso afirmativo ¿cómo crees entonces que deben encarar un proyecto de grabación?En mi caso, me puse una meta con respecto a eso, si suma a la música, hay que dejar el ego de lado y aceptar lo que venga.
Es un concepto que indica la capacidad del micrófono de captar sonido débiles y convertirlos en señales eléctricas. Se define como el cociente entre la tensión eléctrica en bornas del micrófono cuando está en circuito abierto y la presión que incide sobre su diafragma en campo libre.
\[ S = \frac{E}{p} \]
La sensibilidad, cuya unidad fundamental es el V/Pa, suele expresarse en mV/Pa debido a que el micrófono proporciona muy poca tensión por cada Pascal.
En las características técnicas de un micrófono es común expresar la sensibilidad en dB, indicando la sensibilidad de referencia So.
\[ S = 20 log \frac{S}{S_o} \]
Por ejemplo, un micrófono con una sensibilidad de S = -60dB (re 1V/µbar) recibe una presión de 94dB, la tensión que éste genera es E = Sp. La sensibilidad S expresada linealmente es:
\[ S = 10^\frac{-60}{20} = 0,001 V/µbar \]
Como vemos que la tensión de salida es muy chica (10mV). Este es el motivo por el cual es deseable micrófonos con sensibilidades altas, lo que significa valores en dB cercanos a cero.
La variación de la sensibilidad con respecto al ángulo de incidencia da lugar a una carácteristica de la que se detalla a continuación:
Directividad
Da una idea de la variación de la sensibilidad en función de la orientación del micrófono, o del ángulo con el que incide una onda sonora.
Un micrófono omnidireccional es aquel cuya sensibilidad es independiente de la dirección de incidencia del sonido. Por el contrario, un micrófono direccional es aquel cuya sensibilidad varía en función de la dirección de incidencia del sonido.
Para graficar la directividad se utilizan los conocidos graficos polares, que se calculan a partir de lo que se llama ecuación polar. A quien le interese:
\[ R(\theta) = \frac{p(\theta)}{p_m}\]
Patrones directivos
Básicamente, los micrófonos pueden ser omnidireccionales (que la sensibilidad no varía con el ángulo de incidencia), o direccionales, dentro de los cuales existes, los cardioides, supercardioides, hipercardioides o bidireccionales (figura en 8).
Característica
R(x)
Omnidireccional
1
Bidireccional
cos(x)
Cardioide
½(1+ cos(x))
Hipercardioide
¼(1 + 3 cos(x))
Supercardioide
½[(√3 - 1) + (3 - √3) cos(x)]
La tabla anterior muestra la clasificación de micófonos y sus características directivas.
Se presentan a continuación los gráficos de cada clasificación y de su directiva. Para ello se utilizo un código en Python con la librería matplot.lib para realizar los gráficos.
Se puso a modo de ejemplo un micrófono con una sensibilidad de 28mV
El segundo gráfico representa los radianes. Un círculo completo es 2π (360°) que para los gráficos mostrados anteriormente, es el punto de mayor sensibilidad en los micrófonos. Por el contrario π equivale a 180° es el de menos sensibilidad, π/2 a 90° y 3π/2 son 270° .
Con esto en cuenta podemos ver y entender la figura n°1 y como cambia la sensibilidad de acuerdo al ángulo de incidencia sobre el micrófono.
No por nada, en vivo, el monitor de escenario se coloca a 180° del micrófono ( π ) que es donde un micrófono cardioide (el mas usado en vivo, como el Shure SM-58) tiene menos sensibilidad.
Podemos entender mejor los gráficos si pensamos en mV (lo que realmente es). Por ejemplo, si miramos el tipo cardioide sabemos que a 2π (0°) la sensibilidad es máxima, en nuestro ejemplo, entrega 28mV. Si nos movemos en el eje y nos vamos a π (180°) nos entrega casi nada de voltaje.
Código Python para los gráficos
Para quien le interese, acá dejo, como siempre, el código que use para poder realizar los gráficos.
#IMPORTO LOS MODULOS A UTILIZAR
import numpy as np
import matplotlib.pyplot as plt
import math
#GENERO VALORES EQUIDISTANTES ENTRE -2*pi Y 2*pi
x = np.arange((-2*np.pi), (2*np.pi), 0.01)
#SENSIBILIDAD DEL MICRÓFONO EXPRESADO EN MV
s = 28
#CALCULO DE SENSIBILIDADES
bi = s*np.cos(x)
di = (s/2)*(1+np.cos(x))
su = (s/2)*((np.sqrt(3)-1)+(3-np.sqrt(3))*np.cos(x))
hy = s/4* (1+3*np.cos(x))
#CREO EL SUBGRÁFICO
fig, ((ax1, ax2), (ax3, ax4)) = plt.subplots(2, 2,figsize=(9, 5), dpi=120)
#GENERO LOS DIFERENTES GRÁFICOS
ax1.plot(x, bi)
ax2.plot(x, di, 'tab:orange')
ax3.plot(x, su, 'tab:green')
ax4.plot(x, hy, 'tab:red')
#AGREGO TITULOS Y LABELS
ax1.set_title('Bidireccional', fontsize = 8)
ax1.set_ylabel('mV', fontsize = 6)
ax2.set_title('Direccional', fontsize = 8)
ax2.set_ylabel('mV', fontsize = 6)
ax3.set_title('Supercardioide', fontsize = 8)
ax3.set_ylabel('mV', fontsize = 6)
ax4.set_title('Hipercardioide', fontsize = 8)
ax4.set_ylabel('mV', fontsize = 6)
#LIMITO EL EJE Y
plt.ylim(-29, 29)
#LIMITO EL EJE X Y LE AGREGO LOS VALORES A LOS PUNTOS
plt.setp((ax1,ax2,ax3,ax4),
xticks=[-2*np.pi, -np.pi, 0, np.pi, 2*np.pi],
xticklabels=[r'$-2\pi$', r'$-\pi$', r'$0$', r'$+\pi$', r'$2\pi$'],
yticks=[-28, 0, 28])
#CENTRO LA FIGURA Y REALIZO UN AJUSTE PARA QUE LOS GRÁFICOS ESTEN ORDENADOS
fig.tight_layout()
#SI DESEO GUARDAR LA IMAGEN ELIMINAR # DE LA LINEA DE ABAJO
#plt.savefig("nombre imagen.png")
#MUESTRO LA IMAGEN
plt.show()
¿De qué se trata este método? ¿Quién es Michael Brauer? Ventajas y desventajas.
El método que diseñó (y patento) Michael Brauer (MB para el resto del post) es la de comprimir por buses aprovechando las características tonales de cada compresor. De esta forma asignamos la batería y bajo a un bus con un compresor «especial» para low-end, las guitarras las asignamos a un bus con un compresor característico, etc. Es necesario conocer bien como «suena» cada compresor para poner en práctica este método.
Como ventaja podemos hablar que ganamos es un sonido tight, con más cuerpo. También se puede hablar que podemos asignar un mismo instrumento a diferentes buses y aprovechar las características del compresor para darle caracter al sonido. Al ser una compreción post fader depende del nivel de fader para comprimir. A medida que mas nivel tenga el instrumento, mas compresión va a tener. Por último, al ser compresiones por etapa, cada compresor va a aplicar en promedio unos 3dB de compresión, que es más que aceptable (desde mi punto de vista).
Como desventaja, podemos decir que MB utiliza hardware (y qué equipos tiene!) por lo que replicar en un entorno digital sea hace un poco complicado el seteo y el ruteo.
A la voz le da un tratamiento diferente. Divide la voz en verso y en estribillo cada uno asignados a diferentes compresores para darle su característica tonal de acuerdo al momento de la canción.
Michael Brauer
Para resumir: Michael Brauer es un ingeniero de mezclas con sede en Nueva York. Recibió un Grammy por «Mejor Álbum Vocal Pop» por su trabajo en Continuum de John Mayer, «Mejor Álbum Alternativo» por Paracaídas de Coldplay, y también por «Mejor Álbum de Rock» por «Viva la Vida or Death and All His Friends» de Coldplay.
Pueden visitar su página para conocer más: https://www.mbrauer.com/
A la práctica
Utilicé una sesión con un teclado y voz. Para entender es mejor empezar por lo básico.
Al teclado lo envié a un bus (reverb). No tiene ecualizador ni compresión.
A la voz tambíen lo envié al bus con reverb pero también a tres diferentes buses más. Cada uno de ellos con un compresor diferente. La salida de la voz va a un bus dummy (no va a ningún lado) y la salida de los buses de compresión va a un MixBus.
MB utiliza 5 buses (4 para comprimir y 1 sin comprimir). En el ejemplo que explico acá solo uso 3 buses para comprimir y no separe la pista en verso y estribillo.
La imagen a continuación grafica el ruteo.
Se crean los buses necesarios y se inserta un generador de tono, el compresor y por último, un vúmetro.
Lo siguiente que se hace es calibrar los compresores con un tono de 1Khz y en -18 dB. El proceso es ajustar el umbral hasta que el VU marque -1 y con el Make-Up Gain ajustar hasta que el VU marque 0. Si bien no se especifica si MB lo hace en su mezcla de voces, acá lo decidí hacer para obtener un nivel parejo en los compresores.
Una vez listo esta etapa, asignamos los envíos a los buses de los compresores. Es importante dejar el nivel del envío a 0 (unity gain). No se debe mover del cero. Para mezclar el sonido de cada compresor vamos a utilizar el fader del bus.
Acá se abren las posibilidades, podemos sumar los tres sonidos de los buses para enviarlos al bus de mezcla. En el verso, utilizar un bus en particular y en el estribillo otro, etc.
La compresión total va a ser de unos 8 dB pero en forma modular (cada módulo aportará unos 3dB de compresión). Este total de compresión va a depender de nuestro seteo.
Mezcla final
Acá están los audios finales. Para el ejemplo con compresión se uso exactamente lo que se ve en la última imagen
¿Qué es lo que escuchamos cuando oímos un sonido, por ejemplo, la nota en una guitarra acústica?
Parte Teórica
Los sonidos
que escuchamos son ondas complejas, es decir que está formada por ondas
simultáneas. No importa que tan compleja sea, o que tan largo sea su período,
siempre se puede reducir en ondas simples.
En esta
descomposición se pueden encontrar las siguientes frecuencias.
Frecuencia fundamental: la frecuencia fundamental es el componente más
bajo de la onda periódica.
Armónicos: Un armónico es un componente de una onda periódica que es un múltiple entero de la frecuencia fundamental. Por ejemplo, la frecuencia que es dos veces la frecuencia fundamental se llama segundo armónico. Para el cálculo de la frecuencia de los armónicos se utiliza la siguiente fórmula.
\[ F_{armónico} = F_{fundamental} * n \] siendo n un número entero.
La relación
entre las diferentes frecuencias, diferentes amplitudes y diferentes fases hace
que la onda resultante sea propia de lo que estemos escuchando.
En otra palabra, el timbre: calidad de un sonido relacionado con su estructura armónica.
Gracias a la transformada de Fourier podemos descomponer esta onda compleja en onda puras.
Josehp Fourier
Jean-Baptiste
Joseph Fourier (francés: /ʒozɛf fuʁje/; Auxerre, Francia, 21 de marzo de
1768-París, 16 de mayo de 1830) fue un matemático y físico francés conocido por
sus trabajos sobre la descomposición de funciones periódicas en series trigonométricas
convergentes llamadas Series de Fourier, método con el cual consiguió resolver
la ecuación del calor. La transformada de Fourier recibe su nombre en su honor.
Fue el primero en dar una explicación científica al efecto invernadero en un
tratado.
¿Qué es
entonces la transformada de Fourier? Según Wikipedia: es una transformación
matemática empleada para transformar señales entre el dominio del tiempo (o
espacial) y el dominio de la frecuencia, que tiene muchas aplicaciones en la
física y la ingeniería. Es reversible, siendo capaz de transformarse en
cualquiera de los dominios al otro. El propio término se refiere tanto a la
operación de transformación como a la función que produce.
En el caso
de una función periódica en el tiempo (por ejemplo, un sonido musical continuo,
pero no necesariamente sinusoidal), la transformada de Fourier se puede
simplificar para el cálculo de un conjunto discreto de amplitudes complejas,
llamado coeficientes de las series de Fourier. Ellos representan el espectro de
frecuencia de la señal del dominio-tiempo original.
De la misma
forma en que la transformada de Fourier nos descompone la señal entre el
dominio del tiempo y el dominio de la frecuencia, la transformada de Fourier
inversa hace la operación inversa (del dominio de frecuencia al dominio del
tiempo)
Entonces la relación entre la frecuencia fundamental y sus armónicos nos da el timbre característico del instrumento.
Para quien le guste las matemáticas, estas serían las formulas:
Con la
ayuda de mi hermano Mariano (www.instagram.com/wettsma) le pedí que grabara la quinta
cuerda al aire de una guitarra criolla y una eléctrica. Con esto se podrán ver
las diferencias en la composición de una misma nota, pero en diferentes
instrumentos.
La quinta
cuerda al aire es la nota LA (110Hz) –como dije arriba no es que ponen un
oscilador a 110Hz y va a sonar ese LA, depende del instrumento y de los
armónicos como vamos a ver.
También le
pedí que grabar dos armónicos naturales (en el traste 12 y en el 5).
La idea es
pasarlo por la transformada de Fourier y ver el espectro de esa nota.
Como siempre, utilicé Python y Jupyter Notebook para el código y generar los gráficos que incluyo en el post.
Para generar los gráficos utilicé el código que detallo abajo. Las librerías que use fueron: matplotlib.pyplot, scipy.wavefile y scipy.fftpack
Empecemos: el primer audio que se van a escuchar es del LA de la guitarra criolla.
Al pasar el audio por la transformada de Fourier:
El primer pico (lean la leyenda del gráfico anterior) corresponde a la frecuencia fundamente. Los demás picos son los armónicos (interesante el tercer armónico)
Seguimos: la nota LA en la guitarra eléctrica
Claramente se ve la diferencia. Si comparamos ambas guitarras el cuerpo de la guitarra eléctrica no «genera» tanto armónicos a diferencia de la caja de resonancia de la guitarra criolla.
Para comparar con otro instrumento, este es el LA en un piano de cola
Muchos armónicos se pueden relacionar con un sonido mas «lindo».
Como contrapartida generé un sonido complejo utilizando el segundo código que al principio del post copié. Es lo que se llama transformada de Fourier inversa.
El audio generado:
Y al pasarlo por la FFT se generó este gráfico:
Todas las onda con el mismo nivel. Por eso suena como suena, tiene su propio timbre.
Armónicos natural (mas gráficos)
Nuevamente con la ayuda de Mariano le pedi que grabara los armónicos naturales tanto de la guitarra criolla, como la de la eléctrica. Fueron los del traste 12 y 5. Se generaron estos audios y gráficos:
¿Que pasó aca? Al tocar de esta forma, escondemos la frecuencia natural y solo se escuchan los armónicos n° 2, 3 y 4 (guitarra criolla) y los armónicos n° 2 y 3 (guitarra eléctrica).
Veamos que ocurre con el armónico natural tocado en el traste 5:
Lo mismo que en el anterior armónico natural, pero en este caso tiene el tercer armónico es el que sobresale auditivamente.
Espero que con estos gráficos se haya podido entender lo que es el timbre y porque cada instrumento suena como suena.
¿Qué son los modos de resonancia? ¿Cómo los
puedo identificar en mi sala?
Es mejor
siempre empezar por la definición. Según Wikipedia: “Dentro del campo de la
Acústica ondulatoria, recibe el nombre de modo propio aquella onda estacionaria
generada en el interior de un determinado espacio, por ejemplo, una sala o
habitación. Este tipo de interferencias, ya sean constructivas (suma) o
destructivas (cancelación), vienen dadas por la interacción entre las ondas
incidentes y reflejadas dentro del recinto.”
En otras
palabras, cuando en un recinto cerrado la distancia entre paredes es igual a
media longitud de onda de una frecuencia, se produce una onda estacionaria.
Esto se traduce en una pérdida de la calidad acústica de la habitación.
Me imagino que alguna vez deben haber estado dentro de una habitación escuchando música y en ciertas notas se escucha más fuerte, como retumbando y al moverse esa nota se acentúa o disminuye según se mueven dentro de la habitación en los diferentes ejes.
En el gráfico anterior se aprecia que cuando media longitud de onda coincide con alguna dimensión de la sala (largo, ancho, alto) se produce una onda estacionaria. Si nuestra sala fuera el primer gráfico y el modo se produce a lo largo, al posicionarnos en el medio estaríamos en la presencia de un nodo (cancelación)
Presión vs desplazamiento de partículas
¿Qué es lo que pasa dentro de la habitación entonces? Supongamos que medidos la presión sonora dentro de la habitación. Veremos que la onda sonora viaje hacia su derecha y es reflejada por la superficie hacia la izquierda retornando fuera de fase (polaridad invertida en ½ período) La onda sonora que va hacia la izquierda interactúa con la onda que viaja hacia la derecha. De ésta interacción se producen sumas (antinodos) y cancelaciones (nodos).
Es interesante saber qué es lo que pasa con la presión sonora y el desplazamiento de las partículas del aire. Por cada nodo en la presión sonora, hay un antinodo en el desplazamiento de las partículas y viceversa (en los puntos de la onda en que la presión sonora es máxima el desplazamiento es mínimo). Particularmente el desplazamiento de las partículas de aire esta fuera de fase a la presión sonora en 90° y varía sinusoidalmente en la misma frecuencia que la fuente.
Tomemos como punto el inicio del gráfico (línea azul) que sería el extremo de nuestra sala. Observemos los puntos de color naranja en el gráfico, vemos que en donde la presión es mínima, el desplazamiento es máximo, esto corresponde a un cuarto de longitud de onda para éste modo (si la frecuencia es 100Hz, un cuarto es 0,86 mts) Si bien esta medida difiere de acuerdo al modo, es por esto que los absorbentes de porosidad son efectivos a la distancia de un cuarto de longitud de onda desde la pared para la frecuencia específica.
Tipo de modos
Existen
tres tipos de ondas estacionarias.
Axial: resonancia que está asociada con dos paredes
paralelas
Tangencial: resonancia que involucra 4 paredes
paralelas
Oblicuo: resonancia que involucra las 6
paredes
En la siguiente imagen se pueden ver cómo interactúan estos modos con las superficies
Existe una fórmula que sirve para calcular estos modos (Rayleigh). Cabe destacar que esta fórmula sirve para habitaciones paralelepípedas.
k, m, n = modos de la sala. Son números enteros (0, 1, 2, 3…)
Con la
combinación de k, m, n nos da una frecuencia que está asociada con el modo
propio de la sala. Si elegimos k=1, m=0, n=0, reemplazamos en la fórmula con
las medidas de nuestra sala y el resultado es una frecuencia que pertenece al
modo 1,0,0.
Tomemos por ejemplo una habitación con las siguientes medidas.
Largo
Ancho
Alto
8,5 mts
4,8 mts
3 mts
Al reemplazar estos valores en la fórmula nos da una serie de frecuencias que son los modos para estas medidas. Siguiendo con las medidas de la tabla anterior se calculó los modos axiales.
El siguiente gráfico muestra la distribución de éstos modos.
Se puede observar que la densidad de los modos es mayor a medida que la frecuencia aumenta. En cierto punto es tan denso la cantidad de modos (la separación entre los modos es muy pequeña) que prácticamente la respuesta de frecuencia de la sala se suaviza.
La siguiente ecuación se usa para determinar el número aproximado de modos para un ancho de banda determinado.
\[ \Delta N = \biggl[\frac{4 \pi Vf^2}{c^3} + \frac{\pi Sf}{2c^2} + \frac{L}{8c} \biggr] \Delta f \]
Aplicando la fórmula nos da el siguiente gráfico
Se puede observar en el gráfico como crece exponencialmente la cantidad de modos a medida que la frecuencia aumenta.
Algunos de los resultados: para 39Hz nos da una densidad de N=0,16. Para 1000Hz N=39,81 y, para 16000Hz N=9671,15.
Los modos son más importantes en habitaciones más pequeñas donde la densidad modal es baja. En habitaciones grandes, la densidad modal es relativamente alto, excepto a frecuencias extremadamente bajas, y los modos juegan un papel menos importante.
El 14 de diciembre de 1931, Alan Dower Blumlein, ingeniero en EMI, sento las bases en su patente número 394325 para lo que hoy se conoce como Estéreo. Él en su momento lo describió como “Sonido Binaural”.
El término binaural se refiere a que justamente envuelve a los dos oídos. Nuestro cerebro usa las diferencias en la llegada del sonido al oído derecho e izquierdo para determinar la localización de la fuente. Estas diferencias pueden ser: amplitud, tiempo (fase) y frecuencia.
Hoy en día tenemos lo que se llama pan pots o control de panorama para crear (simular) la localización del sonido.
Básicamente lo que hace el control es dividir la señal mono hacia el canal L y canal R. Efectivamente lo que sucede en el control es que se altera el nivel entre los dos parlantes. Para panear algo totalmente a la izquierda requiere que se atenúe totalmente la señal que se envía al canal derecho. Si se envía al centro, ambos canales reciben la misma cantidad de señal.
El reloj
Usualmente se utilizan las horas del reloj para describir la posición del paneo. Va desde las 7:00 hasta las 17:00. Siendo las 07:00 el paneo extremo izquierda y las 17:00 el extremo derecho.
En un DAW se representa con los números de 0 a 100. Existe una regla general para posicionar los instrumentos. Como por ejemplo, el bombo y bajo al centro, las guitarras a los costados, etc. Pero las reglas no solo están para seguirlas, si no también para romperlas.
Overhead – 70% alrededor del centro
Bombo – centro
Caja – en la misma posición como “viene” desde los overhead
Tom 1 – 14:00
Tom 2 – 13:00
Tom 3 – 10:00
Bajo – centro
Voces – centro o un poquito desfasado para la izquierda
Guitarra I power chord – extremo izquierdo
Guitarra II power chord – extremo derecho
Reverb ambiental – 100% dispersado
Ahora bien, ¿cómo podemos llevarlo a la práctica?. Utilizaremos ProTools y una guitarra acústica que grabamos en Adipal Estudio (www.adipalestudio.com.ar). El técnico de grabación fue Mariano Wettstein (@wettsma). La guitarra pertenece a la canción En Vuelo de Flor Carmona
El primer paneo que vamos a realizar es colocar la guitarra a las 9. Vemos entonces como suena.
Al ser un canal mono lo único que se hace es el girar el pan pot hasta la posición deseada. En el DAW se ve de la siguiente manera.
No se alcanza a ver en la captura, pero en el master se ve el nivel que llega a cada uno de los canales. Como dijimos arriba, el control de paneo es prácticamente un atenuador.
¿Y si queremos ocupar espacio dentro del campo para que vaya desde las 9 hasta las 15:00?. Un error común es duplicar la pista y panear cada una a sus lugares correspondientes.
Lo único que vamos a lograr as aumentar la señal de la guitarra en 3dB y que la señal se transforme en un Big Mono.
Para que realmente haya un campo estéreo «puro», cada canal tiene que reproducir señales distintas. Que haya separación en cada canal. Hay un medidor que es muy útil usarlo mientras editamos y mezclamos. Nos muestra la correlación que hay entre el canal L y el canal R. En un extremo izquierdo del medidor tenemos el -1, al medio el 0 y en el extremo derecho el +1. ¿Qué significa?
-1: los canales están desfasados 180 grados
0: un perfecto estéreo
+1: senal totalmente mono. Ambos canales reproducen lo mismo
Si colocan el medidor de correlación, duplican una pista mono y la colocan extremo-extremo verán que el medidor va a marcar +1.
Veamos entonces como el Big Mono en el DAW y que nos muestra el analizador. Primero el audio:
Captura de pantalla del DAW con el analizador:
Se aprecia que no solamente el nivel aumenta, si no que seguimos con una señal mono.
Como último, comento una técnica que se pueda usar para crear un estéreo con una pista mono. Hay que tener cuidado con el uso porque genera cancelaciones de face y el sonido va a cambiar.
Duplicamos la pista mono y paneamos a los extremos
En una de las pistas retrasamos unos pocos milisegundos
Ajustar el nivel a gusto
Con esto pasos vamos a crear un estéreo para evitar el big mono.
Veamos entonces como suena:
Por último la captura de pantalla del DAW con el analizador:
Si bien en el DAW se paneo de otra forma para ocupar un espacio dentro del horario de 8 a 11, se aplicó la misma técnica mencionada arriba.
En el analizador se puede apreciar algunos pasajes que están fuera de fase (en el plug ins lo denomina Anti Phase) por eso hay que utilizar con cuidado ya que podemos hacer que el resultado sea feo.
Si escuchan el primer audio y lo comparan con este último verán que suena levemente diferente, sobre todo en los medios-altos.
La localización de los instrumentos es un etapa dentro del proceso de mezcla. Es importante conceptualizar la mezcla y ya desde la primer escucha del tema saber que lugar va a ocupar cada instrumento dentro del campo. Si existe el campo estéreo está para usarlo. Despejen el centro
Este teorema dice: Según el teorema de muestreo de Nyquist-Shannon, para poder digitalizar una señal analógica y transmitirla por un medio eléctrico a grandes distancias y poder recuperarla en el extremo distante con la máxima fidelidad posible, se requiere que la señal analógica sea muestreada al menos dos veces su frecuencia máxima. [Wikipedia]
De este teorema surge la frecuencia de muestreo de 44.1kHz. El rango de escucha del oído humano va desde los 20Hz hasta los 20.000Hz. La frecuencia de muestreo de 44.100Hz cumple con el teorema.
Para poder graficar una onda pura vamos a usar Python y vamos a cambiar la frecuencia de muestreo para ejemplificar ambos casos.
import numpy as np
import matplotlib.pyplot as plt
f = 50 #Frecuencia en Hertz
f_s = 44100 #Sampleo, o cantidad de muestras por segundos
f_s_b = 10 #Sampleo, o cantidad de muestras por segundos donde no se cumple el teorema de Nyquist
t = np.linspace(0, 1, 2 * f_s) #Función para crear un array equidistante
x = np.sin(f * 2 * np.pi * t)
fig, ax = plt.subplots(figsize=(15,7))
ax.plot(t, x)
ax.set_ylim(1.5,-1.5)
ax.set_xlabel('Tiempo [s]')
ax.set_ylabel('Amplitud Señal')
ax.set_title('50Hz con Frecuencia de Muestreo de 44100Hz')
plt.show()
El gráfico que se genera es el siguiente
Al código de arriba lo modifico para que la resolución sea de 10Hz. Veamos que onda se genera:
import numpy as np
import matplotlib.pyplot as plt
f = 50 #Frecuencia en Hertz
f_s = 44100 #Sampleo, o cantidad de muestras por segundos
f_s_b = 10 #Sampleo, o cantidad de muestras por segundos donde no se cumple el teorema de Nyquist
t = np.linspace(0, 1, 2 * f_s) #Función para crear un array equidistante
x = np.sin(f * 2 * np.pi * t)
fig, ax = plt.subplots(figsize=(15,7))
ax.plot(t, x)
ax.set_ylim(1.5,-1.5)
ax.set_xlabel('Tiempo [s]')
ax.set_ylabel('Amplitud Señal')
ax.set_title('50Hz con Frecuencia de Muestreo de 10Hz')
plt.show()
Claramente se ve la diferencia entre una onda y la otra. A este error se le denomina aliasing. Trae en los resultados falsos picos, datos erróneos. Justamente el término aliasing viene de alias. Según la RAE:
1. m. Apodo o sobrenombre. 2. adv. Por otro nombre. Alfonso Tostado, alias el Abulense. 3. adv. desus. De otro modo.
El propio nombre lo dice, no es una copia exacta, es un alias. Hoy no es una configuración que sea necesario tener pendiente, ya que practicamente cualquier DAW trae como predeterminado el valor de 44.100 Hz. Pero es importante conocer todos los aspectos del sonido digital.