Técnica de ecualización (Yin-Yang)

Un poco de historia

¿De donde viene la palabra ecualización?

En los primeros años de la telefonía, en los Laboratorios Bells, se encontraron con un problema: las frecuencias altas disminuían a medida que el cable de teléfono se hacía cada vez mas largo. Haciendo que la voz se hiciera inentendible. Idearon un dispositivo eléctronica capaz de aumentar las frecuencias altas en el receptor. Haciendo esto, en ambas partes el sonido era igual. El nombre que le dieron a este circuito fue: ecualizador.

El post no es para hablar de los controles que existen en el ecualizador. Cosa que en un futuro si lo haré, pero si me interesa poder hablar de una técnica que me gusta usar en mis mezclas.

Ecualización y fase

La operación de un ecualizador envuelve un mecanismo de delay. El delay es bastante corto, al rededor de 1ms. Group Delay es el término que generalmente de usa para describir las frecuencias que están siendo afectadas por este delay, si bien no es muy prociso, es bien conocido que algunas frecuencias son mas afectadas que otras. A pesar de esto, este mecanismo de delay da como resultado una interacción no deseada en la fase.

¿Porque hay un cambio de fase o una interacción no deseada?

El circuito de un ecualizador utiliza capacitores y bobinas para aplicar los filtros del ecualizador (el ecualizador es un filtro). Estos componentes hacen que el voltage AC que pasa por ellos sufra un cambio de fase. Si se combina la señal con una versión de sí misma desfasada (después de pasar por el capacitor o bobina), la respuesta de frecuencia de altera. El plugin entonces simula este comportamiento. Es más, sin ese delay, no habría ecualización.

Veamos como ejemplo esta onda de 100Hz.

Gráfico
En el gráfico, el desface es de 1/3π radianes (un poco más de 18°). Si bien este desfazaje es mucho mas que 1ms, se quiere ejemplificar lo que ocurre en el ecualizador.

Nos fijemos en la onda de color azul que es la señal original cuando entra al EQ. Al pasar por los filtros, la copia desfazada (onda de color roja) que se suma a la onda original, va a producir una onda resultante con cancelaciones.

¿Qué pasa entonces con todo esto? Este cambio de fase ocurre tanto al aumentar como al disminuir la ganancia del filtro de la frecuencia. Es un mito que los ecualizadores causan mayor desfazaje al aumentar. Sin embargo es correcto decir que se nota más cuando aumentamos la ganancia, por la simple razón que estamos aumentado el nivel de la frecuencia, y con eso se hace mas audible. Por esto es preferible disminuir que aumentar. Y para dar otra razón, al aumentar la ganancia, aumentamos el riesgo de hacer clip.

Todo lo anterior sirve para dar introducción a lo que siempre utilizo en mis mezclas, que es una técnica a la que se llama La frecuencia Yin-Yang

Veamos el siguiente gráfico

Eq yin-yang
Ecualización yin-yang

¿Se bajó 20 dB los graves o se subió 20 dB los agudos?

Sin importar en cual de las dos frecuencias se utiliza la ecualización yin-yang, nos enseña un importante concepto en nuestra percepción de la frecuencia: vamos a tener el mismo efecto tanto si aumentamos los agudos o si disminuimos los graves.

Por ejemplo, para tener mas brillo, o aumentamos los agudos, o disminuimos los graves. Seguro se nos va a presentar un trabajo en el que vamos a tener que tratar frecuencias específicas, pero vale la pena recordar que siempre hay mas de una ruta para llegar al mismo destino.

Por último, veamos unos ejemplos

Voz con reverb y compresores. ¿Subo agudos o bajo graves?
Voz con reverb y compresores. ¿Subo agudos o bajo graves?
Voz sin reverb y compresores. ¿Subo agudos o bajo graves?
Voz sin reverb y compresores. ¿Subo agudos o bajo graves?

Leo los comentarios para ver si pueden distinguir.

Si es que todavía no lo habían hecho, los invito a que en su próxima mezcla traten esta técnica.

Nos vemos en el próximo post.

Flujo de trabajo. De la producción a la mezcla

En las grandes producciones de discos, gran porcentaje del presupuesto se destina a la producción de las canciones.

Una producción es necesaria ya que ahorra tiempo y dinero a la hora de grabar y luego en la edición y mezcla.

El músico debe ser capaz de aceptar las directivas de su productor. Hay que lograr la separación de lo creativo (músico) a la dirección (productor)

La siguiente figura muestra un flujo de trabajo en una producción común

Flujo de trabajo

El productor puede hacer su aporte en cada etapa, pero generalmente tiene un rol más activo en la etapa de Arreglos y en la etapa de Grabación.

Cada etapa tiene efecto sobre la etapa que le sigue. Por ejemplo, si en la etapa de grabación se elige un micrófono incorrecto o se microfonea de forma errónea, va a tener un efecto en la etapa de mezcla.

Hay una gran unión entre la etapa de Arreglos, Grabación y Mezcla, por lo que es sumamente importante que el productor tenga conocimientos en grabación, edición y/o mezcla ya que un buen productor se anticipa a la mezcla.

Un punto a favor de tener a un productor en las diferentes etapas y proceso de trabajo es que se asegura que la mezcla este siempre en la mente durante todo el proceso.

Etapa de Grabación

La calidad de grabación tiene una enorme influencia en la etapa de mezcla. Hay un famoso dicho que dice:

Basura entra, basura sale

Grabaciones con poca calidad van a tener que ser arregladas en la etapa de mezcla. Pero por mas experimentado que sea el ingeniero de mezcla, no podrá hacer mucho mas de lo que le llega.

Etapa de Edición

Como se ve en el gráfico de bloques de arriba, hay una conexión de ida y vuelta entre esta etapa y la Etapa de Grabación. Esto significa que cuando se esta editando y, por ejemplo, se decide que el sonido de la guitarra (por poner algún instrumento) no es el que sirve, se graba nuevamente. En esta etapa también se corrigen los comienzos y finales de cada pista, conteo, ruidos de voces de los músicos, pasos, etc. La idea es dejar únicamente el propio sonido del instrumento. Se corrigen también los errores (si es que los hay) de por ejemplo, el bombo y la nota del bajo (la alineación).

Etapa de Mezcla

Esta la etapa donde se empieza a mezclar propiamente dicho. No voy a desarrollar mucho sobre esta etapa ya que hice un post anterior sobre esta etapa. Lo pueden leer acá

Etapa de Master

En esta última etapa se preparan los niveles para poder ser reproducidos en diferentes plataformas, diferentes formatos, etc.

Experiencia personal

Tuve la oportunidad de trabajar en el último tema del cantautor cordobés Mariano Wettstein (lo pueden buscar en instagram como @wettsma). El tema se llama «Zambita de mi Barrio». Trabajé controlando los procesos usados en la mezcla: ecualizaciones, compresiones, etc.

Se destino un gran porcentaje del presupuesto para la producción. Dió sus frutos. No estuve presente en la grabación, por lo que cuando llego la Etapa de Mezcla personalmente me encontré con una sesión donde ya la misma grabación estaba «mezclada». Esto se debe a que el músico está concentrado en la ejecución del instrumento y se desliga de la responsabilidad de estar pensando «como está sonando». Debería ser así en todas las grabaciones, pero no siempre ocurre. Esto es muy común que pase con grabaciones donde no le dan importancia al rol del productor o no están familiarizado con.

Como parte final agrego una pequeña entrevista que le hice a @wettsma donde cuenta un poco la experiencia de trabajar con un productor (en este caso en particular con dos) al grabar Zambita de mi Barrio

¿Quiénes fueron los productores? Ignacio Serfaty y Facundo Herrera

Contame por qué o la razón por lo que preferiste realizar este trabajo con productores, teniendo en cuenta que tu anterior trabajo, Viaje de Ida, fuiste tu propio productor. Siempre tenía en mente trabajar con productores, por curiosidad, por buscar otros sonidos, pero más que nada para tener una visión externa sobre la música propia. 

¿Crees que mejoró la parte artística? La mejoró totalmente. Incluso me dió otras herramientas para futuros proyectos.

¿Cómo fue la experiencia, como músico, que un productor te dijera como tocar, o más que todo que dirigiera? Increible, todo me pareció totalmente fructífero. Incluso la exigencia de hacer una toma mejor, fueron mayores a cuando las hago solo y se noto en el resultado final. Ayudó mucho la clase de personas que son ellos dos y la buena química entre los tres.

Ya habían trabajado juntos en otro proyecto con los productores. ¿Crees que el hecho que se conozcan con anterioridad influye en la calidad y buen flujo del trabajo? Nos conocemos del ambiente, hemos compartido escenario con La Madre Del Borrego y de la noche de Córdoba. Seguramente ayudó conocernos de antes, pero eso tampoco te da seguridad que durante la grabación y producción salga todo bien. Por suerte en este caso, si.

Creo yo que muchas bandas, sobre todo las que se inician, no “aceptan” que alguien les diga que hacer y cómo ya que son sus canciones, ¿opinas lo mismo? y en caso afirmativo ¿cómo crees entonces que deben encarar un proyecto de grabación? En mi caso, me puse una meta con respecto a eso, si suma a la música, hay que dejar el ego de lado y aceptar lo que venga.

Links

Zambita de mi Barrio

Mariano Wettstein

Nos vemos en el próximo post.

Sensibilidad

Es un concepto que indica la capacidad del micrófono de captar sonido débiles y convertirlos en señales eléctricas. Se define como el cociente entre la tensión eléctrica en bornas del micrófono cuando está en circuito abierto y la presión que incide sobre su diafragma en campo libre.

\[ S = \frac{E}{p} \]

La sensibilidad, cuya unidad fundamental es el V/Pa, suele expresarse en mV/Pa debido a que el micrófono proporciona muy poca tensión por cada Pascal.

En las características técnicas de un micrófono es común expresar la sensibilidad en dB, indicando la sensibilidad de referencia So.

\[ S = 20 log \frac{S}{S_o} \]

Por ejemplo, un micrófono con una sensibilidad de S = -60dB (re 1V/µbar) recibe una presión de 94dB, la tensión que éste genera es E = Sp. La sensibilidad S expresada linealmente es:

\[ S = 10^\frac{-60}{20} = 0,001 V/µbar \]

Como vemos que la tensión de salida es muy chica (10mV). Este es el motivo por el cual es deseable micrófonos con sensibilidades altas, lo que significa valores en dB cercanos a cero.

La variación de la sensibilidad con respecto al ángulo de incidencia da lugar a una carácteristica de la que se detalla a continuación:

Directividad

Da una idea de la variación de la sensibilidad en función de la orientación del micrófono, o del ángulo con el que incide una onda sonora.

Un micrófono omnidireccional es aquel cuya sensibilidad es independiente de la dirección de incidencia del sonido. Por el contrario, un micrófono direccional es aquel cuya sensibilidad varía en función de la dirección de incidencia del sonido.

Para graficar la directividad se utilizan los conocidos graficos polares, que se calculan a partir de lo que se llama ecuación polar. A quien le interese:

\[ R(\theta) = \frac{p(\theta)}{p_m}\]

Patrones directivos

Básicamente, los micrófonos pueden ser omnidireccionales (que la sensibilidad no varía con el ángulo de incidencia), o direccionales, dentro de los cuales existes, los cardioides, supercardioides, hipercardioides o bidireccionales (figura en 8).

CaracterísticaR(x)
Omnidireccional1
Bidireccionalcos(x)
Cardioide½(1+ cos(x))
Hipercardioide¼(1 + 3 cos(x))
Supercardioide½[(√3 - 1) + (3 - √3) cos(x)]

La tabla anterior muestra la clasificación de micófonos y sus características directivas.

Se presentan a continuación los gráficos de cada clasificación y de su directiva. Para ello se utilizo un código en Python con la librería matplot.lib para realizar los gráficos.

Se puso a modo de ejemplo un micrófono con una sensibilidad de 28mV

gráfico sensibilidad
Sensibilidad
Radianes

El segundo gráfico representa los radianes. Un círculo completo es 2π (360°) que para los gráficos mostrados anteriormente, es el punto de mayor sensibilidad en los micrófonos. Por el contrario π equivale a 180° es el de menos sensibilidad, π/2 a 90° y 3π/2 son 270° .

Con esto en cuenta podemos ver y entender la figura n°1 y como cambia la sensibilidad de acuerdo al ángulo de incidencia sobre el micrófono.

No por nada, en vivo, el monitor de escenario se coloca a 180° del micrófono ( π ) que es donde un micrófono cardioide (el mas usado en vivo, como el Shure SM-58) tiene menos sensibilidad.

Podemos entender mejor los gráficos si pensamos en mV (lo que realmente es). Por ejemplo, si miramos el tipo cardioide sabemos que a 2π (0°) la sensibilidad es máxima, en nuestro ejemplo, entrega 28mV. Si nos movemos en el eje y nos vamos a π (180°) nos entrega casi nada de voltaje.

Código Python para los gráficos

Para quien le interese, acá dejo, como siempre, el código que use para poder realizar los gráficos.

#IMPORTO LOS MODULOS A UTILIZAR
import numpy as np
import matplotlib.pyplot as plt
import math

#GENERO VALORES EQUIDISTANTES ENTRE -2*pi Y 2*pi
x = np.arange((-2*np.pi), (2*np.pi), 0.01)

#SENSIBILIDAD DEL MICRÓFONO EXPRESADO EN MV
s = 28

#CALCULO DE SENSIBILIDADES
bi = s*np.cos(x)
di = (s/2)*(1+np.cos(x))
su = (s/2)*((np.sqrt(3)-1)+(3-np.sqrt(3))*np.cos(x))
hy = s/4* (1+3*np.cos(x))

#CREO EL SUBGRÁFICO
fig, ((ax1, ax2), (ax3, ax4)) = plt.subplots(2, 2,figsize=(9, 5), dpi=120)

#GENERO LOS DIFERENTES GRÁFICOS
ax1.plot(x, bi)
ax2.plot(x, di, 'tab:orange')
ax3.plot(x, su, 'tab:green')
ax4.plot(x, hy, 'tab:red')

#AGREGO TITULOS Y LABELS
ax1.set_title('Bidireccional', fontsize = 8)
ax1.set_ylabel('mV', fontsize = 6)

ax2.set_title('Direccional', fontsize = 8)
ax2.set_ylabel('mV', fontsize = 6)

ax3.set_title('Supercardioide', fontsize = 8)
ax3.set_ylabel('mV', fontsize = 6)

ax4.set_title('Hipercardioide', fontsize = 8)
ax4.set_ylabel('mV', fontsize = 6)

#LIMITO EL EJE Y
plt.ylim(-29, 29)

#LIMITO EL EJE X Y LE AGREGO LOS VALORES A LOS PUNTOS
plt.setp((ax1,ax2,ax3,ax4), 
         xticks=[-2*np.pi, -np.pi, 0, np.pi, 2*np.pi], 
         xticklabels=[r'$-2\pi$', r'$-\pi$', r'$0$', r'$+\pi$', r'$2\pi$'],
        yticks=[-28, 0, 28])

#CENTRO LA FIGURA Y REALIZO UN AJUSTE PARA QUE LOS GRÁFICOS ESTEN ORDENADOS
fig.tight_layout()

#SI DESEO GUARDAR LA IMAGEN ELIMINAR # DE LA LINEA DE ABAJO
#plt.savefig("nombre imagen.png")

#MUESTRO LA IMAGEN
plt.show()

Nos vemos en el próximo post!!

Teorema de Nyquist

¿Qué dice el teorema? ¿Qué pasa si no se cumple?

Este teorema dice: Según el teorema de muestreo de Nyquist-Shannon, para poder digitalizar una señal analógica y transmitirla por un medio eléctrico a grandes distancias y poder recuperarla en el extremo distante con la máxima fidelidad posible, se requiere que la señal analógica sea muestreada al menos dos veces su frecuencia máxima. [Wikipedia]

De este teorema surge la frecuencia de muestreo de 44.1kHz. El rango de escucha del oído humano va desde los 20Hz hasta los 20.000Hz. La frecuencia de muestreo de 44.100Hz cumple con el teorema.

Para poder graficar una onda pura vamos a usar Python y vamos a cambiar la frecuencia de muestreo para ejemplificar ambos casos.

import numpy as np
import matplotlib.pyplot as plt

f = 50  #Frecuencia en Hertz
f_s = 44100  #Sampleo, o cantidad de muestras por segundos

f_s_b = 10 #Sampleo, o cantidad de muestras por segundos donde no se cumple el teorema de Nyquist

t = np.linspace(0, 1, 2 * f_s) #Función para crear un array equidistante
x = np.sin(f * 2 * np.pi * t)

fig, ax = plt.subplots(figsize=(15,7))
ax.plot(t, x)
ax.set_ylim(1.5,-1.5)
ax.set_xlabel('Tiempo [s]')
ax.set_ylabel('Amplitud Señal')
ax.set_title('50Hz con Frecuencia de Muestreo de 44100Hz')
plt.show()

El gráfico que se genera es el siguiente

1 segundo de una onda de 50Hz

Al código de arriba lo modifico para que la resolución sea de 10Hz. Veamos que onda se genera:

import numpy as np
import matplotlib.pyplot as plt

f = 50  #Frecuencia en Hertz
f_s = 44100  #Sampleo, o cantidad de muestras por segundos

f_s_b = 10 #Sampleo, o cantidad de muestras por segundos donde no se cumple el teorema de Nyquist

t = np.linspace(0, 1, 2 * f_s) #Función para crear un array equidistante
x = np.sin(f * 2 * np.pi * t)

fig, ax = plt.subplots(figsize=(15,7))
ax.plot(t, x)
ax.set_ylim(1.5,-1.5)
ax.set_xlabel('Tiempo [s]')
ax.set_ylabel('Amplitud Señal')
ax.set_title('50Hz con Frecuencia de Muestreo de 10Hz')
plt.show()
1 segundo de una onda de 50Hz

Claramente se ve la diferencia entre una onda y la otra. A este error se le denomina aliasing. Trae en los resultados falsos picos, datos erróneos. Justamente el término aliasing viene de alias. Según la RAE:

1. m. Apodo o sobrenombre.
2. adv. Por otro nombre. Alfonso Tostado, alias el Abulense.
3. adv. desus. De otro modo.

El propio nombre lo dice, no es una copia exacta, es un alias. Hoy no es una configuración que sea necesario tener pendiente, ya que practicamente cualquier DAW trae como predeterminado el valor de 44.100 Hz. Pero es importante conocer todos los aspectos del sonido digital.

El código de Python para generar la onda

Hasta el próximo post!!!