Aislación sonora

Es muy común que escuchen la palabra aislar. Ya sea para evitar que el sonido de una habitación se propage a otras habitaciones. O para no escuchar al vecino, etc.

Pero, ¿qué es?, ¿de qué se trata?. Trataré de explicar en este post con un poco de teoría y gráficos qué es la aislación.

El próposito de la aislación es atenuar el sonido que pasa de una habitación a otra. Por regla general, mientras mas pesada la pared mejor el aislamiento. La habilidad de una pared para atenuar el sonido se especifica con el término de Pérdida de Transmisión (TL por las siglas en inglés) que se define como la diferencia en dB del SPL que hay en la sala emisora (e) y el SPL de la sala receptora (r).

Hay tres regiones que se diferencian con el comportamiento de la pared o panel.

  1. Región I controlada por la rigidez
  2. Región II controlada por la masa
  3. Región III controlada por el efecto coincidente

Al final de este documento hay una tabla con los coeficientes de los materiales mas comunes que nos encontraremos a la hora de construir o calcular lo que en este post se detalla

Región I – Controlada por la rigidez

A bajas frecuencias, la pared se comporta como un todo, y la transmisión del sonido a través de la pared depende principalmente por la rigidez.

Región I

Para conocer el TL en la Región I utilizamos la siguiente ecuación

\[
TL = 20 \ log_{10}(\frac{1}{K_s}) – 10 \ log_{10}(0,23026 \ TL_n)
\]

Donde TLn

\[ TL_n = 10 \ log_{10}(1 + K_S^{-2})\]

Donde Ks

\[ K_s = 4 \pi \ f \rho_o \ c \ C_s \]

Donde Cs

\[ C_s = \frac{768(1 – \sigma ^{2})}{\pi ^{8} Eh^{3}(1/a^{2} + 1/b^{2})^{2}}\]

Donde a y b es el ancho y alto del panel, h es el espesor, E es la elasticidad de Young y σ es el ratio de Poisson.

Frecuencia de Resonancia

A medida que la frecuencia de incidencia aumenta, la pared empezará a resonar a una serie de frecuencias, llamadas frecuencias de resonancias. La frecuencia mas baja marca la transición entre la Región I y la Región II.

La frecuencia de resonancia mas baja es la que marca la transición entre la Región I y la Región II

\[ f_{mn} = \bigg(\frac{\pi}{4 \sqrt{3}}\bigg) c_L h \bigg[ \bigg(\frac{m}{a}\bigg)^{2} + \bigg(\frac{n}{b}\bigg)^{2}\bigg] \]

Los factores m y n son enteros (1, 2, 3…) y la cantidad cL es la velocidad longitudinal de la onda y se calcula

\[ c_L = \bigg[ \frac{E}{\rho_w(1-\sigma^{2})} \bigg]^{1/2} \]

ρw es la densidad volumétrica del material, E es la elasticidad de Young y σ es el ratio de Poisson. Como se explicaba arriba, la frecuencia de resonancia que marca la transición entre las Regiones es la frecuencia de resonancia mas baja y se denomina frecuencia fundamental y corresponde cuando m,n = 1. Si reemplazamos estos valores en la fórmula de frecuencia de resonancia nos queda

\[ f_{1,1} = \bigg(\frac{\pi}{4 \sqrt{3}}\bigg) c_L h \bigg[ \bigg(\frac{1}{a}\bigg)^{2} + \bigg(\frac{1}{b}\bigg)^{2}\bigg] \]

Región II – Controlada por la masa

Para frecuencias mas altas que la primera frecuencia de resonancia, la pérdida de transmisión es controlada por la masa del panel y es independiente de la rigidez del mismo.

El coeficiente de transmisión de la potencia sonora para una incidencia normal esta dado por la siguiente ecuación

\[ \frac{1}{a_{tn}} = 1 + \bigg(\frac{\pi f M_s}{\rho_0 c_0}\bigg)^{2} \]

Ms es la densidad superficial y se calcula multiplicando ρw (densidad volumétrica) y h (espesor de la pared) => Ms = ρw h.

ρ0 y c0 es la densidad y la velocidad del aire, respectivamente.

Entonces el TL para una incidencia normal está relacionada con el coeficiente de transmisión de la potencia sonora y está dado por

\[ TL_n = 10 \ log_{10} (1/a_{tn}) \]

Para una incidencia difusa se encontro experimentalmente que el TL en esta región esta relacionada con el TLn y se calcula con la siguiente expresión

\[ TL = TL_n – 5 \]

En el gráfico anterior se muestra la pendiente característica de esta región. Aumenta 6dB al duplicar la frecuencia. Lo que lleva a la definición de la Ley de Masa

Ley de Masa

Básicamente lo que dice esta ley, es que cuando se duplica la masa la aislación aumenta 6dB. Si la masa disminuye el doble, la aislación disminuye 6dB. Para una misma masa, cuando se aumenta la frecuencia, la aislación aumenta 6dB, y lo mismo ocurre cuando decrece la frecuencia.

Masa: En física, la densidad de área , o densidad por unidad de superficie , se representa por σ, se refiere a la cantidad de masa que posee un material por unidad de área.

\[ \sigma = \frac{m}{A} \]

Por ejemplo, un ladrillo maciso tiene un densidad superficial de 270 Kg/m2.

Frecuencia crítica

A medida que la frecuencia aumenta dentro de esta región, la longitud de onda del material se mueve al «ritmo» de la frecuencia incidente y ocurre un efecto que se llama efecto de coincidencia (longitud de ondas iguales). Primero ocurre a un ángulo de 90°. Cuando esta condición se cumple, la onda incidente y la onda vibratoria del panel se suman, resultando en una caída abrupta de la aislación. Este punto es la transición de la Región II a la Región III.

La frecuencia crítica es la transición entre la Región II y la Región III

Esto es lo que se llama frecuencia crítica y se calcula

\[ f_c = \frac{\sqrt{3}c^{2}}{\pi c_L h} \]

Si combinamos la densidad superficial y la expresión anterior encontramos que el producto Msfc es una función la propiedad física del panel y de la velocidad del sonido (c)

\[ M_Sf_c = \frac{\sqrt{3} c^{2} \rho_w}{\pi c_L} \]

Región III – Controlada por la frecuencia (damping)

Para todas las frecuencia que esten por arriba de la frecuencia crítica, el TL depende fuertemente de la frecuencia de la onda de incidencia y de las pérdidas internas del material de la pared.

Para las ondas sonoras que golpean a la pared en todas las direcciones (incidencia difusa) y que son mayores a la frecuencia crítica, la siguiente formulación empirica se aplica para el cálculo del TL

\[ TL = TL_n(f_c) + 10log_{10}(\eta) + 33,22log_{10}(f/f_c)-5,7 \]

Donde TLn(fc) es el TL calculado con una incidencia normal a la frecuencia crítica

\[ TL_n(f_c) = 10log_{10} \bigg[ 1 + \bigg( \frac{\pi M_s f_c}{\rho_0 c_0} \bigg)^{2} \bigg] \]

El término η es el coeficiente de damping del material de la pared.

El TL en esta región es proporcional a 33,22log10(f). Si la frecuencia de duplica vemos que el TL se incrementa en 33,22log10(2) = 10dB/octava

Ejemplo

Una puerta de madera tiene dimensiones de 0,9 m de anho, 1.8 m de alto y 35 mm de espesor. Se desea calcula el TL para las siguientes frecuencias: (a) 63 Hz, (b) 250 Hz y (c) 2000 Hz

Se tienen las siguientes propiedades de acuerdo a la tabla del apéndice

c (velocidad del sonido) = 344 m/s

ρ (densidad del aire) = 1.196 Kg/m3

cL (velocidad de onda longitudinal) = 3.860 m/s

ρw (densidad) = 770 Kg/m3

MSfc (frecuencia crítica del material) = (11.900 Hz-Kg/m2) * (344/346,1)2 = 11.756 Hz-Kg/m2 (para los fines prácticos del ejemplo decido bajar a 11.700 Hz-Kg/m2)

η (factor pérdida internal del material) = 0,008

E (elasticidad Young) = 11,2 GPa

σ (ratio de Poisson) = 0,15

Primero calculamos la primera frecuencia de resonancia

\[ f_{1,1} = \bigg(\frac{\pi}{4 \sqrt{3}}\bigg) (3860)(0,035) \bigg[ \bigg(\frac{1}{0,90}\bigg)^{2} + \bigg(\frac{1}{1,80}\bigg)^{2}\bigg] = 94,5 Hz \]

La masa específica es:

\[ M_S = \rho_w h = (770)(0,035) = 26,95 Kg/m^2 \]

La frecuencia crítica o frecuencia de coincidencia se puede encontrar con el ratio:

\[ F_c = \frac{M_S f_c}{M_S} = \frac{11700}{26,95} = 434,1 Hz \]

(a) Para f = 63 Hz

La frecuencia 63 Hz < 94,5 Hz (f1,1) por lo tanto corresponde a la Región I. Para calcular el TL correspondiente primero calculamos Cs

\[ C_s = \frac{(768)(1-0,15^2)}{(\pi^2)(11,2)(10^9)(0,0035)^3[(1/0,90)^2 + (1/1,80)^2]^2} = (70,81)(10^{-9}) \ m^3/N \]

El valor del parámetro Ks se calcula a continuación

\[ K_s = 4 \pi f \rho_0 c_0 C_s = (4\pi) (63) (344) (1196) (70,81)(10^{-9}) = 0,02317 \]

El coeficiente de la transmisión sonora puede ser calculada de la siguiente forma

\[ a_t = K_S^2 \ ln (1+ K_S^{-2} = (0,02317)^2 \ ln[1 + (0,02317)^{-2}] = 0,004042 \]

El TL para la frecuencia 64 Hz se calcula entonces

\[ TL = 10 \ log_{10}(1/0,004042) = 23,9 dB \]

(b) para 250 Hz

Para este caso f1,1 = 94,5 Hz < 250 Hz < 434,1 Hz (fc) por lo tanto esta frecuencia está en la Región II. Primero calculamos el coeficiente de transmisión para una incidencia normal.

\[ \frac{1}{a_{tn}} = 1 + \bigg(\frac{\pi f M_S}{\rho_0 c_0} \bigg)^2 = 1 + \bigg[ \frac{(\pi)(250)(26,95)}{(1196)(344)} \bigg] = 2623,8 \]

El TLn se puede calcular de la siguiente manera

\[ TL_n = 10 \ log_{10}(1/a_{tn}) = 10 \ log_{10}(2623,8) = 34,2 dB \]

Ya con este dato del TL para una incidencia normal calculamos

\[ TL = 34,2 – 5 = 29,2 dB \]

(c) para la frecuencia 2000 Hz

Al ser esta frecuencia mayor a la frecuencia crítica f = 2000 Hz > 434,1 Hz, en este caso recae en la Región III y el TL se calcula de la siguiente forma. Primero calculamos para la incidencia normal

\[ TL_n(f_c) = 10 \ log{10} \left( 1 + \left[ \frac{(\pi)(11700)}{411,4} \right]^2 \right) = 39 dB \]

Entonces el TL para la frecuencia de 2000 Hz se calcula

\[ TL = 39 + 10 \ log_{10}(0,008) + 33,22 \ log_{10}(2000/434,1) – 5,7 = 34,3 dB \]

Método aproximado para estimar el TL

En diseños preliminares, es necesario realizar una estimación de la pérdida. Veremos un método rápido para realizar la curva de TL para las Regiones II y III. Si las dimensiones a y b son por lo menos 20 veces mas grandes que el espesor h, la primera resonancia del panel usualmente es menor a los 125 Hz, por lo que la mayor porción de ésta pérdida estará dada en las Regiones II y III.

En la Región II, controladad por la masa, el TL para una incidencia aleatoria está dada por

\[ TL = TL_n -5 = 10 \ log_{10} \bigg[ 1 + \bigg( \frac{\pi M_S f}{\rho_0 c_0} \bigg) ^2 \bigg] – 5 \]

Para frecuencia por encima de los 60 Hz, el término (πMSf/ρ0c0) es usualmente mayor a 1, por lo tanto la ecuación puede reescribirse de la siguiente manera

\[ TL = 10 \ log_{10} \bigg[ \frac{\pi M_S f}{\rho_0 c_0} \bigg] ^2 -5 \]

Igualmente la anterior ecuación y para fines mas simplisticos, se puede reescribir de la siguiente manera

\[ TL = 20 \ log_{10}(M_S) + 20 \ log_{10}(f) – 20 \ log _{10}(\rho_0c_0/\pi) – 5 \]

Tanto c0 como ρ0 se pueden escribir como valores constantes de 344 m/s y 1196 Kg/m3 respectivamente, por lo que se puede reemplazar la anterior fórmula como constantes, quedando como ecuación final

\[ 20 \ log_{10}(1196*344/\pi) = 42,3 dB \]

Entonces para frecuencias por debajo de la Región II, el TL se puede calcular aproximadamente mediante la siguiente ecuación

\[ TL = 20 \ log_{10}(M_S) + 20 \ log_{10}(f) -47,3 \]

Este método aproximado reemplaza la transición con «pico y valles» entre la Región II y la Región III, por una línea recta o «meseta» como se muesta en la siguiente imagen

El alto de la meseta (TLp) y el ancho (▲fP) dependen del material. Algunos valores se muestran a continuación

MaterialTLp, dB▲fp = f2 - f1, octavasf2/f1
Aluminio293,511
Ladrillo372,24,5
Concreto382,24,5
Vidrio273,310
Lidrillo hueco cerámico302,76,5
Ladrillo hueco3238
Acero403,511

En la Región III la curva de TL es a razón de 10db/octava. Aunque es mejor, siendo conservadores, que para las dos primeras octavas se dibuje la línea a razón de 10dB/octava. El resto de la curva se debería dibujar a razón de 6dB/octava.

Apéndice

Valores de materiales comunes

MaterialCL (m/s)pw (Kg/m3)MsFc (Hz-kh/m2)nE (GPa)o
Aluminio5.4202.80034.0900,00173,10,33
Ladrillo3.8001.80031.2500,015250,20
Concreto2.9602.40050.2000,02020,70,13
Vidrio5.4502.50030.3000,0013710,21
Yeso6.7906506.3200,01829,50,13
Ladrillo hueco3.1201.10023.3000,00710,60,10
Madera (roble)3.86077011.9000,00811,20,15
Madera (pino)4.6806408.1600,02013,70,15

Técnica de ecualización (Yin-Yang)

Un poco de historia

¿De donde viene la palabra ecualización?

En los primeros años de la telefonía, en los Laboratorios Bells, se encontraron con un problema: las frecuencias altas disminuían a medida que el cable de teléfono se hacía cada vez mas largo. Haciendo que la voz se hiciera inentendible. Idearon un dispositivo eléctronica capaz de aumentar las frecuencias altas en el receptor. Haciendo esto, en ambas partes el sonido era igual. El nombre que le dieron a este circuito fue: ecualizador.

El post no es para hablar de los controles que existen en el ecualizador. Cosa que en un futuro si lo haré, pero si me interesa poder hablar de una técnica que me gusta usar en mis mezclas.

Ecualización y fase

La operación de un ecualizador envuelve un mecanismo de delay. El delay es bastante corto, al rededor de 1ms. Group Delay es el término que generalmente de usa para describir las frecuencias que están siendo afectadas por este delay, si bien no es muy prociso, es bien conocido que algunas frecuencias son mas afectadas que otras. A pesar de esto, este mecanismo de delay da como resultado una interacción no deseada en la fase.

¿Porque hay un cambio de fase o una interacción no deseada?

El circuito de un ecualizador utiliza capacitores y bobinas para aplicar los filtros del ecualizador (el ecualizador es un filtro). Estos componentes hacen que el voltage AC que pasa por ellos sufra un cambio de fase. Si se combina la señal con una versión de sí misma desfasada (después de pasar por el capacitor o bobina), la respuesta de frecuencia de altera. El plugin entonces simula este comportamiento. Es más, sin ese delay, no habría ecualización.

Veamos como ejemplo esta onda de 100Hz.

Gráfico
En el gráfico, el desface es de 1/3π radianes (un poco más de 18°). Si bien este desfazaje es mucho mas que 1ms, se quiere ejemplificar lo que ocurre en el ecualizador.

Nos fijemos en la onda de color azul que es la señal original cuando entra al EQ. Al pasar por los filtros, la copia desfazada (onda de color roja) que se suma a la onda original, va a producir una onda resultante con cancelaciones.

¿Qué pasa entonces con todo esto? Este cambio de fase ocurre tanto al aumentar como al disminuir la ganancia del filtro de la frecuencia. Es un mito que los ecualizadores causan mayor desfazaje al aumentar. Sin embargo es correcto decir que se nota más cuando aumentamos la ganancia, por la simple razón que estamos aumentado el nivel de la frecuencia, y con eso se hace mas audible. Por esto es preferible disminuir que aumentar. Y para dar otra razón, al aumentar la ganancia, aumentamos el riesgo de hacer clip.

Todo lo anterior sirve para dar introducción a lo que siempre utilizo en mis mezclas, que es una técnica a la que se llama La frecuencia Yin-Yang

Veamos el siguiente gráfico

Eq yin-yang
Ecualización yin-yang

¿Se bajó 20 dB los graves o se subió 20 dB los agudos?

Sin importar en cual de las dos frecuencias se utiliza la ecualización yin-yang, nos enseña un importante concepto en nuestra percepción de la frecuencia: vamos a tener el mismo efecto tanto si aumentamos los agudos o si disminuimos los graves.

Por ejemplo, para tener mas brillo, o aumentamos los agudos, o disminuimos los graves. Seguro se nos va a presentar un trabajo en el que vamos a tener que tratar frecuencias específicas, pero vale la pena recordar que siempre hay mas de una ruta para llegar al mismo destino.

Por último, veamos unos ejemplos

Voz con reverb y compresores. ¿Subo agudos o bajo graves?
Voz con reverb y compresores. ¿Subo agudos o bajo graves?
Voz sin reverb y compresores. ¿Subo agudos o bajo graves?
Voz sin reverb y compresores. ¿Subo agudos o bajo graves?

Leo los comentarios para ver si pueden distinguir.

Si es que todavía no lo habían hecho, los invito a que en su próxima mezcla traten esta técnica.

Nos vemos en el próximo post.

Flujo de trabajo. De la producción a la mezcla

En las grandes producciones de discos, gran porcentaje del presupuesto se destina a la producción de las canciones.

Una producción es necesaria ya que ahorra tiempo y dinero a la hora de grabar y luego en la edición y mezcla.

El músico debe ser capaz de aceptar las directivas de su productor. Hay que lograr la separación de lo creativo (músico) a la dirección (productor)

La siguiente figura muestra un flujo de trabajo en una producción común

Flujo de trabajo

El productor puede hacer su aporte en cada etapa, pero generalmente tiene un rol más activo en la etapa de Arreglos y en la etapa de Grabación.

Cada etapa tiene efecto sobre la etapa que le sigue. Por ejemplo, si en la etapa de grabación se elige un micrófono incorrecto o se microfonea de forma errónea, va a tener un efecto en la etapa de mezcla.

Hay una gran unión entre la etapa de Arreglos, Grabación y Mezcla, por lo que es sumamente importante que el productor tenga conocimientos en grabación, edición y/o mezcla ya que un buen productor se anticipa a la mezcla.

Un punto a favor de tener a un productor en las diferentes etapas y proceso de trabajo es que se asegura que la mezcla este siempre en la mente durante todo el proceso.

Etapa de Grabación

La calidad de grabación tiene una enorme influencia en la etapa de mezcla. Hay un famoso dicho que dice:

Basura entra, basura sale

Grabaciones con poca calidad van a tener que ser arregladas en la etapa de mezcla. Pero por mas experimentado que sea el ingeniero de mezcla, no podrá hacer mucho mas de lo que le llega.

Etapa de Edición

Como se ve en el gráfico de bloques de arriba, hay una conexión de ida y vuelta entre esta etapa y la Etapa de Grabación. Esto significa que cuando se esta editando y, por ejemplo, se decide que el sonido de la guitarra (por poner algún instrumento) no es el que sirve, se graba nuevamente. En esta etapa también se corrigen los comienzos y finales de cada pista, conteo, ruidos de voces de los músicos, pasos, etc. La idea es dejar únicamente el propio sonido del instrumento. Se corrigen también los errores (si es que los hay) de por ejemplo, el bombo y la nota del bajo (la alineación).

Etapa de Mezcla

Esta la etapa donde se empieza a mezclar propiamente dicho. No voy a desarrollar mucho sobre esta etapa ya que hice un post anterior sobre esta etapa. Lo pueden leer acá

Etapa de Master

En esta última etapa se preparan los niveles para poder ser reproducidos en diferentes plataformas, diferentes formatos, etc.

Experiencia personal

Tuve la oportunidad de trabajar en el último tema del cantautor cordobés Mariano Wettstein (lo pueden buscar en instagram como @wettsma). El tema se llama «Zambita de mi Barrio». Trabajé controlando los procesos usados en la mezcla: ecualizaciones, compresiones, etc.

Se destino un gran porcentaje del presupuesto para la producción. Dió sus frutos. No estuve presente en la grabación, por lo que cuando llego la Etapa de Mezcla personalmente me encontré con una sesión donde ya la misma grabación estaba «mezclada». Esto se debe a que el músico está concentrado en la ejecución del instrumento y se desliga de la responsabilidad de estar pensando «como está sonando». Debería ser así en todas las grabaciones, pero no siempre ocurre. Esto es muy común que pase con grabaciones donde no le dan importancia al rol del productor o no están familiarizado con.

Como parte final agrego una pequeña entrevista que le hice a @wettsma donde cuenta un poco la experiencia de trabajar con un productor (en este caso en particular con dos) al grabar Zambita de mi Barrio

¿Quiénes fueron los productores? Ignacio Serfaty y Facundo Herrera

Contame por qué o la razón por lo que preferiste realizar este trabajo con productores, teniendo en cuenta que tu anterior trabajo, Viaje de Ida, fuiste tu propio productor. Siempre tenía en mente trabajar con productores, por curiosidad, por buscar otros sonidos, pero más que nada para tener una visión externa sobre la música propia. 

¿Crees que mejoró la parte artística? La mejoró totalmente. Incluso me dió otras herramientas para futuros proyectos.

¿Cómo fue la experiencia, como músico, que un productor te dijera como tocar, o más que todo que dirigiera? Increible, todo me pareció totalmente fructífero. Incluso la exigencia de hacer una toma mejor, fueron mayores a cuando las hago solo y se noto en el resultado final. Ayudó mucho la clase de personas que son ellos dos y la buena química entre los tres.

Ya habían trabajado juntos en otro proyecto con los productores. ¿Crees que el hecho que se conozcan con anterioridad influye en la calidad y buen flujo del trabajo? Nos conocemos del ambiente, hemos compartido escenario con La Madre Del Borrego y de la noche de Córdoba. Seguramente ayudó conocernos de antes, pero eso tampoco te da seguridad que durante la grabación y producción salga todo bien. Por suerte en este caso, si.

Creo yo que muchas bandas, sobre todo las que se inician, no “aceptan” que alguien les diga que hacer y cómo ya que son sus canciones, ¿opinas lo mismo? y en caso afirmativo ¿cómo crees entonces que deben encarar un proyecto de grabación? En mi caso, me puse una meta con respecto a eso, si suma a la música, hay que dejar el ego de lado y aceptar lo que venga.

Links

Zambita de mi Barrio

Mariano Wettstein

Nos vemos en el próximo post.

Sensibilidad

Es un concepto que indica la capacidad del micrófono de captar sonido débiles y convertirlos en señales eléctricas. Se define como el cociente entre la tensión eléctrica en bornas del micrófono cuando está en circuito abierto y la presión que incide sobre su diafragma en campo libre.

\[ S = \frac{E}{p} \]

La sensibilidad, cuya unidad fundamental es el V/Pa, suele expresarse en mV/Pa debido a que el micrófono proporciona muy poca tensión por cada Pascal.

En las características técnicas de un micrófono es común expresar la sensibilidad en dB, indicando la sensibilidad de referencia So.

\[ S = 20 log \frac{S}{S_o} \]

Por ejemplo, un micrófono con una sensibilidad de S = -60dB (re 1V/µbar) recibe una presión de 94dB, la tensión que éste genera es E = Sp. La sensibilidad S expresada linealmente es:

\[ S = 10^\frac{-60}{20} = 0,001 V/µbar \]

Como vemos que la tensión de salida es muy chica (10mV). Este es el motivo por el cual es deseable micrófonos con sensibilidades altas, lo que significa valores en dB cercanos a cero.

La variación de la sensibilidad con respecto al ángulo de incidencia da lugar a una carácteristica de la que se detalla a continuación:

Directividad

Da una idea de la variación de la sensibilidad en función de la orientación del micrófono, o del ángulo con el que incide una onda sonora.

Un micrófono omnidireccional es aquel cuya sensibilidad es independiente de la dirección de incidencia del sonido. Por el contrario, un micrófono direccional es aquel cuya sensibilidad varía en función de la dirección de incidencia del sonido.

Para graficar la directividad se utilizan los conocidos graficos polares, que se calculan a partir de lo que se llama ecuación polar. A quien le interese:

\[ R(\theta) = \frac{p(\theta)}{p_m}\]

Patrones directivos

Básicamente, los micrófonos pueden ser omnidireccionales (que la sensibilidad no varía con el ángulo de incidencia), o direccionales, dentro de los cuales existes, los cardioides, supercardioides, hipercardioides o bidireccionales (figura en 8).

CaracterísticaR(x)
Omnidireccional1
Bidireccionalcos(x)
Cardioide½(1+ cos(x))
Hipercardioide¼(1 + 3 cos(x))
Supercardioide½[(√3 - 1) + (3 - √3) cos(x)]

La tabla anterior muestra la clasificación de micófonos y sus características directivas.

Se presentan a continuación los gráficos de cada clasificación y de su directiva. Para ello se utilizo un código en Python con la librería matplot.lib para realizar los gráficos.

Se puso a modo de ejemplo un micrófono con una sensibilidad de 28mV

gráfico sensibilidad
Sensibilidad
Radianes

El segundo gráfico representa los radianes. Un círculo completo es 2π (360°) que para los gráficos mostrados anteriormente, es el punto de mayor sensibilidad en los micrófonos. Por el contrario π equivale a 180° es el de menos sensibilidad, π/2 a 90° y 3π/2 son 270° .

Con esto en cuenta podemos ver y entender la figura n°1 y como cambia la sensibilidad de acuerdo al ángulo de incidencia sobre el micrófono.

No por nada, en vivo, el monitor de escenario se coloca a 180° del micrófono ( π ) que es donde un micrófono cardioide (el mas usado en vivo, como el Shure SM-58) tiene menos sensibilidad.

Podemos entender mejor los gráficos si pensamos en mV (lo que realmente es). Por ejemplo, si miramos el tipo cardioide sabemos que a 2π (0°) la sensibilidad es máxima, en nuestro ejemplo, entrega 28mV. Si nos movemos en el eje y nos vamos a π (180°) nos entrega casi nada de voltaje.

Código Python para los gráficos

Para quien le interese, acá dejo, como siempre, el código que use para poder realizar los gráficos.

#IMPORTO LOS MODULOS A UTILIZAR
import numpy as np
import matplotlib.pyplot as plt
import math

#GENERO VALORES EQUIDISTANTES ENTRE -2*pi Y 2*pi
x = np.arange((-2*np.pi), (2*np.pi), 0.01)

#SENSIBILIDAD DEL MICRÓFONO EXPRESADO EN MV
s = 28

#CALCULO DE SENSIBILIDADES
bi = s*np.cos(x)
di = (s/2)*(1+np.cos(x))
su = (s/2)*((np.sqrt(3)-1)+(3-np.sqrt(3))*np.cos(x))
hy = s/4* (1+3*np.cos(x))

#CREO EL SUBGRÁFICO
fig, ((ax1, ax2), (ax3, ax4)) = plt.subplots(2, 2,figsize=(9, 5), dpi=120)

#GENERO LOS DIFERENTES GRÁFICOS
ax1.plot(x, bi)
ax2.plot(x, di, 'tab:orange')
ax3.plot(x, su, 'tab:green')
ax4.plot(x, hy, 'tab:red')

#AGREGO TITULOS Y LABELS
ax1.set_title('Bidireccional', fontsize = 8)
ax1.set_ylabel('mV', fontsize = 6)

ax2.set_title('Direccional', fontsize = 8)
ax2.set_ylabel('mV', fontsize = 6)

ax3.set_title('Supercardioide', fontsize = 8)
ax3.set_ylabel('mV', fontsize = 6)

ax4.set_title('Hipercardioide', fontsize = 8)
ax4.set_ylabel('mV', fontsize = 6)

#LIMITO EL EJE Y
plt.ylim(-29, 29)

#LIMITO EL EJE X Y LE AGREGO LOS VALORES A LOS PUNTOS
plt.setp((ax1,ax2,ax3,ax4), 
         xticks=[-2*np.pi, -np.pi, 0, np.pi, 2*np.pi], 
         xticklabels=[r'$-2\pi$', r'$-\pi$', r'$0$', r'$+\pi$', r'$2\pi$'],
        yticks=[-28, 0, 28])

#CENTRO LA FIGURA Y REALIZO UN AJUSTE PARA QUE LOS GRÁFICOS ESTEN ORDENADOS
fig.tight_layout()

#SI DESEO GUARDAR LA IMAGEN ELIMINAR # DE LA LINEA DE ABAJO
#plt.savefig("nombre imagen.png")

#MUESTRO LA IMAGEN
plt.show()

Nos vemos en el próximo post!!

Aplicando el método de Michael Brauer (Brauerizing) a la voz

¿De qué se trata este método? ¿Quién es Michael Brauer? Ventajas y desventajas.

El método que diseñó (y patento) Michael Brauer (MB para el resto del post) es la de comprimir por buses aprovechando las características tonales de cada compresor. De esta forma asignamos la batería y bajo a un bus con un compresor «especial» para low-end, las guitarras las asignamos a un bus con un compresor característico, etc. Es necesario conocer bien como «suena» cada compresor para poner en práctica este método.

Como ventaja podemos hablar que ganamos es un sonido tight, con más cuerpo. También se puede hablar que podemos asignar un mismo instrumento a diferentes buses y aprovechar las características del compresor para darle caracter al sonido. Al ser una compreción post fader depende del nivel de fader para comprimir. A medida que mas nivel tenga el instrumento, mas compresión va a tener. Por último, al ser compresiones por etapa, cada compresor va a aplicar en promedio unos 3dB de compresión, que es más que aceptable (desde mi punto de vista).

Como desventaja, podemos decir que MB utiliza hardware (y qué equipos tiene!) por lo que replicar en un entorno digital sea hace un poco complicado el seteo y el ruteo.

A la voz le da un tratamiento diferente. Divide la voz en verso y en estribillo cada uno asignados a diferentes compresores para darle su característica tonal de acuerdo al momento de la canción.

Michael Brauer

Para resumir: Michael Brauer es un ingeniero de mezclas con sede en Nueva York. Recibió un Grammy por «Mejor Álbum Vocal Pop» por su trabajo en Continuum de John Mayer, «Mejor Álbum Alternativo» por Paracaídas de Coldplay, y también por «Mejor Álbum de Rock» por «Viva la Vida or Death and All His Friends» de Coldplay.

Pueden visitar su página para conocer más: https://www.mbrauer.com/

A la práctica

Utilicé una sesión con un teclado y voz. Para entender es mejor empezar por lo básico.

Al teclado lo envié a un bus (reverb). No tiene ecualizador ni compresión.

A la voz tambíen lo envié al bus con reverb pero también a tres diferentes buses más. Cada uno de ellos con un compresor diferente. La salida de la voz va a un bus dummy (no va a ningún lado) y la salida de los buses de compresión va a un MixBus.

MB utiliza 5 buses (4 para comprimir y 1 sin comprimir). En el ejemplo que explico acá solo uso 3 buses para comprimir y no separe la pista en verso y estribillo.

La imagen a continuación grafica el ruteo.

Los compresores (plug-ins) que se detallan son los que MB utiliza pero en su versión hardware

Se crean los buses necesarios y se inserta un generador de tono, el compresor y por último, un vúmetro.

Lo siguiente que se hace es calibrar los compresores con un tono de 1Khz y en -18 dB. El proceso es ajustar el umbral hasta que el VU marque -1 y con el Make-Up Gain ajustar hasta que el VU marque 0. Si bien no se especifica si MB lo hace en su mezcla de voces, acá lo decidí hacer para obtener un nivel parejo en los compresores.

Primero seteamos el threshold (rojo) y el VU deberá marce en -1. Luego con el control de input gain (make-up gain para otros), marcado en verde, seteamos para subir hasta que el VU marque 0.

Una vez listo esta etapa, asignamos los envíos a los buses de los compresores. Es importante dejar el nivel del envío a 0 (unity gain). No se debe mover del cero. Para mezclar el sonido de cada compresor vamos a utilizar el fader del bus.

Imagen de como debería queadar la sesión.

Acá se abren las posibilidades, podemos sumar los tres sonidos de los buses para enviarlos al bus de mezcla. En el verso, utilizar un bus en particular y en el estribillo otro, etc.

La compresión total va a ser de unos 8 dB pero en forma modular (cada módulo aportará unos 3dB de compresión). Este total de compresión va a depender de nuestro seteo.

La compresión de cada uno de los plug-in es de unos 3dB. El Fairchild está comprimiendo un pcoo más porque el seteo fue un poco mas fuerte que es de los demás.

Mezcla final

Acá están los audios finales. Para el ejemplo con compresión se uso exactamente lo que se ve en la última imagen

Con compresión
Sin compresión

Nos vemos en el próximo post!

Timbre

¿Qué es lo que escuchamos cuando oímos un sonido, por ejemplo, la nota en una guitarra acústica?

Parte Teórica

Los sonidos que escuchamos son ondas complejas, es decir que está formada por ondas simultáneas. No importa que tan compleja sea, o que tan largo sea su período, siempre se puede reducir en ondas simples.

En esta descomposición se pueden encontrar las siguientes frecuencias.

Frecuencia fundamental:  la frecuencia fundamental es el componente más bajo de la onda periódica.

Armónicos:  Un armónico es un componente de una onda periódica que es un múltiple entero de la frecuencia fundamental. Por ejemplo, la frecuencia que es dos veces la frecuencia fundamental se llama segundo armónico. Para el cálculo de la frecuencia de los armónicos se utiliza la siguiente fórmula.

\[ F_{armónico} = F_{fundamental} * n \] siendo n un número entero.

La relación entre las diferentes frecuencias, diferentes amplitudes y diferentes fases hace que la onda resultante sea propia de lo que estemos escuchando.

En otra palabra, el timbre: calidad de un sonido relacionado con su estructura armónica.

Gracias a la transformada de Fourier podemos descomponer esta onda compleja en onda puras.

Josehp Fourier

Jean-Baptiste Joseph Fourier (francés: /ʒozɛf fuʁje/; Auxerre, Francia, 21 de marzo de 1768-París, 16 de mayo de 1830) fue un matemático y físico francés conocido por sus trabajos sobre la descomposición de funciones periódicas en series trigonométricas convergentes llamadas Series de Fourier, método con el cual consiguió resolver la ecuación del calor. La transformada de Fourier recibe su nombre en su honor. Fue el primero en dar una explicación científica al efecto invernadero en un tratado.

¿Qué es entonces la transformada de Fourier? Según Wikipedia: es una transformación matemática empleada para transformar señales entre el dominio del tiempo (o espacial) y el dominio de la frecuencia, que tiene muchas aplicaciones en la física y la ingeniería. Es reversible, siendo capaz de transformarse en cualquiera de los dominios al otro. El propio término se refiere tanto a la operación de transformación como a la función que produce.

En el caso de una función periódica en el tiempo (por ejemplo, un sonido musical continuo, pero no necesariamente sinusoidal), la transformada de Fourier se puede simplificar para el cálculo de un conjunto discreto de amplitudes complejas, llamado coeficientes de las series de Fourier. Ellos representan el espectro de frecuencia de la señal del dominio-tiempo original.

De la misma forma en que la transformada de Fourier nos descompone la señal entre el dominio del tiempo y el dominio de la frecuencia, la transformada de Fourier inversa hace la operación inversa (del dominio de frecuencia al dominio del tiempo)

Entonces la relación entre la frecuencia fundamental y sus armónicos nos da el timbre característico del instrumento.

Para quien le guste las matemáticas, estas serían las formulas:

Transformada de Fourier

\[F(\omega) = \int_{-\infty}^{\infty} f(t) e^{-it\omega} dt \]

Transformada de Fourier inversa

\[F(t) = \int_{-\infty}^{\infty} f(\omega) e^{it\omega} {d\omega} \]

Parte práctica

Con la ayuda de mi hermano Mariano (www.instagram.com/wettsma) le pedí que grabara la quinta cuerda al aire de una guitarra criolla y una eléctrica. Con esto se podrán ver las diferencias en la composición de una misma nota, pero en diferentes instrumentos.

La quinta cuerda al aire es la nota LA (110Hz) –como dije arriba no es que ponen un oscilador a 110Hz y va a sonar ese LA, depende del instrumento y de los armónicos como vamos a ver.

También le pedí que grabar dos armónicos naturales (en el traste 12 y en el 5).

La idea es pasarlo por la transformada de Fourier y ver el espectro de esa nota.

Como siempre, utilicé Python y Jupyter Notebook para el código y generar los gráficos que incluyo en el post.

Para generar los gráficos utilicé el código que detallo abajo. Las librerías que use fueron: matplotlib.pyplot, scipy.wavefile y scipy.fftpack

import matplotlib.pyplot as plt
from scipy.io import wavfile
from scipy.fftpack import fft,fftfreq

direccion = "dirección del archivo de audio"

samplerate, data = wavfile.read(direccion)

datafft = fft(data)

fftabs = abs(datafft)

samples = data.shape[0]
freqs = fftfreq(samples,1/samplerate)

fig, ax = plt.subplots(figsize=(15,7))
plt.xlim( [10, samplerate/2] )
plt.xscale( 'log' )
plt.xticks([10, 100, 1000, 10000],["10", "100", "1kHz", "10kHz"])
plt.yticks([])
plt.grid( True )
plt.xlabel( 'Frecuencia (Hz)' )
plt.plot(freqs[:int(freqs.size/2)],fftabs[:int(freqs.size/2)], color="r")

Para generar la onda compleja a partir de la suma de ondas simple, utilicé el siguiente código.

import numpy as np
from scipy.io import wavfile

sampleRate = 44100
frequency = 110
length = 5

t = np.linspace(0, length, sampleRate * length)
f = np.sin(frequency * 2 * np.pi * t)
a1 = np.sin((frequency*2) * 2 * np.pi * t1)
a2 = np.sin((frequency*3) * 2 * np.pi * t)
a3 = np.sin((frequency*4) * 2 * np.pi * t)
a4 = np.sin((frequency*5) * 2 * np.pi * t)
a5 = np.sin((frequency*6) * 2 * np.pi * t)
a6 = np.sin((frequency*7) * 2 * np.pi * t)
y = f + a1 + a2 + a3 + a4 + a5 + a6

wavfile.write('La Artificial.wav', sampleRate, y)

Empecemos: el primer audio que se van a escuchar es del LA de la guitarra criolla.

LA (110Hz) guitarra criolla

Al pasar el audio por la transformada de Fourier:

LA (110Hz) guitarra criolla.
Nota: El primer pico de 50Hz no es parte de la nota. Se trata de un ruido en la línea eléctrica y quedo grabado. Por lo que para los ejemplos mostrados en este post hay que omitirlo. Únicamente aparecen en las grabaciones de la guitarra criolla

El primer pico (lean la leyenda del gráfico anterior) corresponde a la frecuencia fundamente. Los demás picos son los armónicos (interesante el tercer armónico)

Seguimos: la nota LA en la guitarra eléctrica

LA (110Hz) guitarra eléctrica
FFT de LA (110Hz) de la guitarra eléctrica

Claramente se ve la diferencia. Si comparamos ambas guitarras el cuerpo de la guitarra eléctrica no «genera» tanto armónicos a diferencia de la caja de resonancia de la guitarra criolla.

Para comparar con otro instrumento, este es el LA en un piano de cola

LA (110Hz) piano de cola
FFT del LA (110Hz) de un piano de cola

Muchos armónicos se pueden relacionar con un sonido mas «lindo».

Como contrapartida generé un sonido complejo utilizando el segundo código que al principio del post copié. Es lo que se llama transformada de Fourier inversa.

El audio generado:

LA (110Hz) «artificial»

Y al pasarlo por la FFT se generó este gráfico:

LA (110Hz) artificial

Todas las onda con el mismo nivel. Por eso suena como suena, tiene su propio timbre.

Armónicos natural (mas gráficos)

Nuevamente con la ayuda de Mariano le pedi que grabara los armónicos naturales tanto de la guitarra criolla, como la de la eléctrica. Fueron los del traste 12 y 5. Se generaron estos audios y gráficos:

Armónico natural traste 12 guitarra criolla
Armónico natural traste 12 guitarra criolla
Armónico natural traste 12 guitarra eléctrica
Armónico natural traste 12 guitarra eléctrica

¿Que pasó aca? Al tocar de esta forma, escondemos la frecuencia natural y solo se escuchan los armónicos n° 2, 3 y 4 (guitarra criolla) y los armónicos n° 2 y 3 (guitarra eléctrica).

Veamos que ocurre con el armónico natural tocado en el traste 5:

Armónico natural traste 5 guitarra criolla
Armónico natural traste 5 guitarra criolla
Armónico natural traste 5 guitarra eléctrica
Armónico natural traste 5 guitarra eléctrica

Lo mismo que en el anterior armónico natural, pero en este caso tiene el tercer armónico es el que sobresale auditivamente.

Espero que con estos gráficos se haya podido entender lo que es el timbre y porque cada instrumento suena como suena.

Hasta el próximo post!!

Modos de resonancia

¿Qué son los modos de resonancia? ¿Cómo los puedo identificar en mi sala?

Es mejor siempre empezar por la definición. Según Wikipedia: “Dentro del campo de la Acústica ondulatoria, recibe el nombre de modo propio aquella onda estacionaria generada en el interior de un determinado espacio, por ejemplo, una sala o habitación. Este tipo de interferencias, ya sean constructivas (suma) o destructivas (cancelación), vienen dadas por la interacción entre las ondas incidentes y reflejadas dentro del recinto.”

En otras palabras, cuando en un recinto cerrado la distancia entre paredes es igual a media longitud de onda de una frecuencia, se produce una onda estacionaria. Esto se traduce en una pérdida de la calidad acústica de la habitación.

Me imagino que alguna vez deben haber estado dentro de una habitación escuchando música y en ciertas notas se escucha más fuerte, como retumbando y al moverse esa nota se acentúa o disminuye según se mueven dentro de la habitación en los diferentes ejes.

Arriba: modo de resonancia fundamental (dimensión de la sala corresponde a 1/2 longitud de onda). Abajo: modo de resonancia n° 2.

En el gráfico anterior se aprecia que cuando media longitud de onda coincide con alguna dimensión de la sala (largo, ancho, alto) se produce una onda estacionaria. Si nuestra sala fuera el primer gráfico y el modo se produce a lo largo, al posicionarnos en el medio estaríamos en la presencia de un nodo (cancelación)

Presión vs desplazamiento de partículas

¿Qué es lo que pasa dentro de la habitación entonces?  Supongamos que medidos la presión sonora dentro de la habitación. Veremos que la onda sonora viaje hacia su derecha y es reflejada por la superficie hacia la izquierda retornando fuera de fase (polaridad invertida en ½ período) La onda sonora que va hacia la izquierda interactúa con la onda que viaja hacia la derecha. De ésta interacción se producen sumas (antinodos) y cancelaciones (nodos).

Es interesante saber qué es lo que pasa con la presión sonora y el desplazamiento de las partículas del aire. Por cada nodo en la presión sonora, hay un antinodo en el desplazamiento de las partículas y viceversa (en los puntos de la onda en que la presión sonora es máxima el desplazamiento es mínimo). Particularmente el desplazamiento de las partículas de aire esta fuera de fase a la presión sonora en 90° y varía sinusoidalmente en la misma frecuencia que la fuente.

Presión de la onda estacionaria y el desplazamiento de las partículas del aire

Tomemos como punto el inicio del gráfico (línea azul) que sería el extremo de nuestra sala. Observemos los puntos de color naranja en el gráfico, vemos que en donde la presión es mínima, el desplazamiento es máximo, esto corresponde a un cuarto de longitud de onda para éste modo (si la frecuencia es 100Hz, un cuarto es 0,86 mts) Si bien esta medida difiere de acuerdo al modo, es por esto que los absorbentes de porosidad son efectivos a la distancia de un cuarto de longitud de onda desde la pared para la frecuencia específica.

Tipo de modos

Existen tres tipos de ondas estacionarias.

  • Axial: resonancia que está asociada con dos paredes paralelas
  • Tangencial: resonancia que involucra 4 paredes paralelas
  • Oblicuo: resonancia que involucra las 6 paredes

En la siguiente imagen se pueden ver cómo interactúan estos modos con las superficies

Diferentes tipos de modos

Existe una fórmula que sirve para calcular estos modos (Rayleigh). Cabe destacar que esta fórmula sirve para habitaciones paralelepípedas.

\[ F_k,m,n = \frac{c}{2} \sqrt{\biggl(\frac{k}{L_x}\biggr)^2 + \biggl(\frac{m}{L_y}\biggr)^2 + \biggl(\frac{n}{L_z}\biggr)^2 } \]

Donde

  • Lx, Ly, Lz = medidas de la sala
  • k, m, n = modos de la sala. Son números enteros (0, 1, 2, 3…)

Con la combinación de k, m, n nos da una frecuencia que está asociada con el modo propio de la sala. Si elegimos k=1, m=0, n=0, reemplazamos en la fórmula con las medidas de nuestra sala y el resultado es una frecuencia que pertenece al modo 1,0,0.

Tomemos por ejemplo una habitación con las siguientes medidas.

LargoAnchoAlto
8,5 mts4,8 mts3 mts

Al reemplazar estos valores en la fórmula nos da una serie de frecuencias que son los modos para estas medidas. Siguiendo con las medidas de la tabla anterior se calculó los modos axiales.

El siguiente gráfico muestra la distribución de éstos modos.

Distribución de los modos axiales para las medidas de ejemplo

Se puede observar que la densidad de los modos es mayor a medida que la frecuencia aumenta. En cierto punto es tan denso la cantidad de modos (la separación entre los modos es muy pequeña) que prácticamente la respuesta de frecuencia de la sala se suaviza.  

La siguiente ecuación se usa para determinar el número aproximado de modos para un ancho de banda determinado.

\[ \Delta N = \biggl[\frac{4 \pi Vf^2}{c^3} + \frac{\pi Sf}{2c^2} + \frac{L}{8c} \biggr] \Delta f \]

Aplicando la fórmula nos da el siguiente gráfico

La densidad modal aumenta con la frecuencia

Se puede observar en el gráfico como crece exponencialmente la cantidad de modos a medida que la frecuencia aumenta.

Algunos de los resultados: para 39Hz nos da una densidad de N=0,16. Para 1000Hz N=39,81 y, para 16000Hz N=9671,15.

Los modos son más importantes en habitaciones más pequeñas donde la densidad modal es baja. En habitaciones grandes, la densidad modal es relativamente alto, excepto a frecuencias extremadamente bajas, y los modos juegan un papel menos importante.

Nos vemos en el siguiente post!!

Campo estéreo

El 14 de diciembre de 1931, Alan Dower Blumlein, ingeniero en EMI, sento las bases en su patente número 394325 para lo que hoy se conoce como Estéreo. Él en su momento lo describió como “Sonido Binaural”.

El término binaural se refiere a que justamente envuelve a los dos oídos. Nuestro cerebro usa las diferencias en la llegada del sonido al oído derecho e izquierdo para determinar la localización de la fuente. Estas diferencias pueden ser: amplitud, tiempo (fase) y frecuencia.

Hoy en día tenemos lo que se llama pan pots o control de panorama para crear (simular) la localización del sonido.

Básicamente lo que hace el control es dividir la señal mono hacia el canal L y canal R. Efectivamente lo que sucede en el control es que se altera el nivel entre los dos parlantes. Para panear algo totalmente a la izquierda requiere que se atenúe totalmente la señal que se envía al canal derecho. Si se envía al centro, ambos canales reciben la misma cantidad de señal.

El reloj

Usualmente se utilizan las horas del reloj para describir la posición del paneo. Va desde las 7:00 hasta las 17:00. Siendo las 07:00 el paneo extremo izquierda y las 17:00 el extremo derecho.

La distribución de las horas en el campo estéreo

En un DAW se representa con los números de 0 a 100. Existe una regla general para posicionar los instrumentos. Como por ejemplo, el bombo y bajo al centro, las guitarras a los costados, etc. Pero las reglas no solo están para seguirlas, si no también para romperlas.

  • Overhead – 70% alrededor del centro
  • Bombo – centro
  • Caja – en la misma posición como “viene” desde los overhead
  • Tom 1 – 14:00
  • Tom 2 – 13:00
  • Tom 3 – 10:00
  • Bajo – centro
  • Voces – centro o un poquito desfasado para la izquierda
  • Guitarra I power chord – extremo izquierdo
  • Guitarra II power chord – extremo derecho
  • Reverb ambiental – 100% dispersado

Ahora bien, ¿cómo podemos llevarlo a la práctica?. Utilizaremos ProTools y una guitarra acústica que grabamos en Adipal Estudio (www.adipalestudio.com.ar). El técnico de grabación fue Mariano Wettstein (@wettsma). La guitarra pertenece a la canción En Vuelo de Flor Carmona

El primer paneo que vamos a realizar es colocar la guitarra a las 9. Vemos entonces como suena.

Guitarra a las 9

Al ser un canal mono lo único que se hace es el girar el pan pot hasta la posición deseada. En el DAW se ve de la siguiente manera.

Pan pot con el plug ins de Waves PAZ Analyzer

No se alcanza a ver en la captura, pero en el master se ve el nivel que llega a cada uno de los canales. Como dijimos arriba, el control de paneo es prácticamente un atenuador.

¿Y si queremos ocupar espacio dentro del campo para que vaya desde las 9 hasta las 15:00?. Un error común es duplicar la pista y panear cada una a sus lugares correspondientes.

Lo único que vamos a lograr as aumentar la señal de la guitarra en 3dB y que la señal se transforme en un Big Mono.

Para que realmente haya un campo estéreo «puro», cada canal tiene que reproducir señales distintas. Que haya separación en cada canal. Hay un medidor que es muy útil usarlo mientras editamos y mezclamos. Nos muestra la correlación que hay entre el canal L y el canal R. En un extremo izquierdo del medidor tenemos el -1, al medio el 0 y en el extremo derecho el +1. ¿Qué significa?

  • -1: los canales están desfasados 180 grados
  • 0: un perfecto estéreo
  • +1: senal totalmente mono. Ambos canales reproducen lo mismo

Si colocan el medidor de correlación, duplican una pista mono y la colocan extremo-extremo verán que el medidor va a marcar +1.

Veamos entonces como el Big Mono en el DAW y que nos muestra el analizador. Primero el audio:

Big Mono

Captura de pantalla del DAW con el analizador:

Un perfecto sonido mono.

Se aprecia que no solamente el nivel aumenta, si no que seguimos con una señal mono.

Como último, comento una técnica que se pueda usar para crear un estéreo con una pista mono. Hay que tener cuidado con el uso porque genera cancelaciones de face y el sonido va a cambiar.

  • Duplicamos la pista mono y paneamos a los extremos
  • En una de las pistas retrasamos unos pocos milisegundos
  • Ajustar el nivel a gusto

Con esto pasos vamos a crear un estéreo para evitar el big mono.

Veamos entonces como suena:

Estéreo creado

Por último la captura de pantalla del DAW con el analizador:

Si bien en el DAW se paneo de otra forma para ocupar un espacio dentro del horario de 8 a 11, se aplicó la misma técnica mencionada arriba.

En el analizador se puede apreciar algunos pasajes que están fuera de fase (en el plug ins lo denomina Anti Phase) por eso hay que utilizar con cuidado ya que podemos hacer que el resultado sea feo.

Si escuchan el primer audio y lo comparan con este último verán que suena levemente diferente, sobre todo en los medios-altos.

La localización de los instrumentos es un etapa dentro del proceso de mezcla. Es importante conceptualizar la mezcla y ya desde la primer escucha del tema saber que lugar va a ocupar cada instrumento dentro del campo. Si existe el campo estéreo está para usarlo. Despejen el centro

Nos vemos en el próximo post!!

Teorema de Nyquist

¿Qué dice el teorema? ¿Qué pasa si no se cumple?

Este teorema dice: Según el teorema de muestreo de Nyquist-Shannon, para poder digitalizar una señal analógica y transmitirla por un medio eléctrico a grandes distancias y poder recuperarla en el extremo distante con la máxima fidelidad posible, se requiere que la señal analógica sea muestreada al menos dos veces su frecuencia máxima. [Wikipedia]

De este teorema surge la frecuencia de muestreo de 44.1kHz. El rango de escucha del oído humano va desde los 20Hz hasta los 20.000Hz. La frecuencia de muestreo de 44.100Hz cumple con el teorema.

Para poder graficar una onda pura vamos a usar Python y vamos a cambiar la frecuencia de muestreo para ejemplificar ambos casos.

import numpy as np
import matplotlib.pyplot as plt

f = 50  #Frecuencia en Hertz
f_s = 44100  #Sampleo, o cantidad de muestras por segundos

f_s_b = 10 #Sampleo, o cantidad de muestras por segundos donde no se cumple el teorema de Nyquist

t = np.linspace(0, 1, 2 * f_s) #Función para crear un array equidistante
x = np.sin(f * 2 * np.pi * t)

fig, ax = plt.subplots(figsize=(15,7))
ax.plot(t, x)
ax.set_ylim(1.5,-1.5)
ax.set_xlabel('Tiempo [s]')
ax.set_ylabel('Amplitud Señal')
ax.set_title('50Hz con Frecuencia de Muestreo de 44100Hz')
plt.show()

El gráfico que se genera es el siguiente

1 segundo de una onda de 50Hz

Al código de arriba lo modifico para que la resolución sea de 10Hz. Veamos que onda se genera:

import numpy as np
import matplotlib.pyplot as plt

f = 50  #Frecuencia en Hertz
f_s = 44100  #Sampleo, o cantidad de muestras por segundos

f_s_b = 10 #Sampleo, o cantidad de muestras por segundos donde no se cumple el teorema de Nyquist

t = np.linspace(0, 1, 2 * f_s) #Función para crear un array equidistante
x = np.sin(f * 2 * np.pi * t)

fig, ax = plt.subplots(figsize=(15,7))
ax.plot(t, x)
ax.set_ylim(1.5,-1.5)
ax.set_xlabel('Tiempo [s]')
ax.set_ylabel('Amplitud Señal')
ax.set_title('50Hz con Frecuencia de Muestreo de 10Hz')
plt.show()
1 segundo de una onda de 50Hz

Claramente se ve la diferencia entre una onda y la otra. A este error se le denomina aliasing. Trae en los resultados falsos picos, datos erróneos. Justamente el término aliasing viene de alias. Según la RAE:

1. m. Apodo o sobrenombre.
2. adv. Por otro nombre. Alfonso Tostado, alias el Abulense.
3. adv. desus. De otro modo.

El propio nombre lo dice, no es una copia exacta, es un alias. Hoy no es una configuración que sea necesario tener pendiente, ya que practicamente cualquier DAW trae como predeterminado el valor de 44.100 Hz. Pero es importante conocer todos los aspectos del sonido digital.

El código de Python para generar la onda

Hasta el próximo post!!!

Respuesta al impulso

Personalmente siempre me pregunte como se veía lo que escuchamos. En el audio digital si grabamos por ejemplo una batería, vemos al bombo como golpes de corta duración, entonces asociamos lo que vemos a lo que escuchamos. Si por ejemplo grabamos una guitarra con unos acordes para dar sustain a la canción, vemos como la forma de onda es mas larga si la comparamos con la del bombo.

¿Pero que pasa en un recinto? ¿Cómo se ve?

Navegando por internet se encuentran grabaciones de respuesta al impulso. En este caso se van a usar unas que se hicieron en un recinto en Manchester, Inglaterra. El lugar se llama The Bridgewater Hall. Estas grabaciones son la respuesta al impulso (fue de una pistola que se usa para dar largada a una carrera de caballos, tipo una pistola a cebitas).

El primer audio es con el receptor (micrófono en este caso) cerca de la fuente, y el segundo audio es uno mas alejado.

Respuesta cerca (cerca para el resto del post)
Respuesta lejos (lejos para el resto del post)

Se cargaron los sonidos al software de medición. Se llama ARTA (http://www.artalabs.hr/) Es una programa shareware, se puede medir, importar, analizar, etc, pero pueden guardar ni cargar proyectos.

Veamos entonces como se ve el primer impulso.

El sonido directo con las primeras reflexiones.

Se puede ver en la imagen que a la primera reflexión le toma un poco más de 40ms en llegar al oído del receptor. Con una velocidad del sonido de 344 m/s recorre 1360 cm hasta llegar al oyente. Las otras reflexiones que llegan después están a un nivel bastante alto. Recordemos que el nivel con que llegan estas reflexiones (también del tiempo) nos da una «idea» (que tan grande o chico es) del recinto y que tan cerca (o lejos) estemos del sonido directo.

Abro paréntesis

Abro un paréntesis para hablar sobre las reflexiones y como reconocerlas. Volviendo a la primera reflexión que recorre 1360 cm, si en el caso que estemos haciendo un análisis de las reflexiones para tratarlas, hay que tener en cuenta que la distancia que recorre es la suma del recorrido desde la fuente hasta la superficie mas el recorrido desde la superficie hasta el receptor. Una vez que calculemos la distancia de recorrido (regla de tres simples: si la velocidad del sonido es 344 m/s, cuanto recorre en 40 ms?) nos resultará fácil saber que superficie está reflejando el sonido. Solo debemos mirar y observar en nuestro recinto o habitación que superficie está a determinada distancia para que en la suma de los recorridos de como resultado los 1360cm. Si en el caso que sea necesario, podremos aplicar el tratamiento acústico. Para el estudio de estas reflexiones se usa el gráfico ETC (Energy Time Curves).

El paint en su máxima expresión

En la imagen se grafica el recorrido del sonido directo y el sonido reflejado llegando 40ms después. A continuación podemos ver el gráfco ETC

Gráfico ETC del sonido cerca. Cada pico es una reflexión.

El gráfico ETC sirve para estudiar las reflexiones. En el eje Y se detalla el nivel de la reflexión y en el eje X el tiempo transcurrido. Según diferentes papers el nivel de las reflexiones deberían estar entre 10dB-15dB por debajo del sonido directo. Los picos, mientras mas altos sean, mas alto en nivel es la reflexión.

El gráfico ETC no muestra información con respecto a la frecuencia. Para ello se usa otro tipo de gráfico que se llama Waterfall

Cierro paréntesis

Volvamos entonces con la comparación de los sonidos. Ahora vamos con la respuesta al impuso del segundo sonido (lejos)

El sonido directo y las primeras reflexiones. Segundo sonido

Lo primero que vemos es que la primera reflexión llega antes de los 40ms. Esto es correcto ya que a medida que estemos más lejos de la fuente la diferencia de llegada entre ambos sonidos (directo y reflexión) es más chica.

Podemos observar también que las siguientes reflexiones que llegan, lo hacen a un menor nivel (nuevamente comparado con el gráfico anterior)

El siguiente gráfico que se muestra es el tiempo de reverberación (RT60 ó T60). Wikipedia dice al respecto: Se define como el tiempo que transcurre — hasta que decae a una determinada intensidad — las reflexiones de un sonido directo. Esa intensidad es de 60dB. Si el entorno es muy ruidoso, se puede usar el T30 o T20. En estos casos, lo cambia es la intensidad, 30dB y 20dB respectivamente.

Decaimiento de la energía de la respuesta al impulso cerca
Decaimiento de la energía de la respuesta al impulso lejos

Podemos observar que en la respuesta desde la posición mas alejada, el sonido el ser más débil, se vuelve imperceptible más rápido. El cálculo del tiempo de reverberación es de 2,2 segundos. Para el punto mas cercano el tiempo de reverberación que se calcula es de 2,3 segundos. Resultados que están bien, ya que el tiempo de reverberación se calcula en base a los metros cuadrados del recinto. Dato que no varia por más que estemos en cualquier punto del lugar.

Tabla T60 calculado para el sonido cerca. Se observa también que están incluídos el T20 y T30:

F (Hz)T30 (s)T20 (s)T60user(s) 
Wide2.3432.3442.339

Tabla T60 calculado para el sonido lejano. Se observa también que están incluídos el T20 y T30:

F (Hz)T30 (s)T20 (s)T60user(s)
Wide2.2982.3262.269

Anexo

Como gráfico de color, el siguiente gráfico ETC muestra el sonido lejos comparado con un gráfico ETC de un comedor, donde sus dimensiones son de aproximadamente 4 metros x 5 metros.

La curva de color verde (o algo parecido) pertenece al sonido cerca. La de negro al comedor.

El en gráfico se ve claramente como el sonido decae mas rápido al ser una sala más chica (si se compara con la otra curva)

Espero que sea claro el posteo.

Nos vemos en el próximo.!!

Fuente