Las 7 pifias más graves en A/B testing de emails

Posted by | · | Blog | No hay comentarios en Las 7 pifias más graves en A/B testing de emails

Cuando en la agencia empezamos a trabajar para un nuevo cliente siempre le preguntamos si hacen testing de emailings. Si la respuesta es que “sí”, seguimos preguntando para saber exactamente qué es lo que han hecho y casi siempre nos encontramos con errores graves.

Los test de emailings son la vía científica y segura para hacer más rentable este medio, pero su aparente simplicidad esconde muchas trampas.

Aquí tienes los errores más frecuentes en los tests A/B del Email Marketing

  1. No hacer A/B testing

Es suicidarse. Enviar 300.000 emails a tu base de datos sin haber probado antes su efectividad es un acto arriesgado cuando menos, y a menudo, catastrófico.

Se escuda en aquella creencia falsa de que “enviar emails es gratis”. Pero no es así: enviar emails al tun-tun puede salirte muy caro.

Si por ejemplo, cada registro de la base de datos te ha costado 1€ y tras un mal envío, un 20% de la base de datos se molesta y decide que ya no va abrir más tus correos (casi nadie se molesta en darse de baja), esto significa que un 20% de 300.000 = 60.000 emails se han “volatilizado”, lo que traducido a money son 60.000€ que han salido por la ventana.

Luego no asegurar el tiro con un A/B testing previo puede salir muy caro.

  1. Medir mal o fijarse en la métrica equivocada

Otro error frecuente es no saber qué métrica elegir de las muchas que te da un email.

Dicho de otra manera, ¿el email ganador es el que presente mejor apertura? ¿O el de mejor clic? ¿O es el que sufre menos bajas? ¿O es el de mejor conversión en la landing?

Depende de tu objetivo, pero elige bien, porque todo girará entorno a la métrica elegida. También es habitual tener mal implementada la medición desde el principio y darse cuenta demasiado tarde. Si ya se ha enviado el email, no se puede volver a enviar.

En definitiva, hay que medir bien, de lo contrario, puedes estar tomando decisiones sobre datos falsos.

  1. Tener alergia a la estadística

Si A tiene 845 clics y B tiene 867 clics, está claro que B tiene más clics que A. ¿Pero podemos decir con rotundidad que B es mejor que A? ¿La diferencia es lo suficientemente grande para no atribuirla al azar?

Se trata de tener siempre presente el veredicto de la confianza estadística que te confirmará que el test es válido, que te lo puedes creer o bien que es producto del azar y que A y B son en el fondo iguales a pesar de que hayan tenido clics diferentes.

A muchas personas le sales sarpullidos cuando aparecen las mates, pero es que no hay más remedio.

Si quieres tener éxito en Internet los números forman parte inseparable de este mundo.

  1. Testar más de una cosa a la vez

Si en el email A tienes una asunto y una imagen, y en el email B cambias el asunto y también la imagen, empiezas a tener un Frankestein. Podrás decir que uno de los emails fue mejor que el otro, pero nunca sabrás porqué, si fue por el asunto o por la imagen.

Hacer A/B testing de emailings es para mejorar resultados, pero también para aprender porqué mejoran los resultados, y de esta forma, test a test, llegar a ser el que más sabe de emailings en tu sector.

  1. Empezar testando el color del botón

Orden, orden, ¡orden en la sala!

Como todo en la vida, la regla 80/20 aquí también se aplica: el color de botón tiene pinta de tener una incidencia débil en el resultado final de un emailing.

¿No crees que tendrá más incidencia un cambio en la oferta, un mejor diseño responsive o un contenido personalizado dinámicamente?

En toda estrategia de testing hay que empezar testando por arriba, por lo más importante, para ir bajando a temas menores.

Sólo después de mucho testing tiene sentido dedicarse al color de los botones.

  1. Inventar la rueda

Se cambia al director de marketing y éste se pone a inventar la rueda.

Esto afecta también a los emalings: cosas que ya se sabía que no funcionan se vuelen a enviar en un email, bien porque no se lleva un registro de tests efectuados o bien porque se rechazan en un arrebato de egocentrismo.

Sea como sea, en A/B testing se trata de ir archivando este conocimiento, apoyarse en él para diseñar nuevos testings y generar así el mejor activo que puede tener una empresa después de la base de datos: saber lo que funciona y lo que no.

  1. No preguntar al usuario

¿Qué vamos a testar y contra qué? La mayoría de las veces las ideas salen de la agencia o de la empresa.

Pero puede que la mejores ideas no estén ni en uno ni en el otro, sino en ese otro elemento tantas veces ignorado: el propio cliente.

Es aquí donde entran en juego otro tipo de testing, las encuestas online, los focus-groups, etc. Es decir, se trata de preguntarle al propio interesado qué es lo que necesita, que es lo que no le gusta, que está esperando para así enfocar los tests A/B hacia lo que realmente importa.

 

“Si perdiese todo lo que tengo y olvidase todo lo que sé salvo cómo hacer tests, podría recuperarlo todo.”

Perry Marshall


No Comments

Leave a comment