Mucho cuidado con los A/B testing de emailings
Hago un test de preheader (o preview). Con vs sin. Sale que mejor “sin”. Genial, a partir de ahora, me ahorro redactarlo… ¡Error!
Los tests A/B de emailing son una forma poderosa, y diría yo que la única, de ir mejorando los ratios de tus campañas mes a mes.
O por lo menos, de evitar la omnipresente caída de rendimiento que tiene este medio.
Un arma muy poderosa pero con un gran lado oscuro: no son nada fáciles de dominar y, más que una técnica, son un arte.
Llenos de agujeros en los que tropezar y hacer un face-plant.
Y lo peor, sin saber que te la has dado.
El ejemplo más claro es el de antes. Nos pasó en la agencia hace poco.
Montamos un test de preheader. Con la idea, no de saber si funcionan o no, sino de saber cuánto más aporta un preheader (el texto que aparece debajo o junto al asunto).
Resulta que el test nos dijo que “sin” preheader teníamos más aperturas y clics que “con”.
Esto no tiene ningún sentido.
Si sacamos la conclusión de que “los preheaders no suman sino que restan”, estaremos asegurando peores resultados para nuestros futuros emails.
Porque por experiencia, por sentido común, por pura teoría, un preheader debe y tiene que ayudar en la respuesta.
Entonces, ¿qué ha falló en el test?
Posiblemente nos caímos en alguno de los puntos en los que hay que tener mucho cuidado:
1. Las mates: en un test es peligroso decidir a ojo. Tienes que aplicar cálculos de confianza estadística para elegir con seguridad. Dicho de otro modo, debes asegurarte de que la muestra sea suficientemente grande para la diferencia que has obtenido entre A y B. Este no era el caso.
2. Las jerarquías: un test de preheader no es de los importantes. Antes debes testar cosas más jugosas como segmentos, días y horas, ofertas, propuestas de valor, etc. Este no era el caso porque se trata de un cliente en el que hacemos mínimo dos tests de emailings cada semana y llevamos ya unos años. Vamos, que lo hemos testado todo y a veces toca testar cosas menores como el preheader.
3. El Ceteris paribus: esto quiere decir que todas las variables deben permanecer quietas y solo puedes cambiar la que estás testando. Es decir, que no puedes tocar absolutamente nada más que el preheader y todo lo demás debe ser absolutamente igual: el día y hora del envío, los segmentos que sean homogéneos, el asunto, etc. No es el caso, A y B eran idénticos solo que uno tenía el preheader vacío.
4. Lo insondable: a veces existe una cuarta explicación, la más difícil de encontrar o de justificar. Aquí tienes que centrarte en el tipo de test y rebuscar en los detalles o en las particularidades de cada test. Seguramente es el caso de este test.
Entonces, ¿por qué el ganador “sin” preheader es un falso ganador?
Podría ser que en la versión “sin”, el trozo que colocó la máquina por defecto copiándolo del body del email era más sugerente.
Podría ser que el preheader que redactamos nosotros añadió demasiada información que hacia innecesario continuar con la lectura del email.
Podría ser que nuestro preheader cayó mal, o era muy promocionero o de mal gusto.
Cualquiera de estos motivos nos sirve para concluir que el error estuvo en la redacción del preheader en sí.
Es decir, que no basta con redactar el preheader. Hay que redactarlo bien para que sume más aperturas y más clics.
Añadir algo no tiene por qué sumar, puede restar.
No es el primer test de preheader que hacemos en la agencia y ya antes había salido que era mejor “con” preheader.
Un preheader si es bueno, suma SIEMPRE.
Un test, si no está hecho con mucho cuidado, resta SIEMPRE.
– – –
Si te has quedado con ganas de dominar el A/B testing en creatividad de emailings y sacarle todo su potencial, te espero este octubre en el Email Marketing BootCamp en el que imparto la sesión “Diseño, Subject, Creatividades y Copy-writting. Test: variaciones y metodologías. Best Practices”
No Comments