Dato

SENSIBILIDAD PARA LOS SENTIDOS

IA que detecta y reacciona frente a nuestras emociones.

Compartir
Muchas veces, más quizás de las que querríamos, el cómo nos sentimos condiciona lo que decimos. Al equipo de nuestros amores se le quiere un poquito menos cuando pierde (salvo casos excepcionales). La conversación en la máquina de café cambia radicalmente si es un lunes por la mañana, o un viernes prepuente. Y no es lo mismo cómo le hablas a tu pareja en la cama a dentro de un coche en pleno atasco. Es fundamental descifrar el estado de ánimo de quien nos habla para matizar lo que nos está transmitiendo. Y en este sentido, los sistemas IA están calibrando su sensibilidad para saber mejor cómo interpretar lo que necesitamos de ellos, y cuál es la respuesta más conveniente.
El estudio y la medición de las emociones no es algo nuevo. Desde hace décadas la industria ha invertido millones de cualquier tipo de moneda en sensores que miden la dilatación de nuestras pupilas, el ritmo de nuestro corazón, la carga eléctrica de nuestras ondas cerebrales, o la temperatura de nuestra piel. En otras palabras: biométrica. Sofisticados dispositivos de medición que, unidos a la rama de la neurociencia, analizan cómo reaccionamos fisiológicamente a los estímulos para interpretar las emociones que nos producen. Ya sea un test para comprobar si nuestro millonario anuncio de la campaña de Navidad emociona cuando aparece el cachorro abandonado, o para averiguar qué es lo primero en lo que se fija el consumidor cuando le enseñamos nuestro flamante modelo de coche.
Lancôme busca un millón de sonrisas por la calle.
Los smartphones son los mejores sensores para detectar emociones.
Pero en el año 2017 existen sensores infinitamente más económicos y populares que los cascos de ondas cerebrales o las camisetas que miden nuestra transpiración: nuestros móviles y ordenadores. A través de la cámara y el micrófono recibimos inputs de suficiente calidad como para ser decodificados por software avanzado que trackea nuestros rasgos faciales, o las inflexiones de nuestra voz. Desarrolladores de programas de reconocimiento y análisis como Affectiva, que surgió de la incubadora de MIT Labs, reconocen hasta 50 tipos de expresiones faciales traducidas de forma distinta en función del género y la cultura del usuario a través de la cámara de un móvil. Performetric presentó en el pasado Websummit un programa que medía el cansancio de los trabajadores en función de los errores que cometían con el teclado. E incluso han surgido apps mobile como Priori, que detecta el estado emocional y el cuadro depresivo del usuario en función del tono de voz y la duración de sus llamadas telefónicas.
Expedia mide tus emociones para encontrar tu ‘Aloha’.
Ya sea a través del móvil o a través de sensores biométricos, el objetivo es el mismo: responder y adaptarse a las emociones del consumidor. Un objetivo que, en primer lugar, nos permite medir de forma más avanzada y menos condicionada el impacto de la creatividad a través de herramientas automatizadas. Una tendencia que auténticos referentes en la innovación como Coca-Cola ya implementa a nivel global, testando campañas a través de trackeo facial, de los ojos, las pulsaciones o la respuesta en la piel. O para entender mejor cómo reaccionamos antes las experiencias VR, como indica la CMO de Time Warner Kristen O’Hara, sumando sensores biométricos al dispositivo desde el que accedemos a la experiencia para medir nuestro engagement.
Investigando cómo nos hace sentir la pizza con DiGiorno.
Pero la interpretación de las emociones también puede ser algo más que una métrica, convirtiéndose en un factor que personaliza nuestro contenido o incluso nuestro producto en función del estado de ánimo. Por ejemplo, configurando el coche que despierta tus emociones, como hizo Bentley con su contenido interactivo ‘Bentley Inspirator’, en el que la reacción del usuario a las escenas de un vídeo terminaba con el modelo configurado según el color, llantas o chasis que más le habían llamado la atención. O como cualquier otra compañía de automoción podría permitir configurar su coche a través de la tecnología Eyefluence adquirida por Google, que permite modificar en tiempo real el contenido VR que se está disfrutando con un simple parpadeo o movimiento ocular.
El reconocimiento emocional permite alcanzar la última frontera de la personalización.
Este año, el software de reconocimiento de las emociones a través de vídeo, audio o sensores biométricos es una tendencia que aún no se adoptará en gran escala. Sin embargo, referentes como Krister Karjalainen, quien fuera máximo responsable de la comunicación digital de Procter & Gamble, defiende que mediciones como el trackeo de los ojos podría incrementar el retorno de la inversión en campañas digitales en un 25 por ciento. A través de máquinas que interpretan lo que sentimos, y reaccionan con el mensaje más efectivo para nuestro estado emocional.
CONSECUENCIAS DENTRO
DEL TESERACTO
La clave del tiempo real. Nuestro estado de ánimo puede cambiar en cuestión de segundos. Con un mensaje de Whatsapp, la canción que nos ha recomendado Spotify, o el selfie de un semidesconocido en una playa paradisiaca que arrasa en Instagram.

El desarrollo de sistemas IA y sensores que sean capaces de descifrar el carácter complejo y voluble de nuestras emociones nos permite adaptarnos al contexto del consumidor como nunca antes habíamos podido. Entendiendo cómo se encuentra al inicio de nuestra conexión, qué reacción le provoca su interacción con nosotros, y cuál es el resultado más cualitativo que podamos obtener jamás: sus sentimientos.
Impacto sobre el consumer journey. Si los sensores de medición emparejados con software de reconocimiento de emociones son el paso definitivo personalizar la conexión y humanizar el journey, muchos de los touchpoints del viaje se verán afectados profundamente.

Los más influidos serán indudablemente los relativos a la fase de discovery, al generar formatos publicitarios o de brand content adaptados a la medida de los sentimientos del
consumidor para potenciar el engagement.

Pero la medición de las emociones puede ser también un factor clave en touchpoints relativos a la compra. Así, un software de reconocimiento podría, por ejemplo, adaptar la oferta de contenido de Netflix en función de cómo te sientes ahora mismo, o escoger el destino de tu próximo viaje con una aerolínea en función de cómo quieres que te haga sentir.
Potencial para las marcas. A falta de un standard asentado en cuanto a software de reconocimiento o sensores biométricos, la inversión en este campo es posible que no genere retornos inmediatos.
Se trata más bien de una apuesta a largo plazo, pero el reconocimiento de las emociones del consumidor puede empezar aportar desde un primer momento tres posibles usos.

En primer lugar, como herramienta de análisis y extracción de insights detectando las reacciones de los consumidores en test controlados o en el análisis de las emociones del
contenido social que generan.

También puede incorporarse a los sistemas de test y control de las campañas, especialmente en los casos donde la alta inversión en producción y medios justifica el uso de software avanzado para cuantificar el impacto que puede provocar.

Por último, e indudablemente el más interesante, el uso de software de reconocimiento asociado a brand content o los servicios de una marca. Al tratarse de una tendencia en
pleno desarrollo, el mero hecho de abordar esta especialidad generará un considerable retorno en publicity, además de transmitir una imagen de marca al consumidor en la que él y sus emociones son lo más importante.
VER OTRAS TENDENCIAS