Arquivo mensal abril 2020

Eyetracking sem equipamento ou entrevistas??? Saiba como funciona os modelos de visão computacional.

Os sistemas 1 e 2 foram nomes cunhados pelos psicólogos Keith Stanovich e Richard West, mas popularizados pelo psicólogo Daniel Kahneman, vencedor do prêmio Nobel, em seu livro Rápido e devagar, duas formas de pensar. O primeiro refere-se a processos automáticos, emocionais e involuntários enquanto o segundo é racional e lógico. Não são partes do cérebro, mas sim uma proposta de como ele funcional. A pesquisa de mercado tradicional explora o sistema 2, e a neurociência busca entender o sistema 1. Neste, o processo visual é ponto central e onde os estudos de eyetracking assumem uma relevância muito grande.

Mas, quando se fala em eyetracking, logo pensamos em equipamentos muito caros e softwares complexos de análise. Há um campo da psicologia cognitiva que estuda de forma computacional o processo de visão. O olho é um órgão que, funcionalmente, opera de maneira muito similar entre as pessoas. As cores, por exemplo, são ondas eletromagnéticas que sensibilizam determinadas enzimas situadas  na retina (cones) que quebram em função das diferentes frequências de ondas. Portanto, a visão é um processo bioquímico, possível de ser emulado pelo computador.

Em outras palavras, a visão computacional consiste em um estudo de eyetracking sem a necessidade de realizar entrevistas com equipamentos especiais. Valendo-se de algoritmos de avaliação de imagem, o computador simula o mecanismo de visão humano, oferecendo como resultados indicadores de desempenho visual como heatmaps, fixações e sequência de visualização.

Além do processo de percepção de cores, outros elementos são igualmente possíveis de serem simulados: a orientação dos elementos da imagem, a concentração dos elementos presentes na superfície visual, a intensidade (ou luminosidade) dos diferentes elementos da cena visual, a relação de tamanho entre os diferentes elementos na imagem, sobreposições entre os elementos, a presença de texto (e a quantidade existente),  texturas presentes na imagem  e a presença de faces (que possuem uma grande capacidade de atração visual). Aspectos como simetria e a relação entre o tamanho dos elementos presentes em uma embalagem também é algo importante.

A embalagem acima é um resultado de uma simulação de eyetracking utilizando um algoritmo de visão computacional. Observa-se que elementos com alto contraste visual (no caso a palavra DOR) possui um nível grande de saliência visual e é um dos primeiros elementos da embalagem a ser visualizado. O heatmap é fruto da composição das diferentes tonalidade e arranjos de cores, portanto, é o efeito visual percebido.  Quanto maior o nível de complexidade visual, maior a quantidade de áreas cegas que uma embalagem terá. O cérebro assimila de forma mais fácil informações simples, sem a demanda de esforço. E, sobretudo, prioriza informações. Assim, é importante identificar se nas áreas visíveis estão todas as informações relevantes para o consumidor e estratégicas para a marca. Isto pode ser também avaliado pelo Scanpath (última imagem), onde é possível avaliar se as informações relevantes estão sendo vistas primeiro.

Diversos modelos de avaliação de saliência visual estão disponíveis nas publicações científicas. Normalmente eles funcional com filtros de diferentes naturezas, capazes de fazerem a leitura das informações das imagens. Mas, há diferenças entre os estudos feitos com visão computacional e os tradicionais estudos utilizando pessoas? Em parte não e em parte sim. Em alguns pontos, estes modelos são muito bons para capturar processos automáticos, contudo, quando há elementos emocionais, aí é que mora o perigo. Por exemplo, se utilizarmos o rosto de uma modelo qualquer ou de uma atriz querida e famosa, a plataforma não consegue ponderar emocionalmente a diferença entre ambas. Elementos de afetividade de marca, por exemplo, ficam de fora. Os estímulos são analisados em função das suas propriedades ópticas e não da mensagem do conteúdo.

Mas se não são avaliadas características relevantes da mensagem da embalagem ou comunicação, por que são interessantes estudos de eyetracking fundamentados na visão computacional e inteligência artificial? Porque são as propriedades ópticas que vão estimular o sistema 1 !!! É certo que os elementos emocionais, também pertencentes a este sistema, somente podem ser avaliados com entrevistas. Mas imagine que uma empresa possui cinco diferentes rotas criativas para uma propaganda impressa. Testar todas em entrevistas é algo complicado, especialmente se forem também considerados os concorrentes. Mas se utilizarmos a visão computacional para entender as propriedades psico-físicas das embalagens e, em um segundo momento, realizar o estudo das duas melhores, é um bom caminho!

Os desafios de montar um neurolab.

Muito se tem falado a respeito de neuromarketing, mas o que realmente é este campo do conhecimento? Longe de ser um conjunto de concepções pré-formuladas a respeito do consumidor com interesses comerciais, esta é uma ferramenta de pesquisa de mercado muito poderosa. As raízes do neuromarketing estão no fato do ser humano possui um processo de decisão emocional e não somente racional. E a neurociência possui dispõe de recursos para avaliar impactos emocionais.

Acredito que a melhor definição para neuromarketing está no Journal of Consumer Psychology feita por Plassmann, Ramsøy e Milosavljevic (2012): neuromarketing se refere ao uso de ferramentas neurofisiológicas, como rastreamento ocular (eyetracking), condutância da pele (GSR), eletroencefalografia (EEG) e ressonância magnética funcional (fMRI), para realizar pesquisas de mercado específicas. Portanto, o neuromarketing tem como principal foco endereçar problemas específicos de marketing das empresas. Diferentes empresas com diferentes problemas estarão sujeitas a diferentes insights em neuromarketing. Estamos falando de esforços experimentais para compreender mais a fundo o comportamento do consumidor.

Quando se fala em neuromarketing, é necessário falar também de um laboratório para que os estudos sejam realizados. Afinal, estamos falando de pesquisa de mercado!! Agora, como construir este laboratório? Aqui certamente vem a imagem de uma montanha de dinheiro a ser investida, mas isso não é fato. Existe uma forte relação inversa entre o domínio teórico do pesquisador e o montante de dinheiro a ser mobilizado. Se você quer entrar nessa área com pouco investimento, terá de dominar, além de conceitos de neurociência, diferentes tipos de sensores e algumas diferentes categorias de bibliotecas de linguagem de programação. Sem contar softwares de análises de dados, como Matlab ou R. Mas há também o caminho mais caro, porém mais simples: investindo-se uma montanha de dinheiro em softwares de mercado. Eles são capazes de simplificar muito os esforços de conhecimento, mas há um custo para isso.

Fundamentalmente, a construção de um neurolab passa pela escolha e aquisição de três tipos de insumos: sensores, softwares de coleta e softwares de análise. Há empresas que oferecem soluções únicas (conforme mencionei), com estes três requisitos unificados em uma única oferta. Mas se quer algo mais em conta, você pode pensar nestas três soluções isoladamente.E depois unificá-las em uma única metodologia de pesquisa.

1- Sensores: normalmente consiste em eletrodos a serem conectados em alguma parte do corpo dos participantes do estudo, de modo a fazerem leitura das respostas do sistema nervoso central. Podem ser instalados no escalpo, como EEG (que mede ondas elétricas no cérebro), nos músculos da face (como o EMG, que mensura o nível de contração dos músculos da face) ou conectados nos dedos, capazes de medir o nível de batimentos cardíacos ou a condutância elétrica da pele.

2- Softwares de coleta de dados: ter apenas os sensores não significa muito. É necessário um software capaz de gerenciar a coleta de dados, sobretudo sincronizando os estímulos e a leitura dos sensores. E capazes também de avaliar dados espúrios (artefatos) que possam contaminar a qualidade dos dados. Existem na literatura acadêmica alguns softwares que buscam oferecer uma solução básica para a leitura destes sensores. Denominados programas de código aberto, é necessário que haja um certo esforço de programação para tornar estes programas funcionais em estudos de mercado. Algumas soluções em Arduino são bem interessantes.

3- Softwares de análise estatística: como toda pesquisa de mercado, o produto final da coleta de dados de neuromarketing são bancos de dados. Até aí não temos informação nenhuma. Os insights vêm a partir da análise dos dados. O domínio de técnicas estatísticas, comuns em neurociência, são muito úteis para conseguir fazer um bom proveito destes dados. Sugiro enfaticamente a utilização do software R, gratuito e com grande poder de processamento.

Veja que montar um neurolab pode ser algo muito mais barato do que imagina, porém, é necessário um forte esforço de conhecimento. Este caminho, apesar de complexo, pode ser muito proveitoso. Soluções ‘industrializadas’ possuem pouca flexibilidade de análise. O caminho mais árduo, apesar de ser mais demorado, possibilita uma melhor exploração dos dados. E diferentes linhas analíticas a serem adotadas. Já a aquisição de uma solução ‘ready to use’ pode economizar muito tempo e esforço.

O que acha? Qual o melhor caminho a percorrer?