Arquivo anual 2020

COVID-19 e os valores implícitos face a pandemia.

É muito comum vermos notícias sobre a dificuldade de se obter índices ideais de resguardo da população. Em muitos locais a adesão ao distanciamento social está em níveis abaixo do recomendável. E não é raro identificar comportamento de risco com pessoas formando aglomerados humanos, ou até mesmo tentando levar uma vida  mais próxima do normal. Qual seria a origem deste comportamento? Realizamos um estudo de associação implícita utilizando  nossa plataforma on-line. O link do experimento foi divulgado em redes sociais. Neste estudo, procuramos identificar a percepção subjetiva das pessoas sobre o risco da vida social. No íntimo, há a crença real do risco que representa estarmos em grupo atualmente?

O teste de associação implícita é uma ferramenta criada na psicologia social projetada para detectar as atitudes inconscientes e não manifestas das pessoas. Greenwald Nosek, e Banaji (2003) construíram uma mecânica de avaliação fundamentada no tempo de respostas dos sujeitos. Este teste foi muito utilizado para medir assuntos delicados, como racismo.

É razoável pensar qual resposta teríamos se um pesquisador perguntasse diretamente: você é racista? Um estudo como esse estaria sujeito a vieses de enquadramento social ou até mesmo uma inconsciência do comportamento avaliado.  Através do teste de associação implícita, Greenwald e colegas conseguiram acessar de forma profunda as associações das pessoas tendo como componentes a apresentação de imagens pessoas brancas e negras, e atributos positivos e negativos. A partir de cálculos considerando o tempo do sujeito em fornecer as respostas nestas associações, é possível identificar a latência (o quanto demora para associar  um componente com um atributo). Quanto menor esta latência, maior a associação. Portanto, haveria algum traço de racismo quando os atributos negativos associados às imagens de pessoas negras tivessem um tempo de resposta significativamente menor do que os atributos negativos associados às imagens de pessoas brancas. Da mesma forma, qual resposta você imaginaria que um pesquisador teria se perguntasse em época de pandemia se é um risco continuar com uma vida social ativa?

Realizamos 209 entrevistas através da internet, utilizando nossa plataforma de teste de associação implícita. A amostra foi de 136 mulheres e 73 homens, de diferentes partes do país (não houve a preocupação de limitar geograficamente o estudo, pois possui uma abordagem). Vale reforçar que o resultado não possui uma representatividade estatística visto não haver um controle mais detalhado sobre a origem e o perfil da amostra. Os dados, contudo, oferecem indícios interessantes que podem ajudar a entender um pouco melhor as condições que vivemos hoje (últimos dias de Abril/2020).

Os componentes do teste foram imagens de pessoas sozinhas e em grupo e os atributos foram SAUDÁVEL (com palavras como  LIMPO, PROTEGIDO, ESTERILIZADO, IMUNE, HIGIÊNICO) e DOENTE (as palavras como CORONA VÍRUS, CONTÁGIO, FEBRE, TOSSE, FALTA DE AR). Os resultados demonstram que não há diferença estatística entre a associação SAUDÁVEL + SOZINHO e DOENTE + EM GRUPO  com a situação inversa. O que seria desejável em uma época como a que vivemos é que a associação SAUDÁVEL + SOZINHO e DOENTE + EM GRUPO tivesse uma latência menor do que SAUDÁVEL + EM GRUPO e DOENTE + SOZINHO. Em outras palavras, a primeira composição é mais desejada do que a segunda composição. Um gráfico semelhante foi obtido quando analisado exclusivamente para homens e mulheres, portanto, também não há diferença significativa entre sexos.

Repito que este não é um estudo que tenha validade inferencial, mas  é possível observar alguns indícios:

  • É muito provável que as pessoas ainda não absorverem subjetivamente o risco do convívio social e isso somente aconteça quando a doença começar a se aproximar cada vez mais dos círculos sociais das pessoas.
  • Caso estar em grupo é um risco, o estar sozinho não garante a imagem de saúde. O desgaste emocional que representa o isolamento não é saudável.  Desgastes emocionais fruto da rotina em um ambiente restrito pode trazer ônus psicológico às pessoas. Este risco pode estar muito mais próximo das pessoas do que o vírus. Quando esta relação se inverter, com a disseminação do vírus, muito provavelmente as associações implícitas também se inverterão.

 

Eyetracking sem equipamento ou entrevistas??? Saiba como funciona os modelos de visão computacional.

Os sistemas 1 e 2 foram nomes cunhados pelos psicólogos Keith Stanovich e Richard West, mas popularizados pelo psicólogo Daniel Kahneman, vencedor do prêmio Nobel, em seu livro Rápido e devagar, duas formas de pensar. O primeiro refere-se a processos automáticos, emocionais e involuntários enquanto o segundo é racional e lógico. Não são partes do cérebro, mas sim uma proposta de como ele funcional. A pesquisa de mercado tradicional explora o sistema 2, e a neurociência busca entender o sistema 1. Neste, o processo visual é ponto central e onde os estudos de eyetracking assumem uma relevância muito grande.

Mas, quando se fala em eyetracking, logo pensamos em equipamentos muito caros e softwares complexos de análise. Há um campo da psicologia cognitiva que estuda de forma computacional o processo de visão. O olho é um órgão que, funcionalmente, opera de maneira muito similar entre as pessoas. As cores, por exemplo, são ondas eletromagnéticas que sensibilizam determinadas enzimas situadas  na retina (cones) que quebram em função das diferentes frequências de ondas. Portanto, a visão é um processo bioquímico, possível de ser emulado pelo computador.

Em outras palavras, a visão computacional consiste em um estudo de eyetracking sem a necessidade de realizar entrevistas com equipamentos especiais. Valendo-se de algoritmos de avaliação de imagem, o computador simula o mecanismo de visão humano, oferecendo como resultados indicadores de desempenho visual como heatmaps, fixações e sequência de visualização.

Além do processo de percepção de cores, outros elementos são igualmente possíveis de serem simulados: a orientação dos elementos da imagem, a concentração dos elementos presentes na superfície visual, a intensidade (ou luminosidade) dos diferentes elementos da cena visual, a relação de tamanho entre os diferentes elementos na imagem, sobreposições entre os elementos, a presença de texto (e a quantidade existente),  texturas presentes na imagem  e a presença de faces (que possuem uma grande capacidade de atração visual). Aspectos como simetria e a relação entre o tamanho dos elementos presentes em uma embalagem também é algo importante.

A embalagem acima é um resultado de uma simulação de eyetracking utilizando um algoritmo de visão computacional. Observa-se que elementos com alto contraste visual (no caso a palavra DOR) possui um nível grande de saliência visual e é um dos primeiros elementos da embalagem a ser visualizado. O heatmap é fruto da composição das diferentes tonalidade e arranjos de cores, portanto, é o efeito visual percebido.  Quanto maior o nível de complexidade visual, maior a quantidade de áreas cegas que uma embalagem terá. O cérebro assimila de forma mais fácil informações simples, sem a demanda de esforço. E, sobretudo, prioriza informações. Assim, é importante identificar se nas áreas visíveis estão todas as informações relevantes para o consumidor e estratégicas para a marca. Isto pode ser também avaliado pelo Scanpath (última imagem), onde é possível avaliar se as informações relevantes estão sendo vistas primeiro.

Diversos modelos de avaliação de saliência visual estão disponíveis nas publicações científicas. Normalmente eles funcional com filtros de diferentes naturezas, capazes de fazerem a leitura das informações das imagens. Mas, há diferenças entre os estudos feitos com visão computacional e os tradicionais estudos utilizando pessoas? Em parte não e em parte sim. Em alguns pontos, estes modelos são muito bons para capturar processos automáticos, contudo, quando há elementos emocionais, aí é que mora o perigo. Por exemplo, se utilizarmos o rosto de uma modelo qualquer ou de uma atriz querida e famosa, a plataforma não consegue ponderar emocionalmente a diferença entre ambas. Elementos de afetividade de marca, por exemplo, ficam de fora. Os estímulos são analisados em função das suas propriedades ópticas e não da mensagem do conteúdo.

Mas se não são avaliadas características relevantes da mensagem da embalagem ou comunicação, por que são interessantes estudos de eyetracking fundamentados na visão computacional e inteligência artificial? Porque são as propriedades ópticas que vão estimular o sistema 1 !!! É certo que os elementos emocionais, também pertencentes a este sistema, somente podem ser avaliados com entrevistas. Mas imagine que uma empresa possui cinco diferentes rotas criativas para uma propaganda impressa. Testar todas em entrevistas é algo complicado, especialmente se forem também considerados os concorrentes. Mas se utilizarmos a visão computacional para entender as propriedades psico-físicas das embalagens e, em um segundo momento, realizar o estudo das duas melhores, é um bom caminho!

Os desafios de montar um neurolab.

Muito se tem falado a respeito de neuromarketing, mas o que realmente é este campo do conhecimento? Longe de ser um conjunto de concepções pré-formuladas a respeito do consumidor com interesses comerciais, esta é uma ferramenta de pesquisa de mercado muito poderosa. As raízes do neuromarketing estão no fato do ser humano possui um processo de decisão emocional e não somente racional. E a neurociência possui dispõe de recursos para avaliar impactos emocionais.

Acredito que a melhor definição para neuromarketing está no Journal of Consumer Psychology feita por Plassmann, Ramsøy e Milosavljevic (2012): neuromarketing se refere ao uso de ferramentas neurofisiológicas, como rastreamento ocular (eyetracking), condutância da pele (GSR), eletroencefalografia (EEG) e ressonância magnética funcional (fMRI), para realizar pesquisas de mercado específicas. Portanto, o neuromarketing tem como principal foco endereçar problemas específicos de marketing das empresas. Diferentes empresas com diferentes problemas estarão sujeitas a diferentes insights em neuromarketing. Estamos falando de esforços experimentais para compreender mais a fundo o comportamento do consumidor.

Quando se fala em neuromarketing, é necessário falar também de um laboratório para que os estudos sejam realizados. Afinal, estamos falando de pesquisa de mercado!! Agora, como construir este laboratório? Aqui certamente vem a imagem de uma montanha de dinheiro a ser investida, mas isso não é fato. Existe uma forte relação inversa entre o domínio teórico do pesquisador e o montante de dinheiro a ser mobilizado. Se você quer entrar nessa área com pouco investimento, terá de dominar, além de conceitos de neurociência, diferentes tipos de sensores e algumas diferentes categorias de bibliotecas de linguagem de programação. Sem contar softwares de análises de dados, como Matlab ou R. Mas há também o caminho mais caro, porém mais simples: investindo-se uma montanha de dinheiro em softwares de mercado. Eles são capazes de simplificar muito os esforços de conhecimento, mas há um custo para isso.

Fundamentalmente, a construção de um neurolab passa pela escolha e aquisição de três tipos de insumos: sensores, softwares de coleta e softwares de análise. Há empresas que oferecem soluções únicas (conforme mencionei), com estes três requisitos unificados em uma única oferta. Mas se quer algo mais em conta, você pode pensar nestas três soluções isoladamente.E depois unificá-las em uma única metodologia de pesquisa.

1- Sensores: normalmente consiste em eletrodos a serem conectados em alguma parte do corpo dos participantes do estudo, de modo a fazerem leitura das respostas do sistema nervoso central. Podem ser instalados no escalpo, como EEG (que mede ondas elétricas no cérebro), nos músculos da face (como o EMG, que mensura o nível de contração dos músculos da face) ou conectados nos dedos, capazes de medir o nível de batimentos cardíacos ou a condutância elétrica da pele.

2- Softwares de coleta de dados: ter apenas os sensores não significa muito. É necessário um software capaz de gerenciar a coleta de dados, sobretudo sincronizando os estímulos e a leitura dos sensores. E capazes também de avaliar dados espúrios (artefatos) que possam contaminar a qualidade dos dados. Existem na literatura acadêmica alguns softwares que buscam oferecer uma solução básica para a leitura destes sensores. Denominados programas de código aberto, é necessário que haja um certo esforço de programação para tornar estes programas funcionais em estudos de mercado. Algumas soluções em Arduino são bem interessantes.

3- Softwares de análise estatística: como toda pesquisa de mercado, o produto final da coleta de dados de neuromarketing são bancos de dados. Até aí não temos informação nenhuma. Os insights vêm a partir da análise dos dados. O domínio de técnicas estatísticas, comuns em neurociência, são muito úteis para conseguir fazer um bom proveito destes dados. Sugiro enfaticamente a utilização do software R, gratuito e com grande poder de processamento.

Veja que montar um neurolab pode ser algo muito mais barato do que imagina, porém, é necessário um forte esforço de conhecimento. Este caminho, apesar de complexo, pode ser muito proveitoso. Soluções ‘industrializadas’ possuem pouca flexibilidade de análise. O caminho mais árduo, apesar de ser mais demorado, possibilita uma melhor exploração dos dados. E diferentes linhas analíticas a serem adotadas. Já a aquisição de uma solução ‘ready to use’ pode economizar muito tempo e esforço.

O que acha? Qual o melhor caminho a percorrer?

Os desafios da pesquisa com consumidores.

Compreender pessoas de forma individual já não é fácil. Imagina reunir um grupo delas e procurar encontrar padrões que possam justificar ou orientar ações de marketing. E mais… fazer com que estas pessoas consigam oferecer opiniões que realmente reflitam o seu modo de pensar e/ou agir. Quem vive pesquisa sabe de todos os esforços para tentar isentar aquilo que chamamos de ‘viés’ ou tendências de respostas. Temos de ter sempre em mente que o erro e a incerteza é algo sempre presente nos estudos, quer sejam acadêmicos ou de mercado. Não existe pesquisa sem erro. Contudo, os esforços metodológicos sempre buscam reduzir o máximo este erro.

De onde vêm os erros de pesquisa? Há os famosos erros amostrais, que não vamos te aborrecer com estes conceitos. Afinal, quem gosta de pesquisa não precisa gostar necessariamente de estatística! A questão central está, de um lado, na forma como o estudo é construído e de outro, na capacidade da coleta de dados refletir a realidade. Quero abordar, particularmente, este segundo ponto. Alguns desafios se fazem necessários equacionar no processo de coleta de dados: o primeiro está relacionado a construção de um material de entrevista compreensível para os entrevistados. O segundo reside na capacidade do entrevistado ter um portfólio verbal capaz de traduzir o que se quer saber e responder de forma apropriada. Aí que reside o perigo. Não é raro observar um material de entrevista construído com qualidade, mas pouco compreendido pelos entrevistados. O evidente problema de formação escolar da nossa sociedade torna parte da população com um repertório verbal cada vez mais restrito, inclusive em alguns extratos sociais mais elevados.

Será que a neurociência pode ajudar a reduzir este problema de pesquisa? A resposta é: provavelmente. Suponhamos que estamos medindo o quanto um grupo de pessoas gostou da textura de determinado creme, comparativamente a outra opção controle no estudo. Podemos reunir vários adjetivos que expressam esta preferência, mas dificilmente algo será tão eloquente quanto a apresentação de uma variação de 20% do ritmo cardíaco. Como ainda testar se um determinado cosmético, com apelo relaxante, realmente oferece esta condição física? O entrevistado pode até manifestar-se que sim, encontra-se relaxado e ilustrar, com o seu repertório verbal, os sentimentos que o produto oferece. Mas será que isso acontece por um efeito do produto ou uma reação de alinhamento voluntário e proposital com o objetivo do estudo? Agora, identificar que realmente houve um aumento de ondas alfa no cérebro e o participante se encontra em estado mais contemplativo, isto é algo importante. Não podemos nunca esquecer todos os adjetivos que ilustram a percepção do consumidor, mas identificar biometricamente as variações nestes sujeitos pode proporcionar uma redução significativa de algumas incertezas nos estudos de mercado.

Por que a neurociência é importante na pesquisa de mercado?

Quem convive com os desafios de compreender o comportamento do consumidor conhece a grande dificuldade que é poder relatar comportamentos com um certo nível de precisão. Não é raro em pesquisas sensoriais e de preferência serem realizados testes estatísticos sem qualquer significância. Discriminar opiniões não é nada fácil.

A pesquisa de mercado sofre de um problema crônico: conseguir lidar com dados discretos e arbitrários. As famosas escalas são recursos muito importantes para medir comportamento. E os únicos recursos até hoje disponíveis para este fim. Quando montamos um questionário, utilizamos notas ou números que procuram expressar uma determinada magnitude. Contudo, dois indivíduos que fornecem a mesma nota, não significam necessariamente que possuem a mesma percepção do produto. O inverso também é verdadeiro. Já ouviram alguém dizer que não dá 10 para produto nenhum? Ou já passaram por situações onde o entrevistado quer adivinhar a nota mais apropriada para o estudo, em detrimento do seu pensamento? Quando avaliamos uma escala de satisfação com marcas, um sujeito oferece nota 8 e outro nota 9: o que exatamente representa esta unidade de diferença entre ambos?

Uma das características importantes da neurociência é oferecer dados contínuos aos estudos. Estes dados métricos conseguem fazer com que as análises estatísticas tenham maior sensibilidade. E a relação entre os dados obtidos não é arbitrária. Isso proporciona uma possibilidade estatística muito interessante. Os dados são mais sensíveis para testes de médias, por exemplo.

Quais seriam estes dados métricos? Estamos falando de escores de resposta galvânica da pele, quantidade de batimentos cardíacos, tempo de resposta em testes de associação, estatísticas visuais de um determinado estímulo, valores de modulagem em eletroencefalograma, mensuração de contrações musculares em eletromiografia, entre outros.

Outro ponto muito interessante que os dados contínuos obtidos na neurociência favorecem a pesquisa de mercado é que, graças a maior variação entre os valores coletados (variância), a amostra necessária para projetos pode ser menor. Isto significa dizer que a neurociência não somente oferece maior poder de mensuração, como pode trazer projetos mais baratos, devido a natureza contínua dos dados coletados. Diferentes das boas e velhas escalas.

Um terceiro ponto que justifica o uso da neurociência em pesquisa de mercado é a possibilidade de analisar os dados de resposta involuntária com o conteúdo declarado. O poder de insights desta análise muito grande!

Somente a propriedade contínua dos dados já faz a neurociência trazer avanços para a pesquisa de mercado!! E olha que nem falamos ainda do conhecimento aplicado de neuro.

Os riscos do neuromarketing.

Na literatura científica internacional é muito comum ver os termos Neuromarketing e Consumer Neuroscience com o mesmo significado: usar a neurociência para procurar explicar o comportamento do consumidor e o processo de decisão de compra.

Nos últimos anos começaram a surgir empresas e profissionais que se dedicam a estudar e ampliar as fronteiras de conhecimentos sobre este tema. Contudo, será que existe diferença entre os estudiosos que copilam o conhecimento de experimentos publicados e os transforma em uma base de para cursos / palestras e uma nova geração de pesquisadores de mercado que utilizam as ferramentas da neurociência para compreender de forma específica como os consumidores reagem a estímulos de marketing? Vejo que sim. O neuromarketing possui como foco entender de forma profunda o consumidor, mesmo propósito da pesquisa de mercado. A neurociência pode ser vista como uma opção metodológica, assim como seriam a etnografia, semiótica, grupos on line e outros tantos recursos disponíveis para compreender o consumidor.

Difundir o conhecimento dos achados publicados em neuromarketing é muito importante, mas é preciso tomar cuidado com regras que se transformam em chaves para abrir qualquer porta. Muitos processos mentais são ancestrais e integram mecanismos automáticos de resposta do comportamento. Contudo, existem também processos que são socialmente adquiridos e que incorporam nossa matriz de decisão. Isso ajuda a inserir um elemento de incerteza às regras estabelecidas. Outro ponto altamente relevante é a natureza e as particularidades de cada estímulo de marketing. E o contexto em que atua. Aqui inserimos dois elementos de incerteza que podem afetar as regras construídas. Isso demonstra que os resultados do neuromarketing são contextuais, variando de público e produto. Uma verdade para um determinado segmento ou categoria pode não prevalecer em todos os casos.

Portanto, é importante compreender que, sem a parte experimental, as decisões do mix de marketing utilizando apenas o corpo teórico do neuromarketing podem ser de grande risco, pois desconsidera os aspectos aprendidos dos consumidores e as características contextuais da empresa no mercado.