Categoria Nenc

Check-All-That-Apply (CATA) + medidas psicométricas: o fim do problema da discriminação

Você já teve a experiência de aplicar um questionário de atributos de produtos e quando realiza a análise não consegue chegar com precisão a uma conclusão? A incidência de pessoas que aprovam os diferentes produtos testados é alta e você não identifica com exatidão qual o preferido? Os testes estatísticos de diferença de médias não são significativos? A boa notícia é que você não está sozinho. Isto é muito comum em estudos que utilizam métodos de questionário de avaliação.  

Por que isso acontece? Quando se aplica uma bateria de atributos, quer seja em padrão dicotômico (ausência ou presença de determinado atributo) ou uma escala de avaliação, a variância dos dados é pequena, o que demanda normalmente uma grande amostra para conseguir obter resultados mais confortáveis. Seria como medir com uma trena que tivesse apenas as marcações a cada metro. Certamente é uma medida que ajuda muito no processo de decisão, mas o nível de resolução é baixo, o que leva a necessidade de construção de amostras relativamente grandes para que esta medida tenha algum sentido. Mas imagine se conseguíssemos inserir nessa trena as marcações de centímetros também. Será que facilitamos o processo de discriminação entre os sujeitos? Claro que sim! É aí que entra a neurociência!! 

Um dos campos da neurociência cognitiva se chama psicometria. Em uma perspectiva mais simples, é o campo que estuda as medidas mentais. Não é algo novo, mas ainda restrito ao mundo da psicologia cognitiva. A aplicação de conceitos psicométricos nos estudos sensoriais pode ajudar MUITO a resolver as dores e incertezas que são sentidas na hora de avaliar os dados e permite chegar a conclusões mais confortáveis e seguras. Como isso é possível? O professor Arthur Jansen (2006), em seu livro Clocking the mindMental Chronometry and Individual Differencesmostra os conceitos da cronometria cerebral e como ela está associada a mensuração dos processos mentais. O fundamento desta obra está na análise do tempo de resposta (TR) como recurso de avaliação das itens de um teste. A regra é simples: quanto mais rápida é uma resposta, mais aderente é o atributo ao produto avaliado. As conexões mentais congruentes facilitam o raciocínio e, por consequência, a resposta será oferecida em um tempo menor. Mas é preciso dizer que estamos falando em uma resolução de milissegundos!! O uso do TR é amplamente utilizado pela literatura cognitiva internacional e se mostra muito poderoso para discriminar respostas e obter com maior precisão análises significantes. Ok, mas como isso funciona? Vamos a um estudo de caso.  

Imagine que se pretende avaliar 8 atributos de uma determinada bebida, considerando 2 diferentes marcas. Estes atributos seriam aplicados como um Check-All-That-Apply (CATA), onde cada entrevistado avalia a presenta ou ausência do atributo, através de respostas SIM /NÃO em diversas tarefas, que procuram associar cada produto às diferentes características avaliadas. Este experimento é programado em uma plataforma que registra além da resposta, o tempo em que ela é fornecida. Esta é uma metodologia que demanda o uso de recursos eletrônicos porque precisamos medir a cronometria cerebral em uma razão de milissegundos. Mas a nossa plataforma roda em celulares, o que facilita muito a aplicação. O entrevistado pode responder a bateria de atributos valendo-se de um smartfone conectado a internet. Ah… e o participante recebe a instrução de fornecer as respostas o mais rápido possível.  

Considere os seguintes resultados: 

Você consegue perceber a diferença na análise? E mais uma notícia interessante: estes dados foram obtidos somente com 20 entrevistas!! Algo que este tipo de recurso possibilita é o uso de amostras menores, sobretudo porque os dados não possuem uma característica discreta, mas sim são contínuos. Explicando: dados discretos são números inteiros (como o valor atribuído a escala entre 0 e 10, por exemplo) e dados contínuos são padrões numéricos que possuem uma resolução maior, por exemplo o tempo, que pode ser medido em uma razão de centenas de milissegundos. Consegue ver a diferença na magnitude dos dados? Como existe uma maior variabilidade, a quantidade de pessoas necessárias para identificar diferenças entre os produtos é bem menor. O que torna os estudos muito mais baratos.  

O que você acha disso? Será que vale a pena continuar utilizando o método tradicional CATA para avaliar produtos? Em futuros posts falaremos sobre a riqueza de variações que podem ser utilizadas nesta perspectiva. Deixe sua opinião!  

Avaliação Sensorial e Neurociência

A análise sensorial é o elemento fundamental para avaliar a qualidade dos produtos e a aceitação dos seus consumidores. Estes testes são essenciais para que a indústria consiga reduzir riscos de rejeições e obterem produtos que encontrem aceitação de mercado. A decisão de lançar um produto, redesenhá-lo ou até abortar o seu desenvolvimento muitas vezes está fundamentada nos resultados destes estudos. É crítico para as empresas um processo de avaliação sensorial que ofereça precisão das respostas de aceitação ou não dos consumidores.   

A pesquisa sensorial, atualmente, segue em duas direções: na primeira estão os estudos que buscam uma medida explícita, pedindo aos consumidores que relatem suas próprias emoções e sentimentos em relação aos produtos. Na segunda, pesquisas fundamentadas em medidas implícitas, como alterações no sistema nervoso autônomo (SNA) e / ou alterações no comportamento, como a expressão facial, que oferecem insights através das respostas inconscientes do consumidor. A primeira direção mostra não ser uma preditora totalmente confiável da preferência final do cliente. Primeiro, porque os respondentes tendem a usar sua própria escala relativa e pontos particulares de referência para construírem suas avaliações, além da possibilidade de terem uma memória distorcida e tendenciosa da experiência emocional real. Um segundo problema refere-se à limitação que os dados de auto relato (questionários de entrevistas que procuram medir a experiência dos participantes dos estudos através da sua própria percepção e compreensão dos estímulos) têm em discriminar as respostas oferecidas pelos participantes. Isso pode acontecer pela natureza subjetiva da experiência sensorial ou pela condição de que os sujeitos são capazes de avaliar a experiência como um todo e não conseguir muitas vezes, decupar os efeitos cognitivos da experiência sensorial. Esta natureza subjetiva dos testes de aceitabilidade levaria a necessidade de que um número maior de consumidores avalie as amostras para obter resultados mais consistentes, o que consumiria mais tempo e recursos. Um terceiro problema seria a natureza dos dados produzidos pelas escalas de auto relato. Além da característica arbitrária de construção do instrumento de avaliação, os dados discretos reduzem a capacidade de discriminação entre os sujeitos, diferentemente do que aconteceria em uma condição de dados contínuos.   

Devido à estas limitações, a segunda perspectiva começa a ganhar atenção crescente nos estudos sensoriais, visto a sua capacidade de obter respostas mais profundas dos consumidores e não estarem sujeitas ao viés e filtros conscientes a respeito dos produtos. A Figura 1 ilustra a diferença entre estas duas perspectivas. Nela, é possível observar que os dados coleados por meio de recursos biométricos não estão sujeitos a filtros de diferentes níveis que podem enviesar as respostas conscientes.  

Figura 1- Pesquisa clássica e mercado e pesquisa envolvendo neurociência. No primeiro caso, há uma série de filtros de processamento aos quais os estímulos estão submetidos. No segundo caso, as respostas biométricas são medidas em tempo quase que imediato. (LOMBARDI; ANNAMARIA, 2017, p. 43)

A neurociência é o estudo do sistema nervoso com uma abordagem interdisciplinar que combina os campos da biologia, medicina, genética, física, química, ciência da computação e engenharia.

Mais recentemente, estudos sensoriais com consumidores incorporaram biometria, que envolve o uso de técnicas de medição individual para obter dados fisiológicos, muitos deles manifestações do SNA, como frequência cardíaca, temperatura corporal e expressão facial, que ajudam a avaliar as respostas inconscientes dos participantes. Estas medidas estão associadas a sensores capazes de identificar sinais de eletrocardiografia, temperatura eletromiografia facial, resposta galvânica da pele e medidas de taxa de respiração. Os resultados destes dispositivos podem oferecer uma medida emocional muito mais acurada de respostas aos produtos cosméticos do que os tradicionais questionários de auto-relato. 

Uma terceira característica pode ser acrescentada a este cenário: a neurociência permite coletar dados no momento em que os produtos são experimentados, diferente dos questionários tradicionais que relatam a experiência consumada. Ao possibilitar decupar diferentes estágios da experiência sensorial, uma nova perspectiva analítica surge. Por exemplo, é possível solicitar em um teste sensorial que a pessoa veja, sinta o odor e depois prove um determinado alimento. Os dados biométricos possibilitam identificar a magnitude de reação destas experiências sensoriais e avaliar qual aquela que possui maior influência em um escore de overall likeability, coletada através do questionário. Em uma perspectiva estatística, a variável dependente seria a nota geral do consumidor para o produto e as variáveis independentes as diferentes medidas sensoriais coletadas.  

Em suma, o questionário não pode ser desprezado, pois ainda será ele que irá determinar a opinião geral do consumidor. Mas a neurociência irá permitir um detalhamento muito maior da experiência, com dados de natureza mais precisa e capaz de isolar diferentes sentidos (visão, olfato e paladar), de modo a compreender de uma forma multissensorial a opinião do consumidor.  

 

A Neurociência e a Avaliação do Impacto de Propaganda

As reações frente aos anúncios publicitários constituem um fenômeno complexo, que são desenvolvidos com foco nas emoções e nos aspectos cognitivos de um determinado público-alvo. A composição de imagens, músicas e recursos audiovisuais que constituem a propaganda pode atingir níveis emocionais e cognitivos profundos, que garantiria a uma assimilação mais duradoura da propaganda. Este ‘despertar emocional’ (arousal) favorece a atitude com o produto ou marca, lembrança e probabilidade de compra. Determinadas propagandas de TV podem aumentar atividade cerebral, principalmente quando ativam a faixa teta gama no hemisfério esquerdo do cérebro, o que facilitaria o processo de memorização da comunicação.  

Contudo, avaliar o impacto e as medidas de respostas dos sujeitos à comunicação é algo problemático porque as mensurações convencionais não são capazes de refletir o processo que ocorre entre a recepção dos estímulos e a resposta comportamental. A avaliação da comunicação é realizada normalmente por meio de pesquisas que envolvem a aplicação de questionários de auto avaliação (ou auto relato). Apesar de amplamente utilizado, este recurso não é capaz de medir de forma apropriada processos mentais subjacentes que demonstrem como a comunicação pode modular o aspecto cognitivo dos expectadores. Há um ceticismo crescente em relação a este tipo de avaliação de comunicação, sobretudo porque as respostas verbalizadas possuem limitações e não oferecem uma clara perspectiva das reações internas (mentais) a respeito da propaganda.  

Diferente das pesquisas de opinião a respeito da propaganda, cujas escalas dos questionários representam um significado relativo para cada indivíduo (certamente uma nota sete avaliada por dois sujeitos diferentes possuem representações diferentes), as respostas neurofisiológicas acontecem de forma similar entre os indivíduos e a partir delas é possível identificar padrões cognitivos de reações a propaganda. Medidas neurofisiológicas mostram ser um complemento objetivo para os dados declarativos subjetivos, que podem permitir que os profissionais de marketing retratem não somente os elementos conscientes, mas também inconscientes da comunicação.  

O objetivo de toda a propaganda, em última instância, é interferir no comportamento dos consumidores e para isso ela deverá ser memorizada e ativada na memória operacional no momento da compra. A memória operacional (também chamada de memória de curto prazo) consiste em uma estrutura de armazenamento temporário para onde as informações da memória de longo prazo e do ambiente são levadas, para serem processadas e irá orientar o comportamento da pessoa e o processo de decisãoOutras duas estruturas de memória estão envolvidas no processamento da propaganda: a implícita e a explícita. A explícita envolve as informações conscientemente conhecidas e regatadas em função de experiências particulares. A implícita é geralmente o resultado do aprendizado de uma experiência anterior passiva, não consciente e não recordável intencionalmente.  O processo de memorização pode acontecer de forma consciente através do indivíduo operando o foco de atenção (por meio da memória operacional) ou de forma inconsciente.  O processamento inconsciente do consumidor pode ser rápido, involuntário e automático, não sujeito a limitações de capacidade da memória operacional e sempre ativado a partir de certos gatilhos cognitivos. Conforme demonstra a Figura 1, há uma rota que a comunicação pode percorrer de forma inconsciente, onde a informação entra por meio de uma atenção não direcionada. Uma segunda rota pode ser consciente, onde a atenção tende a ser limitada e seletiva, fruto do próprio processo atentivo. Isto significa dizer que operações conscientes podem estar sujeitas ao processamento da memória de operacional. 

Figura 1: Modelo conceitual, adaptado de Yoo (2008)

Figura 1: Modelo conceitual, adaptado de Yoo (2008)

O processo de memorização pode acontecer de forma consciente através do indivíduo operando o foco de atenção (por meio da memória operacional) ou de forma inconsciente.  O processamento inconsciente do consumidor pode ser rápido, involuntário e automático, não sujeito a limitações de capacidade da memória operacional e sempre ativado a partir de certos gatilhos cognitivos.

O avanço de tecnologias de biometria, como o eletroencefalograma (EEG) dão um novo horizonte à cena publicitária. É possível identificar que determinadas propagandas de TV podem aumentar atividade cerebral, principalmente quando ativam a faixa teta e gama no hemisfério esquerdo do cérebro, o que facilitaria o processo de memorização da comunicação. O campo da neurociência afetiva tem deixado marcas no campo da propaganda e tem levado a avanços importantes no estudo das emoções na comunicação: (1) o centro emocional do cérebro processa informações previamente ao sistema cognitivo e exerce influência significante neste processo; (2) o processamento emocional tem um papel poderoso no direcionamento da atenção e no processo de formação das memórias e (3) em muitos aspectos emocionais, o processamento de informações e aprendizado ocorre automaticamente, sem a consciência direta e envolve áreas distintas do cérebro, independentemente dos centros de linguagem.

Assim, mensurar as reações dos consumidores com recursos não verbais e de forma simultânea à apresentação dos estímulos fornece uma medida mais precisa das reações derivadas dos estímulos publicitários. É importante dizer que sempre a opinião do consumidor, de forma verbalizada, será fundamental para dar ‘forma e cor’ ao que se pensa da propaganda. Mas a utilização de ferramentas da neurociência proporciona identificar momentos de ativação que nem sempre o sujeito possui consciência- normalmente a avaliação é feita por meio de um juízo global da propaganda.

 

 

Sistema , Sistema 2 e diferenciais competitivos em pesquisa de mercado

Tradicionalmente a pesquisa de mercado sempre foi marcada pelo processo de coleta de opiniões de consumidores, com diferentes perspectivas metodológicas. E em grande parte destes momentos, ela conseguiu oferecer explicações bastante razoáveis sobre o comportamento do consumidor. Tanto que elas são ainda fundamentais em qualquer decisão, tanto tática como estratégica. Mas o desafio é que o mundo está ficando mais complexo: os produtos cada vez mais similares, e consequente surgem dificuldades de diferenciação; o que leva a consumidores cada vez menos fiéis às marcas tradicionais, inseridos em um ambiente cada vez mais midiático, sobrecarregado de informações e estímulos sensoriais. Perguntas em um questionário ou roteiro de discussão mostram-se cada vez mais limitados para compreender este cenário cada vez mais complexo onde os produtos disputam espaços e clientes.

Particularmente para as empresas de pesquisa, este é um contexto particularmente nebuloso. O acesso às metodologias clássicas de pesquisa de mercado tornou-se acessível a praticamente todos, onde variações podem ser observadas, mas talvez não suficientemente grandes para trazer novas dimensões de insights. Agrava-se a esta situação um cenário de crescente internalização da inteligência de mercado por parte dos compradores de pesquisa, que absorveram profissionais do mercado e hoje conseguem operacionalizar seus próprios estudos. Em resumo, temos consumidores cada vez mais complexos, estudados de forma semelhantes por profissionais de inteligência de mercado que antes estavam em institutos e hoje se encontram inseridos nos compradores de pesquisas, em áreas de inteligência de mercado cada vez mais robustas. Parece que o espaço para as centenas de empresas de pesquisa de mercado está se estreitando e se tornando cada vez mais desafiador. Mas existe uma boa notícia nesta conjuntura. E uma grande oportunidade!!

Toda a pesquisa de mercado foi construída para absorver o conteúdo racional dos entrevistados. Ainda que se procure explorar os sentimentos por meio de diferentes técnicas ou métodos, o cérebro é dotado de processos complexos e automáticos, que fogem a capacidade de racionalização. Conhecido como Sistema 1, este processo intuitivo e emocional escapa a investigação tradicional de pesquisa. Por exemplo, uma pessoa pode dizer o que viu, mas dificilmente conseguirá verbalizar sobre processos sacádicos (direcionamentos oculares rápidos e involuntários, que duram milissegundos) que podem influenciar inconscientemente todo o processo de decisão. O processamento da informação visual é construído em uma velocidade subliminar, isto é, abaixo do limiar de percepção (‘enxergamos’ estímulos fornecidos com uma velocidade acima de 300 milissegundos). Historicamente não se procurou compreender estes processos automáticos. Em parte, for faltar uma tecnologia apropriada, mas também pela pouca interface com o meio acadêmico, que, não oferecia estas novas perspectivas de estudo. Algo simples, acessível e profundamente relevante em uma pesquisa não é somente a resposta que se oferece, mas sim a velocidade com que isso é feito. Muito do processo automático pode ser capturado pelo tempo de reação dos entrevistados.

A nova fronteira da pesquisa de mercado está na compreensão deste Sistema 1 (que veste a roupagem de neurociência do consumidor ou neuromarketing). O Sistema 2, racional, lento, elaborado, normalmente envolvido em processos de avaliação e julgamento e que demanda maior quantidade de recursos mentais para processamento, sempre foi o ator principal nos estudos do consumidor. Um protagonismo que não corresponde a sua relevância nos processos de decisão. Há elementos que passam fora do radar consciente da verbalização, e que por consequência, os estudos tradicionais não conseguirão capturar. Compreender através de sistemas biométricos como eletroencefalografia, eletromiografia facial, batimentos cardíacos, temperatura corpórea, codificação facial, métodos implícitos, entre outros, oferecem uma nova dimensão aos projetos de pesquisa de mercado. É claro que isso demanda uma adaptação e um processo de reconstrução de conhecimento. E também a demolição de outros tantos paradigmas de pesquisa. Mas está na reconstrução sobre estas ruínas um novo cenário competitivo. Fugir do lugar comum e adotar novas perspectivas de compreensão do processo de venda é o início de uma nova era para os futuros projetos de pesquisa (ou, os projetos de pesquisa do futuro). Será um grande diferencial competitivo para a indústria de pesquisa de mercado, pois passarão a compreender a mente do consumidor de uma forma holística, completa e complexa. Muito além de um simples questionário ou roteiro de discussão.

De forma alguma deve-se pensar que a pesquisa tradicional tende a morrer ou definhar. Ledo engano. Estamos falando de processos complementares, sistemas diferentes e atuantes de forma síncrona nos consumidores. O que a pesquisa de mercado deve fazer é aprimorar os seus recursos para que consiga refinar suas metodologias a fim de incorporar uma parte significativa do iceberg, que ainda está submersa e muito pode ajudar a compreender melhor este novo consumidor.


Curta nossas redes sociais! Entre em contato conosco!

COVID-19 e os valores implícitos face a pandemia.

É muito comum vermos notícias sobre a dificuldade de se obter índices ideais de resguardo da população. Em muitos locais a adesão ao distanciamento social está em níveis abaixo do recomendável. E não é raro identificar comportamento de risco com pessoas formando aglomerados humanos, ou até mesmo tentando levar uma vida  mais próxima do normal. Qual seria a origem deste comportamento? Realizamos um estudo de associação implícita utilizando  nossa plataforma on-line. O link do experimento foi divulgado em redes sociais. Neste estudo, procuramos identificar a percepção subjetiva das pessoas sobre o risco da vida social. No íntimo, há a crença real do risco que representa estarmos em grupo atualmente?

O teste de associação implícita é uma ferramenta criada na psicologia social projetada para detectar as atitudes inconscientes e não manifestas das pessoas. Greenwald Nosek, e Banaji (2003) construíram uma mecânica de avaliação fundamentada no tempo de respostas dos sujeitos. Este teste foi muito utilizado para medir assuntos delicados, como racismo.

É razoável pensar qual resposta teríamos se um pesquisador perguntasse diretamente: você é racista? Um estudo como esse estaria sujeito a vieses de enquadramento social ou até mesmo uma inconsciência do comportamento avaliado.  Através do teste de associação implícita, Greenwald e colegas conseguiram acessar de forma profunda as associações das pessoas tendo como componentes a apresentação de imagens pessoas brancas e negras, e atributos positivos e negativos. A partir de cálculos considerando o tempo do sujeito em fornecer as respostas nestas associações, é possível identificar a latência (o quanto demora para associar  um componente com um atributo). Quanto menor esta latência, maior a associação. Portanto, haveria algum traço de racismo quando os atributos negativos associados às imagens de pessoas negras tivessem um tempo de resposta significativamente menor do que os atributos negativos associados às imagens de pessoas brancas. Da mesma forma, qual resposta você imaginaria que um pesquisador teria se perguntasse em época de pandemia se é um risco continuar com uma vida social ativa?

Realizamos 209 entrevistas através da internet, utilizando nossa plataforma de teste de associação implícita. A amostra foi de 136 mulheres e 73 homens, de diferentes partes do país (não houve a preocupação de limitar geograficamente o estudo, pois possui uma abordagem). Vale reforçar que o resultado não possui uma representatividade estatística visto não haver um controle mais detalhado sobre a origem e o perfil da amostra. Os dados, contudo, oferecem indícios interessantes que podem ajudar a entender um pouco melhor as condições que vivemos hoje (últimos dias de Abril/2020).

Os componentes do teste foram imagens de pessoas sozinhas e em grupo e os atributos foram SAUDÁVEL (com palavras como  LIMPO, PROTEGIDO, ESTERILIZADO, IMUNE, HIGIÊNICO) e DOENTE (as palavras como CORONA VÍRUS, CONTÁGIO, FEBRE, TOSSE, FALTA DE AR). Os resultados demonstram que não há diferença estatística entre a associação SAUDÁVEL + SOZINHO e DOENTE + EM GRUPO  com a situação inversa. O que seria desejável em uma época como a que vivemos é que a associação SAUDÁVEL + SOZINHO e DOENTE + EM GRUPO tivesse uma latência menor do que SAUDÁVEL + EM GRUPO e DOENTE + SOZINHO. Em outras palavras, a primeira composição é mais desejada do que a segunda composição. Um gráfico semelhante foi obtido quando analisado exclusivamente para homens e mulheres, portanto, também não há diferença significativa entre sexos.

Repito que este não é um estudo que tenha validade inferencial, mas  é possível observar alguns indícios:

  • É muito provável que as pessoas ainda não absorverem subjetivamente o risco do convívio social e isso somente aconteça quando a doença começar a se aproximar cada vez mais dos círculos sociais das pessoas.
  • Caso estar em grupo é um risco, o estar sozinho não garante a imagem de saúde. O desgaste emocional que representa o isolamento não é saudável.  Desgastes emocionais fruto da rotina em um ambiente restrito pode trazer ônus psicológico às pessoas. Este risco pode estar muito mais próximo das pessoas do que o vírus. Quando esta relação se inverter, com a disseminação do vírus, muito provavelmente as associações implícitas também se inverterão.

 

Eyetracking sem equipamento ou entrevistas??? Saiba como funciona os modelos de visão computacional.

Os sistemas 1 e 2 foram nomes cunhados pelos psicólogos Keith Stanovich e Richard West, mas popularizados pelo psicólogo Daniel Kahneman, vencedor do prêmio Nobel, em seu livro Rápido e devagar, duas formas de pensar. O primeiro refere-se a processos automáticos, emocionais e involuntários enquanto o segundo é racional e lógico. Não são partes do cérebro, mas sim uma proposta de como ele funcional. A pesquisa de mercado tradicional explora o sistema 2, e a neurociência busca entender o sistema 1. Neste, o processo visual é ponto central e onde os estudos de eyetracking assumem uma relevância muito grande.

Mas, quando se fala em eyetracking, logo pensamos em equipamentos muito caros e softwares complexos de análise. Há um campo da psicologia cognitiva que estuda de forma computacional o processo de visão. O olho é um órgão que, funcionalmente, opera de maneira muito similar entre as pessoas. As cores, por exemplo, são ondas eletromagnéticas que sensibilizam determinadas enzimas situadas  na retina (cones) que quebram em função das diferentes frequências de ondas. Portanto, a visão é um processo bioquímico, possível de ser emulado pelo computador.

Em outras palavras, a visão computacional consiste em um estudo de eyetracking sem a necessidade de realizar entrevistas com equipamentos especiais. Valendo-se de algoritmos de avaliação de imagem, o computador simula o mecanismo de visão humano, oferecendo como resultados indicadores de desempenho visual como heatmaps, fixações e sequência de visualização.

Além do processo de percepção de cores, outros elementos são igualmente possíveis de serem simulados: a orientação dos elementos da imagem, a concentração dos elementos presentes na superfície visual, a intensidade (ou luminosidade) dos diferentes elementos da cena visual, a relação de tamanho entre os diferentes elementos na imagem, sobreposições entre os elementos, a presença de texto (e a quantidade existente),  texturas presentes na imagem  e a presença de faces (que possuem uma grande capacidade de atração visual). Aspectos como simetria e a relação entre o tamanho dos elementos presentes em uma embalagem também é algo importante.

A embalagem acima é um resultado de uma simulação de eyetracking utilizando um algoritmo de visão computacional. Observa-se que elementos com alto contraste visual (no caso a palavra DOR) possui um nível grande de saliência visual e é um dos primeiros elementos da embalagem a ser visualizado. O heatmap é fruto da composição das diferentes tonalidade e arranjos de cores, portanto, é o efeito visual percebido.  Quanto maior o nível de complexidade visual, maior a quantidade de áreas cegas que uma embalagem terá. O cérebro assimila de forma mais fácil informações simples, sem a demanda de esforço. E, sobretudo, prioriza informações. Assim, é importante identificar se nas áreas visíveis estão todas as informações relevantes para o consumidor e estratégicas para a marca. Isto pode ser também avaliado pelo Scanpath (última imagem), onde é possível avaliar se as informações relevantes estão sendo vistas primeiro.

Diversos modelos de avaliação de saliência visual estão disponíveis nas publicações científicas. Normalmente eles funcional com filtros de diferentes naturezas, capazes de fazerem a leitura das informações das imagens. Mas, há diferenças entre os estudos feitos com visão computacional e os tradicionais estudos utilizando pessoas? Em parte não e em parte sim. Em alguns pontos, estes modelos são muito bons para capturar processos automáticos, contudo, quando há elementos emocionais, aí é que mora o perigo. Por exemplo, se utilizarmos o rosto de uma modelo qualquer ou de uma atriz querida e famosa, a plataforma não consegue ponderar emocionalmente a diferença entre ambas. Elementos de afetividade de marca, por exemplo, ficam de fora. Os estímulos são analisados em função das suas propriedades ópticas e não da mensagem do conteúdo.

Mas se não são avaliadas características relevantes da mensagem da embalagem ou comunicação, por que são interessantes estudos de eyetracking fundamentados na visão computacional e inteligência artificial? Porque são as propriedades ópticas que vão estimular o sistema 1 !!! É certo que os elementos emocionais, também pertencentes a este sistema, somente podem ser avaliados com entrevistas. Mas imagine que uma empresa possui cinco diferentes rotas criativas para uma propaganda impressa. Testar todas em entrevistas é algo complicado, especialmente se forem também considerados os concorrentes. Mas se utilizarmos a visão computacional para entender as propriedades psico-físicas das embalagens e, em um segundo momento, realizar o estudo das duas melhores, é um bom caminho!

Os desafios de montar um neurolab.

Muito se tem falado a respeito de neuromarketing, mas o que realmente é este campo do conhecimento? Longe de ser um conjunto de concepções pré-formuladas a respeito do consumidor com interesses comerciais, esta é uma ferramenta de pesquisa de mercado muito poderosa. As raízes do neuromarketing estão no fato do ser humano possui um processo de decisão emocional e não somente racional. E a neurociência possui dispõe de recursos para avaliar impactos emocionais.

Acredito que a melhor definição para neuromarketing está no Journal of Consumer Psychology feita por Plassmann, Ramsøy e Milosavljevic (2012): neuromarketing se refere ao uso de ferramentas neurofisiológicas, como rastreamento ocular (eyetracking), condutância da pele (GSR), eletroencefalografia (EEG) e ressonância magnética funcional (fMRI), para realizar pesquisas de mercado específicas. Portanto, o neuromarketing tem como principal foco endereçar problemas específicos de marketing das empresas. Diferentes empresas com diferentes problemas estarão sujeitas a diferentes insights em neuromarketing. Estamos falando de esforços experimentais para compreender mais a fundo o comportamento do consumidor.

Quando se fala em neuromarketing, é necessário falar também de um laboratório para que os estudos sejam realizados. Afinal, estamos falando de pesquisa de mercado!! Agora, como construir este laboratório? Aqui certamente vem a imagem de uma montanha de dinheiro a ser investida, mas isso não é fato. Existe uma forte relação inversa entre o domínio teórico do pesquisador e o montante de dinheiro a ser mobilizado. Se você quer entrar nessa área com pouco investimento, terá de dominar, além de conceitos de neurociência, diferentes tipos de sensores e algumas diferentes categorias de bibliotecas de linguagem de programação. Sem contar softwares de análises de dados, como Matlab ou R. Mas há também o caminho mais caro, porém mais simples: investindo-se uma montanha de dinheiro em softwares de mercado. Eles são capazes de simplificar muito os esforços de conhecimento, mas há um custo para isso.

Fundamentalmente, a construção de um neurolab passa pela escolha e aquisição de três tipos de insumos: sensores, softwares de coleta e softwares de análise. Há empresas que oferecem soluções únicas (conforme mencionei), com estes três requisitos unificados em uma única oferta. Mas se quer algo mais em conta, você pode pensar nestas três soluções isoladamente.E depois unificá-las em uma única metodologia de pesquisa.

1- Sensores: normalmente consiste em eletrodos a serem conectados em alguma parte do corpo dos participantes do estudo, de modo a fazerem leitura das respostas do sistema nervoso central. Podem ser instalados no escalpo, como EEG (que mede ondas elétricas no cérebro), nos músculos da face (como o EMG, que mensura o nível de contração dos músculos da face) ou conectados nos dedos, capazes de medir o nível de batimentos cardíacos ou a condutância elétrica da pele.

2- Softwares de coleta de dados: ter apenas os sensores não significa muito. É necessário um software capaz de gerenciar a coleta de dados, sobretudo sincronizando os estímulos e a leitura dos sensores. E capazes também de avaliar dados espúrios (artefatos) que possam contaminar a qualidade dos dados. Existem na literatura acadêmica alguns softwares que buscam oferecer uma solução básica para a leitura destes sensores. Denominados programas de código aberto, é necessário que haja um certo esforço de programação para tornar estes programas funcionais em estudos de mercado. Algumas soluções em Arduino são bem interessantes.

3- Softwares de análise estatística: como toda pesquisa de mercado, o produto final da coleta de dados de neuromarketing são bancos de dados. Até aí não temos informação nenhuma. Os insights vêm a partir da análise dos dados. O domínio de técnicas estatísticas, comuns em neurociência, são muito úteis para conseguir fazer um bom proveito destes dados. Sugiro enfaticamente a utilização do software R, gratuito e com grande poder de processamento.

Veja que montar um neurolab pode ser algo muito mais barato do que imagina, porém, é necessário um forte esforço de conhecimento. Este caminho, apesar de complexo, pode ser muito proveitoso. Soluções ‘industrializadas’ possuem pouca flexibilidade de análise. O caminho mais árduo, apesar de ser mais demorado, possibilita uma melhor exploração dos dados. E diferentes linhas analíticas a serem adotadas. Já a aquisição de uma solução ‘ready to use’ pode economizar muito tempo e esforço.

O que acha? Qual o melhor caminho a percorrer?

Os desafios da pesquisa com consumidores.

Compreender pessoas de forma individual já não é fácil. Imagina reunir um grupo delas e procurar encontrar padrões que possam justificar ou orientar ações de marketing. E mais… fazer com que estas pessoas consigam oferecer opiniões que realmente reflitam o seu modo de pensar e/ou agir. Quem vive pesquisa sabe de todos os esforços para tentar isentar aquilo que chamamos de ‘viés’ ou tendências de respostas. Temos de ter sempre em mente que o erro e a incerteza é algo sempre presente nos estudos, quer sejam acadêmicos ou de mercado. Não existe pesquisa sem erro. Contudo, os esforços metodológicos sempre buscam reduzir o máximo este erro.

De onde vêm os erros de pesquisa? Há os famosos erros amostrais, que não vamos te aborrecer com estes conceitos. Afinal, quem gosta de pesquisa não precisa gostar necessariamente de estatística! A questão central está, de um lado, na forma como o estudo é construído e de outro, na capacidade da coleta de dados refletir a realidade. Quero abordar, particularmente, este segundo ponto. Alguns desafios se fazem necessários equacionar no processo de coleta de dados: o primeiro está relacionado a construção de um material de entrevista compreensível para os entrevistados. O segundo reside na capacidade do entrevistado ter um portfólio verbal capaz de traduzir o que se quer saber e responder de forma apropriada. Aí que reside o perigo. Não é raro observar um material de entrevista construído com qualidade, mas pouco compreendido pelos entrevistados. O evidente problema de formação escolar da nossa sociedade torna parte da população com um repertório verbal cada vez mais restrito, inclusive em alguns extratos sociais mais elevados.

Será que a neurociência pode ajudar a reduzir este problema de pesquisa? A resposta é: provavelmente. Suponhamos que estamos medindo o quanto um grupo de pessoas gostou da textura de determinado creme, comparativamente a outra opção controle no estudo. Podemos reunir vários adjetivos que expressam esta preferência, mas dificilmente algo será tão eloquente quanto a apresentação de uma variação de 20% do ritmo cardíaco. Como ainda testar se um determinado cosmético, com apelo relaxante, realmente oferece esta condição física? O entrevistado pode até manifestar-se que sim, encontra-se relaxado e ilustrar, com o seu repertório verbal, os sentimentos que o produto oferece. Mas será que isso acontece por um efeito do produto ou uma reação de alinhamento voluntário e proposital com o objetivo do estudo? Agora, identificar que realmente houve um aumento de ondas alfa no cérebro e o participante se encontra em estado mais contemplativo, isto é algo importante. Não podemos nunca esquecer todos os adjetivos que ilustram a percepção do consumidor, mas identificar biometricamente as variações nestes sujeitos pode proporcionar uma redução significativa de algumas incertezas nos estudos de mercado.

Por que a neurociência é importante na pesquisa de mercado?

Quem convive com os desafios de compreender o comportamento do consumidor conhece a grande dificuldade que é poder relatar comportamentos com um certo nível de precisão. Não é raro em pesquisas sensoriais e de preferência serem realizados testes estatísticos sem qualquer significância. Discriminar opiniões não é nada fácil.

A pesquisa de mercado sofre de um problema crônico: conseguir lidar com dados discretos e arbitrários. As famosas escalas são recursos muito importantes para medir comportamento. E os únicos recursos até hoje disponíveis para este fim. Quando montamos um questionário, utilizamos notas ou números que procuram expressar uma determinada magnitude. Contudo, dois indivíduos que fornecem a mesma nota, não significam necessariamente que possuem a mesma percepção do produto. O inverso também é verdadeiro. Já ouviram alguém dizer que não dá 10 para produto nenhum? Ou já passaram por situações onde o entrevistado quer adivinhar a nota mais apropriada para o estudo, em detrimento do seu pensamento? Quando avaliamos uma escala de satisfação com marcas, um sujeito oferece nota 8 e outro nota 9: o que exatamente representa esta unidade de diferença entre ambos?

Uma das características importantes da neurociência é oferecer dados contínuos aos estudos. Estes dados métricos conseguem fazer com que as análises estatísticas tenham maior sensibilidade. E a relação entre os dados obtidos não é arbitrária. Isso proporciona uma possibilidade estatística muito interessante. Os dados são mais sensíveis para testes de médias, por exemplo.

Quais seriam estes dados métricos? Estamos falando de escores de resposta galvânica da pele, quantidade de batimentos cardíacos, tempo de resposta em testes de associação, estatísticas visuais de um determinado estímulo, valores de modulagem em eletroencefalograma, mensuração de contrações musculares em eletromiografia, entre outros.

Outro ponto muito interessante que os dados contínuos obtidos na neurociência favorecem a pesquisa de mercado é que, graças a maior variação entre os valores coletados (variância), a amostra necessária para projetos pode ser menor. Isto significa dizer que a neurociência não somente oferece maior poder de mensuração, como pode trazer projetos mais baratos, devido a natureza contínua dos dados coletados. Diferentes das boas e velhas escalas.

Um terceiro ponto que justifica o uso da neurociência em pesquisa de mercado é a possibilidade de analisar os dados de resposta involuntária com o conteúdo declarado. O poder de insights desta análise muito grande!

Somente a propriedade contínua dos dados já faz a neurociência trazer avanços para a pesquisa de mercado!! E olha que nem falamos ainda do conhecimento aplicado de neuro.

Os riscos do neuromarketing.

Na literatura científica internacional é muito comum ver os termos Neuromarketing e Consumer Neuroscience com o mesmo significado: usar a neurociência para procurar explicar o comportamento do consumidor e o processo de decisão de compra.

Nos últimos anos começaram a surgir empresas e profissionais que se dedicam a estudar e ampliar as fronteiras de conhecimentos sobre este tema. Contudo, será que existe diferença entre os estudiosos que copilam o conhecimento de experimentos publicados e os transforma em uma base de para cursos / palestras e uma nova geração de pesquisadores de mercado que utilizam as ferramentas da neurociência para compreender de forma específica como os consumidores reagem a estímulos de marketing? Vejo que sim. O neuromarketing possui como foco entender de forma profunda o consumidor, mesmo propósito da pesquisa de mercado. A neurociência pode ser vista como uma opção metodológica, assim como seriam a etnografia, semiótica, grupos on line e outros tantos recursos disponíveis para compreender o consumidor.

Difundir o conhecimento dos achados publicados em neuromarketing é muito importante, mas é preciso tomar cuidado com regras que se transformam em chaves para abrir qualquer porta. Muitos processos mentais são ancestrais e integram mecanismos automáticos de resposta do comportamento. Contudo, existem também processos que são socialmente adquiridos e que incorporam nossa matriz de decisão. Isso ajuda a inserir um elemento de incerteza às regras estabelecidas. Outro ponto altamente relevante é a natureza e as particularidades de cada estímulo de marketing. E o contexto em que atua. Aqui inserimos dois elementos de incerteza que podem afetar as regras construídas. Isso demonstra que os resultados do neuromarketing são contextuais, variando de público e produto. Uma verdade para um determinado segmento ou categoria pode não prevalecer em todos os casos.

Portanto, é importante compreender que, sem a parte experimental, as decisões do mix de marketing utilizando apenas o corpo teórico do neuromarketing podem ser de grande risco, pois desconsidera os aspectos aprendidos dos consumidores e as características contextuais da empresa no mercado.