Categoria: Cursos

Alguns conceitos básicos para entender a análise de redes em mídias sociais

Se você está na graduação e pretende fazer algum trabalho sobre mídias sociais (seja a atividade final de uma disciplina, uma leitura num grupo de estudos ou até mesmo o próprio TCC), provavelmente vai se deparar com o livro Redes Sociais na internet (2009), de Raquel Recuero. A pesquisadora – como já mencionei nesse outro post – é hoje a maior referência na academia brasileira quando o assunto é sites de redes sociais (e enfatizo o foco nesse recorte específico, já que outros pesquisadores como André Lemos, por exemplo, possui um trabalho extenso sobre cibercultura “em geral” há muito mais tempo – sendo também um nome importante na área).

A sua influência (ou capital social) na academia tem contribuído para que, nos últimos anos, a técnica de análise de redes sociais tenha se consolidado enquanto parte importante do debate nesse ambiente quando o tema é mídias sociais. Junto a ela, o pesquisador Fábio Malini, do Laboratório de estudos sobre Imagem e Cibercultura (Labic/UFES), também tem sido um importante influenciador (e propagador) do tema, muitas vezes expandido o conhecimento científico para fora da academia – como tem feito também o DAPP-FGV. Seguindo nessa direção, blogs como o Na base dos dados, do jornalista Fábio Vasconcellos, têm apresentado para o “público geral” algumas visualizações de rede que também colaboram para a difusão do tema. Além dele, o Nexo Jornal – que faz um trabalho excelente de análise e visualização de dados – também já publicou algumas matérias com redes.

network_rt_pt_4
Grafo da repercussão da gravação de Michel Temer no Twitter – feito por Fábio Malini e equipe do Labic/UFES

Enquanto no jornalismo (de dados) a técnica é cada vez mais legitimada, no mercado a análise de redes sociais ainda é pouquíssima explorada em toda a sua potencialidade. Embora grandes empresas como Sysomos e Brandwatch tenham incorporado a funcionalidade às suas ferramentas de monitoramento, ainda há muito o que ser aprendido e debatido sobre a técnica como inteligência de negócio. No Brasil, o pioneirismo da V-Tracker e da BrandCare – esta sob a orientação de Tarcízio Silva, à época gerente de produto e pesquisador comprometido com a interação academia/mercado – foi importante para que a Stilingue, uma das ferramentas que mais cresce em popularidade no Brasil atualmente, pudesse se destacar sob o mesmo tema. Ainda assim, há um longo caminho a ser percorrido para que as marcas enxerguem valor nesse tipo de pesquisa – o que nem sempre é culpa delas, mas das próprias ferramentas.

Todo esse cenário elucida a necessidade urgente de popularizarmos ainda mais alguns conceitos básicos sobre análise de redes – tanto na academia e no mercado, mas também na sociedade civil como um todo. No outro post que fiz sobre a mesma temática, compartilhei o documento Network Literacy: Essential Concepts and Core Ideas, traduzido para português pelo IBPAD como Iniciação a Redes: Conceitos Essenciais e Principais Ideias, que apresenta as primeiras ideias sobre os estudos de redes. Como também nesse primeiro momento, analisar o mundo através das redes não é algo exclusivo das Ciências Sociais nem muito menos dos sites de redes sociais, sendo um método de pesquisa comum às disciplinas exatas e biológicas há muito mais tempo. Ou seja, pensar (e analisar) as mídias sociais como redes sociais é apenas um tipo de interpretação possível.

Grafo feito pelo jornalista Thiago Barone em jogo da Champions League para avaliar a “ausência” de Messi (clique para conferir a análise)

É importante entender, portanto, que: 1) as “redes sociais”, em seu sentido mais amplo, são muito anteriores aos fenômenos das mídias sociais e/ou dos sites de redes sociais (Facebook, Twitter, Instagram, etc.) como os quais entendemos hoje – sociólogos estudavam sobre esse tema desde a década de 20, como mencionei anteriormente; e 2) o enfoque sob a prisma de redes sociais para pensar as mídias sociais parte tanto da influência de pesquisadoras relevantes na academia quanto da própria disposição tecnológica das plataformas de sociabilidade digitais, que são em grande parte pautadas no fluxo conversacional e de informações entre os usuários (ou atores) – o que facilita bastante a proposta de análise desses espaços enquanto estruturas de sociabilidade, podendo assim, nas palavras de Raquel Recuero, “observar como a rede existe em relação aos vários elementos que fazem parte dela”.

Então… O que eu preciso saber sobre análise de redes sociais?

O primeiro passo, portanto, é entender o que são redes sociais: no livro “Monitoramento e Pesquisa em Mídias Sociais: metodologias, aplicações e inovações”, Tarcízio Silva e Max Stabile trazem o conceito a partir de David Passmore, que explica o fenômeno como uma “estrutura social composta de indivíduos (ou organizações) chamados de ‘nós’, que são ligados (conectados) por um ou mais tipos de interdependência, como amizade, parentesco, interesse comum, trocas financeiras, aversões, relacionamentos sexuais ou relacionamentos de crença, conhecimento ou prestígio”. Ou seja, como o critério condicional é a conexão, tem mais a ver com um modo de enxergar fenômenos sociais do que como um fenômeno social em si. As redes funcionam, portanto, como “artifício cognitivo e científico que permite entender proximidades, similaridades, diferenças, conjuntos e processos de um modo muito particular”.

A análise de redes é um conceito extremamente amplo, oriundo da Teoria dos Grafos, original da Matemática. Já a análise de redes sociais, que é o que nos interessa aqui, trata-se da interface entre esse conceito e as humanidades – fortemente atrelado à Sociologia, e atualmente reforçado nas disciplinas ligadas à Comunicação Digital. Uma vez que a análise de redes “parte do princípio que mais informação pode ser gerada a partir da compreensão de como os elementos de um conjunto estão interligados”, é fundamental compreender a linguagem e o formato que a ARS utiliza enquanto técnica de análise e apresentação/visualização de dados. Para quem não tem nenhuma familiaridade com o tema, segue abaixo um pequeno resumo (ênfase para a redundância) com alguns dos termos/conceitos mais comuns:

  • Rede/Grafo: são as visualizações de atores e suas conexões formadas por nós/vértices e laços/arestas;
  • Nós/Vértices: são os objetos que estabelecem as conexões da rede (podem ser perfis, páginas, sites/blogs ou hashtags – depende do contexto);
  • Laços/Arestas: são as conexões feitas pelos conjuntos de nós (“a definição sobre o que é um laço pode mudar completamente a interpretação de sua rede, afinal, se estamos falando de uma técnica que enfatiza as condições relacionais do seu objeto, você precisa entender o que explica essa relação”);
  • Relações direcionadas: interação que indica um caminho, que possui a intenção de um ator em relação a outro (possivelmente indicada visualmente por setas);
  • Relações não direcionadas: interação sem orientação, que não possui diferença entre a intenção dos atores (por exemplo, uma amizade no Facebook);
  • Redes de co-presença/co-interações: nós presentes numa mesma publicação (comum no caso de estudo com hashtags, por exemplo);
  • Rede de afiliação: são redes cujas definições dos nós ou atores pertencentes são muito distintas entre si (ou seja, não há uma conexão direta, mas ambos pertencem a um mesmo grupo).

Esses são apenas alguns dos termos e conceitos introdutórios para começar a entender a análise de redes em mídias sociais. É importante ratificar que todas as suas explicações partem de um contexto próprio da técnica voltada para o tema das plataformas digitais sociais, já que, como dito anteriormente, trata-se de um método bastante contextual, que precisa ser adequado ao escopo e à disciplina de onde parte a análise. No entanto, esses são alguns dos pontos basilares para começar a entender as análises em geral. Tomemos como exemplo o relatório “Beyond Hashtags: #Ferguson, #Blacklivesmatter, and the online for offline struggle”, desenvolvido pelos pesquisadores Deen Freelon (American University), Chartlton D. Mcilwain (New York University) e Meredith D. Clark (University of North Texas), para entender as definições aqui postas.

Essa rede – ou grafo – mostra o cenário do período 7 da análise, quando foram coletados 5.3 milhões de tweets sobre o tema produzidos por mais de 1 milhões de usuários – para saber mais sobre o relatório e a pesquisa, conferir esse post. Os nós (ou vértices) são os círculos que concentram grupos específicos de usuários falando sobre o tema na época: BLM 1 e BLM 2 são ativistas e/ou usuários simpatizantes ao movimento #BlackLivesMatter, que denunciava a violência policial racista nos Estados Unidos, por exemplo; e os laços/arestas são as conexões estabelecidas entre esses atores, que poderia vir em forma de tweet ou retweet – e aqui vale destacar também o artifício visual (afinar ou engrossar) utilizado para dar peso a essas interações, que também nos ajuda a perceber como o fluxo das conversas/informações estava se estabelecendo diante todo o cenário.

Embora seja um exemplo metodologicamente bastante complexo, a rede acima é relativamente simples para discutirmos essas noções básicas da análise de redes em mídias sociais. A própria visualização dos dados é um fator de extrema importância para a técnica, que se apoia com força na interpretação estrutural do escopo da análise. Ainda assim, conhecer esse termos e conceitos são essenciais para dar conta dos fluxos de comunicação e conexão estabelecidos na internet. A ideia de laços fracos, por exemplo, é fundamental para pensar a facilitação do acesso no ambiente online. A partir dos estudos de Mark Granovetter, pesquisadoras e pesquisadores como a própria Raquel Recuero vão apontar como, no contexto dos sites de redes sociais, a abundância desse tipo de conexão é importante para que haja “pontes” entre atores que seriam essencialmente distintos na rede. Confira alguns outros termos e conceitos importantes abaixo:

  • Grau: é a métrica que indica o número de conexões de um nó na rede;
  • Grau de Entrada: é a métrica que indica o número de conexões recebidas por um nó na rede;
  • Grau de Saída: é a métrica que indica o número de conexões oferecidas por um nó na rede;
  • Centralidade de Autovetor: métrica que analisa a centralidade de um nó através de conexões de outros nós também muito conectados (semelhante à métrica de PageRank, comum no mercado);
  • Centralidade de Intermediação: métrica que calcula os caminhos entre os nós para identificar possíveis “pontes” relevantes na rede;
  • Redes Egocentradas: é um tipo de rede que parte de um nó central e suas conexões;
  • Redes Sociocentradas: é um tipo de rede que com delimitação específica a partir de um recorte “externo”, cujo escopo é “anterior” à própria análise;

Para conferir esses conceitos na prática, vamos observar essa rede interativa desenvolvida pelo IBPAD a partir de um estudo exploratório da polarização política no Brasil através de páginas da Direita e da Esquerda no Facebook. Trata-se de uma rede polarizada, mas poderia também ser compreendida como duas redes sociocentradas, já que foram desenvolvidas a partir de páginas com referenciais explícitos às suas respectivas posições. Na plataforma interativa, ao pesquisar por páginas como CartaCapital e Jair Messias Bolsonaro (as mais referenciadas em seus devidos grupos/clusters), você pode ver os graus de cada uma delas, ou seja, quantas páginas as referenciam, quantas são referenciadas por elas e o total de conexões. Já a página da Folha de S. Paulo aparece com elevada centralidade de intermediação, uma vez que é a ponte entre os dois lados.

No contexto de mídias sociais, esses tipos de métricas são importantes para avaliar a articulação dos nós dentro de uma rede, analisando valores relevantes de influência, autoridade, preferências, engajamento e mobilização. Além disso, a técnica vem sendo legitimada por sua “poderosa capacidade de resumir sem perder o detalhe, e de poder ver o todo sem perder a perspectiva do único”, como explica Tarcízio Silva e Max Stabile no capítulo do livro anteriormente mencionado. E acrescentam: “Com a técnica é possível ter uma visão panorâmica dos dados, seus agrupamentos e suas perspectivas (Malini, 2016), e identificar quais atores e narrativas foram mais relevantes. Ao mesmo tempo, é possível analisar com mais detalhes e construir uma análise completa”.

Para desenvolver esse trabalho, há diversas ferramentas utilizadas por pesquisadores, acadêmicos, programadores, cientistas de dados e profissionais do mercado. No entanto, pelo menos no Brasil, as duas ferramentas mais comuns são a NodeXL e o Gephi – bastante utilizados por Raquel Recuero e Fábio Malini em seus grupos de pesquisa (no mercado, algumas ferramentas plenas de monitoramento já possuem essa funcionalidade integrada, o que pode ser uma mão na roda). Em suma, funciona da seguinte forma: os dados são coletados (através de plugins, das próprias ferramentas, ou de códigos de programação em linguagem R ou Phyton, por exemplo), processados, trabalhados pelos analistas (executando métricas, layouts, etc.) e, depois, divulgados nas visualizações que costumamos ver.

Para quem deseja se aprofundar no estudo sobre análise de redes e aprender na prática como funciona todo esse processo, o Instituto Brasileiro de Pesquisa e Análise de Dados (IBPAD) lançou neste mês o MOOC (massive online open course) de Análise de Redes em Mídias Sociais. Com os professores Max Stabile, Tarcízio Silva e Marcelo Alves, o curso oferece mais de 90 aulas (dentre vídeo-aulas, artigos, leituras orientadas, tutoriais, estudos de caso e quizzes) para “capacitar os estudantes a coletar, processar, visualizar e interpretar redes baseadas em dados de mídias sociais”. São cinco módulos que passam pelos conceitos, aplicações e histórico do pensamento sobre redes; as particularidades das redes nas mídias sociais; a utilização prática de softwares para a análise e a monetização do trabalho.

Todos os conceitos que apresentei neste post são frutos tanto das aulas do Módulo 1 do curso quanto do capítulo do livro “Monitoramento e Pesquisa em Mídias Sociais: metodologias, aplicações e inovações”, também do instituto. Se você tiver interesse em saber mais (e com muito mais propriedade e profundidade) sobre o que discuti neste post – como o conceito de métricas como Tamanho da Rede, Diâmetro da Rede, Densidade, Inclusividade de Rede, Centralização de Rede, dentre outras -, recomendo veementemente esse novo curso. E o melhor: tem um desconto exclusivo para leitores deste blog que vos fala! Basta usar o cupom insightee10ars para garantir a sua vaga com um precinho ainda mais camarada – que já está abaixo do normal por ser a semana de lançamento.

E já que iniciei o post falando da importância de conhecer o trabalho de Raquel Recuero caso você esteja numa graduação (ou pós), posso garantir que o curso também é dedicado para alunos e pesquisadores interessados no tema. Marcelo Alves, que já apareceu neste blog em outro momento, é doutorando na UFF e desenvolve um trabalho fantástico sobre política e redes sociais no Brasil. Aliás, quem quiser conhecer outros pesquisadores, vale dar uma olhada no material 100 Fontes sobre Pesquisa e Monitoramento de Mídias Sociais. Recomendo também seguir o blog Essa Tal Rede Social, que vem fazendo um trabalho bem bacana com ARS. No mais, adquirir o livro Análise de Redes para Mídia Social, de Raquel Recuero, Gabriela Zago e Marco Bastos. Para finalizar, deixo aqui uma série de posts feitas por Tarcízio Silva para introduzir o tema:

Google Analytics para iniciantes: curso gratuito oferece um panorama geral da ferramenta

Em uma das minhas primeiras entrevistas de estágio, lembro que tive que fazer uma prova com algumas questões relacionadas à função do trabalho (era uma vaga de Estágio em Social Media com foco em performance, se me recordo bem). “Escreva com suas próprias palavras o que é ‘bounce rate'”, pedia um dos itens da avaliação. Eu não fazia ideia do que fosse (estava no segundo período da faculdade e não tinha começado a estudar sobre social media e derivados), então tentei responder conforme a tradução me indicava: “deve ser algo relacionado a bater de volta, tipo um rebote”, pensei. Enrolei da maneira que pude, mas não foi o suficiente e perdi aquela vaga – justo, afinal eu não estava apto a exercer aquela função (embora fosse estágio e o ideal é que ensinem em vez de cobrar).

Alguns anos depois, quanto fundei o blog e comecei a me interessar por métricas (mesmo de mídias sociais), percebi que precisaria, em algum momento, aprender a mexer no Google Analytics. A pesquisa d’O profissional de inteligência de mídias sociais no Brasil já me indicava isso, nos últimos dois anos. Embora o meu fascínio por métricas tenha se esvairado razoavelmente desde então, a análise que fiz sobre os conhecimentos mais requisitados em vagas de mídias sociais só reforçou a ideia de que eu precisava, sim, aprender GA. Porque mesmo para quem não trabalha com métricas (mas com planejamento, por exemplo), é importante conhecer – mesmo que superficialmente – perspectivas de outras áreas (esse foi um argumento frequente no último Profissão Social Media). Se você trabalha ou quer trabalhar com métricas, GA é pré-requisito; mas se você trabalha ou quer trabalhar com planejamento, por exemplo, GA pode ser diferencial.

Para a nossa sorte, no começo deste ano o Google lançou através da Analytics Academy quatro novas versões de seus cursos gratuitos sobre Google AnalyticsGoogle Analytics for Beginners, Advanced Google Analytics, Google Tag Manager FundamentalsEcommerce Analytics: From Data to Decisions. Desses quatro, os três primeiros já estão disponíveis por completo em português – e o quarto deve ser disponibilizado a qualquer instante. Ou seja, tem para todo mundo: se você é iniciante como eu, o primeiro curso foi feito para você; se já tem certa experiência, o curso mais avançado recicla seu conhecimento e pode te apresentar novas funcionalidades; se já trabalha com analytics e precisa conhecer a Google Tag Manager (uma das ferramentas bastante citadas no meu levantamento), tem curso para você também; e se souber em inglês e trabalhar com e-commerce, o último é todo seu.

Eu escolhi fazer o Google Analytics para iniciantes porque, embora tenha certo conhecimento sobre métricas de mídias sociais e conceitos principais sobre o tema, a minha experiência prática com o Google Analytics é quase nula. Este blog, por exemplo, nunca teve instalado o código da ferramenta – isso por dois motivos: 1) porque eu nunca tive interesse em averiguar números para não ficar refém deles, uma vez que este é um projeto totalmente pessoal e, portanto, livre de quaisquer amarras; e 2) por simples preguiça – eu já instalei o código em outras empreitadas pessoais que tive na minha adolescência (mesmo sem saber mexer nem ver direito, só queria saber o número de visitas mesmo), mas nunca me veio a necessidade de fazer o mesmo aqui. Unindo o útil ao agradável, resolvi usar o curso para analisar o site (e o site para analisar o curso). E como foi?

Unidade 1 – Introdução

A primeira parte de um curso para iniciantes é exatamente o que se espera: o básico do básico. Antes de qualquer coisa, os instrutores Justin Kutroni e Krista Seiden primeiro buscam explicar por que mensurar rastros digitais são importantes. É óbvio que eles utilizam o contexto do Google e mais especificamente da ferramenta Google Analytics como exemplo, mas a explicação deles sobre o conceito de digital analytics é bem abrangente. O mais legal é que, depois de cada lição, eles ainda oferecem links e leituras complementares sobre o assunto discutido. Neste primeiro momento, por exemplo, recomendam um artigo do Think With Google sobre a jornada do consumidor na compra online e um glossário do próprio Google Analytics (em português!, essencial para quem está começando a estudar).

Depois de ensinar a importância de acompanhar os rastros digitais de possíveis consumidores e alguns conceitos básicos de digital analytics (a tradução seria algo semelhante a métricas/indicadores digitais), eles mostram como funciona o processo de coleta de dados do Google Analytics desde a implementação do código JavaScript num site até o modo como a ferramenta armazena as informações. É ótimo porque eles alinham a teoria (conceitos e discussões sobre analytics de um modo geral) à prática, já que estão também tentando vender o produto. A lição três, por exemplo, é totalmente dedicada à familiarização do aluno com o GA – e todas as partes básicas de configuração, desde gerenciamento de contas/vistas até permissão de usuários. Eles chamam a atenção para a importância de configurar bem todo o escopo, já que os dados coletados pela ferramenta não são recuperados em quaisquer problemas.

E uma das coisas mais legais está na imagem de tela que você vê acima. Em todas as unidades pelo menos uma ou dois lições eles disponibilizam uma possibilidade completamente interativa da ferramenta. Desta forma, o aluno consegue ver com os próprios olhos todos os passos necessários para executar o que está aprendendo no curso. Além da legenda em português, é possível também conferir a transcrição completa e devidamente dividida nos tópicos da narração no site de Ajuda do Google. Como cheguei a mencionar no Twitter, é como se eles pegassem na mão do aluno e dissessem: “vamos juntos!”. Achei realmente incrível. E, novamente, após de várias lições, ainda há indicações de leituras para maior e melhor compreensão do assunto e também da comunidade de discussão da Analytics Academy, onde profissionais mais experientes estão à disposição para tirar quaisquer dúvidas de novatos.

A questão da configuração é algo que merece realmente muita atenção. Na última lição da primeira unidade, você é levado por um passo a passo de como aplicar o filtro numa vista (a hierarquia da ferramenta é: conta > propriedades > vistas). O exemplo que utilizam é um filtro para excluir o tráfego interno, ou seja, para que – no meu caso – todas as minhas visitas (feitas através do meu notebook) ao blog não sejam registradas naquela visualização. Infelizmente por algum descuido eu inseri meu I.P. errado (eles mostram como achar o seu) e acabei perdendo essa configuração. Ou seja, agora todos os dados que tenho coletado do GA têm também procedência minha – e eu entro muito no blog, por motivos óbvios. Então é algo realmente muito importante e que eles alertam desde o início – uma vez processados, os dados não podem ser alterados.

Ao final de cada unidade há uma avaliação para testar seu aprendizado. O certificado do curso que recebemos ao final só é disponibilizado àqueles que obtiverem uma média igual ou maior que 80% das respostas corretas. Mas a avaliação é ótima porque, além de revisar o que aprendeu, você também relembra quais foram os temas importantes daquela unidade (caso tenha interesse em retomar para revisar posteriormente). Na primeira, por exemplo, aprendemos sobre como o Google Analytics funciona (por que ele é importante e para que ele serve); o que tem a oferecer aos negócios; alguns conceitos, definições básicas de atributos e estrutura hierárquica da ferramenta; e a aplicação de filtros e do código JavaScript.

Unidade 2 – Layout

Daqui em diante o foco na ferramenta só aumenta. Novamente somos apresentados ao modo de demonstração do curso, através de uma plataforma que nos guia por uma tour numa conta “fake” do Google Analytics. Assim conhecemos funções básicas como: o alternador entre Conta, Propriedade e Vista; o ícone de alertas; as configurações, comentários e ajuda; a pesquisa por relatórios, personalização e navegação. Também conhecemos os principais relatórios: tempo real, público-alvo, aquisição, comportamento e conversão. Já falei mas reitero o que disse: é muito bom ter a possibilidade de ver de perto como a ferramenta funciona, porque ela oferece várias funcionalidades e geralmente quem nunca usou fica perdido com tantas opções de execução. Não que todas essas opções sejam úteis e essenciais para o trabalho diário, mas é importante saber que elas existem e como alcançá-las.

Toda a unidade é dedicada a mostrar a plataforma, principalmente através da navegação pelos relatórios disponibilizados. Pouco a pouco você vai descobrindo as inúmeras operações que o GA te oferece, desde visualização ao cruzamento de dados simples ou mais complexos, aprendendo também algumas configurações básicas do relatório geral através de personalizações de atributos. Na última lição você ainda aprende como montar painéis (dashboards) relevantes para o seu trabalho – e descobre que há uma intensa produção da comunidade de usuários que já disponibiliza algumas possibilidades padrões no Google Analytics Solutions Gallery. Fica claro que o Google tem uma preocupação em mostrar que a ferramenta é bastante completa, para evitar justamente que as pessoas saiam da plataforma para fazer outras funções – desde a coleta, passando pela análise até a apresentação dos dados.

E ainda que esta unidade seja mais focada na ferramenta, ainda aprendemos alguns conceitos importantes que podem ser replicados às realidades de mídias sociais também. Finalmente aprendi, por exemplo, o que é taxa de rejeição (“a porcentagem de visitas em que o usuário acessou seu website e saiu sem interagir”), assim como revi o conceito da empresa sobre métricas (“os números em um conjunto de dados, geralmente relacionados com dimensões”), estas que são “um atributo de um conjunto de dados organizado para possibilitar uma melhor análise” – ou seja, pode ser comparado a uma categoria de análise (como se fosse uma etiqueta da informação para gerar insights). Abaixo compartilho um conteúdo disponibilizado pelo próprio Google sobre suas principais métricas:

Definições das métricas pelo próprio Google

  • “Sessões” refere-se ao total de sessões em determinado período.
  • “Usuários” refere-se ao total de usuários que visitaram o site em determinado período.
  • Exibições de página” refere-se ao total de exibições das páginas que têm o código de acompanhamento do Google Analytics para os usuários. Isso inclui as visualizações repetidas de uma única página pelo mesmo usuário.
  • “Páginas por sessão” refere-se ao número médio de páginas visualizadas durante cada sessão. Isso também inclui as visualizações repetidas de uma única página.
  • “Duração média da sessão” refere-se à duração média de uma sessão com base nos usuários que visitaram seu site no período selecionado.
  • Taxa de rejeição” é a porcentagem de usuários que saíram do seu site após visualizar uma única página sem realizar nenhuma ação adicional.
  • “Porcentagem de novas sessões” é a porcentagem de sessões de novos usuários do seu site no período.

Unidade 3 – Relatórios básicos

A terceira unidade é mais curta em termos de aulas (são apenas três), mas relativamente mais fica em termos de conteúdo – você conhece de perto os três principais (ou básicos, como o título da unidade indica) relatórios: Público-Alvo, Aquisição e Comportamento.

– Relatórios de Público-alvo: o foco deste relatório está, como o próprio nome já diz, no público (ou seja, nos usuários); pode ser acessado através de uma visão geral ou de usuários ativos; oferecem dados para compreender as características dos usuários, como o local de onde acessaram o site, o idioma dos seus sistemas de navegação e a tecnologia utilizada no acesso; destaque também para o relatório de comportamento, que te ajuda a compreender como os usuários estão navegando pelo website – o que é extremamente rico para análises de melhoria de usabilidade e interface (os conhecidos UI Design e UX Design); confira mais sobre esses relatórios neste artigo em inglês.

– Relatórios de Aquisição: aqui a atenção está no tráfego do website, ou seja, de onde/como surgem as visitas; esses dados são coletados pelo Google através de três níveis: medium (mecanismo que leva as pessoas ao seu site), source (especificações desse mecanismo) e campaign (especificações da sua divulgação do site); o medium pode ser organic (visitantes que chegaram ao site através da busca comum do Google), CPC (visitas por campanhas pagas), referral (visitantes que chegaram através de outro site), e-mail e none (pessoas acessando o site de forma direta); o source oferece, portanto, a URL específica do mecanismo que levou à visita, enquanto a campanha é para a mensuração de planos de divulgação de marketing; confira mais sobre esses relatórios nesta página.

– Relatórios de Comportamento: como já mencionei anteriormente, este relatório é útil para conferir os rastros digitais que os visitantes deixaram no seu site; como bem pontuado pelos instrutores do curso, muitas visitas não necessariamente indicam um bom resultado – é preciso conferir se esses visitantes estão fazendo alguma outra ação dentro do site, caso contrário, pode haver algum problema de expectativa x realidade; é aqui, portanto, que você pode conferir as páginas por onde os visitantes chegaram e por onde saíram, para pode otimizar a performance do site de acordo com o que você tem como objetivo para os usuários; confira mais sobre esses relatórios neste artigo em inglês.

O legal dessa unidade é que após cada vídeo sobre os relatórios há também um breve questionário sobre algumas das informações que foram passadas em aula, desta forma você consegue se manter atualizado com a enxurrada de aprendizados que poderia sobrecarregar o aluno e fazer com que ele acabasse esquecendo as questões mais importantes. Ainda assim, foi aqui o primeiro momento onde não gabaritei a avaliação final da unidade – simplesmente porque, como eu disse, embora seja mais curtinha, é muito conteúdo (e especificações, termos técnicos, etc.)!

Unidade 4 – Acompanhamento básico de conversões e campanhas

A quarta unidade possui lições dedicadas a algumas disciplinas de marketing digital e mídia, ou seja, estratégias e meios de divulgação de um conteúdo. Na primeira aula, por exemplo, você finalmente entende tudo que está por trás de um URL como este: http://simplymeasured.com/blog/how-to-gut-check-your-performance-against-competitors/?utm_source=mkto&utm_medium=email&utm_content=20170421-prospects&utm_campaign=newsletter. Cada um desses parâmetros é importante para contabilizar por qual advento o visitante chegou ao seu site – além de medium, source e campaign, já comentados aqui, há também content que é uma etiqueta de qual conteúdo específico foi utilizado para divulgar aquele link. Ainda há o parâmetro search, para buscas pagas.

Se você trabalha com mídias sociais muito provavelmente esse Campaign URL Builder deve ser um dos sites favoritos do seu navegador. Ele é essencial para que a mensuração torne-se mais apurada, para que o analista possa compreender de perto sobre o tráfego do site a partir de visitas externas. Para quem cria conteúdo, é também importante para medir o que tem respondido de melhor forma ou não – por exemplo, é possível saber se um post específico no Facebook está gerando mais tráfego do que outro post do Facebook com outra imagem, ou até mesmo outro post no Twitter, por exemplo. Recomendo “brincar” um pouco com a ferramenta “Criador de URLs” para campanha mesmo que você não tenha um site para mensurar os resultados, apenas para fixar melhor a lógica por trás de cada parâmetro. E eles também disponibilizam uma planilha de automatização bem bacana.

Fica bastante claro que o Google Analytics funciona como uma espécie de ferramenta de monitoramento dos websites, no sentido que sua função é monitorar os rastros digitais de todos os visitantes (e como tirar inteligência a partir disso). A função de metas, por exemplo, que aprendemos na aula 3, traz isso à tona: você pode estabelecer metas na própria ferramenta para verificar a efetividade das ações do visitantes no site; para além disso, o próprio GA cria um funil de ações (semelhante ao funil de marketing) para mapear onde o visitante possivelmente desistiu de completar a ação. De forma prática: na pesquisa do Relatório Brasileiro de Social Media, por exemplo, poderíamos aferir em qual página o usuário desiste de responder as questões. Isso pode indicar uma fadiga pelo questionário estar muito grande – e podemos trabalhar para melhorar isso.

Cada uma dessas metas é completamente personalizável para se adaptar às suas necessidades de trabalho. No curso eles usam como exemplo (desde o início) uma loja de e-commerce, então mostram como configurar essa meta a partir do objetivo de venda de algum item na loja online. Essa meta (do que queremos que o usuário alcance) pode ser medida através do Destino (página específica), Duração (tempo de acesso), Páginas/Visualizações (acesso às páginas numa sessão) e Eventos (ações específicas). Aqui eles já abrem caminho para o outro curso da Academy, o E-commerce Analytics: From Data to Decisions (disponível apenas em inglês). Mas ainda no curso para iniciantes você aprende o passo a passo, com a ajuda dos instrutores, como criar e configurar essas metas – um processo simples, mas que pode ser confuso caso você não tenha familiaridade com a ferramenta. Justin e Krista passam por cada um dos detalhes da configuração, para não deixar nenhuma dúvida.

Na última aula antes da revisão do curso você ainda conhece outra plataforma bastante popular da empresa, a Google Adwords, que é mais voltada para compra de espaço publicitário do que para a análise de dados, como o GA. Ainda assim é uma ferramenta bastante popular no mercado e há cargos específicos para “Analista de Adwords”, que, a meu ver, seria uma ramificação da ramificação da ramificação do profissional de mídia – afinal, é tudo, como falei, compra de espaço publicitário online. O curso não entra no modo de usar o Adwords, mas explica alguns conceitos fundamentais (que todo profissional que trabalha com internet deve saber) sobre essa ferramenta de mídia e principalmente mostra como fazer a interação com o Analytics. Também passa rapidamente (bem rápido mesmo) sobre a questão do leilão – que se refere justamente à compra de termos de busca do Google – e de remarketing – que se refere à reexibição de anúncios baseado no histórico do visitante.

Revisão do Curso

Vamos revisar o que aprendemos no curso Google Analytics para Iniciantes. Nós discutimos:

  • como digital analytics (métricas/indicadores digitais) podem ajudar seu negócio;
  • mostramos como o Google Analytics funciona;
  • e te guiamos no processo de como criar uma conta, instalar o código de rastreamento, e configurar diferentes vistas com filtros para teste.

Você também deve se sentir confortável com como navegar pelo Analytics, como compreender visões gerais e relatórios completos, além de como configurar dashboards e atalhos para rapidamente encontrar os dados que você precisa.

Esperamos que você também entenda como fazer análise basicas nos relatórios de Público-Alvo, Aquisição e Comportamento. Ao final, te introduzimos ao rastreamento de campanhas e como configurar metas para medir conversões.

Nós também te mostramos como integrar suas contas do Analytics e Adwords para rastrear e otimizar campanhas do Adwords.


O curso é muito bom mesmo. Como mencionei anteriormente, já tinha certa familiaridade com a ferramenta, mas apenas em “aprendizados” empíricos de projetos pessoais sem objetivo algum. O modo como eles te guiam pela ferramenta é incrível, com todo o cuidado possível para que o aluno não se sinta desafiado pelos inúmeros relatórios, métricas, dashboards, funções etc. Além disso, têm toda uma preocupação de também, aliado à prática, passar uma teoria fundamental para quem trabalha com mídias sociais ou marketing digital. Mesmo tendo certo conhecimento sobre o assunto, sinto que aprendi bastante. Depois de fazer o curso o maior desafio (em vários sentidos) é colocar tudo que aprendeu em prática. Não apenas por ter que enfrentar a ferramenta sozinho, mas principalmente para realmente colocar em prática os aprendizados e treinar – porque só assim se aprende.

Eu mesmo fiz o curso faz dois meses e provavelmente já esqueci várias coisas. Instalei o GA aqui no blog e tenho tentado acompanhar algumas coisas, principalmente para me manter atualizado no que se refere à ferramenta. Recomendo a todos que façam o mesmo. Façam o curso e depois procure um projeto pequeno e/ou pessoal para treinar sempre. O certificado que você recebe (caso tenha uma nota maior do que 80% a partir das avaliações feitas em cada unidade) é apenas simbólico, o importante mesmo é aprender e encontrar outras maneiras de mostrar que aprendeu – produzindo um relatório público, quem sabe. Daqui em diante você também pode procurar outros cursos mais avançados, com professores brasileiros que te mostrem algumas aplicações reais do mercado.

CoLab Social Media: conteúdo, criatividade e comunidades (6/6)

E chegamos, enfim, à conclusão do curso CoLab Social Media da Trespontos. Foram nove módulos e seis posts: 1) comportamento do consumidor e planejamento estratégico para as mídias sociais; 2) real-time marketing; 3) mídia online (plataformas, estratégias e práticas); 4) métricas, relatórios e dataviz; 5) monitoramento; 6) e, agora, por fim, conteúdo, criatividade e comunidades. Uma carga-horária de 40h de material com um time de feras com muito conteúdo, de fato, a oferecer: Vivian Jung (LiveAD), Felipe Attílio (W3haus), Kelli Lima (Mirago), Julie Teixeira (Remix), Marcel Ayres (COM) e Nathália Capistrano (Artplan). Antes de me despedir, entretanto, preciso continuar a minha missão de compartilhar conhecimento desta vez com os últimos dois módulos da formação: conteúdo e comunidades.

Preciso ratificar que Nathália Capistrano fechou com chave de ouro o curso. E o curioso é que eu não sei exatamente o porquê, uma vez que a área de criação nunca me apeteceu (e, de certo modo, eu sempre me afastei propositalmente). No entanto, a publicitária formada em Design que trabalha como supervisora de criação na Artplan parece ter uma capacidade incrível de fisgar a atenção do aluno para ouvir o que ela tem a dizer – qualidade essa que só tinha conhecido em outra professora ao conhecer o trabalho da Dani Rodrigues. Ou seja, prestei (muita) atenção a tudo que ela tinha a dizer, compartilhar, até mesmo não sendo a minha área. Talvez o fato de que ela fez uma “contextualização histórica” do trabalho e do mercado também tenha me fascinado, já que esse sim é um tema que me chama a atenção e que eu tenho bastante curiosidade de entender o panorama que se desenvolveu na última década.

Foi muito interessante, portanto, descobrir que um dos primeiros trabalhos de mídias sociais no Brasil começou há praticamente 10 anos, no Orkut: ela começou fazendo “seeding”, que era basicamente entrar em comunidades importantes para as marcas e tentar gerar conversas a respeito de algum assunto determinado que tivesse relação com o universo da empresa. Eu gostaria muito de ler algo a respeito de uma espécie de genealogia histórica das mídias sociais a partir do trabalho das marcas. Há uma tentativa desse registro no capítulo “O mercado de inteligência de mídias sociais” da Ana Cláudia Zandavalle para o livro do IBPAD, mas como as constatações são baseadas em dados da pesquisa do profissional de monitoramento/métricas (inteligência) que começou apenas em 2011, há uma lacuna histórica entre a realidade contada pela designer e o registro do livro – sem contar também o recorte para o mercado de inteligência. Ou seja, fica aí uma dica de projeto bacana.

Acho mais do que importante ter esse registro histórico porque precisamos, enquanto mercado, ter uma noção de onde viemos e para onde pretendemos ir. Ela conta que, no início da década (ou seja, o Orkut já estava praticamente morto), o cenário era meio esquizofrênico: as marcas tinham como premissa que precisam entregar o máximo possível de conteúdo aos clientes para que elas não perdessem a sua atenção, portanto, havia uma curadoria de links e várias postagens por dia; não satisfeitas, ainda buscavam uma onipresença em todas as mídias sociais simplesmente como forma de marcar território – e, na maioria dos casos, o conteúdo era replicado em diferentes plataformas; ainda não satisfeitas, muitas vezes criavam uma página/perfil para cada produto ou iniciativa da marca, ou seja, uma presença confusa e difusa. Era também dessa época o mito do crescimento orgânico (importante já que o orçamento para digital era quase nulo ou inexistente), após a popularização estrondosa do Facebook, que nos faz refém até hoje.

“O always on é sempre estar presente onde os usuários/consumidores/público-alvo está. Era muito encarado duma forma que tínhamos que ter três posts por dia, estar com minha grade de conteúdo amarradinha, porque senão eu não sou mais relevante para essa pessoa, ela vai esquecer de mim, vai me trocar pelo meu concorrente. O always on começou a ser repensado, ele não é mais encarado da mesma forma. Você não precisa ter a sua ‘gradezinha’ de post e vender isso como um produto de prateleira pro seu cliente. Agora a gente está falando de pensar nos posts e no conteúdo de uma forma mais inteligente, e não simplesmente para cumprir uma tabela (um fee que ele te pague). ‘Essa mensagem aqui é importante, como vamos fazer, qual formato vamos utilizar?’ E isso mudou a forma que a gente tem de pensar.”

Esse cenário parecia caótico e realmente bem confuso: ela conta que as empresas não enxergavam muito valor no trabalho (não convertia, não rendia vendas rapidamente, etc.) e os profissionais também não tinha muita noção de como monetizar os esforços, além de não ter ideia do valor agregado ao trabalho de branding nas mídias sociais. É claro que, já naquele momento, havia iniciativas de agências, empresas, institutos e até mesmo profissionais para comprovar o valor do trabalho de social media. No entanto, foi uma evolução gradual e bastante custosa – literalmente: o pay to play mudou o jogo. Já num contexto onde o Facebook era o rei, Mark começou a mostrar suas asinhas e matou o alcance/crescimento orgânico, o que acabou forçando as marcas a reverem suas estratégias digitais (o investimento em mídia já não era mais opcional, mas indispensável). Nas palavras da própria: “Foi péssimo na época mas foi importante para profissionalizar o mercado”.

Nesse processo de mutação constante e contínua, as grandes marcas conseguiram se adequar (aos trancos e barrancos) e as pequenas e médias empresas foram quem mais sofreram, embora algumas tenham conseguido triunfar perante os novos desafios. Se antes a ideia era que uma marca precisava ser uma espécie de revista eletrônica dos temas que lhe interessavam, hoje temos um cenário com aspecto mais publicitário, onde preza-se pela produção de conteúdo único e proprietário das marcas através da fórmula: genialidade criativa + investimento em mídia. E como traz Capistrano, os desafios não param por aí: temos hoje uma saturação das redes, com muitas marcas produzindo muito conteúdo; uma aversão às marcas  (uso crescente de ad block); uma preocupação consolidada com privacidade e veracidade, ou seja, transparência (já temos nível de maturidade para entender que as marcas querem vender, mas há maneiras de engajar o cliente de forma útil); uma avalanche de conteúdo por marcas, amigos, (web)celebridades, políticos, etc.; dentre várias outras coisas.

Alguns fatores que transformaram o cenário nos últimos anos, segundo Nathália Capistrano

#1 O mobile mudou o jogo: estamos online o tempo inteiro – “entrar” na internet já não é mais um evento específico do dia-a-dia, mas uma constante da nossa vivência

#2 Tudo é conteúdo: post, tweet, foto, snap, vídeo, gif, 360, listas, passo a passo, quizz, playlist, live, blog/vlog, ebook, tutorial, etc. – os meios são diversos, ou seja, há infinitas possibilidades de entregas criativas

#3 Vídeos dominaram (nova velha forma de se comunicar): planos 3G/4G acessíveis, wifi liberadas, autoplay, mudança de comportamento, on demand, consumidos sem áudio, legendas, hook inicial em até 5s – todos esses aspectos são importantes a serem considerados por produtores de conteúdo

#4 Tempo real virou uma demanda: tudo em tempo real (respostas, interações, eventos, memes, etc) – é tudo aqui e agora

#5 O monitoramento também evoluiu: não é mais manual, é mais sofisticado – o mercado se profissionalizou

#6 A integração on e off é crucial – TUDO É INTEGRADO.

O cenário atual, portanto, é mais desafiador, mais complexo e mais sofisticado – as empresas já sabem o valor do trabalho em social/digital, mas será que sabem como deve ser feito? Talvez essa tenha sido a indagação que mais me animou para escrever este post final. Isso porque praticamente no mesmo dia que assisti a esse módulo, recebi uma proposta de freela que pedia: “alguém que gerencie e crie conteúdo para facebook (1x por dia/ 5x por semana), instagram (1x por dia/ 5x por semana) e blog (1 ou 2x por semana)”. Ou seja, o cenário pode ter avançado e evoluído para os grandes players (marcas, agências e empresas de grande porte), mas realidade diária do trabalho de um social media solitário ainda é bem caricata. Arrisco dizer que a eu-quipe citada no curso e o Analista de Mídias Sociais (ou somente “Social Media) que faz de tudo um pouco (apresentado no capítulo do livro anteriormente citado) é a realidade predominante em todo o país.

Por isso acredito que nós, enquanto profissionais, precisamos nos responsabilizar pela capacitação qualificada do trabalho para explicar às empresas que não se trata simplesmente de fazer umas peças (ou uns posts) para o Facebook. A série Profissão Social Media que teve sua origem embrionária no ano passado e está crescendo aos poucos este ano é (mais) uma das minhas humildes tentativas de qualificar esse cenário. Uma das propostas que tenho para o blog é justamente fazer a ponte entre as realidades luxuosas das grandes agências e as realidades “verdadeiras” de um Brasil de pequenas e médias empresas. Como já disse em outro texto, se, por um lado, as mídias sociais democratizaram o acesso à produção mercadológica de mídia (mensagem, comunicação) para pequenas marcas, também banalizou o trabalho de forma bem irresponsável. Cabe, portanto, aos próprios profissionais, superar os desafios e seguir por um caminho mais sofisticado.

O que podemos fazer, portanto, além de buscar constantes capacitações profissionais de aprendizado, quanto a entregas mais sérias e reais (com foco na área de criação/conteúdo)? Nathália tem algumas dicas:

  1. Alinhar as expectativas do cliente: quais são os objetivos (e os KPIs) definidos? Além de uma entrega quanti (em números), quais devem ser as metas quali (percepções) do trabalho? Ou seja, qual é o problema de comunicação que estamos tentando superar?
  2. Decidir contextos e temas: levando em consideração o trabalho de planejamento, quais serão as áreas criativas que trabalharemos a partir do conhecimento dos produtos, iniciativos e posicionamento da marca?
  3. Aplicar esses contextos e temas em entregas reais de formatos adequados para atingir a meta: em diálogo constante com a área de mídia, como podemos utilizar o melhor que as plataformas têm a oferecer para entregar um conteúdo relevante aos usuários?
  4. Elaborar conteúdos impactantes e de fácil consumo que comunique o conceito da campanha/marca: tendo todas as pontas amarradas com outras equipes, produzir criatividade assertiva.
  5. Incrementar com um investimento em mídia adequada para as possibilidades do cliente: mais uma vez o diálogo com mídia se faz crucial, principalmente no atual contexto das mídias sociais.
  6. Verificar os resultados, aprendemos e evoluímos a partir disso: além das entregas para os clientes, a equipe de monitoramento/métricas também deve ter uma entrega interna para os criativos.

Para finalizar o papo sobre criação e conteúdo, ela ainda oferece mais algumas diquinhas úteis: abre oportunidades, mas sem forçar a barra e tendo cuidado com possíveis retaliações – ou seja, esteja atento à conversa mas tenha cautela para adentrá-la; fuja de formulinhas específicas, afinal, os públicos tendem a ser bem diferentes uns dos outros; crie uma identidade – suas imagens falam! (e ajudam a criar um laço com o usuário); lembre-se da regra da escassez: produza conteúdo único ou de maneira única – as marcas têm que entregar o que os consumidores não esperam de nenhuma outra senão ela; nada supera uma história real, verdadeira, transparente. Criação na prática: se for ad, texto curto, assertivo; se for branded, pode textão, detalhar; para conversão, pode imperativo, impositivo; para engajar, estimule a imaginação; para ter consistência, crie checklist com premissas a seguir nos entregáveis: tom solto, call to action (pra converter), etc.

Tendo colocado esses pontos importantes sobre criação, entramos num assunto que deve ser anterior à produção de conteúdo: comunidades. Parece simples/trivial, mas é provável que a maioria das marcas (pequenas e médias) que atuam nas mídias sociais não conhecem (ou aproveitam, de fato) o seu público. No entanto, são nas comunidades onde acontecem as conversas – seja num post específico, num grupo, num canal, etc. Segundo Nathália, o mercado havia perdido essa preocupação com as comunidades a partir do momento que popularidade virou sinônimo de sucesso (vide as famosas métricas de vaidade), no entanto, há um esforço recente para retomar essa preocupação com o seu público. Afinal, eles são seu (possível) consumidor final – ajudam com pesquisa, relacionamento, etc. Se você não está dialogando com ele, está falando para ou com quem? Há uma tendência recente de investir tudo em mídia sem se preocupar com quem está recebendo aquela mensagem.

As pequenas marcas podem achar que esse trabalho de pesquisa não é apropriado para elas, talvez por não existir uma comunidade ativa em sua página, entretanto, esse público-alvo está em algum outro lugar. É preciso justamente compreendê-lo em sua totalidade para pensar no conteúdo apropriado que irá impactá-lo (em todos os sentidos, tanto emocional quando midiaticamente) e chamá-lo para a sua página.  As comunidades – estando elas nos seus canais próprios ou não – fomentam a produção criativa, ou seja, o que seus seguidores falam ou o modo como se comportam online oferece munição para ideias de ação e conteúdo. Trabalhar com mídias sociais é participar da conversa, sabendo o que falar e em qual momento falar. As empresas precisam entender que são intrusas no ambiente de sociabilidade online, portanto, não podem ser aquele amigo chato com assuntos irrelevantes ou inconvenientes na conversa do bar, mas aquele convidado interessante que tem algo legal para compartilhar com a mesa.

Questões para definir se haverá um esforço pra gerar uma comunidade ou não:

  • Você conhece o seu público? Não demograficamente, mas quanto a comportamento do consumidor/hábitos psicográficos.
  • Ele está maduro para o que você deseja? Há uma congruência entre a sua proposta e o que eles esperam?
  • O que ele anda pedindo? Você sabe o que eles estão dizendo?
  • Você tem defensores e haters?
  • Quão disposto a falar com eles e não para eles você está? Não é mais unilateral, mas um diálogo.
  • Você tem uma equipe para manter essa conversa viva?
  • Sua marca tem muitos pontos fracos ou problemáticos?

A partir disso entramos em outro assunto bastante delicado, mas em constante debate: influenciadores – e eu vou dar alguns pitacos pessoais. Primeiro preciso dizer que me espanta quando vejo a desdenha que alguns profissionais da área tratam esses produtores de conteúdo quando vejo notícias sobre os mesmos em grupos de discussão no Facebook. Enquanto grandes marcas e agências já estão trabalhando diariamente com essas webcelebridades, profissionais de pequenas e médias agência ainda parecem ter bastante preconceito com esse público. Não consigo compreender como isso acontece, uma vez que eles alcançaram tudo que uma marca gostaria de alcançar. Criaram conteúdo, fidelizaram um público e reverteram isso em lucro (pessoal, vendendo a própria marca). Devíamos, enquanto mercado “amador”, aprender bastante com esse pessoal. São, de fato, creators.

E é evidente que os últimos anos consagrou algumas webcelebridades a níveis estratosféricos, com direito até a filmes nas salas de cinema de todo o Brasil. No entanto, há também produtores (blogueiros, vloggers, produtores de conteúdo para Facebook e Instagram) que possuem um trabalho de criação extremamente competente e capaz de formar um público nichado. Como sua empresa provavelmente não tem orçamento para bancar um Júlio Cocielo ou Kéfera, há ainda bastante espaço para procurar influenciadores que produzem conteúdo sem tanta popularidade. Na minha opinião, poderíamos classificar o “universo” de influenciadores em três grandes grupos, seguindo também uma lógica de cauda longa: webcelebridades (Whindersson Nunes, JoutJout, etc.), digital influencers (Fernando Escarião, Nátaly Neri, etc.) e produtores (aquele que possui apenas 2 mil seguidores no Instagram, mas tem um público extremamente engajado que se relaciona com tema/s específico/s).

No capítulo “Influenciadores” do livro do IBPAD, Gabriel Ishida, ao apresentar uma possibilidade de metodologia para mensuração desses produtores, classifica-os em três grupos: broadcasters, conectores e legitimadores. Embora seja parecido com o que mencionei, tem uma proposta mais voltada para ações/campanhas e menos pensando na perspectiva geral de seus trabalhos perante o grande público: o primeiro tem foco em awareness, ou seja, propagação; o segundo, em conectar (fazer a ponte); e o terceiro, em buscar uma autoridade em determinado assunto. Enquanto as grandes marcas têm poder aquisitivo para contratar webcelebridades/broadcasters, há bastante espaço para pequenas e médias empresas buscarem por produtores de conteúdo que se encaixam melhor num orçamento mais enxuto. E o influenciador nesse caso não precisa ter um YouTube ou uma conta no Instagram, mas pode ser uma página sobre um tema específico que já tenha desenvolvido ali mesmo uma comunidade que se conecta com os valores e posicionamento da empresa.

Slide 28 do material “Conteúdo”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media

No curso ainda discute-se as questões legais do trabalho com influenciadores (conforme minha categorização, as webcelebridades e digital influencers, especificamente), mas vou deixar de lado esse debate para desenvolver uma teoria arbitrária que tenho para mim: a Pirâmide de Maslow na criação de conteúdo em social media. Essa ideia parte de um texto de Tarcízio Silva no qual ele explica, em suma, como a proposta do psicólogo Abraham Maslow na década de 40 se relaciona com o que encontramos hoje como conversação nas mídias sociais. Sua conclusão é que “produtos que atendem necessidades fisiológicas são alvo de conversações nas mídias sociais quando atendem também necessidades simbólicas”, ou seja, quanto mais para o topo da pirâmide estiver o imaginário sobre a marca/empresa (realização pessoal, estima), maior deve ser a conversação sobre seus produtos no ambiente de sociabilidade mediada por computador.

Seguindo a mesma lógica, tenho para mim que a produção de conteúdo – pelas marcas e não pelos consumidores – também têm relação com a facilidade de comunicação com o público. Ou seja, é “mais fácil” criar conteúdo quando se está no topo da pirâmide, sendo a Netflix. Não é tão fácil dialogar com o público quando se está quase na base da pirâmide (segurança), sendo um banco, por exemplo. Isso não quer dizer que as marcas que essencialmente ocupam a base da pirâmide não consigam criar um diálogo com as pessoas online, mas que vão precisar de camadas simbólicas ligadas aos valores do topo para conseguir uma melhor interação com os usuários. É o caso do Itaú, por exemplo, com case apresentado no curso sobre o Digitaú – um banco (segurança) utilizando influenciadores para criar uma narrativa de realização pessoal e estima através do afeto com suas avós.

piramide de maslow - necessidades
Fonte: http://tarciziosilva.com.br/blog/necessidades-humanas-camadas-simbolicas-e-o-monitoramento-de-midias-sociais/

Finalizando, portanto, o conteúdo e todo o curso CoLab, compartilho aqui alguns aprendizados importantes concedidos no último módulo: pense mobile (inclusive em formato); esqueça quantidade, qualidade ganhou: pense no seu post como a publicidade pensa em print (revista) – com o benefício de trabalhar interatividade; explore e reimagine os formatos que as plataformas disponibilizam; encontre soluções para conteúdo em vídeo: produtores audiovisuais amadores ou influenciadores; influenciadores e creators são forças a serem exploradas; monitore sua comunidade: são de lá os melhores aprendizados. Um futuro não tão distante ainda vê conteúdo mais personalizado, funcionários como influenciadores, dark social e bots tomando conta, conversão em social commerce, realidade aumentada, credibilidade em alta, mais possibilidades de conteúdo live e/ou limitado, empatia compulsória e briga das plataformas por usuários (mesmas funcionalidades) para continuarem ali.

Termino este post da maneira que comecei: bastante empolgado. Motivado a continuar compartilhando conhecimento e (tentando) atingir cada vez mais profissionais que também almejem por uma evolução de parte do mercado ainda atrasada. Eu entendo que as realidades são completamente diferentes e o dinheiro não é um fator simples a ser ignorado, mas há muito o que fazer (e aprender) no desenvolvimento de um trabalho sério, compromissado, responsável e sofisticado. Parabenizo também a Trespontos e todos por trás da iniciativa CoLab, que ofereceram um conteúdo riquíssimo e de alta qualidade por um dos preços mais acessíveis do mercado. Além do mais, continuam com um esforço contínuo de mostrar que social media não é só fazer posts pro Facebook – nem fazer isso + patrocinar. É um trabalho sério, que demanda pesquisa, planejamento, criatividade e conhecimento aprofundado das plataformas.

CoLab Social Media: monitoramento de mídias sociais (5/6)

Meu CoLab Social Media da Trespontos está vivo, sim! Depois de uma largada frenética no início do ano, tive que diminuir a velocidade e abrir espaço para outras pautas aqui no blog. Isso não quer dizer, todavia, que tenha esquecido dessa série de posts tão importante. Se este é o primeiro contato que você tem meus textos sobre o CoLab, sugiro começar do começo e seguir na ordem: planejamento, real-time, mídia, métricas e dataviz. Todos os módulos do curso da Trespontos já tiverem seu conteúdo compartilhado aqui no blog, e agora chegamos à reta final com apenas mais dois posts: monitoramento e conteúdo/comunidades.

No penúltimo episódio desta saga, temos Marcel Ayres, sócio-diretor da COM Inteligência Digital e doutorando em cibercultura na UFBA, trazendo os principais ensinamentos sobre monitoramento de mídias sociais – um dos temas mais comuns aqui do blog. No conteúdo, ele apresenta conceitos, processos (da configuração aos relatórios) e cases do trabalho de monitoramento. Sobre o professor, antes de entrar no conteúdo de fato gostaria de abrir um parênteses para recomendar aos leitores o Slideshare da PaperCliQ Comunicação, empresa baiana fundada pelo próprio Marcel com Tarcizio Silva, que possui um dos acervos mais ricos e ainda bastante atuais do trabalho de monitoramento de mídias sociais.

Nosso problema não é mais a escassez de informação, ou sua fragilidade, mas o desafio arrebatador de selecioná-la, entendê-la e encontrar verdade e relevância nos dados.
Paul Levitz

Agora entrando de fato no curso, peço licença para me permitir ser menos ponte e mais comentador (como você já deve ter percebido pela “entonação” do texto) do conteúdo – já que monitoramento é provavelmente o assunto mais discutido aqui no blog nesses poucos anos de vida. Achei bacana o material ser introduzido com essa frase do Levitz porque me impressiona como, em pelo menos 10 anos de monitoramento de mídias sociais (contando a partir do momento em que as primeiras grandes empesas começaram a oferecer esse serviço, como a Sysomos), o trabalho ainda é menosprezado. E quando digo isso tenho um público específico em mente, que são (obviamente) as pequenas e médias empresas.

Enquanto que para as grandes (e/ou mais maduras) agências e marcas o desafio está no volume, e como encontrar dados relevantes para a organização utilizar de maneira estratégica e gerar resultado para as empresas, uma gama enorme de pequenos e médios “social medias” vêm no trabalho de mídias sociais apenas criação e mídia. Entendo alguns fatores tendo levado a esses cenários, como os esforços diversos do Facebook em facilitar o gerenciamento de seus anúncios e afins em paralelo contrário a um encarecimento das principais plataformas de monitoramento do mercado brasileiro. Nesse contexto, monitoramento vira artigo de luxo. Mas não é (ou não deveria ser). Meu primeiro relatório público de monitoramento foi feito apenas com recursos gratuitos.

Enfim, depois de apresentar alguns conceitos básicos do trabalho (desafios e limitações pontuados), Marcel apresenta o ciclo (ou as etapas) do monitoramento: coleta de dados, armazenamento, classificação, categorização, adição de informações, análise e recomendações. Aqui é interessante cruzar com aquela famosa imagem “dados / informação / conhecimento / insight / sabedoria”, onde a coleta e o armazenamento seriam os dados, a classificação e categorização seriam a informação, a adição de informações seriam o conhecimento, a análise seria o insight e as recomendações seriam a sabedoria. É claro que não são exclusivos, mas dá para fazer uma associação simples para melhor compreensão de ambos os conteúdos.

Quanto aos objetivos do trabalho, são diversos – conforme traz o conteúdo: avaliar sentimentos, motivações, desejos e percepções em torno do objeto monitorado; identificar perfis dos públicos de interesse, analisando especificidades destes perfis (linguagem, interesses, hábitos de consumo midiático, relação com a marca/produto), insumos para a definição de personas, etc. Marcel recomenda, inclusive, assim como fiz no início do texto, um material da PaperCliQ, de 2010 (!), assinado por Tarcízio Silva. É interessante tanto para quem nunca teve contato com o tema, porque ainda se faz muito atual em vários aspectos, mas também para quem já está por dentro do assunto e tem curiosidade de ver o quanto avançamos (ou precisamos avançar, vide a data).

Antes de entrar de fato na execução do trabalho, é importante, como ressalta Marcel, ter um bom planejamento. E o que vai guiar todo esse fluxo e estruturação será o objetivo alinhado perante o cliente. Ou seja, o que se deseja monitorar? O que se deseja saber? O que se deseja fazer? Essas são algumas perguntas que ajudam a definir não apenas por onde seguir, mas como configurar os processos para alcançar o caminho procurado. No material, ele chama a atenção para a configuração das palavras-chave (e termos da chamada busca booleana). A maioria das ferramentas de hoje em dia já possuem uma busca avançada que não necessita mais desse conhecimento, mas é bom ter conhecimento pelo menos de suas lógicas essenciais para caso se faça necessário em algum momento do trabalho. O cuidado também com o refinamento das buscas, como apelidos e abreviações, apropriações e erros de grafia também são pontos de atenção importante para um trabalho de monitoramento bem feito.

Slide 19 do material “Monitoramento”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media

Esses são alguns dos pontos importantes a serem definidos no momento de planejamento do monitoramento, antes da execução de fato:

  • Cuidado com os termos genéricos: uma busca de monitoramento é como uma busca feita no Google – quanto mais precisão, melhor;
  • Ambientes de busca: quais serão os canais (Facebook, Twitter, Instagram, YouTube, blogs, etc.) que serão monitorados? Vale ficar de olho nos concorrentes?;
  • Volume de menções: numa busca exploratória, qual foi o volume de menções médio? Esse é um ponto importante para definir o tamanho da equipe, o fluxo de trabalho e o plano da ferramenta, dentre outros fatores;
  • Definição de categorias e tags: este é um dos fatores mais importantes da etapa de planejamento, já que é aqui que – como mencionei anteriormente – começamos aplicar valor (e, possivelmente, conhecimento) aos dados e às informações; parte sempre do objetivo, ou seja, deve responder à demanda de informação; quanto à classificação de sentimento, deve ser sempre nível comparativo, para entender outras variáveis;
  • Relatórios: estes dependem principalmente de dois aspectos, a urgência do projeto e o tamanho da equipe (além, é claro, do próprio objetivo); do primeiro, porque pode exigir maior velocidade nas entregas (e um tipo de entrega mais enxuta); do segundo, porque a entrega depende também da mão de obra; e do terceiro, porque um trabalho de perfilização de público demanda muito mais do que uma análise de campanha, por exemplo.

Aqui eu acho importante abordar um assunto bem importante do monitoramento de mídias sociais que não foi levantado no curso mas que é dúvida constante da maioria dos alunos: e o Facebook? Como alguns já devem saber, houve uma grande mudança no trabalho de monitoramento em maio de 2015 devido ao fechamento da API do Facebook. Desde então, o monitoramento “tradicional” do imaginário social de pesquisar sobre um termo ou expressões específicas têm sofrido algumas alterações, também devido a esse fato. Atualmente, é comum que o monitoramento da rede social de Mark Zuckerberg seja feito a partir de comentários de páginas (próprias ou de terceiros). Ou seja, para além do monitoramento de termos, há também o monitoramento de canais, grupos de usuários, metadados e imagens.

Feito esse importantíssimo adendo, podemos seguir com o conteúdo (e cronograma) do curso: agora, a ferramenta. Como Marcel explica, ela não é o fim, mas o meio do trabalho – e não (!) faz todo o trabalho sozinha. Além disso, há várias opções disponíveis no mercado (além de alternativas acadêmicas), por isso, é importante levar em conta se a ferramenta escolhida atende às suas expectativas quanto a coleta, armazenamento, adiciona informações e representações gráficas. Algumas perguntas a serem respondidas e levadas em consideração nesse momento de comparativo entre as ferramentas:

  • O valor aumenta com o números de ambientes monitorados?
  • E qual o limite de menções a serem coletadas em cada plano?
  • Quais os recursos contemplados?
  • É possível realizar monitoramentos Custo distintos simultaneamente?
  • Tem ambientes que me interessam? Pode inserir RSS?
  • Quais parâmetros de buscas disponíveis?
  • Permite segmentação por diferentes línguas?
  • Fluxo de trabalho é contemplado? Interface é amigável?
  • Como é a integração com outras aplicações?
  • Gera Gráficos? Exporta dados? Emite alertas?

Quanto ao setup da ferramenta, embora cada plataforma possua suas peculiaridades, há alguns pontos-comum a serem abordados: 1) o cadastro de palavras-chave e definição de ambientes de busca, ou seja, configurar o cerne da pesquisa (onde e o quê); 2) a configuração de regras para automatização do processo de monitoramento, ou seja, ensinar à ferramenta condições básicas para tomada de ações internas (ex: no monitoramento do The Voice Kids, sempre que houver, na menção, a palavra “ivete” ou “veveta”, atribuir a categoria “Técnicos – Ivete Sangalo”); 3) a visualização e adição de informações: neste terceiro momento, os dados já foram coletados e você os têm na plataforma, sendo possível adicionar informações (classificar, categorizar, etc.), visualizar as informações (gráficos) e exportar os dados (para cruzamento com outros bancos de dados, por exemplo), além de outras atribuições mais específicas como CRM.

Para mensurar os dados do monitoramento, Marcel apresenta algumas possibilidades. Entretanto, deixa claro que “a correlação de dados do monitoramento depende do objetivo”, ou seja, a mensuração é peculiar a cada projeto. Ainda assim, há alguns KPIs mais comuns, como share of voice (representatividade das menções, a relação de uma parte com o todo), taxa de resposta (representatividade da demanda de informação do público, o quanto o atendimento/relacionamento com os usuários têm sido eficiente) e grau de sentimento (que eu não conhecia, por isso compartilho logo abaixo). Novamente, acho importante ratificar que essas métricas/KPIs são bem genéricos, e devem servir principalmente como base de trabalho ou apoio didático. Repetindo: o que você vai medir no monitoramento deve ser definido desde o início, como demanda de informação relacionado ao seu objetivo.

Slide 68 do material “Monitoramento”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media

Por fim, temos a produção do relatório. No material, há uma preocupação grande na temática de visualização de dados. Nesse aspecto, recomendo conferir o material da Julie Teixeira, que também foi facilitadora do CoLab nos módulos de métricas e dataviz. Em suma, os dois principais pontos de um relatório são: 1) apresentação transparente da metodologia de pesquisa (canais, termos de busca, período de coleta, etc.); e 2) contar uma história. E aqui não precisa ser um conto da Disney, mas uma narrativa coerente e coesa que – novamente – responda aos questionamentos tensionados lá no início, quanto à demanda de informação. Ou seja, é importante mostrar o cenário da pesquisa conforme os caminhos seguem ao resultado final. No curso, Marcel oferece ainda alguns aspectos de uma estrutura básica (padrão) de um relatório mensal: volume/tempo, valor, assuntos, emissores, menções/canal, wordclouds, destaques, sentimento, avaliação e recomendações estratégicas.

Um conteúdo que eu achei legal, antes de finalizar, foi a apresentação de três fluxos/divisão de trabalho propostas por Marcel. Nesses cenários (melhores desenvolvidos nas imagens abaixo), temos três diferentes profissionais/atuações de monitoramento: o primeiro (mais operacional), num nível mais júnior, em que a pessoa é responsável pela configuração e categorização dos dados; o segundo (mais tático), num nível pleno, em que a pessoa é responsável pelo conteúdo e relacionamento com os clientes a partir dos dados; e o terceiro, num nível mais sênior, em que a pessoa é responsável pelo processamento e finalização do relatório. Mais detalhes abaixo:

Slide 80 do material “Monitoramento”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media
Slide 81 do material “Monitoramento”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media
Slide 82 do material “Monitoramento”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media

As duas recomendações finais do curso são muito importantes: se familiarizar com relatórios de monitoramento públicos – podem ser de temáticas (Churrasco no Instagram), concorrentes (Análise de Facebook Pages de Fast Fashion), eventos (Tomorrowland) ou produtos (Paçoquita x Nutella); e conhecer os livros “Para Entender o Monitoramento de Mídias Sociais” (2012), “Monitoramento e métricas de mídias sociais: do estagiário ao CEO” e “Monitoramento e Pesquisa em Mídias Sociais: metodologias, aplicações e inovações” – sendo que duas dessas obras serão resenhadas muito em breve aqui no blog, caso precise despertar ainda mais curiosidade e interesse. Além disso, se desdobrar pelas dezenas (talvez centenas) de materiais sobre o assunto que se encontram no Slideshare. Para um âmbito mais acadêmico (ou mais avançado), recomendo também o 100 Fontes sobre Pesquisa e Monitoramento de Mídias Sociais.

No mais, preciso confessar que foi um alívio quebrar com a predominância de sotaques sudestinos e sulistas para ouvir um baiano falando. Também gostei bastante da disposição de conteúdo no material e nos vídeos, foi enxuto porém bem resumido e bastante prático. Com isso, chegamos à reta final do CoLab Social Media: só faltam agora os módulos de conteúdo e comunidades, com Nathália Capistrano (Artplan) – que estou bastante ansioso para conferir por serem assuntos dos quais nunca tive experiência com cursos. Até lá! 🙂

CoLab Social Media: métricas, relatórios e dataviz (4/6)

Depois de um breve período de hiato, retomo a série de posts do CoLab Social Media. Se você chegou aqui de primeira, saiba que este é o quarto texto de um total de seis. Já publiquei sobre os módulos de comportamento do consumidor/tendências e planejamento, real-time marketing e mídia online. Na postagem de hoje, abordo os módulos de métricas e dataviz, para na próxima semana finalizar a série com monitoramento, conteúdo e comunidades.

A facilitadora dos módulos de métricas de mídias sociais e relatórios e dataviz é a Julie Teixeira, ex-coordenadora de BI da Revista Trip e agora head de Inteligência na Remix Ideas – cujo trabalho já foi apresentado aqui no blog no ano passado e provavelmente será retomado com ênfase ao chegarmos na segunda parte deste post. Começamos, entretanto, falando sobre a parte de métricas, com um foco especial para a parte de web analytics e métricas para plataformas de vídeos. Segundo Julie, essa estrutura didática nos permite entender os principais conceitos da área que podem – e devem – ser replicados/adaptados em diferentes plataformas, serviços e objetivos de trabalho.

Foi interessante ter logo de início um conteúdo menos voltado para mídias sociais (como é a proposta do curso da Trespontos) e mais voltado para web analytics. Como Julie tem um amplo repertório de BI, pôde oferecer uma visão geral bem completa de alguns conceitos básicos de métricas do Google Analytics – que, como já dito, pode ser replicado e adaptado para outras ferramentas. O GA é a segunda ferramenta mais utilizada por profissionais de inteligência de mídias sociais no Brasil, o que é curioso, já que ele não apresenta dados das próprias plataformas em mídias sociais. No entanto, isso demonstra o quanto as empresas têm investido cada vez mais numa estratégia inbound, integrando o trabalho de mídias sociais com plataformas próprias.

Vale reforçar também que o Google Analytics é uma plataforma freemium, que atende perfeitamente às necessidades das maiorias das empresas em sua versão gratuita. A única diferença relevante é que esta faz uma mensuração por amostragem, enquanto que a versão premium (paga) fornece todos os dados disponíveis e não entrega seus dados para possíveis análises de mercado. Segundo Julie, isso acontece porque o Google oferece alguns benchmarks de segmentos (por exemplo, telefonia móvel) para comparativos de atuação. No curso ela também recomenda outras ferramentas, como a Chartbeat, interessante para clientes de editoria, pois gera um mapa de calor para as páginas do seu site.

Deixando um pouco de lado a plataforma e focando de fato nas métricas, ela apresenta no curso dois “níveis” diferentes: audiência e engajamento – também comum em conteúdos voltados para as mídias sociais. A primeira, como descrita abaixo, tem sua atenção voltada para o público, enquanto a segunda indica o “interesse” do público, ou seja, de que modo ele agiu nas páginas. No Google Analytics essas métricas de engajamento são pautadas no que chamam de “eventos”, que são todas as (inter)ações feitas num site (cliques, scroll, etc.) – e precisa ser pré-configurada para cada conta.

  • AUDIÊNCIA – MÉTRICAS DE PÚBLICO
  • Usuários únicos – em um período. quantas pessoas entraram no site (GA guarda o cookie por 90 dias ou até limpar o histórico);
  • Sessões – uma visita no site (após 30 minutos de inatividade a sessão expira e começa outra) *métrica mais usada do mercado;
  • Pageviews – os pageviews dizem quantas páginas foram navegadas no período (maior volume de pageviews contribui para aumentar nossas impressões) *atenção para o URL: alguns sites não mudam a URL conforme a navegação do usuário, neste caso, é preciso “forçar” uma leitura para o GA fazer essa contagem.
  • ENGAJAMENTO – MÉTRICAS DE INTERESSE (cruzamento de duas métricas)
  • Pageviews por sessão – um dos principais indicadores de interesse dos usuários pelo conteúdo de um site: a cada sessão, quantas páginas o usuário visitou;
  • Tempo médio de sessão – quanto tempo a pessoa passa no site em cada sessão (expira até 30 minutos de inatividade e inicia uma nova sessão depois)
  • Taxa de rejeição (bounce rate) – indica quantas pessoas entraram em apenas uma página do site (não se interessaram por nenhum outro conteúdo — sessões que visitaram apenas uma página dividido pelo total de sessões) *Ser alta não significa algo ruim: a depender do objetivo, vale verificar se o usuário não está gastando muito tempo no site para achar algo simples (uma taxa baixa, nesse caso, pode ser ruim).

O trabalho no GA é bastante investigativo. A pensar pelas métricas de dados do usuário, por exemplo, é possível ter em mãos: fonte de tráfego – de onde ele veio?, busca orgânica ou alguma campanha? (a URL parametrizada pode indicar a resposta); tipo de dispositivo – qual plataforma está sendo usada para consumir meu conteúdo?, mobile ou desktop? (a taxa de rejeição de um dispositivo específico pode indicar soluções específicas para melhor atender uma parcela dos usuários); fluxo de navegação – qual é o trajeto que o usuário faz desde a entrada até a saída do meu site?; palavras-chave busca paga – qual foi o termo de busca que levou o usuário ao meu site?; assuntos mais lidos – o que gera mais interesse?; localização – onde está meu usuário?.

Como já mencionei anteriormente, foi interessante ter uma estrutura didática que começasse pelos conceitos básicos de web analytics para então seguir com o tema de métricas para mídias sociais. Embora reconheça que (principalmente grandes marcas) usem as mídias sociais apenas como “ponte de divulgação”, acho que, pelo menos para quem está começando a estudar sobre o tema, talvez seja melhor começar pelo básico – neste post você confere meu texto sobre os dois primeiros cursos que fiz na área, sobre métricas de mídia sociais. Isso porque considero este assunto mais fácil, enquanto o tema de web analytics – que é também anterior às mídias sociais – exige um pouco mais de refinamento no conhecimento.

A proposta de Julie para métricas de mídias sociais, aliás, é diferente da que é mais comum nos cursos e materiais do mercado. Explico: os “níveis” de categorias mais conhecidos são dimensão/base (público) e interação/engajamento (ação), onde a primeira é referente ao universo de análise e a segunda correspondem às respostas aos usuários. No conteúdo do curso, a métrica de engajamento é vista como métrica de audiência (ou dimensão/base); como métrica de engajamento, Julie considera a ação dos usuários sobre o universo alcançado (ou seja, engajamento dividido por impressões). Para alguns profissionais, isso já deixaria de ser métrica e passaria a ser um KPI (key-performance indicator).

Não estou aqui para julgar (nem me vejo capaz ou com propriedade para isso), mas achei curioso contrapor esses diferentes métodos porque de fato “engajamento” é um termo bastante complexo ainda nos dias de hoje quando falamos de marcas na internet. A conclusão que cheguei numa breve reflexão é que não importa o meio, mas o destino, ou seja, tudo – como sempre – depende do objetivo. O importante é mostrar de onde veio e para onde vai (ou pretende ir). Como Julie menciona no curso, não há padrões ou parâmetros (comparativos) fixos, o ideal é contrapor com resultados antigos – dados internos: histórico, investimento, frequência de postagem, conteúdo, horários de postagem, percentual ativo da base, etc.

A mensagem passada é que, entendendo esses conceitos gerais de métricas de audiência (volume, alcance) e de engajamento (público, interesse), é possível aplicá-los em outras métricas de várias plataformas. No curso, por exemplo, ela apresenta um cenário geral de algumas métricas para plataformas de vídeo – mais especificamente Facebook e YouTube. Com o aumento da produção de vídeos para a web, houve certa discussão e debate sobre qual seria a melhor plataforma para divulgação. Como tudo na comunicação: depende (do objetivo). Abaixo, uma tabelinha que fiz com as métricas e atribuições para cada plataforma passada no material do curso. Em suma, no entanto, cada uma serve melhor aos propósitos:

  • Facebook: vídeos pontuais com necessidade de alto alcance ou conversão fora da plataforma; menor qualidade de retenção do usuário/conteúdo; sem possibilidade de merchan/product placement/pre-roll;
  • YouTube: fomentar comunidade, projetos de frequência/formato e temática específica, construção de marca; Usuário mais caro (distribuição e produção); monetização, merchan e product placement permitidos.
Métricas para plataformas de vídeos – principalmente Facebook e YouTube (clique na imagem para ampliar)

Com esse conteúdo de métricas para plataformas de vídeos chega ao fim o módulo de métricas de mídias sociais do CoLab Social Media – adiante, vamos falar sobre dataviz e relatórios. Essa é uma preocupação crescente no mercado que tem ganhado cada vez mais a atenção de analistas, coordenadores, gerentes e profissionais como um todo, que aprenderam a lidar com os números saindo da área de humanas e agora precisam voltar para um lado mais artístico com a apresentação sobre essa avalanche de dados. Nesse cenário, conhecimentos apenas sobre gráficos são insuficientes – é preciso ir mais a fundo nos estudos de profissões que já lidam com muitos dados há muito tempo.

Não vou me estender neste post sobre o módulo de dataviz porque ele segua a mesma apresentação feita no Social Analytics Summit 2015, sobre qual eu fiz um texto específico em janeiro do ano passado. Em resumo, acho importante lembrar: dataviz não é só parceria com diretores de arte, envolve apresentar padrões, destacar resultados e resumir os números – contar uma história; muita atenção para margem e alinhamento (!), permita que as informações respirem; hierarquia da informação é algo importante para direcionar a leitura (lembre-se que você é quem conduz a narrativa); tenha sempre alguns layouts “prontos” que sigam um padrão de esquematização proporcional à importância das informações, para que você possa apresentá-los com facilidade.

data-ink

Outro conteúdo importante que vale replicar é a recomendação de quando utilizar cada instrumento de leitura. Tabelas, por exemplo, são mais apropriadas para valores individuais, exatos, mais de uma unidade de medida, enquanto gráficos são ideais para relações e tendências. Colunas empilhada são indicadas para contribuição entre séries, com sua versão totalizante recomendada para contribuição proporcional. Nas colunas, nomes curtos; em barras, nomes longos, duração. Linhas são como setas (indicam de onde veio e para ondem vão), então são bons para tendências/grande volume de dados – e linhas com marcadores, para volume menor (médio) de dados. A área só é indicada para representatividade no todo, com sua versão totalizante para proporção.

Outras dicas importantes (que vale a pena repetir):

  • Gráfico de pizza: nunca. Jamais;
  • “Isso é bom?”: um dado descontextualizado é apenas um número. Sempre faça comparativos e/ou use um referencial para mostrar ao leitor se o que aconteceu está melhor ou pior;
  • Parâmetros: nesse trabalho de fazer comparações, cuidado com a natureza dos dados que serão comparados – eles precisam ser de uma mesma “categoria” (!) para que essa comparação possa ser válida (atenção também à proporcionalidade, principalmente na exibição dos gráficos);
  • Resultado-conceito (ou, “iai, neyn, comé ki fica?”): a depender de quem vai ler o relatório, é importante tentar sempre ser bastante claro: “o resultado foi bom/ruim/satisfatório/insatisfatório/nota 7/etc.”;
  • Atenção à estética: fontes – é recomendável usar apenas duas fontes (título e corpo do texto, a primeira mais “artística” e a segunda mais “sóbria”); paleta de cores – para dados sequenciais, usar uma mesma cor em diferentes intensidades, para dados divergentes, cores de sentimentos-padrão, para dados categóricos, cores distintas; ícones – “uma imagem vale mais que mil palavras”, neste caso, somente para legenda.

Embora não tenha me estendido muito no material do curso, reforço que gosto muito do conteúdo da Julie. Ele me ajudou bastante na produção do meu primeiro relatório público de monitoramento, assim como esse outro guia feito pelo Júnior Siri. Ambos têm um caráter ainda introdutório sobre o que de fato é dataviz (no levantamento de 100 Fontes sobre Pesquisa e Monitoramento de Mídias Sociais do IBPAD você vê pesquisadores como Judith Donath e Fernanda Viegas – além do mais conhecido, Nathan Yau, do FlowingData – estudando isso a fundo). No entanto, são ótimos conteúdos para o contexto do mercado de mídias sociais. Nesse sentido, também queria indicar esse guia e esse post.

No mais, queria mais uma vez elogiar o conteúdo do CoLab Social Media. Já estamos chegando perto do fim do curso e tenho ficado cada vez mais satisfeito com o conteúdo. Embora o material sobre dataviz esteja público (confira abaixo), é muito diferente vê-lo sendo explicado por quem o desenvolveu. Vale muito a pena! Eu, aliás, já tive meu período de “degustação” expirado e paguei pelo acesso vitalício. 🙂

Coleta de dados relacionais nas mídias sociais, da Escola de Verão de Estudos de Mídia

Nos dias 13 e 14 de fevereiro tive a oportunidade de participar do curso “Coleta de dados relacionais nas mídias sociais” que aconteceu na Universidade Federal Fluminense a partir do projeto Escola de Verão de Estudos de Mídia.  Atendendo majoritariamente mestrandos e doutorandos (e eu, intruso), o conteúdo foi ministrado por Marcelo Alves, doutorando no PPGCOM/UFF e membro do grupo de pesquisa Lamide – Laboratório de Mídia e Democracia, além de autor do capítulo Abordagens de coleta de dados nas mídias sociais” do livro Monitoramento e Pesquisa em Mídias Sociais: metodologias, aplicações e inovações, sobre o qual falarei melhor em outro post específico sobre a coletânea.

Além da publicação, vale também – antes de entrar no conteúdo apresentado no curso – recomendar alguns outros materiais do pesquisador. No material “100 Fontes sobre Pesquisa e Monitoramento de Mídias Sociais” do IBPAD há algumas indicações de artigos, capítulos, posts e de sua tese, mas reforço aqui algumas indicações que ele mesmo recomendou especificamente para o curso: “Bridging semantic and social network analyses: the case of the hashtag #precisamosfalarsobreaborto (we need to talk about abortion) on Twitter”, “Agentes de campanha não-oficial: A Rede Antipetista na eleição de 2014” e “Internet e campanha eleitoral no Brasil: a Blogosfera Progressista Ampliada e a Rede Antipetista” – além do trabalho na Vértice, onde produziu algumas análises interessantes no período das campanhas eleitorais para prefeito do Rio de Janeiro em 2016.

Entrando finalmente no curso, acho importante ratificar que a proposta não era aprofundar em análise, mas entender alguns conceitos e premissas importantes para a coleta de dados – principalmente de olho nas famosas APIs. Esta deve ser uma das buzzwords mais populares do mercado principalmente de monitoramento, mas, ainda assim, pouco se debate de fato sobre o que ela faz, o que ela entrega, como entrega, quais as possibilidades de entrega, etc. Uma dos objetivos do curso, portanto, foi apresentar aos alunos uma introdução da leitura da documentação da API. Antes disso, no entanto, houve uma preocupação de passar alguns dos principais e gerais conceitos sobre um novo cenário comunicacional, abordando algumas temáticas sobre novas mídias, comunicação política de análise de redes sociais.

A começar por uma “desmistificação” de algumas concepções comuns no imaginário social sobre a ideia de cauda longa: as lógicas de rede não estão tomando o lugar da lógica de massa; as plataformas de mídias sociais seguem outras regras de jogo; e a mídia de massa e o conteúdo jornalístico continuam sendo uma das principais fontes de informação – as duas lógicas não estão estáticas, mas em constante evolução. Como explicam Klinger e Svensson (2014), “Plataformas de mídias sociais operam de uma forma diferente à mídia de massa tradicional, sobrepondo-a. Isso gera maneiras diferentes de produzir conteúdo, distribuir informação e usar a mídia”. Retomando o famoso conceito da cauda longa, esse artigo também me lembrou essa matéria do The Economist: “Mass entertainment in the digital age is still about blockbusters, not endless choice”.

Lógicas da comunicação política em massa e em rede (Klinger e Svensson, 2014)

Ainda no contexto de comunicação política, Chadwick (2013) fala sobre sistemas midiáticos híbridos: “baseado em conflito e cooperação entre lógicas novas e antigas; mas também possui considerável grau de interdependência entre estas lógicas”, ou seja, há uma convergência midiática em que todos os atores estão entrelaçados. Em outras palavras, o que esses autores – e a matéria do The Economist – querem dizer é que a internet (e principalmente as mídias sociais) não vieram para democratizar completamente a mídia como conhecemos. As plataformas digitais de conteúdo gerado pelos próprios usuários se sobrepõem à uma lógica de massa não indissociável, mas interdependente e ainda bastante pautada no investimento financeiro – quem tem mais dinheiro consegue ter mais voz com mais facilidade.

Seguindo com o argumento de Chadwick (2007), nesse novo cenário de repertórios digitais em redes e hibridismo organizacional, surgem duas tendências paralelas: as organizações políticas tradicionais adotam e modificam seletivamente características de movimentos sociais; e surgem novas formas organizacionais intrínsecas à internet. No ciclo de informação política (Chadwick, 2010), há um maior número e maior diversidade de atores; estruturas temporais mais rápidas e complexas; participantes que tangenciam as elites políticas midiáticas; e diversificação das fontes de informação. Para mais informações sobre o assunto, recomendo conferir a apresentação disponibilizada no Slideshare — que já serve de gancho para darmos continuidade ao post:

Para dar conta, portanto, desse ambiente midiático híbrido, plural e pulsante, “surgem” as técnicas de análise de redes sociais. Antes, entretanto, vale reforçar alguns pontos importantes sobre a ideia de esfera pública em rede (Benkler et al., 2013): “arena alternativa para o discurso e debate público, uma arena que é menos dominada pelas grandes organizações midiáticas, menos sujeita ao controle do governo e mais aberta a participação ampla”. Acrescentando à ideia de pluralidade, essa esfera pública se apresenta “como um ecossistema complexo de canais de comunicação que coletivamente oferecem um ambiente que conduz a expressão política e a criação de diversas formas organizacionais” – o que me lembrou esse artigo do Axel Bruns (que eu ainda não li, mas fica a recomendação bibliográfica).

Com tudo isso em mente, chegamos à solução encontrada para os problemas supracitados: análise de redes sociais. Coloquei entre aspas ali em cima o “surgimento” dessa técnica porque ela não é contemporânea das mídias sociais – no capítulo “Análise de redes para mídias sociais” do livro já citado do IBPAD, Tarcízio Silva e Max Stabile mostram como essa é uma metodologia comum à Sociologia já há algumas décadas. Recomendo novamente a leitura do capítulo para uma compreensão mais detalhada sobre o assunto (embora ainda assim seja bem introdutório, visto o extenso repertório que pesquisadores brasileiros como Fábio Malini e Raquel Recuero têm sobre o tema), mas o importante aqui é entender duas coisas básicas.

Primeiro que, na internet, estamos sempre produzindo rastros sociais digitais. Esses rastros seguem lógicas das próprias plataformas – sejam elas websites, fóruns, lojas de e-commerce, etc. -, mas, quando falamos de mídias sociais (principalmente Facebook e Twitter), muitas dessas dinâmicas e fenômenos sociais podem ser assimilados a uma compreensão do conhecimento já comum às Ciências Sociais. Ou seja – e aqui já entramos no segundo ponto -, é nesse contexto que compreendemos as redes sociais nas mídias sociais. O foco da técnica de ARS está justamente em entender uma rede social (online ou não) em sua estrutura e dinamismo social, pensando como diferentes atores se conectam, influenciam e relacionam.

Parte-se da análise de como os nós se conectam e relacionam para realizar a análise que, posteriormente, pode agregar dados de atributos e outros. E as conexões podem ser de diversos tipos, intensidades e direções. Na análise de redes sociais, os nós são elementos analisados que podem ser individualizados, e representam algum ator social, grupo social ou produto realizado por estes. (SILVA; STABILE, 2016)

A partir disso nós conseguimos compreender do que se trata o “relacionais” do nome do curso: são dados que possuem duas informações distintas – atributos dos atores e a relação entre eles, ou seja, além de observar o conteúdo, preocupa-se também em analisar como esse conteúdo (a interação) se estrutura socialmente. É aqui também que podemos introduzir alguns termos importantes na ARS: ator/nós/vértices (componente individual), laços/arestas (ligações entre atores), clusters (subconjuntos identificados pela densidade), rede (totalidade de atores e ligações da amostra). No curso, não entramos em detalhes sobre essas definições e conceitos (embora sejam bem simples), uma vez que a proposta não era na parte de análise, mas de coleta.

Mas por que essa metodologia se tornou uma das principais para análise de dados nas mídias sociais nos últimos anos? Segundo Silva e Stabile (2016), “nos ambientes online, a abundância de laços fracos aumenta a probabilidade de os indivíduos acessarem conteúdos, nichos e experiências a que não teriam acesso através de suas redes mais próximas”. E o que seriam esses laços fracos? No livro, eles retomam um estudo sociológico de 1983 para falar sobre o assunto. No curso, vimos os conceitos de rede associativa/de afiliação (ligações mais estáveis e duradouras, como seguir páginas/solicitações de amizade) e redes emergentes (ligações mais circunstanciais, como menções/RT), de Recuero. Para mais detalhes, recomendo este post que fiz sobre outro artigo da Recuero que também fala sobre o assunto.

Retomando o conteúdo do curso, falemos sobre as famosas APIs. Como já mencionei anteriormente, é uma sigla bastante famosa entre profissionais de inteligência (monitoramento, métricas, BI, etc.), mas pouco se discute no mercado sobre suas atribuições técnicas. Na minha (humilde) opinião, isso acontece porque há uma palpitação nervosa no mercado quando falamos de discutir metodologia. Enquanto isso, na academia, onde a metodologia precisa ser esmiuçada e destrinchada com profundidade e responsabilidade técnico-científica, muito se avança no debate sobre APIs, por exemplo. E esse debate é de extrema importância, uma vez que (retirado do slide):

  • As políticas de cessão de dados de cada plataforma são documentadas nas APIs;
  • APIs são tanto documentos técnicos quanto reflexos das diretrizes empresariais de fornecimento de dados;
  • APIs são modificadas frequentemente, de acordo com as necessidades e interesses mercadológicos das organizações;
  • As documentações mostram quais requisições são possíveis (queries), em qual volume (rate limit) e com quais parâmetros.

O único momento em que o mercado discutiu sobre API foi quando as agências e os profissionais de monitoramento tiveram que informar aos clientes que já não conseguiriam mais monitorar publicações do Facebook. Novamente, na minha (humilde) opinião, penso que essa falta de debate impede um maior avanço para a criação de novas técnicas de análise de dados que enriqueçam ainda mais a inteligência a ser extraída das mídias sociais. No curso, exploramos a própria interface que o Facebook disponibiliza para fazer a conexão com sua API e retornar os dados – basta ter uma conta na plataforma para conseguir um token de acesso. Para os leigos, talvez aqui fique mais claro: a API funciona como um plug que conecta os dados da plataforma com o “mundo externo”, fazendo essa conexão de banco de dados.

Como membro da academia, Marcelo tem uma preocupação especial com o debate sobre métodos e metodologia de pesquisa. Não vou entrar muito nesse mérito porque é um assunto razoavelmente denso, mas recomendo mais uma vez a leitura de sua produção científica e até mesmo as informações da apresentação disponibilizada, nos slides sobre técnicas de amostragem em métodos digitais (Rieder, 2012) e adaptando os métodos para coleta relacional no Facebook (CF. Bruns e Burgess, 2014) – além dos registros em seu blog, onde aborda com minúcia essas questões. Há também no capítulo do livro do IBPAD uma proposta metodológica que tenta dar conta do escopo de pesquisa no Facebook.

O mais importante desse debate agora é a conclusão: para dar conta das dinâmicas relacionais que acontecem na atmosfera política midiática, decidiu-se pela utilização do método de amostragem por grafos e da bola de neve. Essa metodologia pode ser superficialmente compreendida nesse estudo do IBPAD, que utiliza da mesma técnica de pesquisa. Em suma, trata-se de elaborar um mapeamento de fan-pages que liste nós-sementes temáticos e/ou homogêneos e, a partir deles, siga como uma bola de neve coletando outras páginas (mais detalhes sobre essa etapa pode ser vista no slide 39).

Para levantar essa lista, há duas possibilidades: pode ser feita através de um simples pedido de “busca” nas plataformas (neste caso, no Facebook) ou a partir de uma lista já pré-estabelecida sobre uma mesma temática (ver slide 40 e 41). Essa lista, entretanto, só nos oferece a primeira instância dos dados. Como o foco aqui são dados relacionais, é preciso fazer um pedido na API também pelos atributos de conexão entre as páginas. Ou seja, a partir da lista inicial, seguimos como uma bola de neve coletando páginas relacionadas (na prática, são as páginas curtidas pela primeira) para depois solicitar todos os seus dados. No slide abaixo é possível ver como seria essa query.

A ferramenta que utilizamos para fazer essa coleta a partir da API no Facebook (e que também atua no Twitter) foi a Facepager. Com código aberto, foi programada em Python 2.7 e por isso possui alto grau de liberdade para os usuários operarem as requisições (além de introduzir conceitos importantes de data mining como query, data munging, data storage, log de processos, etc.). Por isso também é uma ferramenta bem “cascuda”, com uma interface não tão amigável que pode assustar quem não possui uma simpatia com processamentos de programação – para essas pessoas, a Netvizz pode ser uma boa opção. Para ARS, por exemplo, a Netvizz já dá o GDF pronto, enquanto na Facepager você que organiza as ligações entre as páginas (ver slide 46).

Para apresentar a ferramenta com cuidado, mostrando todas as suas funções e possibilidades, seria preciso outro post somente sobre ela. Para uma introdução básica, entretanto, compartilho abaixo um vídeo-tutorial que encontrei no YouTube que mostra algumas das suas funcionalidades básicas. O importante, entretanto, é compreender que – também a partir dessa ferramenta – há uma enorme possibilidades de diferentes níveis e tipos de dados a serem coletados através da API do Facebook. Para isso, faz-se necessário que pesquisadores – da academia ou do mercado – debrucem-se sobre a documentação disponibilizada pela plataforma, para tentar compreendê-la em sua plenitude.

Por fim, gostaria de agradecer formalmente ao Marcelo por poder participar do curso (visto que eu era o único graduando – nem graduado! – ali). Tenho bastante interesse em ampliar meus conhecimentos acadêmicos sobre métodos de pesquisa digitais e fiz este post menos como uma resenha ou revisão do conteúdo, mas mais como forma de expandir a divulgação de uma bibliografia que pode chegar a mais e mais pessoas que podem tê-la como útil. No mais (e para finalizar), reforço que tanto na teoria quanto nas técnicas a academia têm muito a oferecer ao mercado.

Referências bibliográficas

Em: ALVES, Marcelo. #VEM Coleta de dados relacionais. Slideshare, 2017.

SILVA, Tarcízio; STABILE, Max (Orgs.). Monitoramento e pesquisa em mídias sociais: metodologias, aplicações e inovações. São Paulo: Uva Limão, 2016.

CoLab Social Media: mídia online em social (3/6)

O módulo quatro do curso CoLab Social Media marca a nossa chegada à metade do conteúdo da Trespontos Brasil aqui no blog. Recapitulando: o primeiro post abordou os dois primeiros módulos (comportamento do consumidor e planejamento) e o segundo falou sobre o módulo 3 (real-time marketing). Ainda temos pela frente cinco módulos que serão divididos em mais três posts: métricas e dataviz, monitoramento, conteúdo e comunidades. Por ora, vamos falar de um assunto praticamente inédito no meu repertório de estudos: mídia para mídias sociais.

Antes, vale elucidar que essa “mídia” sobre a qual estaremos falando não tem relação nem com imprensa nem com meio de comunicação, mas ao termo no sentido publicitário: propaganda, anúncio, patrocínio, etc. Acho importante fazer esse adendo porque às vezes surgem vagas de estágio para “mídia digital” ou “mídia online” e os candidatos, desatentos, não percebem que se trata da função de compra de anúncios publicitários, associando geralmente à posição do senso comum de social media – principalmente aqueles que vieram de outras formações, como jornalismo, por exemplo, e não têm/tiveram contato com esse outro conceito do termo já comum aos publicitários antes mesmo da internet (e das mídias sociais).

Feito isso, sigamos para o conteúdo da professora (ou facilitadora, como a própria empresa tem intitulado) Kelli Lima, Gerente de Conteúdo e Engajamento na Artplan. O cronograma do módulo apresentado por ela promete apresentar: as possibilidades para o uso de mídia no Facebook, Twitter, LinkedIn e YouTube; os pontos fortes e fracos de cada um dos canais (qual é o mais apropriado, para que e para quem); conceitos e termos comuns do tema, como CPC, CPM, CPV, CPA, etc.; informações de como organizar/montar um plano estratégico e um plano prático de mídia para a sua marca (ou a de um cliente); e, por fim, uma proposta de desafio prático de construção de estratégia e plano tático a ser avaliado pela professora.

Introdução à publicidade no Facebook, Instagram, Twitter, Linkedin e YouTube

O primeiro passo para anunciar em mídias sociais é compreender o que as plataformas entregam (ou podem entregar) em termos de público e atividade. Os primeiros canais apresentados no curso são Facebook e Instagram, devido à popularidade de ambas, principalmente da primeira, no Brasil. Essas informações podem ser encontradas no próprio site da empresa (são do mesmo dono), uma vez que ela quer apresentar bons resultados para convencer ao anunciante que não anunciar na sua plataforma significa ficar para trás. São aquelas informações das quais falamos no post sobre planejamento, ainda no momento de decisão sobre onde a marca deve estar na internet.

É bom pontuar que esses números não atendem apenas a uma demanda quantitativa. Compreender esses dados ajuda a perceber, por exemplo, que o Instagram é uma boa plataforma para fazer um trabalho de branding de marca com objetivo em awareness. É importante ter conhecimento enquanto usuário de cada plataforma para entender como o público se apropria e consome o conteúdo ali presente, já que os objetivos de comunicação e negócios deverão ser pautados em estratégias táticas que correspondem à usabilidade das próprias ferramentas – ou seja, uma marca que precisa de leads para alimentar uma cadeia de e-mail marketing pode perceber que o Instagram talvez não seja o local mais apropriado.

Como tudo em comunicação, todo caminho a ser trilhado deverá ser guiado por um ou mais objetivos. Com esse norte à frente, o profissional de mídia precisa ter um vasto conhecimento de: formato de anúncios, ou seja, precisa conhecer muito bem a plataforma e casos de sucesso; conteúdo, porque é ele que vai convidar o usuário para alguma ação (mesmo de reconhecimento); e segmentação, para otimizar os custos e atingir o público certo. Aliado a isso tudo, ainda colocaria uma função posterior de teste (os chamados testes A/B), já que a questão da usabilidade e experiência do usuário é um fator muito importante atualmente. A boa notícia é que as próprias plataformas oferecem vários guias, indicações, etc.

Slide 17 do material “Mídia Online”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media
Slide 23 do material “Mídia Online”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media
Slide 29 do material “Mídia Online”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media
Slide 33 do material “Mídia Online”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media

O curso oferece resumidamente detalhado alguns aspectos e características para a criação de anúncios nas mídias sociais mais “específicas”: Twitter, LinkedIn e YouTube. O primeiro tem a sua característica de real-time como a mais essencial na estrutura da rede, ou seja, na prática, marcas têm apostado na plataforma principalmente em grandes eventos e fenômenos de segunda-tela (assistindo a um programa televisivo, por exemplo). O segundo, com um preço mais salgado, tem foco no direcionamento de anúncios voltado para o mundo corporativo e profissional, sendo bastante utilizado para negócios B2B. Já o último é filho do Google e exige uma logística operacional mais complicada, que justifica-se por uma entrega bastante eficaz.

Como completo amador do universo de mídia online, percebo que se trata de um trabalho que exige bastante conhecimento – tanto das plataformas quanto do público. Embora pareça algo razoavelmente simples (acessar uma ferramenta, selecionar o espaço publicitário a ser comprado e anunciar), é uma prática que precisa ser muito bem pautada num planejamento estratégico inteligente. Ou seja, não pode ser feito de qualquer maneira, precisa de uma pesquisa extensa de público, plataformas, objetivos, benchmarking (casos de sucesso), aplicações, etc. – é praticamente um trabalho de planejamento exclusivo e próprio para a área de mídia, e não apenas em tabelas de preços e valores, mas de aplicações e conhecimento dos usuários e suas re-apropriações das plataformas.

Um debate interessante proposto pela Colab no módulo é sobre a questão dos social videos a partir da seguinte afirmação: “Se o conteúdo é rei, vídeo é o exército real”. Achei a provocação interessante para pensar, além do foco nesse novo “fenômeno”, a evolução do conteúdo nas mídias sociais. Num primeiro momento, as marcas se apropriaram das plataformas e tinham como foco fazer um conteúdo interessante para se popularizar na rede. Tempos depois, veio o Facebook e matou o alcance orgânico. Isso fez com que as empresas focassem sua atenção à compra de mídia desenfreada, achando que era só pagar que recebia de volta. Mas o que acontece quando todo mundo resolve pagar? Chegamos ao momento atual: mídia + conteúdo de qualidade. E isso exige o quê? Planejamento e pesquisa.

Compra de mídia online: conceitos, recomendações e boas práticas

Slide 37 do material “Mídia Online”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media

A segunda parte do curso apresenta alguns dos principais conceitos, recomendações e boas práticas da compra de mídia online – a imagem acima mostra algumas das siglas mais famosas desse universo. Como você já deve ter notado, o vocabulário dessa área é bastante extenso – porque envolve mídias sociais, e-commerce, métricas de inbound marketing, etc. No meu caso, nunca procurei nenhum dicionário para buscar decorar o que significava cada um dos termos, siglas, etc. – aprendi da forma que recomendo: lendo artigos (de blogs, ou de opinião em grandes portais) e notícias sobre o assunto para se familiarizar com esses termos. Não precisa se preocupar em saber tudo (na dúvida: Google), mas precisa se inteirar para analisar e pensar de forma critica a atingir os objetivos definidos.

Dois conceitos que são importantes conhecer diante mão: a compra “self-service” e o leilão/bid. A primeira é como atua a compra de espaço publicitária na maioria das mídias sociais, como Facebook, Instagram, Twitter e LinkedIn. Nela é possível definir o próprio orçamento e controlar os custos da campanha de forma contínua – aconselhada para quem possui um orçamento mensal. O segundo é bastante comum para quem trabalha além de mídias sociais (Google, Adwords, etc.), mas é também recorrente em todas as plataformas. Em suma, funciona da seguinte forma: mais do que dinheiro no caixa, é preciso ter um conteúdo de qualidade (relevante, que atenda às demandas/critérios das plataformas) para conseguir vencer os lances de outros anunciantes e conseguir anunciar com seu próprio valor.

Slide 39 do material “Mídia Online”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media

É importante lembrar que, como já mencionado anteriormente, a grande explosão de investimento em mídia online (principalmente para pequenas e médias empresas) veio a partir do momento que o Facebook mudou seu algoritmo de tal forma que as publicações de uma página só alcançassem de maneira orgânica – ou seja, sem investimento – 5% do seu público de fãs. Desde então as marcas e empresas precisaram a se preocupar em montar um orçamento mínimo mensal para o patrocínio, anúncio e impulsionamento de publicações no Facebook (e, mais recentemente, também no Instagram). Por isso o assunto tem se tornado tão popular nos últimos anos, e daí vem a relevância desse módulo especificamente no curso.

Tipos de Campanha (Cobrança)
Slide 40 do material “Mídia Online”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media
FAQ
Slide 41 do material “Mídia Online”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media

O conteúdo e material do curso são extremamente ricos. Apresenta todo o cenário primordial para compreender a publicidade em mídias sociais e ainda oferece um panorama de quem possui uma vasta experiência sobre o assunto. Além das várias dúvidas que são tiradas durante todo o módulo (algumas das quais podem ser vistas nas imagens acima), ainda há, por exemplo, a recomendação de boas práticas para obter melhores resultados – sempre de olho no objetivo de comunicação/negócio da marca. Indica-se quais tipos de segmentações são mais apropriadas (amplas ou específicas), conforme sua estratégia de comunicação e proposta tática para alcançar as metas e os objetivos definidos para marca no momento em questão.

A integração entre mídia e business intelligence

Slide 46 do material “Mídia Online”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media

O que percebemos até aqui – não apenas neste módulo, mas durante todo o andamento do curso – é que todas as áreas precisam de uma integração bem estruturada. O planejamento anda de mãos dadas com a criação, mas também atua lado a lado com quem faz entrega e mensuração. Real-time marketing necessita do monitoramento para sobreviver, mas também precisa estar alinhado às decisões de planejamento para montar junto à criação suas ações pontuais. E não seria diferente para o profissional de mídia: além de criação e conteúdo, a função possui uma integração fundamental com toda a área de business intelligence – a descrição da imagem acima ajuda a ilustrar esse cenário.

Enquanto a área de mídia planeja estrategicamente sua distribuição de orçamento e posterior implementação nas plataformas, é a área de BI que vai ficar de olho na performance dos resultados – por isso o tão famoso embate sobre ROI (retorno de investimento, em português). E a parceria não vem apenas no final, mas desde o início: é o profissional de BI quem possui acesso a todos os dados da marca, ou seja, ele quem extrai insights baseado nos rastros sociais digitais dos consumidores. É essencial, portanto, que ele forneça à mídia um repertório inteligente para ajudar a definir os chamados KPIs de cada ação conforme seus objetivos – vale conferir este post para saber mais sobre o assunto. E é também a área de BI que manterá um acompanhamento constante para possíveis melhorias, ajustes e otimização de resultados.

Da teoria à prática: colocando a mão na massa

Slide 51 do material “Mídia Online”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media

Depois de passar por toda a conceitualização, conhecimento e recomendações da compra de mídia online, a última parte do curso foca justamente em colocar todo o aprendizado em prática. O mapa acima é oferecido como guia para direcionar a atenção do profissional de mídia ao público que deseja atender. No entanto, penso que seria interessante priorizar a análise dos objetivos a serem alcançados, pois eles próprios podem ser influentes na decisão de qual canal pode ser útil para o trabalho de mídia. Nesse sentido, prefiro seguir a pirâmide de briefing também proposta pela professora, que ajuda a compreender – na prática – quais são alguns dos pilares básicos para sustentar seu plano tático de mídia:

  • Objetivo: qual é? – o cliente pode querer todos os objetivos, é função do profissional direcionar e orientar onde ele precisa chegar;
  • Período: qual é? – avaliar, junto ao objetivo, qual será o tempo estratégico para alcançar as metas e trabalhar nesse recorte temporal;
  • Público: qual é? – ter um recorte/retrato da audiência com quem você vai falar – quanto mais informação, melhor a mira;
  • Orçamento: qual é? – ajuda a modelar toda a campanha, determinando o tipo de compra.

Para servir de exemplo prático, tomamos uma marca de iogurte fictícia voltada para o público feminino que, por ser relativamente nova no mercado, tem awareness como foco para o trabalho de mídia. As principais tarefas definidas para a mídia digital são, portanto: visibilidade e engajamento com conteúdo nos canais sociais (always on); e gerar alcance e frequência ideal (awareness). A partir disso, para entender melhor os interesses desse público e sua aderência nos canais sociais, recorremos a plataformas como Target Index Group e ComScore. Confesso que aqui eu senti falta de um fator muito importante que geralmente é esquecido nos cursos: ensinar (ou mostrar o caminho) para os alunos como ter acesso a esses conteúdos de pesquisa. Eles são gratuitos? Onde procurá-los? Há soluções mais em conta para encontrá-los?

Slide 58 do material “Mídia Online”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media

Todo esse trabalho “prático” do profissional de mídia precisa ser mapeado numa planilha. É nela que você pontua os objetivos, as funções e os KPIs para cada canal (Facebook, Twitter, Instagram, YouTube, etc.), além de projeções de resultados pautadas em repertório adquirido em outros projetos. É nessa mesma planilha (caso queira deixar tudo junto) que você fará também a distribuição orçamentária, ou seja, colocar “no papel” o dinheiro em caixa e como ele será direcionado a cana plataforma. Recentemente vi no grupo Profissionais de Social Media uma planilha gratuita disponibilizada pelo Klinger Lima – que você pode baixar aqui. Procurando no Google e nos próprios grupos de Facebook por “planejamento mídia” é possível encontrar outros modelos que podem servir de base (com os ajustes necessários) para atender ao seu trabalho.

Por fim, ainda há a prática comum de montar um calendário editorial para cada um dos canais sociais. Esse calendário (também em planilha) é feito em parceria com a área de criação/conteúdo, uma vez que são eles que produzem o alimento das páginas/perfis no always on. Essa estratégia serve muito bem à proposta de curva do engajamento sobre a qual já falei no módulo de planejamento a partir do conteúdo visto no curso do QSSM. É mais uma prova de que as áreas precisam atuar de forma bastante integrada (o que não pode cair na armadilha de pensar que tudo pode ser feito por uma mesma pessoa – conteúdo, planejamento e mídia), sempre unindo forças para entregar ao cliente os melhores resultados possíveis.

Slide 60 do material “Mídia Online”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media
Slide 61 do material “Mídia Online”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media
Slide 62 do material “Mídia Online”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media

Por fim, é válido lembrar que geralmente os esforços de mídia online vão muito além das mídias sociais. O foco do curso, devido ao próprio recorte da Trespontos, foi apresentar o melhor do básico para introduzir os alunos a esse universo. No entanto, conforme é possível ser visto na apostila disponível, o trabalho de mídia ainda engloba pilares verticais (canais e sites de temáticas específicas), portais da web, mídia programática, search e, aí sim, as próprias mídias sociais. É um universo realmente bastante complexo e que exige do profissional o aperfeiçoamento e estudo contínuo das plataformas e boas práticas para tirar proveito de todos os recursos e benefícios que cada vertente pode ter.

Recomendo (além do próprio curso por inteiro e o módulo aqui apresentado) também a fazer o exercício proposto. É uma campanha de geração de leads para uma empresa pequena que oferece consultoria, criação de sites e capacitação voltada para o marketing digital. O público a ser atingido envolve pequenas e médias empresas, profissionais de jornalismo, marketing e publicidade. O orçamento é de apenas 10.000. Aqui é interessante montar sua planilha de maneira bastante específica, ou seja, além do plano tático, buscar nas plataformas os tipos de formatos adequados e toda a organização de custos.

Embora (realmente) não seja a minha praia, gostei muito do curso porque entendo que – como profissional de comunicação digital – preciso saber pelo menos o mínimo de cada área. E você? Curtiu o conteúdo? Também está fazendo o curso? Deixa uma mensagem para trocarmos ideias!

CoLab Social Media: real-time marketing – conversa de massa em tempo real (2/6)

Após iniciarmos os estudos com aprendizados sobre comportamento do consumidor e planejamento, seguimos para o terceiro módulo do CoLab Social Media, sobre real-time marketing (ou marketing em tempo real, em tradução livre). Embora seja um termo que tenha se popularizado bastante nos últimos anos, principalmente no Brasil, trata-se de um conceito ainda nebuloso para quem trabalha com mídias sociais – assim como big data, é um termo que todo mundo fala, mas ninguém sabe muito bem sobre o que está falando. Em suma, trata-se de juntar dados com inteligência, estratégia e criatividade.

Quem acompanha o blog há um tempo já deve ter percebido que minha principal referência quando o assunto é real-time marketing é a Dani Rodrigues (Coca-Cola), que trabalha com planejamento, então foi uma ótima surpresa ter como professor para esse módulo alguém que trabalha de forma mais direta com dados – Felipe Attílio, Gerente de Social Listening na W3haus. Conheço-o devido ao case Espelho da Beleza (indicado ao Prêmio Share) que foi apresentado no Social Analytics Summit 2015 e logo referenciado no curso como uma das principais iniciativas de real-time no Brasil. Mais adiante falaremos um pouco sobre esse projeto, desde a idealização até sua execução prática. Mas, para começarmos os trabalhos, precisamos entender – de fato: o que é real-time marketing?

“O real-time marketing é a chave que garante que sua marca proporcione experiências aos usuários, mas sem interromper o momento.” – Lisa Gevelber, VP, Americas Marketing, Google

Como já mencionei anteriormente, definir o que é real-time marketing não é uma tarefa simples. O conceito (bem eficaz, eu diria) proposto pelo curso é: “Método que determina uma abordagem adequada para um cliente específico em um determinado tempo e lugar”. Ou seja, se destrincharmos pouco a pouco, compreendemos que, em outras palavras: é uma maneira para elaborar uma ação inteligente (de estratégia e criatividade) para determinada marca/empresa num contexto de tempo e lugar específico. É basicamente juntar dados + estratégia + criatividade para entrar na conversa de forma útil e responsável, por isso não pode ser definido como um trabalho único e exclusivo – mas uma “ideologia” que une diferentes áreas de comunicação e marketing para dar conta de um consumidor hiperconectado e hiperativo.

E como chegamos até aqui? Segundo Attílio, são cinco “drivers comportamentais” responsáveis por esse novo cenário: o movimento de mass engagement, onde temos uma população extremamente conectada e interessada nas mídias sociais (web, social, móvel); o fenômeno multi-screen, onde utilizamos ao mesmo tempo celular, tablet, PC e ainda assistimos TV; o fast mood swings, outro fenômeno social fruto da volatilidade das redes sociais digitais (e como as empresas têm reagido a isso); o movimento power to the crowd, novas formas coletivas de agir em prol de alguma causa (social ou comercial); e, enfim, o movimento de people’s brand, em que os consumidores possuem cada vez mais poder de representação da marca do que a própria empresa. Tudo isso garante um cenário que não mais está ligado à comunicação de massa, mas a um “gerenciamento de conversa de massa em tempo real”.

A parte 2 e 3 do módulo aborda como se instaura, de forma prática, o conceito de real-time marketing. Para isso, apresenta três fases pela qual esse modelo de comunicação já se passou: a 1ª fase, real-time social, no qual o foco estava em buzz/viralização, através de pesquisa (ouvir) e ação (falar); a 2ª fase, real-time marketing, com foco na geração de negócios (resultado e vendas); e a 3ª fase, real-time marketing ongoing, que seria a mais recente, onde não se trata mais de agir de forma esporádica em grandes eventos, mas de manter um trabalho constante em tempo real para aproveitar o máximo que as conversações têm a oferecer. Para exemplificar, a primeira fase seria a do famoso tweet da Oreo no Super Bowl, a segunda, as salas de acompanhamento de Coca-Cola e Adidas na Copa do Mundo e a terceira, o case do Espelho da Beleza:

Uma plataforma de real time research que identifica, interpreta e categoriza os desejos relacionados à beleza nas redes sociais e em tempo real.

Slide 42 do material “Real Time”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media

O case do Espelho da Beleza para o Boticário é realmente fantástico. Como o professor explica no curso, é um radar constante que alimenta toda a cadeia de marketing da marca – desde peças para as mídias sociais, passando por todo o escopo de comunicação (identificar conteúdo para marketing de conteúdo no blog da empresa), comercial (insights para lojas físicas e e-commerce) e chegando até a área de inovação, para aprimoramento dos produtos conforme as demandas dos clientes. “Dos dados e comportamento ao produto e conteúdo: como o monitoramento de mídias sociais ajuda O Boticário a entender a relação de consumidores com a beleza”, é a descrição da apresentação do case no SAS 2015 – que pode ser vista clicando aqui. Nele você pode ver também as ações feitas no evento da discussão sobre cabelos black power no programa da Fátima Bernardes, como isso repercutiu nas redes e de que forma o Espelho ofereceu insights para produção de conteúdo, conseguindo respostas diretas para resultados e vendas.

Como mencionei no início do post, o fato do módulo ser de responsabilidade de um profissional de monitoramento difere do conteúdo que seria demonstrado por alguém de planejamento ou até mesmo de criação. O segundo case apresentado, por exemplo, a plataforma #CAUSABRASIL, tem como grande produto o trabalho propriamente dito de social listening. O projeto, parceria entre W3haus, Seekr e Huia, foi lançado durante as manifestações de junho de 2013 e continua vivo até hoje, sendo abastecido de hora em hora com menções de várias mídias sociais através de uma busca refinada de diversos termos e expressões relacionadas aos protestos no Brasil. Foi uma iniciativa que com certeza exigiu um trabalho muito bem feito de engenheiros de software e cientistas de dados, resultando numa ferramenta de decodificação da opinião pública.

Aqui eu acho interessante trazer as quatro premissas do marketing real-time elaborada pela Dani Rodrigues: 1) radar; 2) alinhamento com posicionamento estratégico; 3) criatividade; 4) timing. A primeira premissa, “o trabalho em conjunto de estrategistas e profissionais de monitoramento, métricas e Business Intelligence”  (RODRIGUES, 2016), é a base do trabalho feito para o #CAUSABRASIL e do primeiro momento do Espelho da Beleza. Trata-se de olhar para as conversas e entender o que está acontecendo em rede sobre determinado assunto, o que as pessoas estão falando e como as pessoas estão se comportando. Esse é um trabalho que exige uma boa execução do monitoramento de mídias sociais, assunto ainda não discutido pelo curso (é um dos últimos módulos), mas que reflete o peso de ter alguém que trabalha com dados apresentando o conteúdo.

As três etapas seguintes podem ser exemplificadas nas ações do Espelho da Beleza: quando o assunto mais falado era cabelo black power, havia uma afinidade com o momento e posicionamento da marca? Sim, afinal era um discurso que O Boticário já implementara timidamente e enxergou – graças ao termômetro das mídias sociais – uma oportunidade de entrar com força (e propriedade, é importante dizer) na discussão. A criatividade veio com os diferentes materiais criados não só para mídias sociais e internet/e-commerce, mas para toda a cadeia comunicacional (artes impressas, por exemplo) da marca. Já o timing foi propício e responsável devido ao acompanhamento contínuo da marca. Todo esse “check-list” atende o que se compreende como um trabalho bem feito de real-time marketing, conforme explica Rodrigues (2016):

“Consiste em entender as necessidades reais de cada consumidor, cruzar com os objetivos de negócio da marca e oferecer um serviço ou produto que faça sentido naquela situação – sempre contando uma história interessante e envolvente. Ao invés de ser invasivo, ser útil; ao invés de muitas histórias que se conectam com a média do público, uma narrativa personalizada. Experiência vale mais do que discurso, transparência, relevância, possibilidade de interação pessoa-pessoa, agilidade, transformar informações disponíveis em redes sociais em dados e explorar nichos são premissas ressaltadas desde os primórdios das redes sociais digitais. Histórias sob medida gerando conversão são a potencialização desses elementos.”

Retomando o conteúdo do curso, vem a pergunta: como colocar isso em prática? Uma resposta preliminar: não é fácil. Para começar a simplificar, a proposta é não se estender pelas outras frentes sobre as quais já falamos que têm sido abastecida pelo real-time marketing (comunicação, comercial e inovação), mas mantermos a atenção na primeira fase, o real-time social. Continuando com os termos em inglês, a ideia é produzir conteúdo através de real-time content, definido como a “capacidade de responder a estímulos do público, aproveitando todo o potencial do conteúdo líquido (independente do canal) para geração de engajamento, awareness e/ou resultados financeiros”. Para isso, são necessários três pilares de atuação: research, planning e action.

RESEARCH – pesquisa para a identificação de padrões comportamentais

Sua marca só vai conseguir atender às demandas do seu target se souber exatamente o que ele deseja. E só tem um jeito de descobrir: pesquisando.

A essência por trás do conceito de real-time marketing é estar por dentro da conversa. Conhecer os consumidores, entender os assuntos e fazer parte dos micro-momentos. A etapa de pesquisa é um pouco do que trouxe anteriormente com o conceito de radar – e não é tão simples. O monitoramento de mídias sociais é uma atividade que tem se tornado cada vez mais “exclusiva” nos últimos anos, principalmente devido ao fechamento da API do Facebook. No entanto, algumas ferramentas ainda oferecem preços razoáveis e um trabalho de análise relevante para ajudar nesse processo. Além disso, o material ainda indica outros métodos (menos velozes, infelizmente) para fazer pesquisa – clique nas abas abaixo para conferir com detalhes cada um deles:

Social Listening
Slide 82 do material “Real Time”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media
Desk Research
Slide 83 do material “Real Time”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media
Web Survey
Slide 84 do material “Real Time”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media
Post Insights
Slide 85 do material “Real Time”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media

PLANNING – foco nos objetivos de comunicação e negócios

“Planejar em tempo real significa conectar a missão digital da marca às necessidades dos consumidores com antecipação, controle e — por que não? —improvisação.”

Para falar de planejamento foi apresentado o case acima, do Sonho de Valsa, uma das ações pioneiras de real-time marketing no Brasil. O foco é justamente nesses três fatores supracitados: antecipação – fazer um trabalho exaustivo de todos os cenários possíveis, para ter bem definido os papeis, fluxos e responsabilidades de cada profissional; controle – para que toda a operação seja bem executada e permita uma mensuração de resultados contínua; e improvisação – aliança entre criatividade e cuidado, para que todas ações sejam pautadas pelas normas de conduta (conceituais, estratégicas e legais) da marca, com supervisão, critérios e bom senso.

ACTION – pautada no diagnóstico

Agir em tempo real requer criatividade, cuidado e profundo conhecimento da missão digital da marca e seus objetivos de comunicação e negócios.

Por fim, o momento de ação é a hora de colocar os criativos para trabalhar. Como indicado no projeto apresentado, diferentes talentos (e aqui não estamos falando apenas de profissionais de digital/marketing, mas pessoas que podem ser úteis nas diferentes ações de conteúdo, como, no caso do Plantão do Amor, ilustradores, compositores, etc.) ajudam a somar todo o escopo de trabalho durante a execução. Para além disso, é preciso pensar num modelo que una formatos padrões e personalização de conteúdo, desta forma é possível alcançar um maior volume de pessoas ainda tratando com cuidado cada caso.


Chegamos ao fim do módulo de real-time marketing! Antes de encarar o desafio proposto (de forma bastante humilde), gostaria de trazer mais um trechinho do capítulo “Do live marketing à comunicação estratégica de micro-momentos”, escrito por Dani Rodrigues para a coletânea Tendências em Comunicação Digital, produzido pelo Grupo de Pesquisa em Comunicação Digital COM+ da USP. Recomendo a leitura também para compreender melhor o que são os “micro-momentos” – e acho que resume bem tudo que foi passado no curso:

“O primeiro passo é identificar os momentos que importam, em que as pessoas possam querer aprender, comprar ou se envolver com a sua marca ou negócio. É importante olhar para o maior número de potenciais pontos de contato e começar a pensar sobre como sua marca pode contribuir em cada um deles.

Com esse mapeamento feito, hora das marcas repensarem seus produtos, serviços, modelos de negócio e mensagens. Há micro-momentos que demandam um link para uma promoção, outros um tutorial ou ainda um cupom de desconto para um serviço de deslocamento como a Uber para chegar a uma determinada experiência. O contato entre marca e consumidor precisa ser em tempo real, baseado em localização e com ênfase em fornecer uma experiência centrada no cliente que se sente real, relevante e pessoal.

O terceiro momento é justamente o controle de como a mensagem propagada aos consumidores está performando em cada ponto de contato, considerando as varáveis condicionantes (investimento de mídia, linha criativa do conteúdo, participação ou não de influenciadores etc.), para otimizar a comunicação, estabelecendo micro-momentos prioritários para cada negócio, prioridade essa que pode mudar em dias. Como bem definiu Bauman (2011), “o futuro não existe. É imprevisível!””


Atividade prática –  Cliente: Itaú

Cenário: Com o avanço da crise econômica, os brasileiros têm cada vez mais dificuldade de gerenciar o orçamento doméstico. O número de endividados não para de crescer e o Itaú tem a oportunidade de ajudar seus correntistas a se organizarem financeiramente, garantindo utilidade e serviço para seus clientes no digital, um dos territórios mais proprietários da marca.

Desafio: Criar uma ação especial para correntistas e não correntistas (diferencial) possam tirar dúvidas sobre gerenciamento financeiro doméstico, investimento, dívidas e outros assuntos relacionados com consultores especializados do Itaú, que vão responder às dúvidas do público em tempo real, durante 24h.

  • Identificação da demanda: quais as principais dúvidas?

Acredito que o primeiro passo seja mapear as principais indagações das pessoas (e não exatamente dos clientes, para ser mais abrangente) em relação a educação financeira. Como o Brasil é um país que não possui esse ensino na formação escolar das crianças e adolescentes, fica evidente que a população carece muito de informação quanto a esse assunto. Então o primeiro momento seria para entender quais são os maiores problemas dos brasileiros que uma organização financeira poderiam suprir. Um trabalho de desk research poderia indicar algumas diretrizes iniciais e, posteriormente, o monitoramento de mídias sociais pode verificar quais e como esses problemas são compartilhados em rede – afinal, não é tudo que chega ao Twitter ou ao Facebook.

  • Estratégia de canais, targets e ativação: quais os canais de divulgação?

Tendo um melhor conhecimento desse contexto, é hora de definir onde e como será feita a ação. Para fins fictícios, penso que o ambiente mais propício seria o próprio Twitter, uma vez que a logística de atuar no Facebook envolve muitas nuances – mas é justificável: já existe uma atuação forte de bancos no Twitter, um dos principais canais de serviço de SAC 2.0 dos últimos anos, ou seja, manter – ou estimular – a conversação por lá parece fazer mais sentido. Sem contar que, por se tratar de um assunto delicado, a privacidade das DMs (e facilidade também) ainda é mais um ponto positivo.

Quanto ao target, acho que o foco deve, sim, ser em correntistas do banco. A verdade é que ninguém gosta de banco, e um contato direto com eles é geralmente motivado por algum problema. Ou seja, tentar uma via de contato que parte do banco para o cliente é uma ação que pode sair pela culatra. Essa intromissão, que se viesse de um amigo seria relativamente tranquila, por se tratar de um ator tão problemática precisa ser executada com muita cautela. Então faz sentido pra mim que o foco seja em usuários já correntistas, com algumas ações pontuais em pessoas que se demonstrem mais abertas a serem impactadas.

A ativação, portanto, seria feita através do Twitter – tanto através de menções espontâneas quanto menções direcionadas à marca. Talvez fosse interessante chamar um influenciador de peso (renome e credibilidade) para divulgar a ação, como Luciano Huck – caso a proposta fosse espalhar a mensagem – ou algum jornalista com foco em finanças, como Ricardo Amorim ou Miriam Leitão. Eles podem ajudar a proliferar a hashtag da ação, chamando mais gente pra conversa e se atentando à ajuda que o Itaú está disposto a oferecer.

  • Produção de conteúdo: como será entregue?

Esta talvez seja a etapa mais difícil. Como já comentei, ninguém gosta de banco. Quando o banco quer se intrometer na conversa, então… O Itaú (e outros bancos, como o Bradesco) tem tentado fugir dessa demonização através de mensagens lúdicas, como sua campanha de fim de ano completamente focada nas pessoas, na experiência, no emocional. Se queremos enfrentar o bicho de 7 cabeças que é um banco falar com as pessoas sobre sua matéria prima, que é o dinheiro, é preciso muito jogo de cintura. Pensei que podíamos aproveitar essa questão das experiências e pautar a conversa em cima do discurso também bastante usado pela mídia de “luxos que os brasileiros têm cortado” por causa da crise.

Criar, então, uma espécie de calculadora de renda que tivesse uma usabilidade voltada a solucionar o problema: como posso levar minha família ao cinema no próximo final de semana? Quanto preciso economizar na minha renda para que possamos jantar fora uma vez na semana? Esse cenário ainda ofereceria ao cliente um acompanhamento completo da equipe do Itaú, com dicas rápidas via DM e indicações de matérias num blog corporativo de como economizar dinheiro na prática – sempre, tanto na calculadora quanto nesses textos, demonstrando os benefícios de ter uma conta Itaú, como os rendimentos e taxas de juros favoráveis. Talvez uma parceria com plataformas como a Organizze também seria interessante.

  • Mensuração da resposta do público e resultados: o que será mensurado?

Aqui precisamos olhar para os objetivos da ação: tirar dúvidas de correntistas e não-correntistas acerca de questões sobre educação financeira, correto? Então precisamos voltar o olhar para o nível de satisfação dos usuários. As conversas precisam ser mensuradas (para calcular volume) e as respostas precisam ser analisadas (para saber se o cliente ficou satisfeito). Para além disso, indicadores como pageviews tanto na plataforma da calculadora quanto do blog precisam ser avaliados. Numa frente mais de negócio, os cliques feitos em direção ao site do Itaú para possíveis considerações de nova conta (ou acesso a uma conta) também podem ser indicadores satisfatórios.


E aí, o que achou do conteúdo? Este é o segundo post sobre o curso CoLab Social Media, da Trespontos (confira o primeiro aqui). Caso também esteja fazendo o curso, entra em contato no Twitter, Facebook ou aqui nos comentários para trocarmos ideias! O que achou das minhas repostas para o desafio? 🙂

Referência bibliográfica

RODRIGUES, Daniele. Do live marketing à comunicação estratégica de micro-momentos. In: Tendências em comunicação digital / organização Elizabeth Saad e Stefanie C. Silveira — São Paulo : ECA/USP, 2016.

CoLab Social Media: comportamento do consumidor, planejamento e estratégia (1/6)

No final do ano passado, já em dezembro, a Trespontos Brasil trouxe um presente de Natal incrível para quem trabalha com mídias sociais: uma formação online, gratuita e completa no formato MOOC (Massive Open Online Course) que passa por todas as áreas de atuação de um profissional de social media. O Lab Social Media, duas vezes apontado na pesquisa d’O profissional de inteligência de mídias sociais no mercado brasileiro (em 2015 e em 2016) como um dos cursos livres mais populares e relevantes da área, foi reformulado e reestruturado com novos professores, novo nome e um conteúdo mais atualizado que se adequa às recentes mudanças do trabalho com mídias sociais nos últimos anos. Apresento-lhes o CoLab Social Media:

Projeto ousado, objetivo, com conteúdo de ponta, feito por profissionais que lideram algumas das maiores agências de comunicação do Brasil. […] É um curso completo, feito para gerar impacto no mercado e te ajudar na estruturação da sua carreira. – Thiago Ribeiro, CEO da Trespontos Brasil

Como já mencionei, o curso é online e gratuito (!): ou seja, qualquer um pode fazer, basta ter uma conta de e-mail ativa – clique aqui para se inscrever. Após a inscrição, o aluno tem 30 dias para consumir todo o conteúdo disponível; caso não consiga finalizar a tempo, é possível comprar um acesso vitalício por um preço bem razoável. A Trespontos também oferece outros recursos premium (pelo que vi até agora, são desafios práticos e conteúdos extras em cada módulo) e um certificado de 48h ao fim do curso para quem estiver disposto a desembolsar uma graninha pelo conteúdo disponibilizado. Além disso, é possível comprar os módulos “avulsos” com o mesmo material disponível porém com um acesso ilimitado e um certificado de 4h. São 9 módulos ao total, com professoras e professores de agências nacionalmente reconhecidas:

  • Comportamento do Consumidor e Planejamento, com Vivian Jung (w3haus);
  • Real Time, com Felipe Attílio (w3haus);
  • Mídia Online, com Kelli Lima (Remix);
  • Métricas e Dataviz, com Julie Teixeira (Trip Editora);
  • Monitoramento, com Marcel Ayres (ComInteligência/ Engenho);
  • Conteúdo e Comunidades, com Nathália Capistrano (Artplan).

O legal é que a própria Trespontos envia um e-mail com “orientações” de como tirar melhor proveito do curso, que envolve fazer um pequeno resumo do que aprendeu, criar relações com outras leituras/cursos e compartilhar suas anotações com outros participantes – ou seja, o que eu já venho fazendo há mais de um ano aqui no blog! Para quem não tem nenhum espaço onde escrever sobre o que aprendeu, há também um grupo no Facebook onde os alunos são encorajados a compartilhar suas ideias, dúvidas e debater sobre o conteúdo. Como não é o meu caso, este espaço servirá como meu caderninho de anotações. Para tal, dividi o conteúdo (e, acredite, é muita coisa!) em seis partes, juntando os módulos que têm os mesmos professores – afinal, muitas vezes são informações complementares que, aliadas, só enriquecem o conhecimento. Vamos lá!


Comportamento e consumo – o valor das referências (Vivian Jung, W3Haus)

O primeiro módulo do curso é bem introdutório e parece simples, mas é muito importante para quem trabalha com comunicação digital. Trata-se de saber uma resposta conhecida aos usuários do Twitter: “O que está acontecendo?”. Em suma, refere-se a compreender onde estamos enquanto sociedade – em outras palavras, é o que dá sustância àquele adjetivo “antenado” nas vagas que se veem por aí. Jung explica que: “Conhecer as pessoas é uma vantagem competitiva em qualquer cenário/segmento”. Para isso, nós, profissionais de comunicação, precisamos ter um olhar diferenciado para com as experiências ao nosso redor – enquanto outras pessoas estão apenas as vivenciando, precisamos estar atentos ao seu movimento e o que lhes compõem. Ela indica várias fontes para se manter atualizados em diferentes campos culturais:

Parece algo bobo, mas é uma questão importante e que realmente faz sentido: quem trabalha com comunicação digital precisa, sim, ser “heavy-user” de mídias sociais. Isso não significa ficar 24h/dia com o celular na mão sem tirar o olho da tela; mas, precisa ser alguém interessado nas conversações, nos debates, nas atualidades, nas polêmicas, no cochicho, nas aglomerações, etc. Ainda assim, é impossível ser antenado em todas as frentes – a própria lista indicada, embora relativamente extensa, não esconde um público bastante específico, seletivo e exclusivo. De qualquer forma, vai do interesse de cada um, mas é importante enxergar além da sua bolha para tentar entender, por exemplo, o fenõmeno Kondzilla, que ultrapassou as barreiras de classe (graças à plataforma) e eventualmente alcança um público bem diferente do que costuma consumir seus vídeos.

Slide 29 do material “Comportamento e Consumo”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media

Os exemplos de propaganda, campanhas e tendências nos últimos anos têm demonstrado uma aproximação a causas e questões sociais emergentes na nossa sociedade – pensar nas pessoas e no meio ambiente. O último ano, por exemplo, mostrou marcas como Avon e até mesmo a problemática Skol se aproximando de influenciadores de peso na luta pelo empoderamento negro, da mulher e dos LGBTs. No entanto, é importante refletir sobre as ações enquanto prática: há, de fato, algum efeito sendo causado pelo apoio da marca, ou é ação para ganhar biscoito? Por isso achei muito interessante o case apresentado no curso, “Touch the Prickle”, da Whisper na Índia. Nesse caso não se trata nem tanto de empatia, mas de responsabilidade social – uma consciência que não pode ser deixada às marcas, mas exigida de nós, enquanto indivíduos de uma sociedade ainda extremamente racista, machista e LGBTfóbica.

Como já citei aqui no blog diversas vezes, nas palavras de Richard Rogers: “A questão não é mais saber o quando da sociedade e da cultura está online, mas sim como diagnosticar mudanças culturais e condições da sociedade através da internet”. Afinal, quando falamos de internet (mídias sociais), estamos falando de pessoas, que compõem a sociedade e transcendem a cultura – por isso “estar antenado” significa ficar de olho “no que as pessoas querem/para onde querem ir e o que isso representa”. O estudo de disciplinas das Ciências Sociais como Sociologia e Antropologia nesse cenário pode ser um grande trunfo para quem trabalha com comunicação e deseja entender melhor a sociedade e os indivíduos. O vídeo abaixo, por exemplo, apresentado no curso como tendência de comportamento emergente, pode ser assistido com outros olhos quando se tem esse tipo de repertório:

Quem já estudou, leu ou pesquisou sobre cultura do consumo – em suas diferentes vertentes (preferencialmente não conservadoras, mas críticas) de análise – compreende muito bem como a nossa relação com a mercadoria e os produtos foi construída histórica, midiática e culturalmente. Não é de hoje que o consumo pauta nossa construção identitária, e seria ingênuo pensar que nós somos culpados por isso, quando esse imaginário social foi criado e sustentado por décadas pelas próprias empresas e consequentemente pelas ações publicitárias – afinal, com tanta coisa no mercado, precisavam criar motivos lúdicos para vender. Olhar para trás nos ajuda a compreender por que a sociedade atual é como ela é, seus valores, ambições, qualidades e defeitos. Entender, por exemplo, que a categoria juventude foi criada historicamente a partir da década de 50 dentro do processo de modernidade do ocidente – recomendo este artigo – e se tornou mais do que apenas uma classe de faixa etária.

Enfim, voltando ao curso: um conteúdo bacana que foi passado é uma espécie de metodologia para a decodificação cultural a partir de um embasamento semiótico para identificar códigos culturais residuais, dominantes e emergentes. Eles podem ser úteis para compreender, através de pesquisa com entrevista em profundidade, por exemplo, como a sociedade era, como ela se vê, e qual caminho ela deve seguir. As famosas “tendências”, por exemplo, estão associadas a um comportamento emergente, ou seja, pode ser um pensamento ainda muito “radical” para a maior parte da população. Mapear esse pensamento ou comportamento é uma tarefa difícil, porque envolve várias nuances de uma cultura em movimento que vive no embate da modernidade entre romper com o antigo e ser estranho demais para se tornar o novo. Essa é uma dificuldade que nós, que trabalhamos com pesquisa e comunicação digital, precisamos estar dispostos a enfrentar para conceber metodologias responsáveis que nos permitam instrumentalizar a compreensão do público que nos interessa estudar, conhecer, compreender.

  • Residual: O antiquado. Pensamentos que estão há muito tempo por aí, estereótipos ultrapassados, em descompasso com a cultura atual.
  • Dominante: O mainstream. Constituem a maior parte do discurso da sociedade contemporânea. O que se considera “normal” no momento. Muito usados na cultura, já não despertam tanta curiosidade.
  • Emergente: O inovador. Novas formas de pensar na sociedade, pensamentos disruptivos com alto poder de diferenciação e vanguarda. Com mais adesão, tendem a se tornar dominantes e, mais tarde, residuais.
Slide 37 do material “Comportamento e Consumo”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media

Vale lembrar que essa “decodificação cultural” exige uma metodologia extremamente minuciosa para que não haja uma representação enviesada do assunto compreendido. No último momento do módulo, por exemplo, propõe-se uma atividade para organizar macrotendências da sua vida. Para isso, sugere-se que listemos algumas experiências recentes que temos vivenciado (o que se tem feito nos finais de semana, quais piadas fazem e não fazem mais sucesso, etc.) e, posteriormente, organizemos essa lista em assuntos similares. Para mais informações sobre essa atividade é preciso pagar por recursos premium do acesso vitalício, mas cito aqui só para ilustrar a importância da responsabilidade metodológica da pesquisa – nesse caso específico, é preciso reconhecer que são referenciais bem enviesados de um grupo social específico de pessoas.


Planejamento para Social (Vivian Jung, W3Haus)

Quem acompanha o blog sabe que planejamento é uma área que muito me apetece. Talvez por juntar pesquisa e “criação”, fui fisgado pelo trabalho de planner desde que assisti a primeira aula com a Dani Rodrigues, no curso do Quero Ser Social Media. Aliás, a quem tiver interesse, sugiro a leitura dos dois posts (parte 1 e parte 2) que fiz na época sobre o conteúdo do módulo de planejamento – servem de leitura complementar para o que vamos discutir a seguir sobre os aprendizados do CoLab para planejamento. Antes, é bom lembrar que esse trabalho não é uma ciência exata, ou seja, não há um modelo único, fixo e pronto para executar o trabalho de planner – mas há, como será possível perceber, alguns pontos em comum que ratificam certos aspectos importantes desse trabalho.

O conteúdo do módulo no curso responde à seguinte demanda: como montar um planejamento para social media? Para isso, passa primeiro pelo papel do planejador na relação entre agência e cliente; em seguida, aborda questões para o levantamento de dados (pesquisa) que levem à elaboração de uma estratégia de posicionamento de marca; ensina como construir uma missão digital, como montar sua persona, quais canais habitar e em quais momentos falar; até chegar ao momento de passagem para a criação e outras áreas, mostrando também como ajudar a acompanhar e direcionar (melhorar) os resultados pretendidos. Ou seja, o primeiro momento é definido por um trabalho de levantamento de dados para embasar o trabalho seguinte, o segundo momento usa essa pesquisa a fim de elaborar uma criação justificada e o terceiro momento é focado em otimização. Vamos por partes!

1. Cenário, tendências, manifestações e pesquisa

Essa primeira “fase” está relacionada a, basicamente, olhar ao seu redor e entender o que está acontecendo. Ou seja, precisa se informar sobre dados do mercado (penetração da categoria, share das marcas, lembrança de comunicação, imagem de marca, etc.) para entender “quais são os desafios do cliente frente aos concorrentes”. É um trabalho (muitas vezes menosprezado quando se fala em mídias sociais) básico que te ajuda simplesmente a não entrar no jogo às cegas, no escuro, achando que está inventando a roda. A partir do momento que é feita uma pesquisa simples sobre outros atores em rede, adquire-se um repertório que identifica os melhores aprendizados e agrega à produção de um conteúdo mais assertivo. Para tanto, indica-se que seja feito um trabalho de:

  • Identificar posicionamentos: conhecer a promessa e o propósito de cada marca (do mesmo segmento ou categoria);
  • Mapear territórios ocupados e livres: identificar os territórios conceituais que reforçam o posicionamento (através de quais assuntos eles ocupam territórios para posição da marca?);
  • Presença, alcance e engajamento: mapear presença em canais e dados quantitativos de engajamento, levantar dados qualitativos de engajamento, monitoramento de menções espontâneas (volume, sentimentos e assuntos);
  • Benchmarks: dominar boas práticas do segmento – e de outros com afinidade conceitual – inspirando inovações de canais, ferramentas e abordagens.

Esse cenário do mercado e de comunicação pode (e deve) ser aliado a outras análises mais macro onde a marca pode ser inserida – que são os estudos de tendências e exploração de manifestações sociais digitais, conforme sugerido pelo curso. As pesquisas de tendências (que podem ser consultadas nas fontes citadas no módulo anterior) podem ser úteis para entender novos fenômenos sócio-culturais da sociedade, estes que podem fornecer insumos criativos – ou até mais – para o desenvolvimento do posicionamento da marca. Ainda nessa direção, é importante estar antenado às manifestações em rede das mídias sociais para verificar quais oportunidades há nesse território que pode ser útil. O que está acontecendo na internet relacionado à nossa categoria/segmento/produto? É a tal da cibercultura, simplificada.

Por fim, mas não (!) menos importante, uma pesquisa mais detalhada e trabalhada pode ser uma grande vantagem estratégica – para quem tem mão de obra para tal. Essas pesquisas podem ser o grande diferencial que vai te permitir criar uma conexão sincera com seu público-alvo onde quer que você precise estar na internet. Respondendo às perguntas: Como o target se comporta em relação à categoria e à sua marca? Como se sente em relação às tendências? A solução está na pesquisa de dados que podem ser secundários (disponíveis em fontes de terceiros, como publicações e banco de dados) ou primários (coleta de dados). Confira mais sobre estes nos slides apresentados abaixo:

Slide 43 do material “Comportamento e Consumo”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media
Slide 45 do material “Comportamento e Consumo”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media
Slide 47 do material “Comportamento e Consumo”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media
Slide 49 do material “Comportamento e Consumo”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media
Slide 51 do material “Comportamento e Consumo”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media

2. Estratégia, missão digital, territórios, conteúdo, canais, sazonalidades e brand persona

Uma coisa que eu senti falta no curso foi o famoso exercício de análise SWOT (forças, fraquezas, oportunidades e ameaças). Tudo bem que isso está presente superficialmente na fase anterior, de análise do cenário, mas achei que precisava de uma preocupação maior com essa metodologia para fundamentar, principalmente, as estratégias e posteriores conceitos comunicacionais que serão abordados daqui em diante. Sugiro, portanto, para complementar o aprendizado, a leitura da parte 2 do meu post sobre o módulo de Planejamento do curso Mídia Social de Ponta a Ponta do QSSM: a Dani Rodrigues oferece um esquema bem rico para descobrir quais são as forças e as oportunidades que se podem encontrar para a marca – consumer, category, culture e brand insights.

“Consumidores são pessoas que estão ocupadas com algo mais importante do que sua marca. Para ouvirem o que você está vendendo, você precisará captar atenção com algo que importa pra elas. O desafio é encontrar o benefício mais emocional ligado à entrega racional do produto ou serviço (relevante + proprietário).”

Slide 33 do material “Planejamento”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media

O desafio da citação acima, retirada do material do curso, fica bem mais fácil de enfrentar quando temos bem definidos quem somos e o que entregamos (enquanto empresa, marca, etc.). A proposta sugerida é criar uma missão digital, uma espécie de discurso/conceito que comece com um verbo e sirva de referência para os esforços comunicacionais da marca no ambiente digital. A ideia é se debruçar sob um caráter mais inspirador (poetizado) para, a partir de todo o repertório adquirido na primeira fase de pesquisa, elaborar quase que um manifesto para entregar aos criativos – que são os responsáveis por crias as peças (imagens, vídeos, etc.) para a marca nas mídias sociais. Uma dúvida que eu tive é se essa missão é externa ou interna, pois os exemplos dados não deixam muito claro de quais marcas se tratam.

Outra etapa importante do planejamento é mapear quais territórios de assuntos serão preferidos para a marca entrar na conversa. Estes devem seguir a composição de: interesses do target no digital (exemplo: receitas, blogs, decoração) + comportamento do target na vida (bem estar, cultura, tecnologia) + pesquisas e tendências + benefícios emocionais do produto (sabor, conforto caseiro, introspecção) + conexão com a missão digital. A junção de todos esses fatores garante a elaboração de um campo de conteúdo amplo porém bem direcionado (assuntos relevantes para o target e para a marca) que auxilia, por exemplo, na criação dos chamados editoriais de mídias sociais – que são os assuntos/temáticas/abordagens que as marcas acionam na criação de peças para o digital.

Essa parte do curso é bem interessante para quem trabalha direto com criação! São apresentados algumas possibilidades de abordagens para pautar a criação do conteúdo voltado para as mídias sociais. A sugestão é que nunca se crie uma peça que fale somente do produto ou somente do conceito, mas que seja dado ênfase a determinado aspecto enquanto outros estão menos identificáveis. Confira abaixo quais são essas possibilidades de “formato”:

PRODUTO

  • Contexto: inserção do produto em momentos da vida do consumidor (exemplo: momentos de leitura e relaxamento em casa);
  • Uso prático: foco na aplicação ou consumo do produto (exemplo: receitas com o produto e sugestões de acompanhamento);
  • Diferenciais: destaque dos diferenciais funcionais (exempo: preparo dos produtos da marca para reforçar a imagem de artesania).

CONCEITO

  • Inspiração: conteúdo inspiracional e aspiracional (exemplo: quotes para momentos de reflexão, o que também está relacionado a um momento aspiracional de consumo);
  • Identificação: identificação com sentimentos, situações cotidianas, características do target (exemplo: situação de cumplicidade entre irmãos).

Talvez anterior à definição dessa abordagem de conteúdo, seja importante definir em quais canais a marca terá presença digital. Já é sabido a esta altura do campeonato que não é necessário estar presente em todas as mídias sociais para fazer um bom trabalho nesse ambiente. Como sugere o curso, o importante é conhecer o tamanho do seu target na internet e onde estão situados em cada canal – o Twitter ou o Pinterest podem ser mídias estrategicamente mais coerentes para um determinado público do que o grandioso Facebook, por exemplo. Isso não quer dizer que as empresas precisam escolher apenas uma ou duas mídias para atuar, mas ter bem definido quais são os canais perenes, pontuais e influenciadores – nomenclatura que eu desconhecia, mas achei bem interessante. Abaixo, um maior detalhamento desse conteúdo:

Slide 55 do material “Planejamento”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media

É importante também ter mapeado para esses canais quais são seus fluxos (o que leva para onde?), sua contribuição para a missão digital e a quais objetivos eles atendem (que tipo de resultado se espera de cada um). Ainda nesse cenário é preciso pontuar a sazonalidade da conversação da marca (quando falar?), ou seja, definir quais momentos do ano são importantes tanto para o serviço/negócio quanto para o conceito de comunicação – onde será possível transmitir os valores da marca. Uma estratégia comum é manter uma continuidade de conteúdo nos canais durante todo o tempo com algumas ativações esporádicas (dentro de um contexto que faz sentido, como, por exemplo, feriados de Sol para uma marca de bronzeador) para criar uma curva de engajamento bem estruturada.

Por fim, mas não menos importante, é preciso criar sua brand persona. Existe muito conteúdo na web sobre como fazer isso, e é provável que todos eles estejam corretos. Em suma, trata-se de responder a perguntas como: que tipo de conteúdo essa pessoa (marca) publicaria? como se relacionaria com os amigos? que tipo de linguagem ela usa? quais são suas características? Recomendo, para início de conversa, esse texto, esse outro texto, e esse guia. Um exercício interessante para entender melhor sobre a construção de persona é analisar as páginas de produtos da Coca-Cola: como fala a Sprite? E a Fanta? O conteúdo que a Schweppes aborda é o mesmo da Kuat? Os sucos Del Valle passam a mesma mensagem dos chás Leão Fuze (já que, a priori, o público poderia ser semelhante)? Todos esses aspectos semânticos e visuais ajudam a definir as características de cada marca.

Slide 63 do material “Planejamento”, disponibilizado pela Trespontos para os alunos do curso CoLab Social Media

3. Avaliação e controle

O trabalho de planejamento não acaba quando termina. Para passar a bola para a criação, que é quem vai desenvolver os materiais que serão publicados nas mídias sociais, é preciso muita conversa, diálogo e sinergia que garanta uma troca de motivações e conceitos constante. Como a área de planejamento é quem mais estudou e esteve imerso no trabalho de elaborar todo esse universo comunicacional, o desenvolvimento criativo precisa vir acompanhado de touchpoints de calibragem que permitam que as duas áreas construam juntas e possuam uma troca constante de referências. Essa integração, na verdade, acontece com praticamente todos os setores de uma agência, já que, como dito lá no começo, é a área de planejamento que faz a integração entre cliente, consumidor e agência.

A avaliação do trabalho, por exemplo, integra o planejamento com outros setores como métricas, monitoramento, mídia e possivelmente business intelligence. É importante ressaltar que os famosos KPIs (Indicadores-Chave de Performance, em português) são definidos ainda no momento do planejamento – recomendo a leitura desse texto do blog da DP6 para maior compreensão sobre o assunto. É o planner quem, obviamente acompanhado dos profissionais de mídia e métricas, estabelece(m) quais serão os indicadores importantes e as metas que se desejam alcançar (seja em questão de share of voice, vendas, investimento, etc.). A partir do momento que o planejamento está em execução, o curso recomenda: rondas periódicas pelos canais, leitura dos comentários, observação a reação dos concorrentes e troca de percepções com as demais áreas.

Os relatórios finais de campanhas ou ações pontuais também têm peso de importância para os planejadores, afinal, foram eles que indicaram o caminho para que se desenvolvessem os aspectos comunicacionais da marca. Nesse momento é importante atentar-se aos KPIs, metas e big numbers para avaliar quais mudanças de rotas são possíveis para atingir o que não foi possível. Precisa ser um conteúdo claro e objetivo, que exponha medidas práticas para explicar o que aconteceu (se errou ou se acertou) e por que aconteceu dessa forma (por que errou ou por que acertou), explicando o que será feito para solucionar quaisquer problemas.


A última parte do módulo propõe mais um desafio para os assinantes do acesso vitalício: utilizar o guia apresentado para fazer o trabalho de planejamento para uma marca sua ou alguma do seu interesse. Ainda não tive tempo de fazer esse exercício (que acho importante) para colocar em prática tudo que aprendi, mas criei uma planilha no Google Drive com cada um dos campos desenvolvidos aqui, desde pesquisa (e tendências) até a definição das métricas de avaliação. Talvez seja útil para outras pessoas, então estou disponibilizando aqui embaixo para quem tiver interesse (basta clicar na imagem para ter acesso e fazer o download):

Clique na imagem para acessar!

E você? Também fez o curso? Está fazendo? Manda uma mensagem aqui nos comentários, no contato ou no Twitter para trocarmos figurinha sobre o conteúdo! 🙂

FutureLearn: 10 cursos para profissionais de monitoramento e métricas com inscrições abertas

“Quanto custa um bom curso de mídias sociais?” é uma pergunta frequente nos grupos sobre social media do Facebook. De alguns anos pra cá, vários cursos têm se consolidado no mercado enquanto referências para profissionais começando ou buscando capacitação em diferentes campos de mídias sociais – destaco aqui o Quero Ser Social Media e o Atlas Media Lab, além do novato IBPAD – e isso é ótimo para a nossa área. No entanto, embora o mapeamento que eu tenha feito no Estudando Social Media tenha resultado em ótimas experiências enquanto aluno, posso dizer que há boas oportunidades também para aqueles que não conseguem desembolsar tanta grana para cursos livres sobre monitoramento, data intelligence, etc. – ou para quem simplesmente deseja expandir seus conhecimentos.

No primeiro post que fiz sobre o também primeiro curso que estou fazendo no FutureLearn, contei um pouco sobre o site: trata-se de uma plataforma de MOOCs (Massive Open Online Course), um ambiente virtual de educação à distância que oferece diversos cursos gratuitos para pessoas de todos os níveis de graduação. As aulas são liberadas semanalmente e os alunos podem concluir os estudos no seu tempo – a única implicação (além de perder a discussão com os colegas) é que aqueles que desejam fazer a inscrição têm apenas até a última semana “oficial” a partir do início do curso para que assim a faça. Portanto, para ninguém perder boa oportunidades, separei alguns cursos sobre big data, data analysis, social media e marketing digital que achei que poderiam ser úteis para profissionais de monitoramento e métricas – mas também para quem trabalha com social media de uma maneira geral.

Embora não tenha realizado nenhum dos cursos abaixo, tenho algumas considerações (e indicações mais veementes) a fazer: 1) os três primeiros cursos fazem parte do programa Big Data Analytics da Queensland University of Technology (QUT), mesma universidade que ofereceu o curso de Social Media Analytics que estou fazendo; 2) o curso de linguística de corpus é altamente recomendado pelo Tarcízio Silva; 3) por fim, é a terceira turma do curso da UCL com Daniel Miller e cia. sobre antropologia da social media este ano, provavelmente a última – vamos todos fazer juntos?. Vale ratificar que há diferentes níveis de aprendizado e conhecimento antes mesmo de começar cada um dos cursos – os seis primeiros, por exemplo, exigem do aluno um repertório maior e mais aprofundado sobre estatística, programação, etc. – mas tem para todos os gostos!

  • Big Data: Statistical Inference and Machine Learning
  • QUEENSLAND UNIVERSITY OF TECHNOLOGY
  • Data de início: 5 de setembro de 2016
  • Resumo: “Everyone has heard of big data. Many people have big data. But only some people know what to do with big data when they have it. So what’s the problem? Well, the big problem is that the data is big—the size, complexity and diversity of datasets increases every day. This means that we need new technological or methodological solutions for analysing data. There is a great demand for people with the skills and know-how to do big data analytics.”
  • Big Data: Mathematical Modelling
  • QUEENSLAND UNIVERSITY OF TECHNOLOGY
  • Data de início: 5 de setembro de 2016
  • Resumo: “Have you ever wondered how mathematics can be used to solve big data problems? This course will show you how. Mathematics is everywhere, and with the rise of big data it becomes a useful tool when extracting information and analysing large datasets.”
  • Big Data: Data Visualisation
  • QUEENSLAND UNIVERSITY OF TECHNOLOGY
  • Data de início: 31 de outubro de 2016
  • Resumo: “Data visualisation is an important visual method for effective communication and analysing large datasets. Through data visualisations we are able to draw conclusions from data that sometimes are not immediately obvious, and interact with the data in an entirely different way.”
  • BÔNUSBig Data: from Data to Decisions – última semana para se inscrever!
  • Data Tells a Story: Reading Data in the Social Sciences and Humanities
  • LOUGHBOROUGH UNIVERSITY
  • Data de início: 5 de setembro
  • Resumo: “Over the past years, more and more people have turned to data for help. Huge amounts of data are collected every day from millions of sources. This data has a lot to tell us! But data by itself is mute—it can only help us if we learn to make it speak and tell its story. In this short free online course, we will introduce basic ideas about collecting data, and techniques for turning data into information we can use.”
  • Data to Insight: an Introduction to Data Analysis
  • UNIVERSITY OF AUCKLAND
  • Data de início: 3 de outubro de 2016
  • Descrição: “The course focuses on data exploration and discovery, showing you what to look for in statistical data, however large it may be. We’ll also teach you some of the limitations of data and what you can do to avoid being misled. We use data visualisations designed to teach you these skills quickly, and introduce you to the basic concepts you need to start understanding our world through data.”
  • Learn to Code for Data Analysis
  • OPEN UNIVERSITY
  • Data de início: 10 de outubro de 2016
  • Descrição: “This hands-on course will teach you how to write your own computer programs, one line of code at a time. You’ll learn how to access open data, clean it and analyse it and to produce visualisations. You will also learn how to write up and share your analyses, privately or publicly.”
  • Corpus Linguistics: Method, Analysis, Interpretation
  • LANCASTER UNIVERSITY
  • Data de início: 26 de setembro
  • Resumo: “The course aims to: equip those taking the course with skills necessary for collecting and analysing large digital collections of text (corpora); provide educational support for those who want to use the corpus method; demonstrate the use of corpus linguistics in the humanities, especially History; give a sense of the incredibly wide uses that corpora have been put to; allow those with an interest in language, who have not heard of the corpus approach before, a new way of looking at language; demonstrate that corpus approaches to social science can offer valuable insight into social reality by investigating the use and manipulation of language in society.”
  • Why We Post: the Anthropology of Social Media
  • UCL (UNIVERSITY COLLEGE LONDON)
  • Data de início: 31 de outubro de 2016
  • Descrição: “This free online course is based on the work of nine anthropologists who each spent 15 months in fieldsites in Brazil, Chile, industrial and rural China, England, India, Italy, Trinidad and Turkey.”
  • Digital Marketing: Challenges and Insights
  • UNIVERSITY OF SOUTHAMPTON
  • Data de início: 17 de outubro de 2016
  • Descrição: “This short course introduces you to exciting new concepts and applications of digital marketing. It takes an informal “story telling” approach, encouraging you to share your own stories as consumers and/or marketers for the benefit of the learner group as a whole.”
  • Online Business: Digital Marketing for Success
  • RMIT UNIVERSITY
  • Data de início: 21 de novembro de 2016
  • Descrição: “This free online course will introduce you to the rapidly evolving world of digital marketing and the role it plays in driving awareness and sales for online businesses. We will go on a customer journey together, to discover how people use digital to search, engage, review and buy.”

Segunda semana do curso Social Media Analytics, da QUT: hashtags, Tableau e #BielExposedParty

Na semana passada dei início à “série” de posts sobre um novo curso que comecei a fazer no FutureLearn. Se você acabou de chegar, explico: realizado pela australiana Queensland University of Technology, no Digital Media Research Centre, trata-se de um ambiente virtual de aprendizado – ou MOOCs (Massive Open Online Course) – onde qualquer um com acesso a internet e conhecimento da língua inglesa pode participar. O curso em questão, Social Media Analytics: Using Data to Understand Public Conversations, comandado pelas pesquisadoras Jean Burgess, Axel Bruns e Tim Highfield, começou no dia 18 de julho – com duração de apenas três semanas – e continua com as inscrições abertas até dia 6 de agosto (creio eu, já que é quando termina a última semana). Caso tenha interesse, vale dar uma olhada no primeiro post que fiz sobre ele, onde descrevi a primeira etapa de aprendizado e apresentei mais informações institucionais.

SEMANA 2

A primeira atividade dessa segunda semana foi divulgada, na verdade, só na sexta-feira: a professora Jean Burgess e o professor Axel Bruns responderem algumas perguntas que os alunos fizeram durante os últimos dias nos “fóruns” de discussão. Eles explicaram o motivo da escolha das ferramentas que utilizamos no curso (com foco no Tableau), falaram um pouco sobre as limitações de pesquisa no Facebook (comparado ao Twitter) e comentaram sobre algumas questões específicas da prática das atividades que fizemos. Um ponto que eu gostaria de trazer à tona desse Q&A, retomando um tópico da última semana, é sobre a provocação de que o Twitter estaria ficando “menos sociável”. Em resposta a uma colega da turma, a profª. Jean explicou o que eu tinha pontuado no outro post – porém não tinha a base teórica para sustentar minha compreensão – sobre os embates de significados com relação à palavra “sociabilidade”:

Jean, there has been discussion in the first week about sociability and what we mean by social media, in response to your post on Medium. Could you tell us how you understand social and sociability?

Jean: Yeah, the term social is often used interchangeably with sociability. But they actually have two different meanings and in sociology, sociability has a specific meaning. So we can talk about social media in terms of something that brings people together and they interact without thinking about the value of that or whether it’s a positive or negative experience. Sociability carries with it the idea of playfulness and pleasure and cooperation. So the idea of a sociable social media environment is where people actually enjoy themselves, interact in a positive and constructive way with each other and contribute to building society through their interactions on the platform.

A conversa com os professores em vídeo foi importante para sentirmos as suas presenças no curso, mas não foi muito aprofundada em termos teóricos e/ou de discussão – foram apenas 7 perguntas respondidas e cerca de 10 minutos de vídeo. Acredito que esse formato se encaixe no modelo “rápido” do curso, uma vez que a discussão e o debate acadêmicos sobre alguns assuntos que já vimos na primeira semana seja extensa e mereça uma abordagem mais estruturada para dar conta de tamanha complexidade. Aliado a isso, tem o fato de que, diferentemente da primeira semana, essa segunda etapa do curso foi bem mais mão-na-massa – ou hands-on, para usar a expressão que eles usam – o que, a meu ver, mais uma vez reflete a proposta do curso: o objetivo é oferecer aos alunos conhecimento e habilidades práticas para começar o seu trajeto na análise de dados voltada para sites de redes sociais. Isso não diminui, em nenhum instante, a sua qualidade, apenas se adéqua ao formato disponibilizado pelo próprio FutureLearn. Dito isso, continuemos com o conteúdo programático.

socialmedianalaytics2Depois de conhecermos, na semana passada, o TAGS, fomos apresentado ao Tableau“um programa de análise e visualização de dados que te ajudará a analisar e compreender toda a informação coletada”. Muito do que aprendemos nas atividades desta semana – praticamente tudo, na verdade – foram ensinamentos iniciais sobre a utilização desse programa. Para o post não ficar muito grande (e até porque acredito que ainda não tenho conhecimento suficiente para escrever sobre o assunto, mesmo já tendo aprendido algumas coisas – mas não quero ensinar nada errado), vou compartilhar aqui somente o que nos foi proposto a executar na ferramenta com os dados que coletamos do TAGS. Quem tiver interesse em conhecer mais do Tableau (com mais detalhes práticos), há uma página específica de treinamento e tutoriais no site deles com vídeos que ensinam vários passo-a-passos para todos os níveis de conhecimento – que eu mesmo devo conferir com mais calma em breve e, se possível, compartilho alguns aprendizados também aqui no blog.

Antes de entrar nessa parte mais prática, no entanto, acho válido colocar em pauta um pouco da “breve” parte teórica que vimos nesta semana. Como eu já tinha mencionado antes: embora o FutureLearn indique a carga-horária de 3 horas necessárias para a conclusão das atividades semanais, se você quiser dar conta de todos os níveis de informação (atividades, artigos, comentários, etc.), você provavelmente precisará de mais tempo. Com isso em mente, tomei a consciente decisão de abrir mão da discussão com meus colegas de turma para conseguir ler alguns dos artigos propostos por Burgess e Bruns. O primeiro, Twitter Hashtags from Ad Hoc to Calculated Publics, de autoria dos próprios, traz um apanhado interessante sobre o contexto das hashtags no espaço e tempo – pensado em mudanças técnicas, reapropriações, etc. – que nos ajuda a pensar a análise prática mais pra frente. Eis alguns pontos que achei interessante ratificar e trazer para a discussão:

  • Sobre características de hashtags
  • A hashtag é como um mecanismo gerado por usuários para etiquetar e coletar tweets que são relacionados a algum tópico específico;
  • Ela foi decisiva na identidade do Twitter para ser reconhecido como plataforma da criação instantânea de audiências que são formadas, reformadas e coordenadas através de dinâmicas de redes comunicacionais e cuja conectividade social é organizada prioritariamente em volta de questões e eventos ao invés de grupos sociais pré-existente;
  • Elas nascem de dentro de comunidades do próprio Twitter, sejam através de planejamentos prévios ou consensos rápidos entre os usuários, ou até mesmo de disputas discursivas que acarretam na utilização de hashtags conflitantes;
  • A discussão em torno de hashtags atua num nível macro do Twitter (Bruns & Moe, 2014), comparado à estrutura mais definida de “personal publics” (Schmidt, 2014) que age dentro do nível meso de seguidores e também à conversação mediada através de replies, num nível micro.
  • Sobre a história de hashtags
  • Muitas das técnicas oferecidas e aplicações culturais do Twitter que define seu papel na comunicação pública tão significante foram originalmente inovações criadas por usuários, sendo somente incorporados à arquitetura da plataforma depois de um tempo;
  • O uso das hashtags nasceu numa proposta feita por Chris Messina, um tecnólogo de São Francisco, em 2007, quando fez um post no seu blog: ‘Groups for Twitter, or a Proposal for Twitter Tag Channels’. Sua sugestão para o uso de hashtags – como conhecemos hoje, criando um sistema de canais etiquetados utilizando o símbolo do jogo da velha para que as pessoas pudessem seguir e contribuir em conversações sobre assuntos de interesse particular – tinha o intuito de “melhorar a contextualização, o filtro de conteúdo e sensação de exploração satisfatória no Twitter”.
  • Sobre a dinâmica entre hashtags e publics
  • O que chamamos de “publics”, aqui, pode ser compreendido como audiência; a partir disso, podemos pontuar que a compreensão tradicional de audiência para os meios de comunicação de massa é traduzida num grande grupo de pessoas estranhas que acompanham um conteúdo editorialmente curado por uma instituição comunicacional;
  • Nos casos das hasgtags, esse cenário muda um pouco – em partes: embora os usuários possam, como um todo, contribuir para a comunicação e conversação entre si, há também uma curadoria da própria plataforma – seja por popularidade ou relevância, a depender das situações – que também norteia o consumo de informação dos tweets.
  • Sobre a “anatomia” de hashtags
  • Alguns aspectos podem ser observados em tweets com hashtags que envolvem “crises”: por terem um caráter mais voltado para a intensa e rápida propagação de conteúdo, esses tweets geralmente contêm mais URLs (links, imagens, etc.) e retweets;
  • Já tweets que envelopam, por exemplo, eventos televisivos, são mais “originais”: são menos URLs e retweets e mais menções originais, uma vez que os usuários já possuem um guia-condutor da conversa e desejam, majoritariamente, expressar uma opinião original/própria sobre o assunto.

A segunda leitura da semana, o artigo “Towards more systematic Twitter analysis: metrics for tweeting activities“, de Axel Bruns e Stefan Stieglitz, já traz um conteúdo mais voltado para a prática dos métodos digitais. Compreendendo métricas como “medidas quantificadas que nos permite analisar, comparar e contrapor dados [do Twitter, para o caso específico do curso]”, somos apresentados a três “níveis” de métricas propostos pelos autores do artigo: como os usuários contribuem para a conversação, como a atividade acontece e o padrão de certos usuários ao passar do tempo. O objetivo aqui é propor algumas métricas básicas que forneçam um suporte de análise que possa crescer e desenvolver outros indicadores mais complexos – ou seja, construir um terreno comum entre pesquisadores que sirva de base inicial. Não vou aprofundar aqui na discussão completa do artigo, pois ele traz tantas funcionalidades importantes para a análise de dados no Twitter que merecia um post sozinho, mas destaco esses principais níveis de métricas:

  • User Metrics: apresentam geralmente uma cauda longa com um grupo pequeno de usuários sendo mais ativos e tendo mais visibilidade do que o restante dos usuários*;
    • Atividade: a simples contagem de tweets enviados por cada usuário, o que fornece uma compreensão do seu envolvimento (e comprometimento) com a hashtag;
    • Visibilidade: o levantamento dos usuários mais mencionados na base de dados apresenta os que são, provavelmente, mais visíveis naquele contexto;
    • *Aqui é interessante fazer uma comparação, além de entre os indivíduos, também entre esses grupos – no modelo proposto por Tedjamulia, por exemplo, de três grupos: o top1%, top9% e top90%.
  • Temporal metrics: essa medida ajuda a ter uma visão temporal de como a hashtag foi incorporada pelos usuários ao passar do tempo, o que permite observar, por exemplo, picos de volume ou quedas bruscas de atividade – a partir daí, é possível identificar de maneira qualitativa alguns comportamentos dos usuários e da comunidade como um tempo para determinado período.
  • Combined metrics: essa métrica permite fazer uma extensão da análise ao assimilar descobertas sobre usuários com descobertas sobre atividade ao passar do tempo – isso pode revelar quem está dominando a conversação em momentos-chave.

Um benefício-chave de estabelecer uma caixa de ferramentas de métricas padrões para a análise de datasets de hashtag no Twitter são as oportunidades aprimoradas para comparação e correlação em torno de uma série diversa de caso de estudos. Tal comparação pode pontuar semelhanças e diferenças em padrões de uso do Twitter, e pode direcionar para a identificação de um número de gêneros comuns de comunicação baseada em hashtag no Twitter; conforme a plataforma e sua utilização evolui, e conforme a base de usuários geral se desenvolve, nós também podemos acompanhar essas mudanças ao passar do tempo. […] Isso demonstra como a abordagem quantitativa para análise de dados do Twitter em larga escala, cujos métodos e métricas que introduzimos aqui torna possível, pode gerar clara evidência de padrões comunicacionais no Twitter.

Outro artigo cuja leitura foi recomendada mas do qual eu não consegui dar conta de ler a tempo foi o “Tweet, Tweet, Retweet: Conversational Aspects of Retweeting on Twitter”, de danah boyd, Scott Golder e Gilad Lotan. A proposta desta etapa era trazer uma compreensão teórica da dinâmica dos retweets na plataforma, uma vez que eles demonstram “qual conteúdo carrega peso na conversação e na comunidade”. O argumento aqui é que essa prática do Twitter tem um valor bastante significativo no universo de interações da plataforma, pensando também como a informação se move com relação a um assunto ou a um problema dentro daquele contexto. No curso fomos apresentado à história de Jerry, um simples fabricante de lâmpadas residente da cidade de Nova York que ganhou uma visibilidade enorme no Twitter graças às fãs do One Direction – você pode conhecer e entender essa história nessa timeline dinâmica criada pelo pessoal da QUT.

Tendo destrinchado minimamente a parte teórica, podemos seguir para o restante da semana: Tableau na prática. Como já mencionei anteriormente, acho que não cabe trazer ao post o passo a passo de como realizei cada uma das atividades (esse acompanhamento foi disponibilizado no próprio curso), mas trago aqui o que criei com a ferramenta – quem tiver curiosidade em saber como foi feito pode deixar perguntas nos comentários que posso orientar mais minuciosamente. Portanto, o que eu fiz, num primeiro momento, no Tableau:

  1. Utilizei a coleta de dados que fiz com a TAGS;
  2. Desenvolvi um gráfico de evolução temporária da hashtag monitorada;
  3. Encontrei (e explorei) os retweets proeminentes da minha base de dados, comparando também esses retweets com tweets de maior “alcance”;
  4. Criei dois gráficos para descobrir quem foram os usuários mais ativos e mais visíveis;
  5. Encontrei os usuários mais “influentes” (com o maior número de seguidores) da minha base;

Já que na semana passada eu ainda não tinha definido exatamente qual seria o meu tópico de estudo para o curso, tive a sorte de “participar” de um movimento que aconteceu no Twitter esta semana em resposta a uma reportagem do cantor Biel. Numa entrevista ao TV Fama, ele proclamou que a repórter que a denunciou por assédio tinha prejudicado muito sua carreira – foi o suficiente para o Twitter entrar em turbilhão e colocá-lo mais uma vez em pauta. Usuários começaram a procurar tweets antigos do cantor com referências racistas, machistas, etc., expondo os absurdos através de retweets e prints que circularam a plataforma e culminou na hashtag: #BielExposedParty. Quando a encontrei nos Trending Topics, já eram mais de 10.000 menções utilizando a hashtag – achei que seria interessante, portanto, juntando a curiosidade à prática, fazer os exercícios do Tableau com essa base de dados que consegui coletar através do TAGS, ferramenta que foi apresentada na primeira semana do curso. Foram 11.149 tweets em 24h de hashtag e o resultado foi esse:

Para além de ter feito essa atividade na prática, acho válido – necessário, na verdade – pontuar algumas observações que podem ser feitas a partir desse simples cruzamento de dados. Podemos compreender, por exemplo, através da análise temporal, que o principal período de adesão à hashtag aconteceu entre às 21h e 23h; podemos também perceber que os retweets tiveram um papel essencial para a disseminação, propagação e viralização da mensagem que a hashtag queria passar (expor o cantor, basicamente) – o volume de tweets originais é muito menor do que o volume de retweets; quando você olha mais afundo para tentar descobrir a crescente exponencial do volume de tweets entre 21h e 22h, consegue encontrar a adesão de algumas contas (@forumpan, @gifboardbrasil e @bchartsbr, por exemplo) que foram essenciais na propagação da hashtag; ao mesmo tempo, os tweets originais também apresentam uma crescente nesse período uma vez que esse é o momento em que as pessoas entram na conversa para conseguir também sua porção de visibilidade na conversação.

Quando olhamos para as menções com o maior número de retweets, podemos fazer uma simples (e estaticamente incorreta, mas aqui vale) dedução que essas contas são bastante ligadas ao mundo pop – uma análise mais aprofundada poderia nos ajudar a compreender como a informação se moveu nessas conversações. Quando comparamos a visibilidade com a atividade dos usuários, percebemos que o uso frequente da hashtag não corresponde a um maior nível de atenção dos usuários; no entanto, vários dos usuários de maior visibilidade também se encontram dentre as menções com mais retweets – o que pode indicar, superficialmente, que estes foram essenciais na circulação da mensagem dentro do universo da hashtag; quando olhamos para alcance dos tweets e usuários mais seguidos, no entanto, observamos que vários dos tweets de maior alcance não necessariamente foram retweets, mas menções originais de usuários com uma grande leva de seguidores.

Vale ressaltar que essa é uma análise bem simples e inicial do cruzamento de dados que foi apresentado no curso. Caberia, sim, um aprofundamento nas discussões e no tema para que pudéssemos desenvolver hipóteses mais concretas e buscar uma compreensão sobre o tema. No entanto, por motivos de tempo, esse estudo mais aprofundado vai ter que ficar para um outro momento. Ainda houve, por fim, mais duas atividades práticas nessa segunda semana de aprendizado, entretanto, por se tratar de um cruzamento de dados um pouco mais complexo e que eu gostaria de tratar com outra abordagem, vou deixar essa parte final para o post da próxima semana – vai ser interessante também porque será possível cruzar com algumas aplicações que devemos fazer no Gephi e tal, então acredito que se encaixe mais na publicação da semana seguinte. Combinado? Novamente, quem estiver fazendo curso ou quem estiver interessado em fazer e queira saber mais, entra em contato comigo. Estou à disposição!