Tag: dataviz

O que eu aprendi sobre apresentação e design de relatórios (sem ser designer)

Acho importante começar este post falando que o que vou trazer aqui não é uma regra ou realidade absoluta. É como um guia de conduta que eu, pessoalmente, fui aos poucos organizando para mim mesmo a partir de vários materiais que fui consumindo ao longo dos anos e também a partir de diversos feedbacks/devolutivas que tive a oportunidade de receber durante a minha carreira. Espero que possa ser útil para outras pessoas como foi e tem sido útil para mim nessa trajetória de profissional de análise e inteligência de dados.

Dito isso, o meu intuito aqui é compartilhar algumas dicas e instruções de como eu abordo a produção de relatórios, pensando esses produtos como uma entrega de inteligência que deve guiar tomadores de decisões a um caminho mais assertivo a partir dos dados que foram analisados. Tão importante quanto a metodologia, o critério de análise, o aprofundamento nos dados ou a qualidade das informações transmitidas, a meu ver, é também o modo como transmitimos essa inteligência para outras pessoas que só chegam no final de todo o processo.

Afinal, quando uma empresa, seja uma marca ou agência, contrata um serviço de relatoria – seja ele de listening/monitoramento, performance de mídia, web analytics ou o que quer que seja -, ela não o fez pelo relatório, mas sim pelos insights que dali podem surgir. A “entrega” pode até ser materializada num relatório em formato de PPT, PDF, DOC ou um dashboard (e geralmente é), mas o que estão pagando de verdade é pelas informações que esses materiais podem trazer para guiar uma ação posterior – um criativo, um desenvolvimento de produto, um ajuste de investimento etc.

Ainda nesse contexto, o ritmo de trabalho e fluxo de informações (e dados) aos quais a grande maioria – senão a totalidade – desses profissionais que consomem relatórios estão condicionados também acrescenta a esse cenário uma dificuldade mais ampla à apresentação de resultados. Imagine que essas pessoas demandantes provavelmente não estão consumindo apenas um relatório, mas diversos materiais, dentre relatórios internos, da Kantar, IPSOS, Google, Meta, WGSN, TrendWatching, BOX1824 etc. com dezenas ou centenas de páginas.

Torna-se, portanto, um esforço também dos profissionais que produzem relatórios (de listening, pesquisa, performance de mídia, web analytics etc.), encontrar maneiras de facilitar a absorção de todo o conteúdo que precisa ser compartilhado – ou pelo menos daquilo que é mais importante/decisivo. É por isso que fui desenvolvendo, aos poucos (novamente, a partir de feedbacks e estudo), um modus operandi que preza muito por três pilares que considero o sustento de todo bom relatório: design, dataviz e storytelling.

DESIGN NÃO É “SÓ” SOBRE ESTÉTICA

Quando eu trabalhava no IBPAD, alguém me apresentou o Polling Data, um projeto incrível liderado por um dos estatísticos mais respeitados do mercado de pesquisa de opinião no Brasil. Na época das eleições, “agregava” diversas pesquisas eleitorais para desenvolver uma metodologia própria que ponderasse os diferentes cenários de cada pesquisa dado os vieses que elas mesmas apresentavam. É, sem sombra de dúvidas, umas das iniciativas mais interessantes que eu já vi do ponto de vista metodológico e de crítica analítica.

No entanto, apesar de sempre trabalhar também com um ótimo dataviz, apresenta um design que não dialoga com a internet (e o mundo digital) que vivemos em 2023. E isso não é uma crítica pela crítica, mas uma constatação para argumentar que, nos dias de hoje, estética também passa credibilidade. Em tempos de fake news e golpes via internet, a maioria das pessoas – desse mercado ao qual me refiro, obviamente – já desenvolveu um olhar mais atento inclusive na estética das coisas, seja um site, um app ou um e-mail, para julgar o quão “verídico” aquilo se parece.

Ou seja, um material “feio” pode dar a impressão de um trabalho desleixado, mau feito e amador – portanto, com menos credibilidade. Apenas para fins comparativos, podemos tomar, como exemplo, o projeto The Perception Gap, que também é um projeto político, mas que dedicou um esforço maior ao trabalho de UI Design. Isso quer dizer que o TPG é melhor, analiticamente falando, do que o Polling Data? Não, mas a confiança e a usabilidade – pensando aqui em algo que facilita a absorção das informações – que o primeiro apresenta ao leitor é notavelmente mais amigável.

Além de passar mais credibilidade, portanto, a preocupação com o design também endereça o problema da sobrecarga de informações: artifícios ou indumentárias estéticas podem ajudar o leitor a direcionar seu olhar para aquilo que (num slide) é mais importante. E isso não significa que todos nós que trabalhamos com análise de dados (e já precisamos aprender a mexer em 50 ferramentas e ainda a programar em pelo menos duas linguagens de programação diferente) também precisamos aprender design, mas alguns direcionamentos básicos já podem ajudar.

Essa thread acima, por exemplo, mostra como o simples uso de diferentes fontes pode causar um impacto considerável na sua apresentação (ou no seu relatório). Também dá dicas de algumas customizações textuais que são mais ou menos difíceis de ler, alguns artifícios simples como um espaçamento diferenciado e alteração do tamanho das fontes que podem facilitar a leitura, além de outras orientações interessantes referentes a espaçamento, diagramação, extensão de texto, etc. São mudanças “simples” que facilitam muito a absorção das informações.

DATAVIZ

Outro pilar bastante importante e que acredito que talvez seja o mais coletivamente discutido dentre os três que listo é o famoso dataviz – ou visualização de dados, em boa tradução. De modo simples, é o esforço em encontrar a melhor forma para apresentar os dados analisados – destacando padrões, resumindo e comunicando números e apresentando informações. Dialoga muito com a questão do design, como podemos ver na apresentação a seguir, produzida por Julie Teixeira, uma das minhas primeiras referências no assunto e que continuo recomendando para vários colegas.

Nesse outro material, do blog Datawrapper, a autora Lisa Charlotte Muth indica quais fontes usar para gráficos e tabelas. Entra ainda em mais detalhes sobre fontes para explicar como cada uma funciona ou não para o tipo de visualização que está sendo cogitada, com vários exemplos destrinchados à minúcia. Embora a sua preocupação seja com dataviz mesmo, é um bom exemplo de como um também depende do outro. Novamente, não que haja uma necessidade em se estudar tipografia, mas como alguns conceitos e entendimentos básicos podem ser bastante úteis.

Existe uma avalanche de textos e materiais diversos sobre dataviz na internet à disposição, o que pode parecer um pouco sufocante e angustiante – como se você não fosse nunca conseguir aprender tudo que deveria, mas, novamente, o básico já é mais do que suficiente. Essa colinha da consultoria InfoNewt, especializada em melhorar a comunicação das empresas no contexto de técnicas e inovação de visualização de dados, por exemplo, já oferece alguns caminhos interessante para como apresentar porcentagem. Já o diagrama abaixo é uma tradução do IBPAD também bastante útil.

Também no blog do IBPAD, o professor Robert McDonnell oferece outras dicas simples (e fundamentais) para visualização de dados: sempre que possível, facilitar a comparação entre as categorias; usar cores de modo a informar categorias ou padrões; de preferência, não utilizar rótulos angulados, mas (quando necessário) garantir que tanto rótulos quanto anotações estarão no gráfico; e, por fim, tomar cuidado com os limites dos eixos para que ao mesmo tempo não pareça “maquiar” a realidade mas que também ajude a destacar o que precisa ser passado.

A série Remove to Improve do Dark Horse Analytics também mostra de maneira simples como nós complicamos – ou os próprios softwares complicam – a criação de gráficos, com o simples lema de: menos é mais. Mostra como detalhes simples como arredondar valores, remover rótulos redundantes, bordas e linhas pode fazer toda a diferença. Além desse material simples, fica a recomendação também dos sites RAWGraphs e Flourish, que dispõem de uma variedade de gráficos possivelmente interativos além de um fluxo de construção facilitada a partir da base que existe à disposição.

Por fim, pessoalmente, deixo aqui apenas mais uma opinião sobre dataviz: nem sempre é o gráfico mais bonito ou mais complexo que garante que as informações serão melhores transmitidas. Acho que é muito fácil para profissionais de dados caírem na tentação de querer sempre fazer um gráfico mais difícil que o outro, justamente para mostrar suposta habilidade com tal ferramenta ou método. O melhor gráfico é aquele que é útil, eficaz: quem vai ler consegue captar a informação? Se sim, perfeito. Pode ser um gráfico de barra ou até o polêmico gráfico de pizza (para até duas variáveis).

COMO VOCÊ QUER CONTAR ESSA HISTÓRIA?

Outra hypeword usada e desgastada exaustivamente no mercado é o tal do storytelling. É uma palavra que, imagino eu, veio de outras disciplinas bem distantes da nossa, mas que o mercado – sobretudo publicitário – adotou quando percebeu a importância da economia da atenção. Com tanto conteúdo, filme, série, site, vídeo no YouTube, vídeo no TikTok, notícia, artigo de opinião e, também, relatórios por aí, é de se esperar que diferentes profissionais estejam cada vez mais se preocupando com talvez uma das características mais básicas do ser humano: como contar boas histórias.

No contexto de apresentação de relatórios em análise de dados, contar boas histórias significa principalmente compreender as estratégias discursivas necessárias para capturar a atenção qualificada do leitor. E isso pode ser feito de diversas maneiras, inclusive usufruindo de técnicas de design e dataviz bem elaboradas, como destaquei nos pontos anteriores. O storytelling, aqui, é quem amarra tudo: é o fio condutor que, entendendo qual é o contexto, quem é a audiência e o que ela espera dessa entrega, dirige pelo caminho mais adequado para que a inteligência seja transmitida da melhor forma.

Refletindo sobre isso no ano passado, percebi que as histórias que nós, profissionais de análise de dados, temos que contar não são narrativas, mas dissertações. Lembra nas aulas de Redação quando a professora explicava que a classe dissertativa apresentava um problema o qual deveria ser discutido e geralmente resolvido com alternativas no texto? É bem parecido com o que somos contratados para fazer: endereçar/resolver problemas e/ou responder perguntas apresentando caminhos possíveis de solução, a partir de diferentes metodologias (e talvez aqui esteja a maior diferença da Redação).

É a mesma lógica também da pesquisa acadêmica: apresenta-se um problema que o pesquisador precisa analisar, discutir ou resolver de algum modo dentro da sua disciplina de estudo. A diferença, aqui, é que há um grande investimento (justificado) na metodologia e processo da análise, algo que na Redação do colégio é deixado de lado pela falta de instrumentos (criamos soluções a partir das nossas cabeças ou dos textos ali à disposição) e que no mercado o interesse maior está nas soluções criadas, mesmo que seja importante passar por como chegamos nesses insights.

Devido a minha trajetória profissional, de alguém que se criou dentro de um instituto de pesquisa e que ao mesmo tempo passou por uma graduação e mestrado com uma veia bastante acadêmica, demorei muito tempo para entender essa lógica. Passei muito tempo da minha vida preocupadíssimo em explicar, num relatório, toda a metodologia desenhada, ou aprofundar uma análise que, dando dois passos para trás e entendendo melhor o contexto da demanda, não faria muita diferença para o cliente. Foi uma virada de chave importantíssima para mim.

Hoje eu entendo e argumento que o storytelling de um relatório pode ser mais relevante do que os dados ou a análise em si. Quando digo isso, estou querendo dizer que o modo como os resultados serão apresentados através de artifícios de design e dataviz que facilitem a compreensão de quem vai absorver essas informações para atuar em tomadas de decisões mais assertivas pode ser mais importante do que uma análise mega complexa ou com uma metodologia super difícil. No fim do dia, independente das cento e poucas páginas, as empresas querem só os insights – e tudo bem.

A dica que eu dou e que levo para mim é sempre tentar entender duas coisas básicas: quem vai ler/consumir esse relatório e de que forma? A partir disso, você consegue pensar qual é o melhor fio condutor para apresentar essa história. Um relatório apresentado deve ser muito diferente de um relatório enviado por e-mail, assim como um relatório que chega à diretoria e gerência deve também ser muito diferente de um relatório que chega a coordenadores, supervisores e analistas de outras disciplinas, como criativos, por exemplo.

Para finalizar, então, só algumas dicas avulsas que tenho para mim e acho que podem ajudar:

  • Colocar no rodapé ou cabeçalho o nome do relatório, responsáveis pela produção e, em casos específico, o período ao que se refere a análise;
  • Idealmente, escrever textos com o mínimo de linhas possíveis – sempre tento que não passem de 3 ou 4 linhas, senão já se torna uma leitura que parece “pesada”;
  • Destacar números e e informações mais relevantes em cada slide, para facilitar e guiar o olhar de quem possivelmente fará apenas uma leitura dinâmica;
  • Não deixar nenhum dado solto ou descontextualizado – ou seja, explicar todos os picos/depressões, crescimentos, todo padrão que se quebre de alguma forma;
  • Também em relação aos dados, sempre apresentar um referencial – um número sozinho pode ser muito, pouco, igual, ou seja, trazer sempre comparativo histórico ou categórico;
  • Costurar os achados do relatório como num site, literalmente linkando as informações para criar uma coesão da história que está se desenvolvendo.

CoLab Social Media: métricas, relatórios e dataviz (4/6)

Depois de um breve período de hiato, retomo a série de posts do CoLab Social Media. Se você chegou aqui de primeira, saiba que este é o quarto texto de um total de seis. Já publiquei sobre os módulos de comportamento do consumidor/tendências e planejamento, real-time marketing e mídia online. Na postagem de hoje, abordo os módulos de métricas e dataviz, para na próxima semana finalizar a série com monitoramento, conteúdo e comunidades.

A facilitadora dos módulos de métricas de mídias sociais e relatórios e dataviz é a Julie Teixeira, ex-coordenadora de BI da Revista Trip e agora head de Inteligência na Remix Ideas – cujo trabalho já foi apresentado aqui no blog no ano passado e provavelmente será retomado com ênfase ao chegarmos na segunda parte deste post. Começamos, entretanto, falando sobre a parte de métricas, com um foco especial para a parte de web analytics e métricas para plataformas de vídeos. Segundo Julie, essa estrutura didática nos permite entender os principais conceitos da área que podem – e devem – ser replicados/adaptados em diferentes plataformas, serviços e objetivos de trabalho.

Foi interessante ter logo de início um conteúdo menos voltado para mídias sociais (como é a proposta do curso da Trespontos) e mais voltado para web analytics. Como Julie tem um amplo repertório de BI, pôde oferecer uma visão geral bem completa de alguns conceitos básicos de métricas do Google Analytics – que, como já dito, pode ser replicado e adaptado para outras ferramentas. O GA é a segunda ferramenta mais utilizada por profissionais de inteligência de mídias sociais no Brasil, o que é curioso, já que ele não apresenta dados das próprias plataformas em mídias sociais. No entanto, isso demonstra o quanto as empresas têm investido cada vez mais numa estratégia inbound, integrando o trabalho de mídias sociais com plataformas próprias.

Vale reforçar também que o Google Analytics é uma plataforma freemium, que atende perfeitamente às necessidades das maiorias das empresas em sua versão gratuita. A única diferença relevante é que esta faz uma mensuração por amostragem, enquanto que a versão premium (paga) fornece todos os dados disponíveis e não entrega seus dados para possíveis análises de mercado. Segundo Julie, isso acontece porque o Google oferece alguns benchmarks de segmentos (por exemplo, telefonia móvel) para comparativos de atuação. No curso ela também recomenda outras ferramentas, como a Chartbeat, interessante para clientes de editoria, pois gera um mapa de calor para as páginas do seu site.

Deixando um pouco de lado a plataforma e focando de fato nas métricas, ela apresenta no curso dois “níveis” diferentes: audiência e engajamento – também comum em conteúdos voltados para as mídias sociais. A primeira, como descrita abaixo, tem sua atenção voltada para o público, enquanto a segunda indica o “interesse” do público, ou seja, de que modo ele agiu nas páginas. No Google Analytics essas métricas de engajamento são pautadas no que chamam de “eventos”, que são todas as (inter)ações feitas num site (cliques, scroll, etc.) – e precisa ser pré-configurada para cada conta.

  • AUDIÊNCIA – MÉTRICAS DE PÚBLICO
  • Usuários únicos – em um período. quantas pessoas entraram no site (GA guarda o cookie por 90 dias ou até limpar o histórico);
  • Sessões – uma visita no site (após 30 minutos de inatividade a sessão expira e começa outra) *métrica mais usada do mercado;
  • Pageviews – os pageviews dizem quantas páginas foram navegadas no período (maior volume de pageviews contribui para aumentar nossas impressões) *atenção para o URL: alguns sites não mudam a URL conforme a navegação do usuário, neste caso, é preciso “forçar” uma leitura para o GA fazer essa contagem.
  • ENGAJAMENTO – MÉTRICAS DE INTERESSE (cruzamento de duas métricas)
  • Pageviews por sessão – um dos principais indicadores de interesse dos usuários pelo conteúdo de um site: a cada sessão, quantas páginas o usuário visitou;
  • Tempo médio de sessão – quanto tempo a pessoa passa no site em cada sessão (expira até 30 minutos de inatividade e inicia uma nova sessão depois)
  • Taxa de rejeição (bounce rate) – indica quantas pessoas entraram em apenas uma página do site (não se interessaram por nenhum outro conteúdo — sessões que visitaram apenas uma página dividido pelo total de sessões) *Ser alta não significa algo ruim: a depender do objetivo, vale verificar se o usuário não está gastando muito tempo no site para achar algo simples (uma taxa baixa, nesse caso, pode ser ruim).

O trabalho no GA é bastante investigativo. A pensar pelas métricas de dados do usuário, por exemplo, é possível ter em mãos: fonte de tráfego – de onde ele veio?, busca orgânica ou alguma campanha? (a URL parametrizada pode indicar a resposta); tipo de dispositivo – qual plataforma está sendo usada para consumir meu conteúdo?, mobile ou desktop? (a taxa de rejeição de um dispositivo específico pode indicar soluções específicas para melhor atender uma parcela dos usuários); fluxo de navegação – qual é o trajeto que o usuário faz desde a entrada até a saída do meu site?; palavras-chave busca paga – qual foi o termo de busca que levou o usuário ao meu site?; assuntos mais lidos – o que gera mais interesse?; localização – onde está meu usuário?.

Como já mencionei anteriormente, foi interessante ter uma estrutura didática que começasse pelos conceitos básicos de web analytics para então seguir com o tema de métricas para mídias sociais. Embora reconheça que (principalmente grandes marcas) usem as mídias sociais apenas como “ponte de divulgação”, acho que, pelo menos para quem está começando a estudar sobre o tema, talvez seja melhor começar pelo básico – neste post você confere meu texto sobre os dois primeiros cursos que fiz na área, sobre métricas de mídia sociais. Isso porque considero este assunto mais fácil, enquanto o tema de web analytics – que é também anterior às mídias sociais – exige um pouco mais de refinamento no conhecimento.

A proposta de Julie para métricas de mídias sociais, aliás, é diferente da que é mais comum nos cursos e materiais do mercado. Explico: os “níveis” de categorias mais conhecidos são dimensão/base (público) e interação/engajamento (ação), onde a primeira é referente ao universo de análise e a segunda correspondem às respostas aos usuários. No conteúdo do curso, a métrica de engajamento é vista como métrica de audiência (ou dimensão/base); como métrica de engajamento, Julie considera a ação dos usuários sobre o universo alcançado (ou seja, engajamento dividido por impressões). Para alguns profissionais, isso já deixaria de ser métrica e passaria a ser um KPI (key-performance indicator).

Não estou aqui para julgar (nem me vejo capaz ou com propriedade para isso), mas achei curioso contrapor esses diferentes métodos porque de fato “engajamento” é um termo bastante complexo ainda nos dias de hoje quando falamos de marcas na internet. A conclusão que cheguei numa breve reflexão é que não importa o meio, mas o destino, ou seja, tudo – como sempre – depende do objetivo. O importante é mostrar de onde veio e para onde vai (ou pretende ir). Como Julie menciona no curso, não há padrões ou parâmetros (comparativos) fixos, o ideal é contrapor com resultados antigos – dados internos: histórico, investimento, frequência de postagem, conteúdo, horários de postagem, percentual ativo da base, etc.

A mensagem passada é que, entendendo esses conceitos gerais de métricas de audiência (volume, alcance) e de engajamento (público, interesse), é possível aplicá-los em outras métricas de várias plataformas. No curso, por exemplo, ela apresenta um cenário geral de algumas métricas para plataformas de vídeo – mais especificamente Facebook e YouTube. Com o aumento da produção de vídeos para a web, houve certa discussão e debate sobre qual seria a melhor plataforma para divulgação. Como tudo na comunicação: depende (do objetivo). Abaixo, uma tabelinha que fiz com as métricas e atribuições para cada plataforma passada no material do curso. Em suma, no entanto, cada uma serve melhor aos propósitos:

  • Facebook: vídeos pontuais com necessidade de alto alcance ou conversão fora da plataforma; menor qualidade de retenção do usuário/conteúdo; sem possibilidade de merchan/product placement/pre-roll;
  • YouTube: fomentar comunidade, projetos de frequência/formato e temática específica, construção de marca; Usuário mais caro (distribuição e produção); monetização, merchan e product placement permitidos.

Métricas para plataformas de vídeos – principalmente Facebook e YouTube (clique na imagem para ampliar)

Com esse conteúdo de métricas para plataformas de vídeos chega ao fim o módulo de métricas de mídias sociais do CoLab Social Media – adiante, vamos falar sobre dataviz e relatórios. Essa é uma preocupação crescente no mercado que tem ganhado cada vez mais a atenção de analistas, coordenadores, gerentes e profissionais como um todo, que aprenderam a lidar com os números saindo da área de humanas e agora precisam voltar para um lado mais artístico com a apresentação sobre essa avalanche de dados. Nesse cenário, conhecimentos apenas sobre gráficos são insuficientes – é preciso ir mais a fundo nos estudos de profissões que já lidam com muitos dados há muito tempo.

Não vou me estender neste post sobre o módulo de dataviz porque ele segua a mesma apresentação feita no Social Analytics Summit 2015, sobre qual eu fiz um texto específico em janeiro do ano passado. Em resumo, acho importante lembrar: dataviz não é só parceria com diretores de arte, envolve apresentar padrões, destacar resultados e resumir os números – contar uma história; muita atenção para margem e alinhamento (!), permita que as informações respirem; hierarquia da informação é algo importante para direcionar a leitura (lembre-se que você é quem conduz a narrativa); tenha sempre alguns layouts “prontos” que sigam um padrão de esquematização proporcional à importância das informações, para que você possa apresentá-los com facilidade.

data-ink

Outro conteúdo importante que vale replicar é a recomendação de quando utilizar cada instrumento de leitura. Tabelas, por exemplo, são mais apropriadas para valores individuais, exatos, mais de uma unidade de medida, enquanto gráficos são ideais para relações e tendências. Colunas empilhada são indicadas para contribuição entre séries, com sua versão totalizante recomendada para contribuição proporcional. Nas colunas, nomes curtos; em barras, nomes longos, duração. Linhas são como setas (indicam de onde veio e para ondem vão), então são bons para tendências/grande volume de dados – e linhas com marcadores, para volume menor (médio) de dados. A área só é indicada para representatividade no todo, com sua versão totalizante para proporção.

Outras dicas importantes (que vale a pena repetir):

  • Gráfico de pizza: nunca. Jamais;
  • “Isso é bom?”: um dado descontextualizado é apenas um número. Sempre faça comparativos e/ou use um referencial para mostrar ao leitor se o que aconteceu está melhor ou pior;
  • Parâmetros: nesse trabalho de fazer comparações, cuidado com a natureza dos dados que serão comparados – eles precisam ser de uma mesma “categoria” (!) para que essa comparação possa ser válida (atenção também à proporcionalidade, principalmente na exibição dos gráficos);
  • Resultado-conceito (ou, “iai, neyn, comé ki fica?”): a depender de quem vai ler o relatório, é importante tentar sempre ser bastante claro: “o resultado foi bom/ruim/satisfatório/insatisfatório/nota 7/etc.”;
  • Atenção à estética: fontes – é recomendável usar apenas duas fontes (título e corpo do texto, a primeira mais “artística” e a segunda mais “sóbria”); paleta de cores – para dados sequenciais, usar uma mesma cor em diferentes intensidades, para dados divergentes, cores de sentimentos-padrão, para dados categóricos, cores distintas; ícones – “uma imagem vale mais que mil palavras”, neste caso, somente para legenda.

Embora não tenha me estendido muito no material do curso, reforço que gosto muito do conteúdo da Julie. Ele me ajudou bastante na produção do meu primeiro relatório público de monitoramento, assim como esse outro guia feito pelo Júnior Siri. Ambos têm um caráter ainda introdutório sobre o que de fato é dataviz (no levantamento de 100 Fontes sobre Pesquisa e Monitoramento de Mídias Sociais do IBPAD você vê pesquisadores como Judith Donath e Fernanda Viegas – além do mais conhecido, Nathan Yau, do FlowingData – estudando isso a fundo). No entanto, são ótimos conteúdos para o contexto do mercado de mídias sociais. Nesse sentido, também queria indicar esse guia e esse post.

No mais, queria mais uma vez elogiar o conteúdo do CoLab Social Media. Já estamos chegando perto do fim do curso e tenho ficado cada vez mais satisfeito com o conteúdo. Embora o material sobre dataviz esteja público (confira abaixo), é muito diferente vê-lo sendo explicado por quem o desenvolveu. Vale muito a pena! Eu, aliás, já tive meu período de “degustação” expirado e paguei pelo acesso vitalício. 🙂