Tag: facebook

Os estereótipos mais comuns nos anúncios do Facebook

O Facebook divulgou na semana passada o relatório “Dados, Diversidade e Representação: Por uma publicidade mais inclusiva na América Latina”, desenvolvido a partir de um levantamento interno que analisou milhares de campanhas realizadas na plataforma entre 2017 e 2018. Produzido junto à consultoria 65 / 10, o documento une o discurso de responsabilidade social da publicidade à provocação da realidade baseada em dados para mostrar como as marcas devem tomar ação imediata para mudar o cenário atual, que reforça estereótipos e não corresponde com suas audiências.

“Nossa missão é incentivar e apoiar as empresas que se dispõem a trilhar esse percurso fornecendo ferramentas, melhores práticas e, é claro, dados valiosos. Para entender o contexto no qual o program age, analisamos milhares de campanhas veiculadas em nossas plataformas por toda a América Latina e esse processo nos mostrou quão distantes ainda estão esses dois pólos – a realidade da população versus aquilo que a publicidade nos conta”.

Para justificar a relevância da temática (e todo o argumento de acionável no qual se baseia), são apontados inicialmente alguns dados sobre a representatividade com recorte de gênero, raça e tipos de corpo de outra pesquisa semelhante: a TODXS – Uma análise da representatividade na publicidade brasileira, da Heads (já na sétima edição). Como cases que comprovam a eficácia de investir em diversidade, apresentam uma campanha da Jeep (no Brasil) e uma da Johnson’s Baby (na Argentina), com os números positivos que resultaram desse investimento.

O relatório também apresenta oficialmente a ferramenta Last 5 Ads, que convoca os anunciantes do Facebook a avaliarem o seu comprometimento com a diversidade. Talvez mais interessante do que a ferramenta (porque, convenhamos, quem anuncia sabe muito bem “quem” está anunciando), o documento “ADS 4 EQUALITY – Ciência e Dados trabalhando para promover diversidade na comunicação” encara o problema e aponta, de maneira coerente e lógica, como mensurar os resultados para comprovar a eficácia da preocupação com representações mais diversas.

O documento propõe um ciclo contínuo que envolve levantamento de hipóteses, teste, aprendizado e implementação. Para que a mensuração do impacto de uma comunicação mais representativa possa ser desenvolvida responsavelmente, elenca pilares fundamentais: pergunta de negócio, definição de métricas de sucesso, padrão de ação (o que fazer com as respostas em mãos), desenho do teste, planejamento e interpretação dos resultados. Há todo um destrinchamento desses pilares e já alguns moldes de plano de execução para testes, o que facilita bastante para que essa mudança seja colocada em prática.

Talvez o grande trunfo do relatório seja, na verdade, os 33 estereótipos que foram identificados a partir da análise de milhares de anúncios feitos diariamente na plataforma entre 2017 e 2018. É uma pena, entretanto, que não tenha sido divulgado o quanto essas “minorias” representam no total de anúncios (há somente o comparativo homens x mulheres por área da publicidade no início do relatório), pois seria importante para reforçar: essas pessoas já aparecem pouco e, quando aparecem, geralmente são retratadas pejorativamente das seguintes formas.

Os estereótipos foram mapeados dentro das cinco categorias: gênero (mulheres e homens), raça (negros, ameríndios e asiáticos), orientação sexual (gays e lésbicas), corpos dissidentes (pessoas com deficiências, pessoas gordas, pessoas transsexuais e pessoas idosas) e classe. Cada estereótipo identificado foi descrito como é geralmente apresentado nos anúncios e justificado sobre “por que fazer diferente”. Abaixo, listei todos os 33 que foram encontrados a partir das categorias propostas (para mais detalhes sobre cada um, é melhor conferir no relatório – ou o post ficaria muito extenso):

MULHER

  • A mãe/esposa perfeita
  • Supermulher (multitaskers)
  • Corpo perfeito
  • Objetificada
  • Não sabe lidar com o dinheiro (ou shopaholics)
  • Rivais

RAÇA: NEGROS

  • Raivosos
  • Subalternos
  • Hipersexualizados
  • Místicos

RAÇA: ASIÁTICOS

  • Minoria modelo
  • China doll, a mulher perfeita

ORIENTAÇÃO SEXUAL: GAYS

  • O gay afeminado
  • Promiscuidade x falta de família

CORPOS DISSIDENTES: PESSOAS GORDAS

  • Antes-e-depois
  • A gorda ninfomaníaca e a virgem
  • O gordo engraçado
  • A gorda hiperfeminina

CORPOS DISSIDENTES: PESSOAS IDOSAS

  • A ranzinza e a gentil
  • A aventureira
  • Boa genética

HOMEM

  • Superpai (e o herói que habita em todo homem)
  • O provedor (moneymaker)
  • Máquina de sexo
  • O garoto e o velho

RAÇA: AMERÍNDIOS

  • Preguiçosos
  • Exóticas
  • Inocentes (e não-civilizados)

ORIENTAÇÃO SEXUAL: LÉSBICAS

  • Hipersexualizadas
  • Masculinas
  • Curiosa

CORPOS DISSIDENTES: PESSOAS COM DEFICIÊNCIA

  • Herói ou heroína: ser iluminado
  • Garota-propaganda da superação

CORPOS DISSIDENTES: PESSOAS TRANSSEXUAIS

  • A mulher trans: hiperfeminina
  • O homem trans: invisibilizado

CLASSE

  • Quer ser a classe A
  • Só compra promoção
  • Senso estético duvidoso

Embora a metodologia não tenha sido nem minimamente explicada (o que particularmente acho uma grande falha, visto se tratar de um tema tão delicado), supõe-se que a análise foi feita em diferentes tipos de mídia: texto, imagem e vídeo – este último principalmente, dado o detalhamento de alguns descritivos. Também não fica tão evidente se o recorte/escopo da análise foi voltada somente aos anúncios brasileiros ou se abraçou também outros países da América Latina, dada a presença de ameríndios em recorte de raça. Um exercício interessante seria tentar encontrar esses estereótipos em posts de marcas famosas no Facebook.

Por fim (e antes de finalizar com uma perspectiva mais pessoal/opinativa), o relatório ainda apresenta algumas práticas para repensar os processos: perguntar, conhecer, ampliar, pensar diferentes estratégias para diferentes públicos, ter um objetivo de negócio claro, convocar pessoas diversas na cadeia de produção da comunicação, verificar desastres, utilizar o Last5Ads e aprender com o passado. Ao final, ainda traz um mini-glossário com descrições simples de termos considerados importantes: colorismo, empoderamento, corpos dissidentes, protagonismo e cisgênero/transgênero.

Para enfim finalizar, queria deixar minha opinião sob duas perspectivas diferentes – e tentei ser o mais imparcial possível na descrição do relatório até aqui por entender justamente esse equilíbrio desses dois lugares que me atravessam. Primeiro, como profissional de comunicação/pesquisa, achei o relatório bem interessante, principalmente a lista dos estereótipos identificados (por mais que, novamente, a metodologia não tenha sido compartilhada – o que sempre me deixa com a pulga atrás da orelha) e a tentativa de argumentar entre a responsabilidade social e a coerência data-driven.

Acho que, inclusive, essa lista de 33 estereótipos pode (deveria) ir além do Facebook e ser trabalhada/pensada em diferentes áreas da comunicação como um todo – afinal, o Facebook é apenas o medium, mas a narrativa e todo seu aparato constitutivo se assemelha em diferentes meios (produção de texto, jornalismo, fotografia, cinema, etc.). No mais, também considero um material valiosíssimo para professores (de graduação a cursos livres) apresentarem aos alunos, mais uma vez tanto pela responsabilidade social quanto pelos argumentos responsáveis de negócio baseado em dados.

Agora, sendo um pouco mais crítico, é um material bem raso sobre diversidade e representação/diversidade. Tudo bem, é para gente do mercado, mas precisamos superar o TED da Chimamanda para falar sobre esse assunto. Precisamos aprofundar a discussão, complexificar, não somente reconhecer que é um problema estrutural, mas de fato apontar o que nos trouxe aqui e para onde deveríamos ir. O relatório só cita a contratação de pessoas “diversas” como solução para o problema no finalzinho, bem discretamente – e isso deveria ser o básico do básico.

É interessante de se perceber, por exemplo, como esse problema que reconhecem como estrutural age nas entrelinhas (de maneira explícita): o homem e a mulher são brancos, tanto nas imagens que utilizam como exemplo quanto na descrição dos estereótipos. Raça aparece de maneira extremamente superficial, quando, principalmente no Brasil, é a categoria “estereotipada” que mais atravessa diversas outras frentes da representação. Não obstante tivemos iniciativa como a do Desabafo Social, que mudou toda a estrutura de busca de um dos maiores banco de imagens do mundo.

No geral, valorizo o esforço do relatório e, ao menos, a iniciativa e proposta que já vem gerando mudanças – com o nascimento de bancos de imagens como o Nappy e o Tem Que Ter. No entanto, é preciso ser crítico para compreender que é apenas um projeto da maior empresa do mundo – acusada diversas vezes de validar discursos de ódio, reforçar opressões simbólicas e ser conivente com tais práticas. Não dá para esperar que a mudança venha (só) das empresas, porque, no fim do dia, elas se importam mais com o dinheiro entrando. Mas aqui já sou eu acadêmico falando.

Histórico das APIs no monitoramento e pesquisa em mídias sociais

Quando eu comecei a trabalhar com monitoramento, em dezembro de 2015, o Facebook já tinha matado de vez a possibilidade de coleta de posts públicos no feed da plataforma. Ou seja, quando eu entrei no mercado, o caos que agitou empresas e agências já tinha sido razoavelmente controlado para o ano seguinte, com algumas alternativas surgindo para suprir essa valiosa lacuna – como escrevi nesse outro post, a exemplo da popularização das disciplinas de Etnografia e Análise de Redes, além do redirecionamento para CRM. Desde então, fora algumas perdas pontuais, não tivemos muitas mudanças no cenário – até que 2018 aconteceu.

Do ano passado para cá, as perdas pontuais que levaram anos para acontecer acabaram se tornando praticamente mensais. Isso aconteceu principalmente porque, no olho do furacão da opinião pública, Mark Zuckerberg se viu obrigado a tomar responsabilidade pelo seu monopólio técnico-comunicacional (Facebook, Instagram, WhatsApp e Messenger) quanto à privacidade dos dados de seus usuários. Em paralelo (e também em consequência), surgiram iniciativas governamentais como a General Data Protection Regulation na União Europeia para fortalecer uma conscientização e responsabilização por parte de toda a sociedade civil quanto ao uso de dados de cidadãos para fins diversos.

Embora os argumentos de Zuckerberg sejam facilmente contestáveis (como fizeram Richard Rogers e Tommaso Veturini em artigo recente), enquanto usuários/indivíduos/cidadãos, poderíamos admitir que essa preocupação com a privacidade dos nossos dados é algo positivo para a sociedade de modo geral (novamente, sob uma perspectiva bem ingênua que supõe que nossas informações ficarão guardadinhas no Facebook e demais empresas digitais e não serão utilizadas por quem pagar mais). No entanto, para quem trabalha com dados de mídias sociais (com fins mercadológicos ou acadêmicos), o futuro é muito preocupante.

Antes de entrar nessa indispensável discussão sobre o futuro (embora já tenha trazido aqui no blog outros textos que abordam essa questão — e tenho alguns outros planejados), acho importante olharmos também para o passado. É nesse contexto, portanto, que lançamos hoje no IBPAD a publicação “Histórico das APIs no monitoramento e pesquisa em mídias sociais”. Sob a minha autoria, o material faz um remonte histórico a partir de notícias e reportagens de como as APIs foram lançadas, popularizadas e modificadas no contexto da pesquisa e do monitoramento. Para fins didáticos, elenquei cinco períodos sobre essa história:

  • 2006 – 2010: O nascimento otimista das APIs
  • 2010 – 2013: Os primeiros problemas
  • 2014 – 2015: As primeiras mudanças
  • 2016 – 2017: O início do fim?
  • 2018 – 2019: O futuro desafiador

É evidente que esses períodos foram arbitrariamente recortados conforme julguei coerente, no entanto, partiu de um esforço de compreensão geral do mercado e do contexto digital como um todo. No primeiro momento (2006-2010), portanto, discorro sobre como surgiram as APIs e como – por muitos anos – havia um certo otimismo em relação a elas; em seguida (2010-2013), matérias começavam a questionar – e denunciar – o montante de dados disponíveis nas mídias sociais; o que resultou nas primeiras mudanças (2014-2015), como o fim da v1.0 da Graph API do Facebook; e as coisas foram piorando (2016-2017), até chegar onde estamos atualmente (2018-2019).

Ainda que tenha abordado as APIs do Twitter, YouTube e Instagram na publicação, o foco principal é o Facebook – por vários motivos: 1) pela importância da plataforma na vida dos brasileiros; 2) pela importância da plataforma no mercado de monitoramento de mídias sociais; 3) por ter sido a plataforma que mais registrou mudanças nos últimos anos; 4) por ter uma figura pública à frente como porta-voz e, portanto, maior cobertura midiática; 5) por deter o monopólio sobre as principais mídias sociais, tendo comprando o Instagram, o WhatsApp e tornando o Messenger em um produto independente; etc.

Linha do tempo ordena os acontecimentos mais relevantes para o mercado de monitoramento e pesquisa em mídias sociais / Fonte: IBPAD

É importante ressaltar também que a “história” é contada sobretudo pela perspectiva do mercado de monitoramento. Ou seja, ainda que tenha tentado expandir um pouco o debate e citado até alguns textos acadêmicos/teóricos sobre a temática, o objetivo era narrar como as APIs sofreram alterações drásticas nos últimos anos e por que isso era relevante ou como isso afetava as ferramentas, agências digitais e marcas envolvidas com esse trabalho. Além do levantamento de notícias, matérias e reportagens, também fiz minimamente um trabalho interno em grupos de discussão do mercado para saber como os profissionais reagiam aos acontecimentos.

Foi um trabalho bem legal e que humildemente me orgulho bastante de ter feito. Aprendi muito sobre o mercado e descobri várias coisas da época em que eu ainda não estava presente – como o caso da DataSift com o Facebook Topic Data, que eu nunca tinha entendido direito; ou do firehose do Twitter com a GNIP, que também só tinha ouvido falar. Espero que o material possa apresentar um pouco da breve história do monitoramento sob a perspectiva das APIs àqueles que chegaram depois (como eu) e que possa também jogar uma luz nesse debate que é indispensável tanto para o mercado quanto para a academia.

A última parte da publicação, inclusive, que intitulei “O que o futuro guarda?”, é propositalmente inconclusiva. Tanto porque eu obviamente não tenho a resposta para essa pergunta quanto porque acho importante não tentar fechar o sentido do debate, pois não há verdades absolutas – nem soluções milagrosas. Nos próximos posts aqui do blog, trarei mais uma vez a questão das APIs à tona a partir de uma visão crítica sobre seus aspectos sociotécnicos – principalmente a partir do fantástico trabalho da pesquisadora Janna Omena – e pretendo colocar em pauta o seguinte questionamento: o monitoramento vai morrer?

Pesquisa com APIs pós-Cambridge Analytica

Em setembro do ano passado, trouxe aqui para o blog o texto “Computational research in the post-API age”, do pesquisador Dr. Deen Freelon,  no qual ele faz algumas considerações sobre o futuro da pesquisa computacional no que ele chamou de “era pós-APIs”. Dando sequência ao debate levantado naquele momento, trago desta vez outro texto de pesquisadores também renomados, Tommaso Venturini e Richard Rogers, no qual discutem sobre o futuro da pesquisa em mídias sociais após o escândalo da Cambridge Analytica – e suas devidas consequências.

Antes de entrar no texto, uma rápida contextualização (para quem não trabalha na área): 2018 foi o ano que o Facebook mais fechou o cerco quanto ao acesso irrestrito aos dados dos usuários; isso aconteceu principalmente devido aos problemas ocorridos nas eleições norte-americanas que elegeram Donald Trump e culminou numa audiência pública de Mark Zuckerberg diante do congresso de senadores. No rascunho “‘API-based research’ or how can digital sociology and journalism studies learn from the Cambridge Analytica affair”, que estará no livro Digital Journalism (a ser lançado), Venturini e Rogers partem do escândalo da CA para discutir o futuro da pesquisa com APIs e a importância de desenvolver uma prática de trabalho de campo digital mais sólida e diversa.

“Dentre outros motivos, as eleições presidenciais de 2016 serão lembradas pela revelação de que seu resultado pode ter sido afetada pela Cambridge Analytica, uma vergonhosa agência de marketing que ilegitimamente coletou dados de milhões de usuários do Facebook e os utilizou para a campanha de Donald Trump. O escândalo estimulou um vasto debate sobre a frouxidão da proteção de privacidade nas mídias sociais e forçou o Facebook a prometer uma redução drástica das informações disponibilizadas pela sua API.”

(VENTURINI; ROGERS, 2019)

O artigo se desenvolve sob dois pilares: primeiro, quanto aos “aprendizados” que todos nós – pesquisadores, mas também usuários e pessoas físicas da sociedade civil – podemos adquirir do caso da CA; e, segundo, num debate (praticamente um puxão de orelha bem dado) sobre como a pesquisa na internet se tornou limitada e monopolizada metodologicamente. Há também, tanto no tom quanto de forma explícita no texto, uma crítica ferrenha às práticas de marketing que utilizam dados de usuários de mídias sociais para lucro corporativo em oposição à utilização desses mesmos dados para pesquisa em Ciências Sociais – um debate complicado, principalmente para mim, visto que estou em ambos os lados (então deixemos para outra oportunidade).

Aprendendo com o caso da Cambridge Analytica

Na primeira seção do texto os pesquisadores partem de duas falas proferidas por Zuckerberg em sua audiência, destacando dois problemas: a ideia de que 1) “os dados produzidos pelas mídias sociais são poderosos, mas neutros – extremamente úteis ou extremamente perigosos a depender de como serão utilizados” e que 2) “a solução contra essa má utilizações é trancar esses dados dentro das plataformas para que não caiam nas mãos erradas” (p. 2). Os autores chamam atenção sobretudo para como essas argumentações fazem parte da narrativa estratégica do Facebook para parecer “um aventureiro tropeçando na lanterna mágica de dados pessoais e sem querer libertar seu gênio” – contra a maléfica Cambridge Analytica (que seria o verdadeiro culpado).

Remontando os acontecimentos, eles listam os seguintes fatos (e considerações):

  • Num primeiro momento, a CA tentou comprar dados de um projeto antigo da Cambridge University – o teste myPersonality, um app do Facebook que coletou informações sobre 6 milhões de usuários a partir de um quiz de personalidade; além das respostas, o projeto também coletou informações sobre os perfis e suas curtidas, mas nada sobre as amizades dos usuários que fizeram o teste; a negociação não foi pra frente porque os acadêmicos se negaram à utilização comercial dos dados coletados;
  • Num segundo momento, a CA resolveu replicar esse projeto com a ajuda do Profº. Aleksandr Kogan, também pesquisador da Cambridge University, que lançara seu próprio projeto e cujos alunos foram posteriormente trabalhar no próprio Facebook; o app criado era mais improvisado e foi utilizado por menos de 300 mil usuários – os 80 milhões de perfis “roubados” comumente noticiados pela imprensa são o total desses 300 mil + a média de amigos de um usuário comum (267);
  • A v1.0 da Graph API permitia a coleta de dados não somente de usuários (que autorizaram a utilização de um app), mas também de sua lista de amigos; no entanto, as informações psicológicas – tanto ostentadas midiaticamente – só estavam disponíveis quanto aos quase 300.000 usuários que fizeram o teste, ou seja, 99,5% das entradas coletadas pela CA não continham informações referente à “abordagem psicológica” da empresa.
  • Os respondentes do teste de Kogan foram recrutados através de serviços pagos, plataformas reconhecidas por trazer força de trabalho através de fazendas de cliques; o próprio Kogan, em sua audiência, chamou os dados de “barulhento” e “sem valor” para anúncios políticos.

Ou seja, resumindo ainda nas palavras de Venturini e Rogers, “o ‘big data’ o qual a CA se gaba é questionável em qualidade e origem, falho por cobertura desigual e antiético em sua coleta” (p. 3). O caso da Cambridge Analytica é interessante por porque eles fizeram tudo numa brecha extremamente perigosa que o próprio Facebook deixou aberta por anos (que foi a v1.0 da Graph API) – esse artigo discute bem quanto a isso, basicamente argumentando como a prática da empresa não é nada do que agências do mundo inteiro não tenham feito nos últimos anos; e porque, mesmo assim, eles aparentemente fizeram tudo errado – como apontam (e batem com gosto) os pesquisadores, desfazendo seus argumentos (metodológicos).

Aleksandr Kogan em depoimento sobre seu trabalho com a Cambridge Analytica

Venturini e Rogers chamam atenção para os dois principais supostos trunfos da CA: a “segmentação de audiência através de análise sofisticada de personalidade” e a identificação de ideias conspiratórias para o direcionamento de fake news. Quanto ao primeiro, reforçam que eles só tinham os dados psicológicos de 300.000 usuários (e não 80 milhões) e que basicamente o Facebook não tem uma opção de segmentação para pessoas a partir de “estados da mente”, então perfis psicológicos não seriam tão úteis assim; e, quanto ao segundo, é muito mais provável que tenham obtido essas informações através de questionários e focus group – do que através de rastros online.

Então, se o valor dos dados da Cambridge Analytica eram tão irrelevantes e provavelmente não tiveram poder nenhum para anúncios de campanhas políticas, por que Zuckerberg não contra-argumentou quanto a isso em sua audiência? Segundo os autores, por dois motivos:

  1. Para que o Facebook fosse visto não como protagonista da história, mas como coadjuvante, “um provedor de infraestrutura desajeitado, mas humilde”;
  2. Porque o Facebook faz basicamente a mesma coisa que a Cambridge Analytica fez (o que volta para o artigo que citei anteriormente), “ambos sustentam seu mercado de anúncios ostentando o poder de seus dados e social analytics”.

Fechando essa seção com chave de ouro, em uma das citações mais poderosas do texto, os autores explicam: “As mídias sociais não liberaram descuidadamente levas de dados sensíveis pré-existentes que agora precisam ser controladas”. Muito pelo contrário, “elas [as empresas de mídias sociais] construíram proposital e implacavelmente a profecia auto-realizável do ‘marketing computacional’ e, para fazer isso, criaram um novo tipo de dado para sustentá-la” (p. 3-4). Ou seja, as plataformas criaram, principalmente de uns anos pra cá, o próprio ecossistema de venda de dados dos seus próprios usuários em troca de lucro (e esse modelo de negócio é o que as têm sustentado).

Pesquisa com APIs e trabalho de campo digital

A segunda parte do texto basicamente discorre sobre aquela máxima de que há males que vem para o bem. Depois de bater muito na Cambridge Analytica e no Facebook (e em agências de marketing em geral), Venturini e Rogers admitem que “a crescente preocupação pública gerada por isso [o caso da CA] e por outros escândalos recentes relacionados a campanhas eleitorais deve fazer com que [as APIs] fechem ainda mais” (p. 4) e isso é uma oportunidade para pesquisadores darem um passo para trás e repensarem o modo de fazer pesquisa online.

“Registros digitais vêm num nível muito mais fino de agregação do que demografia e questionários. Eles permitem não apenas calibrar categorias e opiniões, mas examinar interações palavra por palavra. Antes do advento da mediação digital, isso só era possível nas pequenas e situadas comunidades as quais pesquisadores podiam observar etnograficamente. Hoje em dia, uma investigação tão sensível quanto é possível para populações maiores, aumentando as possibilidades em tempo e espaço.”

(VENTURINI; ROGERS, 2019)

Eles argumentam que, principalmente nesta década (na qual houve um estrondo absurdo também da popularidade de sites de redes sociais), pesquisadores acabaram tendo o trabalho enviesado pelas infraestruturas de coleta de registros digitais. “Comparada a técnicas anteriores de coleta de registros digitais, as APIs das mídias sociais vieram como um presente de Deus, oferecendo imensa quantidade de dados acessíveis em alguns cliques prontos para serem analisados” (p. 4), explicam. Isso foi fruto, no entanto, de uma concentração (e praticamente um monopólio do Facebook) das discussões online que também fizeram parte do contexto de venda de anúncio publicitário dessas plataformas (onde acontecem as discussões).

“Ao construir as infraestruturas necessárias para apoiar e rastrear a crescente quantidade de interações online e ao tornar os registros resultantes disponíveis através das APIs, as plataformas reduziram significativamente os custos dos dados de mídias sociais”, explicam. “A facilidade da pesquisa com APIs [ou API-research, a qual descrevem como ‘uma abordagem às Ciências Sociais Computacionais e Sociologia Digital baseada na extração de registros de datasets disponibilizados por plataformas onlines através das suas interfaces de aplicação de programação (APIs)’] – veio com o preço de aceitar a padronização particular operada pelas plataformas de mídias sociais e o enviesamento que vem junto” (p. 5), completam.

Aqui os autores chamam atenção de um assunto sobre o qual eu penso já há algum tempo: a euforia (negligente) dos dados. Nós, tanto pesquisadores acadêmicos quanto profissionais do mercado, criamos uma bolha que eventualmente iria estourar. “Num frenesi consumista, nós estocamos dados como commodities produzidas em massa”, alertam. “A pesquisa com APIs é culpada (pelo menos em parte) por espalhar o hype dos dados de mídias sociais, reduzindo a diversidade de métodos digitais ao estudo de plataformas online, e por espalhar as ideias pré-concebidas de que o Facebook, o Google, o Twitter e seus semelhantes são os mestres do debate online, e não há alternativas a não ser viver sob as migalhas de suas APIs” (p. 5).

Como mencionei anteriormente, portanto, sobre males que vem para o bem, eles argumentam que “o fechamento das APIs das mídias sociais devem nos lembrar de que dinâmicas coletivas existiam muito antes das plataformas sociais (e ainda existem junto a elas” – e, portanto, “não são a única maneira de estudar fenômenos online” (p. 5). Dentre algumas alternativas possíveis, citam “crawling” e “scraping” tanto quanto participar ativamente dos websites para gerar registros válidos. E ainda que esses métodos de pesquisa tenham seus enviesamentos e limitações, além de serem difíceis e trabalhosos, Venturini e Rogers argumentam que esses “maus necessários” têm pelo menos três vantagens:

  1. A coleta de registros feito de maneira direta (e não pelas APIs) permite que os pesquisadores também analisem as dinâmicas da plataforma tal qual os usuários as vivenciam – a interação com os atores/participantes pode ainda ser um ponto positivo (como no caso de moderadores fornecendo o arquivo de discussão de um grupo), encorajando o diálogo entre ambas as partes;
  2. O fechamento das APIs de gigantes como Facebook, Twitter e Google força voltarmos o olhar a outras alternativas de fonte de dados que, a depender do assunto, podem conter informações muito mais valiosas;
  3. Não é o fim da coleta de dados de grandes plataformas, com soluções em parcerias entre pesquisa e indústria como no projeto Social Science One.

Novamente fechando com grande estilo, eles argumentam que “as restrições de APIs podem acabar sendo algo bom se encorajarem pesquisadores a voltarem ao trabalho de campo”. Explicam que “reduzir nossa dependência em dados padrões das APIs não significa desistir do projeto de colher dados ricos de grandes populações, mas implica em investir nos esforços necessários para cultivar tais dados”. Para finalizar num tom mais ameno: “a consulta de APIs por si só pode ser uma forma de trabalho de campo quando não é uma acumulação de atacado de dados só pela larga quantidade, mas um trabalho cuidadoso de extração desenvolvido em colaboração com as plataformas e seus usuários”.

Algumas implicações políticas

Na última seção, mais curta (e concisa) que as demais, eles discorrem brevemente sobre a ideia de que as mídias sociais seriam o principal – único e/ou melhor – meio para estudar fenômenos sociais. Nesse sentido, eles discutem sobre as plataformas não essencialmente sob uma perspectiva metodológica, mas sob um olhar mais apurado – crítico e teórico, eu diria – sobre as dinâmicas sociais as quais sustentam e pelas quais são sustentadas.

Eles argumentam que o caso da Cambridge Analytica evidencia “o quão facilmente o debate público pode ser poluído por marketing computacional”. Citando Henry Jenkins, afirmam que a influência dos dados de mídias sociais e seus sistemas de mensuração são maiores quando servem à proposta fruto da sua essência, que é “promover o tipo de atenção superficial mais adequada ao sistema contemporâneo de propaganda e entretenimento”. Esses sistemas foram desenvolvidos “para promover uma audiência de consumidores cujas características são opostas àquelas de um público democrático saudável” (p. 7).

“Por elas [as plataformas de mídias sociais] focarem em ações sem esforço como um clique, uma curtida e um compartilhamento, os sistemas de mensuração promovem um tipo de engajamento que é fácil e de pouca duração; por mensurar essas ações de maneira individualizada (em vez de comunitária), eles alimentam popularidade individual em vez de ação coletiva. Por isso resistir ser ‘capturado’ pela infraestrutura das mídias sociais é crucial não apenas metodologicamente, mas também politicamente”.

(VENTURINI; ROGERS, 2019)

Seja como indivíduo (usuário) ou pesquisador, é preciso ter cautela perante os sites de redes sociais. Como o último, levar sempre em consideração seu contexto de produção e seus enviesamentos: “pesquisa através de plataformas de mídias devem sempre também ser pesquisa sobre plataformas de mídia” (p. 8). Para Venturini e Rogers, precisamos abdicar do “conforto” das APIs e voltar a campo (digitalmente) se quisermos entender e apoiar o trabalho de atores sociais e políticos que anseiam por um debate público saudável.

Referência bibliográfica

Venturini, Tommaso, and Richard Rogers. 2019. “‘API-Based Research’ or How Can Digital Sociology and Digital Journalism Studies Learn from the Cambridge Analytica Affair.” Digital Journalism, Forthcoming.

Pesquisa em mídias sociais na era pós-API

No rascunho “Computational research in the post-API age”, o pesquisador Dr. Deen Freelon, da University of North Carolina, aponta dois marcos importantíssimos para quem atua com pesquisa/monitoramento de mídias sociais – ambos específicos do Facebook: em abril de 2015, quando a plataforma fechou a API de pesquisa pública (que permitia acesso “buscável” a todos os posts públicos num período de duas semanas); e outro, mais recente, quando a empresa de Mark Zuckerberg fechou drasticamente o cerco de acesso à API de páginas.

De 2015 para cá, muita coisa mudou no mercado de inteligência de mídias sociais – dentre as principais mudanças, eu citaria a crescente relevância do trabalho de mídia paga em relação direta com o trabalho de mensuração (métricas), e com certo menosprezo do mercado pelo trabalho de monitoramento. Isso acontece por vários motivos, a meu ver, que se atravessam e se retroalimentam: 1) o ritmo de agências e clientes; 2) o desprezo do mercado por pesquisa (e conhecimento – científico – de modo geral); 3) a falta de inovação de atores relevantes (principalmente ferramentas líderes de mercado); 4) e o – cada vez mais – desafiador cenário de como adquirir dados de mídias sociais (aqui, focaremos neste); dentre outros.

Quando o Facebook resolveu matar a coleta de posts públicos dos usuários (em seus feeds/murais), uma conversa foi iniciada e estabeleceu-se um debate sobre “o futuro” do monitoramento de mídias sociais (isso em 2015). Três anos depois, o mercado não reagiu tão ativamente à nova política da plataforma – muito mais restritiva e complexa. Ainda que haja um debate intenso sobre proteção de dados pós escândalo da Cambridge Analytica, somado à criação do GDPR e Lei de Proteção de Dados (no Brasil), pouco se discutiu sob a perspectiva do mercado de monitoramento e pesquisa em mídias sociais. Por isso, para trazer esse assunto à tona, retomo – e recorro – ao ensaio pragmático de Freelon.

“O fechamento da API de Páginas eliminou todos acessos ao conteúdo do Facebook conforme acordado em seus Termos de Serviço. Permita-me sublinhar a magnitude dessa mudança: não há atualmente uma maneira para extrair de forma independente o conteúdo do Facebook sem violar seus Termos de Serviço. Num estalar de dedos metafórico, o Facebook invalidou instantaneamente todos os métodos que dependiam da API de Páginas. […] Nós nos encontramos numa situação na qual o investimento pesado em ensinamento e aprendizado de métodos específicos da plataforma podem se tornar obsoletos do dia para a noite: é isso que quero dizer com ‘a era pós-API’.”

Embora soe apocalíptico (assim como em 2015 soou), não é o fim do monitoramento/pesquisa em mídias sociais. Para contornar esse cenário nebuloso, Freelon aponta duas prioridades para quem trabalha nesse contexto: será necessário – o quanto antes – aprender a fazer “scraping” de páginas da web; ao mesmo tempo em que compreendamos as consequências potenciais de violar os Termos de Serviço das plataformas ao fazer isso. Ou seja, de certo modo (e como seu título indica), está na hora de superarmos as APIs para que consigamos trabalharmos sem as restrições arbitrárias das plataformas.

Sobre o aprendizado de técnicas de scraping (que envolvem, majoritariamente, linguagens de programação como Python e R), o pesquisador cita que a flexibilidade é a sua principal vantagem. Por outro lado, essa flexibilidade – que está ligada justamente a um campo maior de possibilidade/escopo maior de trabalho – significa também ter que lidar com diferentes demandas de programação. Ou seja, significa ter que programar séries diferentes (possivelmente completamente diferentes) para cada scraping desejado, além de ter que se adaptar ao cenário caótico de restrições que, quando estabilizados em API, tornava-se muito mais amigável.

O segundo ponto – menos técnico e mais crítico – é referente às dimensões legais e éticas das práticas de web scraping. “A extração de conteúdo automatizada em larga escala consome um valor absurdo de banda larga dos sites fontes, motivo pelo qual várias das plataformas mais populares da web – inclusive Facebook e Google – proíbem essa prática de modo explícito em seus Termos de Serviço”, explica. Isso pode acarretar desde um simples bloqueio de IP do seu computador em acesso ao site até medidas muito mais graves, como contrapartidas legais que podem destruir a carreira (e até a vida) de um pesquisador.

Nesse cenário inóspito e tendo essas duas medidas em mente, Freelon propõe as seguintes recomendações “para equilibrar a segurança do(a) pesquisador(a), a privacidade dos usuários e prerrogativas das empresas”:

  1. Utilize métodos autorizados sempre que possível: ou seja, antes de se render a técnicas de scraping por vias repreensíveis, procure ao máximo modos de o fazer através de medidas oficialmente sancionadas;
  2. Não confunda o acordo dos Termos de Serviço com proteção de privacidade: “ao utilizar métodos de acordo com os Termos de Serviço, você está respeito as prerrogativas de negócio das empresas que criaram a plataforma que você está estudando, mas pode ou não estar respeitando a dignidade e privacidade dos usuários da plataforma”.
  3. Compreenda os riscos de violação dos Termos de Serviço: conforme as APIs vão se fechando e técnicas de scraping ficando mais comuns, é possível que as empresas utilizem de seu capital para ir atrás de quem não segue suas regras.

É evidente que a visão e as colocações do pesquisador partem de uma perspectiva acadêmica, pois, como bem lembra Marcelo Alves nesse excelente texto, “[o fechamento da API] gera uma nova assimetria de poder entre quem pode ou não realizar pesquisas e se beneficiar dos insights de dados digitais, na medida em que sempre será possível comprar os dados de algum revendedor autorizado pelo Facebook”. É por isso que grandes ferramentas de monitoramento de mídias sociais não serão (tão) afetadas nesse cenário, o que consequentemente também não gera um impacto tão ruim para grandes marcas/empresas.

Quem sofre, como de costume, são as empreitadas de pequeno e médio porte: como a Netvizz, por exemplo, que está possivelmente com seus dias contados. É um cenário extremamente difícil para pesquisadores independentes/acadêmicos. Se engana, entretanto, quem acha que isso só afeta esses atores: é justamente devido a essa desigualdade de acesso que o monitoramento de mídias sociais como conhecemos tem perdido tanta força. Talvez fique mais evidente esta questão quando compararmos, por exemplo (mais uma vez), ao trabalho de mídia paga, que se popularizou justamente pelo esforço do Facebook em torná-lo o mais intuitivo possível.

Dificultar a pesquisa/o monitoramento de dados sociais digitais, portanto, é ruim para pesquisadores independentes, acadêmicos, analistas de monitoramento, BI… – é ruim para todo mundo. É, ainda assim, importante para lembrar o que e quem está por trás das mídias sociais. O Facebook se ancora na justificativa de proteção de dados dos usuários para dificultar o acesso de maneira completamente irresponsável e arbitrária. A verdade é que, no fim das contas, o capitalismo sempre vence e quem pagar mais vai conseguir o que quiser, quando quiser e como quiser. Cabe a nós pensar como contornar essa situação.

Por aqui, depois de muito me opor ao aprendizado de programação, já comecei a engatinhar em Python. Tenho utilizado um script para fazer raspagem de publicações do Instagram e muito recentemente consegui aprender como rodar outro para coletar tweets até retroativamente. No meu caso, as implicações são éticas e legais, por isso tenho mergulhado nesse debate – travado principalmente na academia – sobre os limites da exposição de dados. Minha preocupação, entretanto, é mais para com os usuários do que para com as empresas. E você, vai deitar pro Facebook?

 

10 artigos sobre performance, análise de redes e métodos digitais

No final do ano passado, finalizei um dos ciclos mais importantes da minha vida: a faculdade. Foram cinco anos na graduação de Estudos de Mídia estudando muito sobre comunicação, cultura, sociologia, política, mídias, identidade, consumo e muito mais. Embora tenha sido um bom aluno (com boas notas), sei que não aproveitei a universidade em todo o seu potencial – em vários sentidos, mas principalmente também quanto ao aprendizado. Sei que não sou completamente responsável por essa negligência – coloca aí na conta a falta de maturidade, um sistema de ensino ainda ultrapassado (mesmo num curso progressista como o meu), despreparo acadêmico, etc. -, mas reconheço que poderia ter aproveitado muito mais.

Inicio hoje aqui no blog, portanto, mais essa série de posts (não tão compromissadas quanto outras que já fiz, sem periodicidade definida nem promessas possivelmente falhas) na tentativa de tirar esse atraso. Acrescento a isso também outros dois motivos principais: 1) o meu “projeto” de mestrado (não o material, mas o projeto enquanto concepção mais abrangente), que engloba uma vontade de me manter atualizado com publicações recentes dentro do meu campo de interesse ao mesmo tempo em que (re)descubro leituras importantes/fundamentais para a minha área; 2) e, não menos importante, o meu humilde desejo – e tentativa constante – de expandir os muros da academia, trazendo-a para espaços mais abertos, já que muitas vezes a produção acadêmica (pública e de excelência, pelo menos no Brasil) não é tão bem aproveitada.

Neste primeiro post, compartilho 10 artigos que li recentemente – nas últimas semanas ou no máximo nos últimos meses. Apenas para fins de conteúdo, separei-os em três categorias: descobertas metodológicas, estudos de caso e reflexões epistemológicas. O primeiro grupo são quatro artigos cujo principal crédito que extrai da leitura foi um quadro de trabalho metodologicamente interessante e possivelmente replicável em futuras pesquisas; O segundo também são estudos de caso, mas o foco principal não é a metodologia e sim a análise com diferentes práticas metodológicas (quantitativas e qualitativas); O terceiro tem um nome pomposo (porque a academia gosta), porém é basicamente um conjunto de artigos que reflete sobre a prática de pesquisa desde a sua composição crítica até sua perspectiva prática.

DESCOBERTAS METODOLÓGICAS

Political Storytelling on Instagram: Key Aspects of Alexander Van der Bellen’s Successful 2016 Presidential Election Campaign (2017)

Karin Liebhart, Petra Bernhardt

This article addresses the strategic use of Instagram in election campaigns for the office of the Austrian Federal President in 2016. Based on a comprehensive visual analysis of 504 Instagram posts from Green-backed but independent presidential candidate Alexander Van der Bellen, who resulted as winner after almost one year of campaigning, this contribution recon- structs key aspects of digital storytelling on Instagram. By identifying relevant image types central to the self-representation of the candidate, this article shows how a politician makes use of a digital platform in order to project and manage desired images. The salience of image types allows for the reconstruction of underlying visual strategies: (1) the highlighting of the candidate’s biography (biographical strategy), (2) the presentation of his campaign team (team strategy), and (3) the pre- sentation of the candidate as a legitimate office holder (incumbent strategy). The article thus sheds light on visual aspects of digital storytelling as relevant factor of political communication.

Este artigo eu li para produzir o relatório EM BUSCA DO MELHOR ÂNGULO: a imagem dos presidenciáveis no Instagram – uma análise quanti-qualitativa com inteligência artificial lançado pelo IBPAD recentemente. As categorias de classificação propostas pelos autores foi replicada nesse novo trabalho, apenas com algumas adaptações/adições às originais. Além da ótima fundamentação teórica e discussão sobre política, também pode ser muito interessante para quem estuda auto-apresentação nas mídias sociais (principalmente no Instagram). Se tudo de certo, espero transformar o relatório que fizemos num artigo ainda mais crítico e reflexivo sobre o modo como esses políticos brasileiros se apresentam na plataforma. Clique aqui para baixar.


‘‘Privacy’’ in Semantic Networks on Chinese Social Media: The Case of Sina Weibo (2013)

Elaine J. Yuan, Miao Feng, James A. Danowski

Unprecedented social and technological developments call into question the meanings and boundaries of privacy in contemporary China. This study examines the discourse of privacy on Sina Weibo, the country’s largest social medium, by performing a semantic network analysis of 18,000 postings containing the word ‘‘ (privacy).’’ The cluster analysis identifies 11 distinct yet organically related concept clusters, each representing a unique dimension of meaning of the complex concept. The interpretation of the findings is situated in the discussion of the rapidly evolving private realm in relation to emerging new contexts of the public realm. Privacy, justified for both its instrumental functions and intrinsic values, both reflects and constitutes new forms of sociality on the sociotechno space of Weibo.

Outro artigo que foi essencial para uma produção minha. Recentemente descobri a partir de indicação de Tarcízio Silva a fantástica ferramenta WORDij. É uma ferramenta que, na verdade, agrega várias mini-ferramentas, mas (por falta de conhecimento) minha utilização tem sido voltada para a rede semântica de palavras que ela é capaz de gerar. No artigo em questão, os pesquisadores a utilizaram para analisar 18.000 posts sobre “privacidade” num site de rede social chinês – e conseguiram identificar 11 clusters distintos a partir da co-ocorrência de palavras, criando um mapa discursivo para os territórios conceituais abordados. Utilizei a mesma metodologia para produzir artigo no prelo, analisando 4.000 comentários de uma notícia do G1. Clique aqui para baixar.


A Forma Perspectiva no Twitter: uma técnica quanti-qualitativa para estudos de Redes Sociais (2014)

Lorena Regattieri, Fábio Malini, Nelson Reis, Jean Medeiros

Como podemos identificar perspectivas em grandes redes, através da aplicação de algoritmos de modularidade? Em humanidades digitais (MORETTI, 2013; JOCKERS, 2013), há um bom número de trabalhos acadêmicos explorando rotinas computacionais para agrupar e analisar grande quantidade de dados. Recentemente, dados sociais tornaram-se uma fonte valiosa para estudar fenômenos coletivos, eles fornecem os meios para compreender a coletividade humana por meio de análise de grafos. Neste trabalho, descrevemos a nossa abordagem sobre a forma da antropologia pós-social (VIVEIROS DE CASTRO, GOLDMAN, 2012), utilizando de técnicas de análise quanti-qualitativa e semântica. Esta técnica utiliza um script python para extrair a rede de co-ocorrência de hashtags de um do Twitter, a fim de aplicar no contexto do software open-source Gephi, gerando grafos. Assim, podemos descobrir o fluxo de perspectivas que envolvem uma controvérsia, categorias que revelam os pontos de vista em um debate disposto na rede. Nesse trabalho, utilizamos como estudo de caso o evento da Copa do Mundo 2014 no Brasil, precisamente, os dados relacionados a rede FIFA. Concluindo, este estudo apresenta um quadro teórico e metodológico baseado nos pós-estruturalistas, uma composição que tem como objetivo apoiar estudos no campo das ciências sociais e humanas, e provoca novas possibilidades para os estudos comunicacionais.

Esse artigo eu resolvi ler porque sabia que abordava propostas metodológicas para apresentação/visualização de redes de co-ocorrência utilizando o Gephi. Ou seja, seria um complemento à ferramenta e processo do artigo anterior. Confesso que a primeira parte, na qual os autores tentam associar a teoria ator-rede e antropologia pós-social com as humanidades digitais, é meio estranha, mas o estudo de caso com hashtags da FIFA apresentado ao fim entrega justamente o que eu estava procurando: melhores práticas para layouts de co-ocorrência no Gephi. Tenho testado as sugestões do artigo e ainda não encontrei uma “fórmula pronta”, mas as reflexões e ponderações de Malini e cia foram importantes para alguns trabalhos que tenho desenvolvido. Clique aqui para baixar.


Facebook and its Disappearing Posts: Data Collection Approaches on Fan-Pages for Social Scientists (2016)

Erick Villegas

Facebook fan-pages are channels of institutional self- representation that allow organizations to post content to virtual audiences. Occasionally, posts seem to disappear from fan-pages, puzzling page administrators and posing reliability risks for social scientists who collect fan-page data. This paper compares three approaches to data collec- tion (manual real-time, manual retrospective, and auto- matic via NVIVO 10®) in order to explore the different fre- quencies of posts collected from six institutional fan-pages. While manual real-time collection shows the highest fre- quency of posts, it is time consuming and subject to man-ual mistakes. Manual retrospective collection is only effec- tive when filters are activated and pages do not show high posting frequency. Automatic collection seems to be the most efficient path, provided the software be run frequently. Results also indicate that the higher the posting frequency is, the less reliable retrospective data collection becomes. The study concludes by recommending social scientists to user either real-time manual collection, or to run a software as frequently as possible in order to avoid bi- ased results by ‘missing’ posts.

Fechando essa categoria, esse artigo foi recomendação de Marcelo Alves. Confesso que quando vi o título, achei que abordaria as (novas) mudanças da API do Facebook – mas não me atentei à data de publicação, que é de 2016. De qualquer forma, é um artigo bem interessante. Apesar da conclusão relativamente óbvia/esperada, foi interessante para conhecer a ferramenta NVIVO10. Ainda não tive a oportunidade de testá-la, mas quando eventualmente o fizer provavelmente trarei aqui para o blog em forma de análise ou tutorial. Recentemente a Netvizz infelizmente tem perdido várias funcionalidades ótimas por causa do cenário caótico em que Zuckerberg nos deixou, então é sempre bom conhecer outras alternativas. Clique aqui para baixar.


ESTUDOS DE CASO

A discussão pública e as redes sociais online: o comentário de notícias no Facebook (2015)

Samuel Barros, Rodrigo Carreiro

O presente artigo faz uma análise das arenas de discussão estabelecidas em páginas de jornais brasileiros no Facebook. A abordagem proposta reconhece a circulação de material político no Facebook como importante na esfera pública contemporânea para a discussão sobre temas de relevância pública. A amostra é composta por 1.164 comentários coletados nas páginas oficiais da Folha de S. Paulo, O Estado de S. Paulo e O Globo. O objetivo é avaliar a qualidade deliberativa dessas arenas, levando em consideração os critérios reciprocidade, provimento de razões, grau da justificativa e respeito, além de discutir elementos estruturais do Facebook, a apropriação social e a discussão pública. No geral, as esferas de conversação da rede criadas em torno das notícias estudadas funcionam como ampliadores da diversidade dos argumentos, demonstrando que, em temas sobre os quais há forte consenso, há uma tendência de ocorrer menores índices de deliberação, além de não haver reciprocidade em quase metade dos comentários e mais de 50% das mensagens não apresentarem qualquer justificativa.

Li esse artigo para tê-lo como referência de uma pesquisa que iria realizar a partir de comentários de uma notícia no Facebook. Esta não se concretizou, mas o artigo ainda assim foi muito interessante. O diferencial da proposta dos autores é que eles não estão interessados numa análise voltada para o conteúdo mais explícito das mensagens (temas, assuntos, etc.), mas nos modos argumentativos e contra-argumentativos dos comentários. Ou seja, a preocupação deles é descobrir se esse ambiente online (comentários de notícias no Facebook) são propícios ou não para um debate saudável, responsável e maduro. A resposta já era de se esperar, mas é sempre bom encontrar referências científicas para sustentar nossas percepções mais óbvias. Clique aqui para baixar.


A fotografia como prática conversacional de dados. Espacialização e sociabilidade digital no uso do Instagram em praças e parques na cidade de Salvador (2018)

André Lemos, Leonardo Pastor

Este artigo investiga empiricamente a prática fotográfica através do aplicativo Instagram. Foram analisadas 305 imagens associadas à geolocalização de quatro praças e parques da cidade de Salvador. A análise foi desenvolvida através de três aspectos: processo de espacialização, processo de sociabilidade e processo de produção de si (retratos e selfies). O uso de metatexto (hashtags, legendas e emojis) e de dados de geolocalização indicam que a prática fotográfica se dá, hoje, como uma prática conversacional de dados. Ela convoca uma ampla rede que passa pelo local escolhido, pelo artefato utilizado, pelas formas de edição e manipulação da imagem, pelos metatextos, pelas geotags, pelo procedimento algorítmico da rede social, pelas formas de compartilhamento… O uso da fotografia em redes sociais é um ator-rede, performativo, algorítmico, muito diferente da prática de produção de fotos analógicas ou mesmo digitais antes do surgimento dessas redes. Isso possibilita aos usuários a criação de um discurso/ narrativa e de uma prática de dados relacionados à fotografia inédita até então.

Recentemente no IBPAD temos trabalhado bastante com projetos e metodologias envolvendo análise de imagens. Este artigo, portanto, surgiu como uma luva para nos acompanhar nessa jornada. Apesar de ser uma análise relativamente simples, cujo foco argumentativo dos autores é ratificar como a relação de sociabilidade entre fotografia e compartilhamento se entrelaça com o aparato algorítmico e “dataficante” das plataformas, o que mais gostei do trabalho foi o apontamento de que estamos sempre nos comunicando. Toda publicação nas mídias sociais comunica alguma coisa para alguém. Esse alguém pode não ter uma delimitação definida, sua recepção pode não ser o que esperamos, mas a mensagem está sempre ali para chegar a um receptor (mesmo que às vezes finjamos que não). Clique aqui para baixar.


O amor nos tempos de Facebook. Narrativas amorosas e performances de si em sites de redes sociais

Deborah Santos

Os sites de redes sociais representam espaços de compartilhamento que estão ressignificando o jeito através do qual as pessoas se relacionam consigo mesmas e com os outros que constituem “sua audiência”. Com a emergência destes espaços, as fronteiras entre o que era considerado como privado e como público estão sendo cada vez mais difusas, e os relatos íntimos encontram nas ágoras virtuais um terreno para se inserir em cenários públicos, reconfigurando assim o limite conceitual que restringe “o íntimo” a espaços de interação limitados em alcance. O presente trabalho é um recorte da minha pesquisa de mestrado e propõe-se entender, partindo da análise de um caso de estudo, de que maneira usuários da rede social Facebook constroem narrativas virtuais durante e após relacionamentos amorosos; usando as ferramentas da etnografia virtual como princípios de aproximação ao nosso objeto e partindo de um caso de estudo particular.

Deborah Rodríguez Santos é mestre e doutoranda pelo Programa de Pós-Graduação em Comunicação da UFF e ofereceu, neste período, a disciplina Dinâmicas Identitárias no Ciberespaço para alunos da graduação de Estudos de Mídia. Fiz a mesma matéria alguns anos atrás e por isso me interessei pelo trabalho da pesquisadora, que é orientada por outra referência também já bastante citada aqui no blog: a Profa. Dra. Beatriz Polivanov. O artigo em questão é uma versão (bem) resumida da sua dissertação, que trabalha com a questão da auto-apresentação nos sites de redes sociais (foco no Facebook) a partir do contexto amoroso entre jovens cubanos. Ou seja, além do interessantíssimo debate sobre performance na internet, atravessa também questões culturais específicas e de um lugar desconhecido para a maioria dos brasileiros. Clique aqui para baixar.


“Sabe o que Rola nessa Internet que Ninguém Fala?”: Rupturas de Performances Idealizadas da Maternidade no Facebook

Ana Souza, Beatriz Polivanov

Partindo da observação de que discussões sobre a maternidade têm ganhado visibilidade no Facebook, fazemos aqui uma análise exploratória de uma postagem da mãe, médica e cantora Júlia Rocha. Buscamos atingir os seguintes objetivos principais: 1) investigar que tipos de discursos têm emergido através desse “fenômeno” e de que modos visam desconstruir ou problematizar valores socialmente relacionados à maternidade e 2) entender o lugar de fala através dos quais tais relatos são produzidos, a partir de uma perspectiva pessoal de alguns “nós” na rede. Concluímos que a postagem de Júlia pode ser entendida enquanto uma ruptura de performances idealizadas da maternidade, atrelada a valores como cuidado dos filhos, de si e da relação conjugal, ganhando visibilidade na cultura digital a partir de uma ideia de “sinceridade” ou “autenticidade”.

Ana Luiza de Figueiredo Souza também é mestranda pelo Programa de Pós-Graduação em Comunicação da UFF. Ao lado de Santos e sob supervisão de Polivanov, ministrou a disciplina de Dinâmicas Identitárias no Ciberespaço em Estudos de Mídia neste período. Ambas participam do grupo de pesquisa MiDICom – Mídias Digitais, Identidade e Comunicação, liderado pela última. O artigo também segue parte da pesquisa realizada por Souza em seu mestrado, na qual trabalha com as temáticas de maternidade, auto-apresentação, narrativas pessoais e dispositivos de visibilidade/controle. Destaco especificamente duas questões legais no texto: a discussão sobre “ruptura de performance”, bastante discutida pelo grupo de pesquisa em seus trabalhos mais recentes; e a ótima referência sobre cinco dimensões de persona online, que conheci nesse artigo e resultou nesse post. Clique aqui para baixar.


REFLEXÕES EPISTEMOLÓGICAS

Disputas sobre performance nos estudos de Comunicação: desafios teóricos, derivas metodológicas (2018)

Adriana Amaral, Thiago Soares, Beatriz Polivanov

O presente artigo discute o termo “performance” nos estudos de Comunicação e mídia a partir de um resgate crítico-teórico do mesmo. Partimos de uma reconstituição conceitual do termo em suas vertentes das Ciências Humanas e Sociais francesa e anglo-saxã para apresentarmos seus desdobramentos no campo comunicacional brasileiro, sobretudo no que tange a temáticas como a música e o entretenimento, os fãs e os sites de redes sociais. Argumentamos que os estudos de performance são relevantes para entender as ações humanas, bem como suas mediações com os corpos, aparatos, ambientes, materialidades e audiências tão corriqueiras no cotidiano da vida contemporânea. Contudo, indicamos a necessidade de rediscussão do conceito para a análise de distintos objetos e ambientes mediados pelas tecnologias de comunicação e apontamos a possibilidade de entender a performance enquanto método de pesquisa.

Esse artigo muito provavelmente se tornará leitura básica/obrigatória em cursos de graduação na área de comunicação mais voltada para a academia. Isso porque, além do time de peso (Amaral, Soares e Polivanov – três referências na área), as autoras fazem um “remonte” teórico das premissas teóricas e epistemológicas que têm sustentado os estudos sobre performance no Brasil em Comunicação. Para isso, acionam a matriz etimológica da palavra francesa, rediscutem ideias de autores já consolidados como Goffman e Giddens, e situam minimamente o cenário de pesquisa sobre performance de gosto (na música e) em sites de redes sociais. Além disso, referenciam também autores não tão conhecidos assim, como Diana Taylor e Richard Schechner, ambos integrantes do Programa de Pós-Graduação em Estudos da Performance na New York University (NYU) nos Estados Unidos. Clique aqui para baixar.


A reality check(list) for digital methods

Tommaso Venturini, Liliana Bounegru, Jonathan Gray, Richard Rogers

Digital Methods can be defined as the repurposing of the inscriptions generated by digital media for the study of collective phenomena. The strength of these methods comes from their capacity to take advantage of the data and computational capacities of online platforms; their weakness comes from the difficulty to separate the phenomena that they investigate from the features of the media in which they manifest (‘the medium is the message’, according to McLuhan’s 1964 dictum). In this article, we discuss various methodological difficulties deriving from the lack of separation between medium and message and propose eight practical precautions to deal with it.

Fechando com chave de ouro, esse é outro artigo que possivelmente será bibliografia básica nas escolas de comunicação – talvez não para graduação, mas para pós (até pelo idioma). Os autores remontam as premissas da famosa obra Digital Methods de Richard Rogers e fornecem um “guia” teórico-metodológico para a prática de pesquisa digital a partir de oito questões divididas em quatro categorias relevantes. Papel das mídias digitais em relação ao objeto de estudo: quanto do seu objeto de estudo ocorre no plataforma que você está estudando? você está estudando rastros midiáticos por si só ou como proxies (representações)? Definição do objeto de estudo: a sua operacionalização está sintonizada com os formato do plataforma? com as práticas dos usuários da plataforma? Da análise de uma única plataforma à análise de plataformas convergentes: o fenômeno que você está estudando acontece em diferentes plataformas? você possui operacionalizações diferentes porém comparáveis para cada plataforma? Demarcação de corpus e acesso aos dados: o que seu corpus representa? você está levando em consideração as maneiras pelas quais os dados são “entregues” pela plataforma? Clique aqui para baixar.

Coleta de dados relacionais nas mídias sociais, da Escola de Verão de Estudos de Mídia

Nos dias 13 e 14 de fevereiro tive a oportunidade de participar do curso “Coleta de dados relacionais nas mídias sociais” que aconteceu na Universidade Federal Fluminense a partir do projeto Escola de Verão de Estudos de Mídia.  Atendendo majoritariamente mestrandos e doutorandos (e eu, intruso), o conteúdo foi ministrado por Marcelo Alves, doutorando no PPGCOM/UFF e membro do grupo de pesquisa Lamide – Laboratório de Mídia e Democracia, além de autor do capítulo Abordagens de coleta de dados nas mídias sociais” do livro Monitoramento e Pesquisa em Mídias Sociais: metodologias, aplicações e inovações, sobre o qual falarei melhor em outro post específico sobre a coletânea.

Além da publicação, vale também – antes de entrar no conteúdo apresentado no curso – recomendar alguns outros materiais do pesquisador. No material “100 Fontes sobre Pesquisa e Monitoramento de Mídias Sociais” do IBPAD há algumas indicações de artigos, capítulos, posts e de sua tese, mas reforço aqui algumas indicações que ele mesmo recomendou especificamente para o curso: “Bridging semantic and social network analyses: the case of the hashtag #precisamosfalarsobreaborto (we need to talk about abortion) on Twitter”, “Agentes de campanha não-oficial: A Rede Antipetista na eleição de 2014” e “Internet e campanha eleitoral no Brasil: a Blogosfera Progressista Ampliada e a Rede Antipetista” – além do trabalho na Vértice, onde produziu algumas análises interessantes no período das campanhas eleitorais para prefeito do Rio de Janeiro em 2016.

Entrando finalmente no curso, acho importante ratificar que a proposta não era aprofundar em análise, mas entender alguns conceitos e premissas importantes para a coleta de dados – principalmente de olho nas famosas APIs. Esta deve ser uma das buzzwords mais populares do mercado principalmente de monitoramento, mas, ainda assim, pouco se debate de fato sobre o que ela faz, o que ela entrega, como entrega, quais as possibilidades de entrega, etc. Uma dos objetivos do curso, portanto, foi apresentar aos alunos uma introdução da leitura da documentação da API. Antes disso, no entanto, houve uma preocupação de passar alguns dos principais e gerais conceitos sobre um novo cenário comunicacional, abordando algumas temáticas sobre novas mídias, comunicação política de análise de redes sociais.

A começar por uma “desmistificação” de algumas concepções comuns no imaginário social sobre a ideia de cauda longa: as lógicas de rede não estão tomando o lugar da lógica de massa; as plataformas de mídias sociais seguem outras regras de jogo; e a mídia de massa e o conteúdo jornalístico continuam sendo uma das principais fontes de informação – as duas lógicas não estão estáticas, mas em constante evolução. Como explicam Klinger e Svensson (2014), “Plataformas de mídias sociais operam de uma forma diferente à mídia de massa tradicional, sobrepondo-a. Isso gera maneiras diferentes de produzir conteúdo, distribuir informação e usar a mídia”. Retomando o famoso conceito da cauda longa, esse artigo também me lembrou essa matéria do The Economist: “Mass entertainment in the digital age is still about blockbusters, not endless choice”.

Lógicas da comunicação política em massa e em rede (Klinger e Svensson, 2014)

Ainda no contexto de comunicação política, Chadwick (2013) fala sobre sistemas midiáticos híbridos: “baseado em conflito e cooperação entre lógicas novas e antigas; mas também possui considerável grau de interdependência entre estas lógicas”, ou seja, há uma convergência midiática em que todos os atores estão entrelaçados. Em outras palavras, o que esses autores – e a matéria do The Economist – querem dizer é que a internet (e principalmente as mídias sociais) não vieram para democratizar completamente a mídia como conhecemos. As plataformas digitais de conteúdo gerado pelos próprios usuários se sobrepõem à uma lógica de massa não indissociável, mas interdependente e ainda bastante pautada no investimento financeiro – quem tem mais dinheiro consegue ter mais voz com mais facilidade.

Seguindo com o argumento de Chadwick (2007), nesse novo cenário de repertórios digitais em redes e hibridismo organizacional, surgem duas tendências paralelas: as organizações políticas tradicionais adotam e modificam seletivamente características de movimentos sociais; e surgem novas formas organizacionais intrínsecas à internet. No ciclo de informação política (Chadwick, 2010), há um maior número e maior diversidade de atores; estruturas temporais mais rápidas e complexas; participantes que tangenciam as elites políticas midiáticas; e diversificação das fontes de informação. Para mais informações sobre o assunto, recomendo conferir a apresentação disponibilizada no Slideshare — que já serve de gancho para darmos continuidade ao post:

Para dar conta, portanto, desse ambiente midiático híbrido, plural e pulsante, “surgem” as técnicas de análise de redes sociais. Antes, entretanto, vale reforçar alguns pontos importantes sobre a ideia de esfera pública em rede (Benkler et al., 2013): “arena alternativa para o discurso e debate público, uma arena que é menos dominada pelas grandes organizações midiáticas, menos sujeita ao controle do governo e mais aberta a participação ampla”. Acrescentando à ideia de pluralidade, essa esfera pública se apresenta “como um ecossistema complexo de canais de comunicação que coletivamente oferecem um ambiente que conduz a expressão política e a criação de diversas formas organizacionais” – o que me lembrou esse artigo do Axel Bruns (que eu ainda não li, mas fica a recomendação bibliográfica).

Com tudo isso em mente, chegamos à solução encontrada para os problemas supracitados: análise de redes sociais. Coloquei entre aspas ali em cima o “surgimento” dessa técnica porque ela não é contemporânea das mídias sociais – no capítulo “Análise de redes para mídias sociais” do livro já citado do IBPAD, Tarcízio Silva e Max Stabile mostram como essa é uma metodologia comum à Sociologia já há algumas décadas. Recomendo novamente a leitura do capítulo para uma compreensão mais detalhada sobre o assunto (embora ainda assim seja bem introdutório, visto o extenso repertório que pesquisadores brasileiros como Fábio Malini e Raquel Recuero têm sobre o tema), mas o importante aqui é entender duas coisas básicas.

Primeiro que, na internet, estamos sempre produzindo rastros sociais digitais. Esses rastros seguem lógicas das próprias plataformas – sejam elas websites, fóruns, lojas de e-commerce, etc. -, mas, quando falamos de mídias sociais (principalmente Facebook e Twitter), muitas dessas dinâmicas e fenômenos sociais podem ser assimilados a uma compreensão do conhecimento já comum às Ciências Sociais. Ou seja – e aqui já entramos no segundo ponto -, é nesse contexto que compreendemos as redes sociais nas mídias sociais. O foco da técnica de ARS está justamente em entender uma rede social (online ou não) em sua estrutura e dinamismo social, pensando como diferentes atores se conectam, influenciam e relacionam.

Parte-se da análise de como os nós se conectam e relacionam para realizar a análise que, posteriormente, pode agregar dados de atributos e outros. E as conexões podem ser de diversos tipos, intensidades e direções. Na análise de redes sociais, os nós são elementos analisados que podem ser individualizados, e representam algum ator social, grupo social ou produto realizado por estes. (SILVA; STABILE, 2016)

A partir disso nós conseguimos compreender do que se trata o “relacionais” do nome do curso: são dados que possuem duas informações distintas – atributos dos atores e a relação entre eles, ou seja, além de observar o conteúdo, preocupa-se também em analisar como esse conteúdo (a interação) se estrutura socialmente. É aqui também que podemos introduzir alguns termos importantes na ARS: ator/nós/vértices (componente individual), laços/arestas (ligações entre atores), clusters (subconjuntos identificados pela densidade), rede (totalidade de atores e ligações da amostra). No curso, não entramos em detalhes sobre essas definições e conceitos (embora sejam bem simples), uma vez que a proposta não era na parte de análise, mas de coleta.

Mas por que essa metodologia se tornou uma das principais para análise de dados nas mídias sociais nos últimos anos? Segundo Silva e Stabile (2016), “nos ambientes online, a abundância de laços fracos aumenta a probabilidade de os indivíduos acessarem conteúdos, nichos e experiências a que não teriam acesso através de suas redes mais próximas”. E o que seriam esses laços fracos? No livro, eles retomam um estudo sociológico de 1983 para falar sobre o assunto. No curso, vimos os conceitos de rede associativa/de afiliação (ligações mais estáveis e duradouras, como seguir páginas/solicitações de amizade) e redes emergentes (ligações mais circunstanciais, como menções/RT), de Recuero. Para mais detalhes, recomendo este post que fiz sobre outro artigo da Recuero que também fala sobre o assunto.

Retomando o conteúdo do curso, falemos sobre as famosas APIs. Como já mencionei anteriormente, é uma sigla bastante famosa entre profissionais de inteligência (monitoramento, métricas, BI, etc.), mas pouco se discute no mercado sobre suas atribuições técnicas. Na minha (humilde) opinião, isso acontece porque há uma palpitação nervosa no mercado quando falamos de discutir metodologia. Enquanto isso, na academia, onde a metodologia precisa ser esmiuçada e destrinchada com profundidade e responsabilidade técnico-científica, muito se avança no debate sobre APIs, por exemplo. E esse debate é de extrema importância, uma vez que (retirado do slide):

  • As políticas de cessão de dados de cada plataforma são documentadas nas APIs;
  • APIs são tanto documentos técnicos quanto reflexos das diretrizes empresariais de fornecimento de dados;
  • APIs são modificadas frequentemente, de acordo com as necessidades e interesses mercadológicos das organizações;
  • As documentações mostram quais requisições são possíveis (queries), em qual volume (rate limit) e com quais parâmetros.

O único momento em que o mercado discutiu sobre API foi quando as agências e os profissionais de monitoramento tiveram que informar aos clientes que já não conseguiriam mais monitorar publicações do Facebook. Novamente, na minha (humilde) opinião, penso que essa falta de debate impede um maior avanço para a criação de novas técnicas de análise de dados que enriqueçam ainda mais a inteligência a ser extraída das mídias sociais. No curso, exploramos a própria interface que o Facebook disponibiliza para fazer a conexão com sua API e retornar os dados – basta ter uma conta na plataforma para conseguir um token de acesso. Para os leigos, talvez aqui fique mais claro: a API funciona como um plug que conecta os dados da plataforma com o “mundo externo”, fazendo essa conexão de banco de dados.

Como membro da academia, Marcelo tem uma preocupação especial com o debate sobre métodos e metodologia de pesquisa. Não vou entrar muito nesse mérito porque é um assunto razoavelmente denso, mas recomendo mais uma vez a leitura de sua produção científica e até mesmo as informações da apresentação disponibilizada, nos slides sobre técnicas de amostragem em métodos digitais (Rieder, 2012) e adaptando os métodos para coleta relacional no Facebook (CF. Bruns e Burgess, 2014) – além dos registros em seu blog, onde aborda com minúcia essas questões. Há também no capítulo do livro do IBPAD uma proposta metodológica que tenta dar conta do escopo de pesquisa no Facebook.

O mais importante desse debate agora é a conclusão: para dar conta das dinâmicas relacionais que acontecem na atmosfera política midiática, decidiu-se pela utilização do método de amostragem por grafos e da bola de neve. Essa metodologia pode ser superficialmente compreendida nesse estudo do IBPAD, que utiliza da mesma técnica de pesquisa. Em suma, trata-se de elaborar um mapeamento de fan-pages que liste nós-sementes temáticos e/ou homogêneos e, a partir deles, siga como uma bola de neve coletando outras páginas (mais detalhes sobre essa etapa pode ser vista no slide 39).

Para levantar essa lista, há duas possibilidades: pode ser feita através de um simples pedido de “busca” nas plataformas (neste caso, no Facebook) ou a partir de uma lista já pré-estabelecida sobre uma mesma temática (ver slide 40 e 41). Essa lista, entretanto, só nos oferece a primeira instância dos dados. Como o foco aqui são dados relacionais, é preciso fazer um pedido na API também pelos atributos de conexão entre as páginas. Ou seja, a partir da lista inicial, seguimos como uma bola de neve coletando páginas relacionadas (na prática, são as páginas curtidas pela primeira) para depois solicitar todos os seus dados. No slide abaixo é possível ver como seria essa query.

A ferramenta que utilizamos para fazer essa coleta a partir da API no Facebook (e que também atua no Twitter) foi a Facepager. Com código aberto, foi programada em Python 2.7 e por isso possui alto grau de liberdade para os usuários operarem as requisições (além de introduzir conceitos importantes de data mining como query, data munging, data storage, log de processos, etc.). Por isso também é uma ferramenta bem “cascuda”, com uma interface não tão amigável que pode assustar quem não possui uma simpatia com processamentos de programação – para essas pessoas, a Netvizz pode ser uma boa opção. Para ARS, por exemplo, a Netvizz já dá o GDF pronto, enquanto na Facepager você que organiza as ligações entre as páginas (ver slide 46).

Para apresentar a ferramenta com cuidado, mostrando todas as suas funções e possibilidades, seria preciso outro post somente sobre ela. Para uma introdução básica, entretanto, compartilho abaixo um vídeo-tutorial que encontrei no YouTube que mostra algumas das suas funcionalidades básicas. O importante, entretanto, é compreender que – também a partir dessa ferramenta – há uma enorme possibilidades de diferentes níveis e tipos de dados a serem coletados através da API do Facebook. Para isso, faz-se necessário que pesquisadores – da academia ou do mercado – debrucem-se sobre a documentação disponibilizada pela plataforma, para tentar compreendê-la em sua plenitude.

Por fim, gostaria de agradecer formalmente ao Marcelo por poder participar do curso (visto que eu era o único graduando – nem graduado! – ali). Tenho bastante interesse em ampliar meus conhecimentos acadêmicos sobre métodos de pesquisa digitais e fiz este post menos como uma resenha ou revisão do conteúdo, mas mais como forma de expandir a divulgação de uma bibliografia que pode chegar a mais e mais pessoas que podem tê-la como útil. No mais (e para finalizar), reforço que tanto na teoria quanto nas técnicas a academia têm muito a oferecer ao mercado.

Referências bibliográficas

Em: ALVES, Marcelo. #VEM Coleta de dados relacionais. Slideshare, 2017.

SILVA, Tarcízio; STABILE, Max (Orgs.). Monitoramento e pesquisa em mídias sociais: metodologias, aplicações e inovações. São Paulo: Uva Limão, 2016.

O perigo de uma única mídia

Você provavelmente já se deparou com a palestra “The danger of a single story” (O perigo de uma única história) da Chimamanda Ngozi Adichie alguma vez. Talvez na faculdade, numa corrente de e-mail, no Whatsapp ou no próprio Facebook. E não é para menos: gravado em 2009, a palestra é uma aula sobre racismo estrutural, poder simbólico, representação e identidade. Dito isso, é com bastante peso na consciência – mas também com responsabilidade -que recorro a essa expressão para discutirmos sobre um perigo que já se instaurou e não tem previsão de recuar: o monopólio do Facebook no “mercado” de social media.

Não é de hoje que estudiosos e profissionais do mundo inteiro têm se preocupado com a popularidade do Facebook nos últimos anos. O próprio “pai da web”, Tim Berners-Lee, já criticou a plataforma de Mark Zuckerberg diversas vezes – veja aqui, aqui e aqui, para citar algumas. Sua principal crítica ao site de rede social é que há um esforço contínuo da empresa em – de forma simples – dominar a internet. Sua missão de “dar às pessoas o poder de compartilhar e fazer o mundo mais aberto e conectado” é uma falácia, já que seus últimos esforços enquanto negócio têm sido fechar (em todos os sentidos) a plataforma tanto para usuários continuarem em seu domínio quanto para pesquisadores e profissionais que poderiam usufruir de seus dados mas são barrados devido a interesses de negócios.

“We’ve had a year now in which the internet is regarded with a sort of weary cynicism by a lot of people, because Facebook are just locking you in, and others are using your data without you knowing it. Some people are enthusiastic about that, because they get really good services and they love it, but quite a lot of other people are either quite doubtful or outright sceptical”. – Trecho de matéria do The Guardian sobre mudanças na web

Seguindo para o cenário de quem trabalho com/nas mídias sociais, em 2014 Tarcízio Silva publicou em seu blog o texto “10 anos de Facebook, um ponto obrigatório de passagem” – que desencadeou ainda o ótimo “Sensores Humanos: 250 milhões de motivos para promover o Twitter” e foi compulsoriamente relembrado no “Mudanças no monitoramento de Facebook: prepare-se!”. O título surgiu de um pensamento do autor Bruno Latour que resume bem o que tem acontecido com a plataforma nos últimos anos: “podemos tentar nos tornar tão indispensáveis que ninguém pode agir sem nós, criando um monopólio sobre certo tipo de força. Se sucedermos nesta estratégia, nos tornamos um ‘ponto obrigatório de passagem’, um porto compulsório onde todos são forçados a negociar”.

Como já mencionei anteriormente, esse debate sobre a influência do Facebook já está sendo feito há pelo menos alguns anos em determinados campos. Na academia, pesquisadores do mundo inteiro têm discutido sobre as dificuldades – e os perigos – da concentração de dados na mão de uma corporação tão poderosa. No jornalismo e na política, a recente eleição de Donald Trump nos Estados Unidos jogou a luz sobre alguns “problemas” de negligência da plataforma quanto a usuários fascistas e principalmente quanto a proliferação de notícias falsas que dominaram os newsfeeds de usuários norte-americanos durante todo o período de campanha eleitoral no último ano. São vários problemas, entretanto, reforço que meu foco aqui é levantar questões quanto à publicidade no Facebook.

Para tal, é importante recapitular rapidamente o histórico da compra de mídia na plataforma nos últimos seis anos – quando o site de Zuckerberg superou o Orkut pela primeira vez e as pessoas começaram a migrar aos poucos para esse novo site de rede social. No início, tudo eram flores: as marcas postavam de tudo e os usuários recebiam de tudo. Iniciou-se uma corrida para, então, tornar-se a marca mais “curtida” dos usuários. Era importante montar uma base de fãs grande para que suas publicações chegassem ao maior número de pessoas possível. Foi também nesse momento que surgiram (pelo menos no Brasil) a necessidade de mensurar tudo. Se está no digital, é número e pode ser contabilizado. E a principal métrica era simples: seguidores.

Alguns anos depois, com um mercado mais maduro e já de olho em outras métricas mais importantes, o Facebook resolveu destruir todo o “império” que algumas páginas tinham criado quando anunciou a diminuição do alcance orgânico. A justificativa fazia sentido: com uma população de usuários cada vez maior, era impossível entregar todas as publicações (que eram feitas tanto por marcas quanto por amigos) a todos os usuários. Era também uma desculpa favorável à plataforma, que precisava – como qualquer outra empresa – aumentar seu faturamento como umas das principais mídias digitais da Internet. Desde então, reservar parte da verba para patrocinar posts no Facebook deixou de ser luxo para ser pré-requisito.

Uma pesquisa da IAB Brasil em parceria com a ComScore revelou que a previsão de investimento em mídia online para 2016 seria de 10,4 bilhões de reais – sendo a maioria para search, seguido de display + social ads e vídeo. Outra pesquisa, realizada pela agência Zenith nos Estados Unidos, mostrou que o Google já recebe o título de campeão de investimento em mídia, com o Facebook ocupando a quinta posição. Isso tudo serve para ilustrar que o investimento em mídia online não é uma novidade e não deve parar de crescer. O problema que eu quero apontar aqui é a centralidade, principalmente no Brasil devido à explosão de pequenas e médias empresas na última década, que o Facebook tem tido enquanto plataforma de mídia publicitária. Mas qual é o problema?

São tantos erros da plataforma que há uma página inteira no reddit chamada “AntiFacebook” dedicada a denunciar todo o mal que a plataforma causa não apenas aos profissionais que trabalham com ela, mas à sociedade como um todo. Esses “erros” são frutos de uma dominância e influência digital de um verdadeiro gigante que não precisa dar satisfação a ninguém. Eles têm os usuários e as marcas precisam chegar neles, ou seja, resta pagar para isso. Enquanto isso, ficamos à mercê de suas jogadas – como disse o professor de marketing da NYU e fundador da L2 Inc, Scott Galloway, comentando uma das “falhas” do Facebook em erros de métricas, “if your mistakes are consistently in your favor, then they aren’t mistakes… they’re lies”.

Mas o cenário daqui em diante é otimista: em novembro do ano passado o Facebook anunciou (finalmente, depois de pelo menos 3 anos de investimento pesado) a abertura de seus dados para auditoria. Essa transparência que Zuckerberg prometeu aos anunciantes já é uma das maiores expectativas – e cobranças – para todo o contexto de marketing digital daqui pra frente. Como pontuou Marcos Malagris (Coca-Cola) no material “Tendências em digital e social media para 2017” do Quero Ser Social Media, “será um ano de questionamentos necessários para a evolução do nosso mercado”. Seguindo o mesmo raciocínio, Gabriel Ishida (Pernod Ricard) também prevê um mercado mais exigente:

“No nosso mercado de dados, creio que a principal tendência seja a maior cobrança e fiscalização dos anunciantes com as ferramentas de mensuração, incluindo mídias sociais proprietárias de dados, como o Facebook. Já vimos que muitas grandes marcas pressionam o Facebook por mais transparência dos dados e, principalmente, maior precisão, resultando em várias correções e anúncios por parte da rede.”

É extremamente importante que essa iniciativa de pressionar a plataforma tenha partido de grandes anunciantes – afinal, para uma empresa tão grande como o Facebook, as pequenas e médias empresas (em volume) são quem pagam as contas mas ninguém se importa com seus interesses (a não ser que sejam lucráveis). A maior dificuldade está em justamente apresentar a esses anunciantes uma possibilidade de investimento que não seja único ao site de Zuckerberg, que encontre – mesmo fora dos esforços de mídia – outras possibilidades de criar um ambiente de encontro com seus consumidores de uma maneira talvez não tão “empurrada” quanto a compra de publicidade online.

Levar as pessoas para fora do Facebook não pode ser uma tarefa das empresas, não é assim que funciona. Por isso esse texto abordou tanto questões para além do mercado, uma vez que a ameaça do Facebook é um dano muito maior à sociedade de usuários da internet do que às marcas em si. O que estas têm sofrido, no entanto, é – para além da necessidade de estar presente nesse ambiente digital tão populoso – consequência de uma “má acostumação” que depositou na plataforma sua mais propícia (e talvez única) forma de encontrar seus consumidores. Enquanto a Internet ainda for maior que o Facebook, há espaço para jogadas mais criativas e inteligentes.

E eu não estou falando de outras plataformas das quais a empresa também possui, como Instagram e Whatsapp. A primeira, aliás, que não tem medido esforços para descaradamente copiar diversas funções do Snapchat – e ainda sair triunfante, com uma vata gama de usuários deixando o fantasminha para retornar aos domínios de Zuckerberg. Particularmente fico perplexo com tamanha cara de pau e ainda fico triste por estarem conseguindo justamente o que eles querem: uma internet dominada pela própria corporação. Quem não gostar (ou não abaixar a cabeça, como fez o Snapchat), vai acabar sofrendo. Enquanto isso, só não têm forças para bater no Google.

Não sei qual é a solução, mas deve haver um caminho. Enquanto isso, o maior problema permanece: continuamos reféns do Facebook. Reféns de sua boa vontade, de sua honestidade, de seu compromisso com anunciantes e com a sociedade, do seu jogo para tornar seu nome um sinônimo da própria internet. Nesse cenário, o futuro não é próspero. Continuamos reféns de uma única mídia cada vez mais poderosa. Com tanto poder (e dados) nas mãos, não se assustem com um Mark Zuckerberg completando a profecia de George Orwell de fato em 2020.

Leituras da semana: planejamento, os problemas do Facebook e inspirações para social media

Antes de tudo, um aviso: já desisti de fazer o post com as leituras da semana no domingo. Ninguém quer trabalhar ou muito menos ler sobre o trabalho (mesmo que seja de interesse) num domingo. Ou seja, declaro aqui oficialmente que o novo dia do lançamento da coluna é às segundas-feiras (pra começar a semana antenada/o!) – o que não quer dizer que, por motivos maiores a mim, eu não atrase um dia (e já peço desculpas por todas as vezes que isso acontecer no futuro). No mais, vamos às leituras porque esta semana tem muita coisa boa e interessante!


Sobre planejamento

O Quero Ser Social Media agora está com um blog ativo! Ou seja, todos aqueles profissionais incríveis que ministram alguns dos cursos mais desejados da área de social media agora também compartilharão conhecimento através de blog posts. Para começar, separei três textos sobre planejamento (um assunto que já me interessava muito antes dessas leituras e que só aumentaram a minha simpatia pela função), provavelmente produzidos pela fantástica Dani Rodrigues. Destaco essa frase que me chamou atenção em um deles (mas recomendo a leitura todos!):

“Construa cenários e enredos para que seu consumidor tenha experiências e, então, ele mesmo falará o quão sua marca ou serviço é incrível.”


How to use social media at every stage of the sales funnel – por Rohan Ayyar, no Search Engine Watch

Todas as vezes que eu li sobre o funil de vendas em e-books ou leituras da semana, o tema principal era sempre inbound marketing (ou marketing de conteúdo, geralmente associado a e-mail/automação). Nesse texto, o autor propõe – no lugar do funil – uma escada rolante para pensar os estágios da venda em social media, na ordem: conhecimento, familiaridade, consideração, compra e lealdade – apresentando dicas de ações a serem executadas em cada um deles.

“If you want to know how engaged your audience is, you need to drill down deep into your social as well as web analytics. A tool that combines social media management and monitoring, such as Oktopost, can help you stay on top of customer conversations and get insights on their pains and pleasures. You can then respond to them in real-time.”


5 maneiras inteligentes de criar um conteúdo que vai muito além do básico – no Scup Ideas

Ainda na função de criação de conteúdo, temos este post bem legal do Scup. Trata-se de um resumo de um guia de marketing de conteúdo produzido pela Sprinklr, um whitepaper que traz conselhos de alguns grandes profissionais de marketing digital, onde eles dão algumas dicas inspiradoras para o tipo de conteúdo que deve ser produzido para o trabalho de social media.

“Para ser interessante, uma marca precisa criar um conteúdo que seja 100% para o público. Tire a marca da história. Transforme o cliente em herói e seu público prestará atenção. Valor não é negociável no cenário atual de informações supercompetitivas.”


[Opinião] Os perigos do “melhor horário para postagem” – por Amir Faria, no analise.digital

E já que estamos falando do trabalho e da criação em social media, vamos conversar sobre esse mito? Quando comecei a me interessar por social media e pesquisei superficialmente sobre assunto, encontrei diversos posts e estudos sobre os melhores horários para postagem. No entanto, no primeiro curso de métricas que fiz, já caí na real e percebi que isso (assim como tudo ou quase tudo em mídias sociais para empresas) é relativo. O mais legal desse texto é que o autor se preocupa em apontar pesquisas, citar profissionais relevantes e fazer análises comparativas – trabalhando menos no “achismo” e mais na realidade através dos dados.

“Mesmo que uma pesquisa seja feita estudando diversos segmentos de páginas ou perfis das redes sociais, ao se isolar um único segmento é possível detectar um padrão diferente de um padrão que existe no contexto global. E mesmo dentro de um único segmento, empresas podem ter um desempenho diferente com clientes semelhantes. Algumas podem entender o cenário que atuam e podem decidir não confrontar seus concorrentes nos mesmos horários.”

 


(Alguns d)Os (vários) problemas do Facebook

O império de Mark Zuckerberg quase nunca fica de fora dos assuntos abordados na leitura da semana justamente porque é um império – atualmente, pra falar sobre internet, precisamos falar sobre ele. Acontece que o Facebook é uma plataforma/site de rede social bem problemática, tanto para usuários quanto para as empresa/marcas/negócios. No entanto, como as pessoas permanecem lá, os anunciantes não têm outra opção senão se render ao jogo do gigante das redes. Mas e se alguns problemas surgissem e começassem a incomodar de verdade – e, para as empresas, “de verdade” significa monetariamente – os criadores de conteúdo? Duas das novidades da empresa – o Instant Articles e o investimento (intenso) em vídeos – têm criado certo incômodo para publishers, anunciantes e criadores de conteúdo. Confira nas leituras que separei abaixo:


Dados fora da caixa: menos pesquisas W.E.I.R.D., mais abrangência em Business Intelligence – por Juliana Freitas, no Dataísmo

Tem alguns textos que servem para a sua educação profissional (com informações úteis que te acrescentam habilidades específicas) e tem outros que são aprendizados de vivência, que acrescenta à sua visão de mundo. No meio desse Diagrama de Venn, está a nova publicação do Dataísmo. Retoma também um aprendizado das leituras sobre planejamento: não vá atrás de respostas que você deseja encontrar, mas aprenda a tirar o melhor proveito do que aparece nos seus resultados.

“Ok. A expressão “fora da caixa” surgiu há mais de 20 anos e hoje em dia não podemos dizer que este mote é “fora da caixa”, pois já tornou-se clichê e… resumido, inclusive. Atualmente, é usada frequentemente no marketing e na publicidade. Mas qual, realmente, a sua aplicação? Quantas campanhas e pesquisas podemos listar que possuem dados sobre as pessoas fora do eixo W.E.I.R.D., mas que são atuantes na sociedade, mas nem sempre possuem visibilidade?”


Como ir além da ferramenta de monitoramento – no Quero Ser Social Media

Como avisei lá no início, o QSSM agora está com um blog ativo – que já tem alguns textos bem interessantes sobre monitoramento, métricas e planejamento. Nesta publicação, são apresentadas algumas opções de análise de sentimento da marca que não podem ser feitas através das ferramentas, já que o trabalho é feito em locais mais “privados” ou onde as ferramentas não são capazes de fazer coleta. São pequenas dicas que podem fazer muita diferença.

“Devemos ter em mente que a ferramenta de monitoramento não pode ser considerada a única fonte de informação das mídias sociais. Há muitos dados que, além de não serem coletados pelas ferramentas, devem ser incluídos na análise e serem explorados de forma manual. Entretanto, deve-se lembrar que essas buscas manuais devem ser vistas como recursos qualitativos, ou seja, de verificar o teor dos assuntos e não quantificá-los.”


5 Tips For Reporting to Your Boss – por Willian Miller, no Socialbakers

E já que estamos falando sobre monitoramento e dicas práticas, aqui está um post bem bacana do Socialbakers de como fazer um bom relatório (para apresentar ao chefe). Vale lembrar que não há uma fórmula padrão para todas as empresas e/ou ferramentas, por isso todas as dicas distribuídas por grandes profissionais – ver também este post do QSSM – devem ser levadas em consideração por quem deseja melhorar seu desempenho.

“Speaking of realistic goals, looking at your own results in a vacuum on social won’t tell you much. Sure, you can (and should) compare your current results with past results, in order to evaluate your progress. But to objectively evaluate your activities, it is necessary to compare your results with competitors. The best way how to set realistic goals is to benchmark your performance against industry averages and competitors.”


“Da procura à compra”: por uma jornada de compra com menos “ruídos”

Destoando um pouco dos outros assuntos da semana, trago aqui dois textos ainda muito úteis para quem trabalha com marketing digital (principalmente com e-commerce). No primeiro, o autor analisa o desempenho da empresa Lowe (uma grande varejista norte-americana de produtos para casa) numa jornada de compra online – desde a busca (SEO) até a compra (landing page e checkout). Já o segundo faz uma análise mais abrangente de diferentes páginas de e-commerce, ilustrando exemplos e indicando quais seriam os melhores caminhos a se traçar para obter um melhor resultado de conversão.


Quer tirar seu email marketing do SPAM? – por Ricardo Fernandes, no Publicitários Social Club

Pra finalizar, um resumão do que aconteceu na Email Marketing Summit, realizada pela Media Education no início do mês. Na publicação, o autor compila algumas dicas-base do que foi passado durante a conferência por alguns especialistas em métricas, construção e design sobre algumas das tendências e novidades para a prática de e-mail marketing.

“A ideia é: email-marketing é uma das estratégias que oferece o melhor ROI (Return on Investment) pelo seu potencial de alcance e customização e pelo seu baixo custo. Mas sem mensuração e análise dos resultados, a estratégia vai por água abaixo. Sem análise, não há como identificar os KPIs na sua campanha. Nem como conhecer o que funciona ou não para o seu público (para poder investir naquilo que dá certo). A reputação, então, vai por água abaixo. E o ROI, claro, vai junto. Não caia nessa: invista em análises aprofundadas das suas campanhas – e de forma sistêmica, o que é ainda mais importante.”

Leituras da semana: monitoramento, dados e classificação de sentimentos

Antes tarde do que nunca. Depois de duas semanas sem atualizações, retomo aqui as minhas leituras semanais. Por motivos pessoais (viagem e faculdade), acabei não divulgando as leituras das últimas semanas, o que também significa que acumulei mais 100 textos na conta (acho que já são mais de 300 no Pocket). Este é um problema que vivo me questionando: como tirar o atraso/se manter em dia com um mercado que está em constante mudança? Mas essa reflexão fica para outro momento. Por ora, compartilho aqui alguns textos inteligentes com os quais me deparei no último mês.


Pirâmide de Awareness no monitoramento de redes sociais – Dataísmo

Para começar com o pé direito, um texto do Dataísmo – que nunca decepciona. Para falar de monitoramento, a autora explica conceitos importantes sobre a pirâmide de awareness e seus desdobramentos. Como sempre, a linguagem é de fácil compreensão e vários exemplos são dados para ilustrar ainda mais as ideias discutidas.

Por meio do monitoramento de redes sociais, podemos identificar o panorama da marca, observar quem fala sobre ela, traçar necessidades, pontos positivos e negativos. Isto pode ocorrer com o monitoramento do buzz (o que foi falado) de forma espontânea, sem citar os canais da marca diretamente; de forma direta, com os comentários e replies diretos à marca; ou até por meio do universo que compõe a marca (grupos ou comunidades que fazem parte do recorte desta marca nas redes sociais.


O monitoramento e seu potencial (muito) mal explorado – por Vinícius Padalino

Nesse artigo, publicado no (LinkedIn) Pulse, o autor aborda algumas questões interessantes sobre o monitoramento e, principalmente, o modo como ele é subestimado pelas empresas. É um texto curto, praticamente um desabafo, mas muito relevante para pensar para onde a publicidade e comunicação como um todo deve(ria) seguir.

Não existe mágica que faça com que o trabalho de monitoramento seja, de fato, relevante. Só existe inteligência efetiva quando há integração, planejamento, entendimento, contexto, equipes especializadas, metodologias muito bem estruturadas e definidas, ferramentas eficientes e muita pesquisa e estudo. Todos esses pilares sustentam um bom trabalho de monitoramento e garantem seu desenvolvimento e evolução. Porém, assim como no trabalho de qualquer outra área, esses pilares têm um custo. Ilude-se quem imagina que uma grande empresa pode fazer do monitoramento uma ferramenta estratégica do negócio contratando um analista inexperiente ou pagando cerca de R$ 5 mil a alguma consultoria especializada de baixo custo. Agências e consultorias de baixo custo são, sim, estratégicas, porém em contextos específicos e para clientes específicos, como empresas de pequeno porte. Precisamos parar de subvalorizar o monitoramento!


Ok, você tem um bando de dados do seu consumidor. O que fazer com ele? – no Innovation Insider

As pessoas deixam cada vez mais rastros pela internet. As empresas, na maioria das vezes, já têm esses dados. Para extrair algo positivo daqueles números, no entanto, é preciso entender como classificar/categorizar toda essa informação. Nesse artigo, são apresentadas algumas direções que podem ser seguidas.

Capturar e armazenar dados sobre seu target é uma tarefa de alguma complexidade, porque você pode, por exemplo, estar capturando dados inúteis ou de baixo valor. Você pode ainda estar armazenando-os de forma inconsistente e de baixa eficácia. E o pior de tudo: depois de capturar e armazenar você pode simplesmente usar esses dados de forma completamente equivocada, perdendo tempo, recursos e impactando de forma negativa toda a performance do seu negócio.


Por que o Brasil não consegue evoluir na cultura de dados? – por Gerson Ribeiro, no ProXXima

A cultura data-driven ainda tem muito o que evoluir no Brasil. Nesse artigo, o professor de marketing da ESPM discorre sobre algumas mudanças fundamentais que adotar esse método de trabalho podem agregar ao valores das empresas (ou agências de marketing).

Levando para nosso dia a dia do marketing esta cultura de “data driven marketing” (em português, “marketing guiado por dados”), faz toda a diferença, seja para as ações de marketing ou para a empresa como um todo. Uma empresa com cultura de métricas toma todas as suas decisões baseadas em números. E essa cultura vai do presidente para todos os departamentos.


AARRR: o funil é seu amigo – por Willian Sertorio, no Blog de AI

O Blog de AI sempre compartilha posts interessantes sobre métricas. Neste, o autor explica o conceito do funil AARRR. Vale para métricas mas também é um ótimo método para enxergar (e avaliar) o negócio da empresa como um todo.

Dave McLure, figura importante na cena de startups, criou um framework (estrutura) de métricas em meados de 2007. Este framework permite visualizar de maneira rápida os aspectos mais importantes do seu produto. Deu tão certo que hoje é a forma padrão com que startups e outros produtos digitais comunicam seus números.


How the USGS uses Twitter data to track earthquakes – no blog do Twitter

Ainda na #OperaçãoSalvemOTwitter, este artigo publicado no blog da empresa explica como U.S. Geological Survey passou a utilizar a plataforma para localizar e identificar terremotos nos Estados Unidos. Ou seja, de certa forma, a ferramenta já passou a ser utilidade pública para a sociedade norte-americana.

This Twitter activity wasn’t a big surprise to the USGS. The USGS National Earthquake Information Center (NEIC) processes about 2,000 realtime earthquake sensors, with the majority based in the United States. That leaves a lot of empty space in the world with no sensors. On the other hand, there are hundreds of millions of people using Twitter who can report earthquakes. At first, the USGS staff was a bit skeptical that Twitter could be used as a detection system for earthquakes – but when they looked into it, they were surprised at the effectiveness of Twitter data for detection.


Studying sentiment on Twitter is… complicated – Ana Canhoto

Um dos principais problemas no trabalho de monitoramento é o processo de classificação de sentimentos. Como geralmente o número de coleta de dados é muito alto, pesquisadores e profissionais do mercado optam por utilizar ferramentas que automatizem esse processo. Nesse artigo, criado a partir de um estudo, a autora explica como essa questão é problemática e o que é possível fazer para driblar essa questão.

Despite its promise and popularity, the sentiment analysis of social media conversations is neither a simple nor a straightforward process. Yuvraj Padmanabhan and I investigated the vulnerabilities present in processing and analysing Twitter data concerning consumers’ sentiment towards coffee. Our study, which has just been published in the Journal of Marketing Management, showed low levels of agreement between manual and automated analysis.


Classificando comportamento em relação a marcas usando a lógica do RPG – por Dennis Altermann, no Midiatismo

Ainda na problemática da classificação, esse artigo propõe uma solução que pode aprimorar o trabalho: utilizar a lógica do jogo Dungeons & Dragons. É uma leitura interessante porque, embora utilize algo inusitado como referência, tudo parece fazer sentido ao pensar monitoramento de mídia própria.

Na minha perspectiva, classificar uma menção a sua empresa dentro da internet apenas como positivas, negativas ou neutras é muito simplório perto do espectro imenso de emoções humanas. Mesmo utilizando a lógica do alinhamento do Dungeos & Dragons, talvez ainda não seja o suficiente. Mas já que vamos precisar categorizar, de alguma forma, e essa é a minha sugestão para melhores interações.


Pequenos budgets, muito trabalho e grandes resultados – por Ana Flávia Lacchia, no Blog Mídia 8!

Esse texto é para o profissional que cansou das garras das grandes empresas e/ou das grandes agências. Com um relato pessoal, a autora conta como tem sido enfrentar os problemas que surgem ao trabalhar como freelancer ou com uma empresa própria.

Trabalhando com empresas grandes aprende-se muito sobre o que fazer e o que não fazer, mas trabalhando com as pequenas é que se vence os maiores desafios. E quando eu falo em pequenas, não se trata de número de funcionários ou de relevância, mas sim de budget − se você trabalha na área, principalmente em mídias sociais, vê a realidade nua e crua de gigantes do mercado que têm somente algumas moedas para investir nesses canais.


10 ways your business is wasting time on Facebook – no Blog do Hootsuite

Já que estamos falando de pequenas “eu-agências”, esse post do Hootsuite levanta alguns pontos importantes que valem a pena serem repensados para o trabalho (ou a perda de tempo do trabalho) no Facebook.

Content creation is time-consuming, and you don’t want those hours of hard work to go to waste. If you’ve been wondering about the reason for that drastic dip in your business’s organic reach, you probably haven’t heard our calls to halt the creation of overly promotional content. Facebook has been encouraging content creators on the network to replace the straight-up promo material with stories that add value or provide more history for your business’s products and services. These kinds of posts have a higher likelihood to be seen by bigger audiences.


Bônus: O Banco do Facebook – por Justin Mauldin, traduzido por Rafa Spoladore

Esse texto talvez fuja um pouco do assunto do blog, no entanto, ainda fala sobre o Facebook. É um pouco antigo (de junho) e, à época, viralizou dentro de certos nichos – mas eu só tive a oportunidade de ler nos últimos dias. Nele, o autor reflete sobre quais mudanças reais (financeiras) o site de Mark Zuckerberg poderia aplicar no mundo quando disponibilizar a troca de dinheiro em todos os países. No entanto, a autora vê essa possibilidade como uma grande salvação para pequenos empregados – e não é bem assim, né?

É fácil imaginar um mundo onde trabalhadores de países em desenvolvimento são pagos via pagamentos peer-to-peer e guardam seu dinheiro no Facebook, compram produtos locais usando transferências e podem pagar por itens usando o Facebook. O efeito que o Facebook poderá ter sobre o mundo como uma instituição financeira eletrônica não é nada menos do que profundo.

Leituras da semana: mídia programática, os desafios e as mudanças das mídias sociais

Aqui estou eu, novamente atrasado com as leituras da semana – mas peço um desconto, afinal, foi fim de semana de Rock In Rio. Também confesso que acumulei algumas leituras durante a semana, mas prometo que vou me empenhar pra apagar todas as “não lidas” do Pocket até o final de novembro (tem muito texto lá, acredite). Em tempo, compartilho todos os artigos, matérias e notícias que pude ler nos últimos nove (!) dias. Desta vez, são poucas as novidades mas muitas as análises sobre diversos fatores. Ao aprendizado!


Dicas para quem quer entrar no mercado de mídias sociais – por Gabriel Ishida

Sempre que encontro algum texto que aborde o início da carreira de quem quer entrar no mercado de mídias sociais eu faço questão de colocar em primeiro na lista – afinal, não há mais quem se identifique com eles do que eu (a persona ideal). Nesse texto do mestre Ishida publicado em 2013, ele dá algumas dicas para quem, assim como eu, deseja começar na área – em suma: movimente-se. Por ora, recomendo também esse texto do Publicitários S.C., que fala sobre influenciadores mas há como tirar bons conselhos para por em prática.

Fazer mil cursos não é diferencial. Habilidades técnicas e teóricas são, mas só as que interessam para cada vaga. Como saber o que é diferencial ou não? Entendendo as funções da vaga. Mas antes disso, vou dizer por que fazer mil cursos não é diferencial. Não adianta nada você fazer todos os cursos do mundo se você não botou o conhecimento que adquiriu em prática. É muito fácil você fazer um curso, não ter absorvido nada, pegar o certificado e colocar no currículo. Ou seja, cursos só melhoram o currículo se você comprova que aplicou o que aprendeu.

Mídia programática, por onde começar? – do Publicitários S.C.

Depois de ler esse texto, sinto que finalmente compreendi como funciona (por cima) todo o processo de mídia programática. Já havia lido alguns artigos e matéria sobre, mas nenhum conseguiu explicar tão bem quanto este. O vídeo em si, da IAB UK, já é bastante didático, mas o autor destrinchou cada parte e explicou deixando tudo ainda mais claro.

Com a proporção que a web vem tomando, e sua maior fragmentação, esse processo de compra em isolado já não é mais eficiente como antes e suficiente para as novas demandas de mercado. Assim, começaram a surgir as ad networks (vamos falar mais disso ali embaixo), empresas que agrupam sites, tornando a compra de mídia mais eficiente. As ad networks facilitaram e facilitam o processo de compra de mídia, mas ainda assim o alcance delas é limitado ao volume e conteúdo dos sites que fazem parte da sua rede.


O desafio do HTML5 e do ad-block

Pegando carona nesse assunto de mídia programática, trago aqui dois textos que abordam uma novidade que já é realidade: o fim dos anúncios em flash e o uso consequente da criação por HTML5, além da questão do adblock. Já li algumas coisas que falam sobre isso de forma separada, mas queria algum material que abordasse tudo isso no impacto do mercado de mídia programática. Afinal, se o ad-block é uma realidade cada vez maior, até quando as agências e anunciantes vão continuar contratando publishers?


A segunda tela que subiu no ranking

Os últimos dois fins de semana foram de Rock In Rio, e um estudo feito pelo Scup durante o período do festival confirmou que o assunto mais comentado dentre os dados coletados foi o Multishow – canal responsável pela transmissão do evento. O mesmo estudo ainda levantou quais artistas geraram mais conteúdo e quais marcas levaram a melhor com as suas ações. Mas o que mais me chamou atenção mesmo foi o destaque do Multishow, por isso voltei ao assunto da segunda tela com mais dois artigos interessantes sobre o tema – tendo ainda como exemplo o Masterchef – para refletir sobre a importância da conversa real time e da atuação das marcas dentro dela. E ainda teve o final da novela.


Está na hora de começar a separar o “bom” engajamento do “ótimo” – na A2ad

Este post da agência paulistana A2ad me chamou a atenção porque traz um debate que eu achei bastante pertinente e interessante: o peso a ser considerado na hora de mensurar o engajamento. Mas o que me incomodou foi o uso do termo “passivo”, no conceito de Tracey Parsons, da Social Media Explorar. Concordo com o que foi dito sobre a importância do compartilhamento e seu valor que deve ser respeitado, mas chamar de “passiva” a ação de curtir um post me parece equivocado por dois motivos: 1) às vezes, as pessoas curtem por curtir; às vezes, as pessoas curtem “com vontade” (e ainda deixam um comentário) – não acho que seja uma ação que tem menos valor na interação usuário/consumidor-marca, mas talvez no papel de advocacia; 2) atrelar o termo de “passivos” a uma ação feita por usuários que ditam por onde e como navegam na web, a meu ver, é complicado. Mas vale o debate!

Se você cria algo tão interessante a ponto de fazer seus fãs pensarem que os amigos deles PRECISAM ver aquilo também, significa que sua marca tornou-se realmente relevante. E se aquele post acabou gerando uma enxurrada de compartilhamentos, tome nota e tente produzir mais conteúdos com o mesmo modelo – você pode estar começando a dar à sua audiência exatamente o que ela quer.


Guia de Profissões: Community Manager – no tutato, do trampos

Um ano atrás, ainda não estava claro pra mim como estavam estruturadas as equipes de mídias sociais dentro das agências ou das empresas. Hoje, com o advento do blog, já compreendo como se diferem as funções de cada profissional. Nesse post do trampos, eles falam sobre a função do Community Manager,

É o CM quem gerencia, planeja, acompanha as execuções e os resultados do trabalho em mídias sociais. Para isso, precisa analisar a marca, as concorrentes, construir o brand persona, brand voice da marca e os pilares de conteúdo. No cotidiano, vai sugerir conteúdos (às vezes produzi-los) de acordo com o tom e voz determinados no planejamento.


Redes sociais terão papel de convencer, mas também de difamar nas próximas eleições – no Estado de Minas

Esse texto não é de nenhum blog ou site sobre mídias sociais/marketing (político), mas é muito interessante porque explora um ponto-cego da mensuração no digital: o Whatsapp. Quem não lembra dos vídeos, notícias e rumores propagados nas eleições de 2014 tanto sobre Dilma quanto sobre Aécio?

Enquanto o Facebook será usado nas campanhas municipais do ano que vem para promover a interação do candidato com os eleitores, debater, “convencer”, mobilizar e apresentar as plataformas políticas, o WhatsApp será muito empregado numa espécie de campanha “subterrânea”, para ataques aos adversários em vídeos, charges e textos. Essa plataforma também vai veicular mensagens “olho no olho” do candidato aos seus eleitores-participantes, que se encarregam de reproduzi-las em seus múltiplos grupos no WhatsApp, além de seu uso burocrático para a organização interna das campanhas, coordenação de apoiadores e de tarefas.


Portrait is the new square on Instagram – The Verge

Nos últimos meses, o Instagram anunciou algumas mudanças importantes na sua plataforma. A possibilidade de postar fotos no estilo paisagem e retrato é uma das novidades recentes do app, que dispensou o uso de outros aplicativos para conduzir esse estilo. Nesse texto, o autor explica o que talvez parece óbvio para muitos (e o que, talvez, poderia ser comprovado olhando as métricas): por que as fotos “grandes” funcionam melhor.

Portrait works on Instagram for the same reason that people enjoy seeing it in their phone’s camera roll — simply because it’s big. The effect is particularly dramatic on Instagram, because portrait photos appear in the same vertical line as skinny landscape shots. As you browse your feed, suddenly a huge image will begin to fill almost the entire screen. In many cases, it can make a photo far more awe-inspiring than a similar shot placed in any other crop. It’s gotten to the point where I’m getting upset when some photos aren’t posted in portrait.


10 anos de Facebook, um ponto obrigatório de passagem – por Tarcízio Silva

Nas últimas semanas o Facebook têm sofrido algumas instabilidades, chegando a ficar fora do ar por mais de meia hora em todo o mundo. Esse artigo pode dar uma noção do que isso significa. Mas aqui eu recomendo o texto do Tarcízio, escrito ainda no começo de 2014, sobre a hegemonia do Facebook quando se trata da conversa na internet. E é um assunto bem interessante que merece ser debatido, mas que passa despercebido na maioria das vezes. O problema não está em ser dependente da internet (a meu ver, a internet é apenas uma plataforma de conectar as pessoas – e esse instinto de interagir é intrínseco à natureza humana), mas ter uma ferramenta hegemônica para se fazer isso, ditando as regras conforme deseja. #TeamTwitter

Os aplicativos sociais, como o mercado de social games que movimentou alguns bilhões nos últimos anos, o newsfeed e sua circulação de informações baseadas em fluxo, os logins sociais e os botões likes trouxeram facilidades para usuários, desenvolvedores, jornalistas, gerentes de marketing e comércio eletrônico e até ativistas políticos. A facilidade construída pelo volume de dados e sua circulação pelos servidores do Facebook seduz os mais diferentes atores sociais: agir, expressar-se, conversar e vender não só são facilitados através do Facebook, como também suas manifestações neste site tornam-se quase que obrigatórias. Para muitos, a rede praticamente engoliu a web, tornando-se sinônimo desta. É uma espécie de simbiose fomentada pelo site de rede social, para seu próprio benefício.


“Inside Out” and social media listening? The role of emotions in identifying personas – por Tarcízio Silva

E pra fechar com chave de ouro, outro texto do Tarcízio. Segue aquela linha da importância de cruzar o trabalho das mídias sociais com outras áreas de educação – nesse caso, com psicologia. (Não consegui encontrar a versão em português, embora tenha quase certeza que ela foi feita na época de exibição do filme no Brasil, por isso compartilho a versão em inglês).

The emotions in the Pixar movie are very similar to the emotions proposed by the psychologist Paul Ekman in his book Emotions Revealed. Ekman not only proposes a consistent classifying scheme for emotions, but also how human beings express and perceive emotions, even through using visual and expressive references and examples. But, besides facial expressions and gestures, people give away emoti0ns in explicity or implicity way in their texts, opinions and comments. There is several methodologies to identify semantically loaded word, lemmas and phrases on texts.

Leituras da semana: o Masterchef, o Twitter, a empatia do Facebook e estudos de audiência

Com um pouco de atraso, divulgo mais uma vez as leituras da semana (passada). Novamente vários textos ricos e bem elaborados a minha atenção, além de novidades que reverberaram em diversos portais e blogs com análises densas ou simplesmente pontuais. Por exemplo, na semana passada, o assunto que todos comentavam (profissionais de Social Media e usuários do Twitter) era o Masterchef. Mas o Facebook também apresentou algumas novidades, a conferir.


Masterchef e o Twitter

Já está todo mundo sabendo: o reality-show transmitido às terças-feiras na Band foi um sucesso absoluto – não exatamente de audiência, mas de engajamento com o público através da segunda tela. É o tipo de case que vai servir para palestras por muitos anos pela frente, porque toda a estratégia pensada pela emissora em parceria com a empresa foi um sucesso bem pensado. Abaixo, selecionei alguns textos (e infográficos) que dissertam sobre a popularidade do programa e o papel da conversa em tempo real para alavancar a audiência:


O “não curtir” do Facebook

Outro que assunto que rendeu muita conversa e debate na semana passada foi o anúncio de Mark Zuckerberg durante uma transmissão ao vivo que apresentava uma das novas ferramentas do Facebook (livestreaming), quando falou sobre um possível botão “não curtir” para a plataforma. Os veículos de comunicação tradicionais foram rápidos a reportar a novidade, mas alguns blogs e canais de nicho compreenderam rapidamente que não era um botão dislike, mas um botão de empatia. Ainda há muito o que debater sobre essa novidade (que ainda nem foi apresentada), mas alguns textos interessantes já foram publicados:


Automação de marketing

Voltando à programação normal (mas nem tanto assim), a agência gaúcha Global AD, através de textos da Camila Benvegnu, fez uma série de posts durante a semana sobre processos de automação de marketing. São três textos curtos porém ricos e bastante explicativos, que falam um pouco sobre a jornada do cliente, o funil de vendas, geração de leads e mais um pouco.


Como descobrir: em quais horários as pessoas mais falam sobre minha marca (e concorrentes)? – no Social Figures

Quem começa no mercado de mídias sociais ouve muito falar sobre “os melhores horários para postar das redes sociais”, deparando-se com estudos, infográficos e mais que apresentam que horas se deve postar para ter o melhor desempenho. Nesse texto, são apresentados apenas três gráficos que quebram com essa ideia de horário nobre das redes sociais, argumentando que cada empresa deve analisar seu público e apresentando possibilidades de como tirar proveito desse conhecimento.

Não existe “horário nobre” nas mídias sociais. Claro que temos horários em que há um maior número de pessoas conectadas de modo geral, mas o diferencial das mídias sociais é que cada empresa pode analisar seu público de forma ultra-segmentada. Isto também vale para comportamentos relacionados a horários de uso, reclamações, comportamentos etc.


O papel das mídias sociais em pesquisas de mercado – por Gabriel Ishida, no Midializado

Nesse texto do mestre Ishida, ele mostra alguma das possibilidades de análise qualitativa e quantitativa do monitoramento de mídias sociais. São alguns dos aprendizados de anos de mercado e experiência com a área de pesquisa para negócios.

Primeiramente, notei que a principal função é mais qualitativa do que quantitativa, ou seja, as mídias sociais ajudam mais na exploração ou validação de hipóteses. Bom lembrar que o papel da pesquisa offline (entrevistas em profundidade, exploração em campo, grupos de foco, etc.) ainda é bastante importante para a área, mas as mídias sociais são outras importantes fontes de dados.


Facebook and Twitter User Behavior Changes: New Research – no Social Media Examiner

Nesse estudo da SME, eles mostram que os usuários das redes sociais estão usando as plataformas não apenas para se conectarem com amigos e família, mas também – principalmente para descobrir notícias. Algumas conclusões são já esperadas, mas é sempre rico ter o embasamento de dados para se argumentar sobre as mídias sociais.

1. Mais pessoas acham notícias no Facebook e Twitter

2. Twitter é a plataforma a seguir para plantão de notícias

3. Facebook é a fonte nº 1 de notícias para millennials

4. Repórteres contam com o Facebook e Twitter para visibilidade

5. Facebook e Twitter estão trabalhando em projetos relacionados a notícias


Como o design pode impulsionar publicações nas mídias sociais – da A2ad

Na semana passada eu divulguei aqui no blog uma matéria da Shutterstock mostrando como o uso responsável do design pode ajudar no planejamento e criação para as mídias sociais. Nesta semana, a agência paulistana A2ad fez um post semelhante e complementar, dando algumas dicas estratégicas para o design nas redes.

Com mais de duas bilhões de pessoas ativas nas redes sociais a cada dia, melhorar a forma como você usa elementos visuais é uma maneira eficiente de atrair novos clientes para o seu negócio. Lembre-se de sempre usar fontes e cores consistentes com sua marca e certifique-se que seu público irá reconhecê-lo imediatamente.


A explosão do conteúdo digital – no ProXXima

O marketing de conteúdo é uma performance que deve, ao passar dos anos, estar cada vez mais frequente nas atuações das empresas e agências em mídias sociais. Nesse texto, a diretora do Lomadee ratifica a importância da estratégia em prol do conteúdo para atrair clientes qualificados.

É preciso dar aos internautas motivos para comprarem os produtos das marcas. Para o comércio, o boca a boca, a credibilidade e a visibilidade são essenciais para o aumento de vendas. O conteúdo em blogs – seja via posts, reviews, vídeos ou podcasts – é a chave para aumentar o tráfego dessas marcas, além de ajudar a aumentar essas vendas graças à credibilidade do blogueiro.


Privacidade: uma bela oportunidade – por Patrícia Garrido, no IAB Brasil

O conteúdo desse artigo é menos assustador do que o título nos faz imaginar. Nele, a gerente de pesquisa de mercado da Microsoft explica como a mídia programática e uma boa estratégia no funil de vendas/jornada do consumidor pode trazer um fruto positivo tanto para as marcas quanto para os consumidores.

O digital como plataforma permite considerar o contexto de vida, interesse e interação do consumidor. Essa riqueza de entendimento significa possibilidade de maior pertinência no contato, mas também a possibilidade de estabelecer uma relacão mais respeitosa com benefício notório e moeda de troca. Por exemplo: eu não quero ser “perseguida” pela comunicação de uma marca com a qual não tenho afinidade. Isso parece invasão. Porém a situação é diferente se eu estou em um momento de entretenimento online e uma marca com a qual eu já me “relaciono”, me reconhece e oferece uma experiência diferenciada. Pode ser um conteúdo, serviço, uma recomendação ou mesmo oferta alinhada com meu perfil. Essa experiência parece bem menos invasiva e, aliás, tem grandes chances de ser positiva e se tornar parte de uma conversa, um comentário que pode acontecer no próprio ambiente digital ou não, mas que ainda assim pode influenciar outras pessoas.

Como se tornar um especialista em marketing digital; confira dicas de 3 profissionais – no Blog Mídia 8!

Por fim, esse artigo com Dennis Altermman (fundador e editor do blog Midiatismo), Edney Souza (curador no Social Media Week SP) e Felipe Spina (professor na Internet Innovation), no qual esses três profissionais de marketing digital apontam algumas dicas para se especializar na área.

InterNey: aprenda com quem já errou muito e entenda que não existem fórmulas, algo que deu muito certo para uma empresa pode dar muito errado para você e vice-versa. Entenda o contexto em que seu cliente se encontra e veja quais suas opções com os recursos disponíveis, aprenda a avaliar o custo benefício de cada opção e tome as decisões junto com eles. Mídias sociais ainda carecem de benchmarks e é difícil dizer que algo deu certo ou errado olhando do lado de fora, o verdadeiro impacto dos negócios são nas vendas, lembre-se disso.