Tag: pesquisa

O estado do social listening em 2022 (lá fora)

Uma das grandes perdas do mercado brasileiro de inteligência de mídias sociais nos últimos anos tem sido, sem dúvidas, a ausência de uma pesquisa que mapeie questões relevantes para profissionais, agências, clientes, ferramentas e todas as demais partes envolvidas. Lá fora, o The Social Intelligence Lab retomou este ano uma pesquisa sobre o estado do social listening que não acontecia desde 2019, antes da pandemia mudar pra sempre a nossa relação com a internet e com as marcas.

Apesar do crescimento do uso do social listening, ainda há muito que não sabemos sobre como as empresas estão utilizando-o e o impacto que ele tem em seus negócios. Esta pesquisa foi desenhada para compreender como a prática profissional de social data anlytics progrediu nos últimos três anos. Mais especificamente, queríamos descobrir os objetivos das empresas com dados de mídias sociais e até que ponto elas estão construindo uma estratégia de social listening ao redor deles. Dados de mídias sociais são utilizados de modo diferente a depender do nível de maturidade do social listening da empresa, desde extrair métricas de vaidade até definir casos de uso estratégicos e a longo prazo. Nós queríamos entender como os níveis de maturidade mudaram desde 2019.

p. 1

A pesquisa rodou entre março e abril de 2022, com mais de 350 profissionais de social intelligence respondendo ao questionário sobre suas práticas, desafios e opiniões para o futuro da indústria. Pessoas de diferentes países e em diferentes níveis de experiência dentro de marcas, agências e organizações participaram. Para qualificar as respostas, foram excluídas as de profissionais que trabalham em fornecedores de tecnologia (ferramentas, por exemplo), fechando 197 respondentes.

Sobre os respondentes:

  • 41% são da Europa, 30% dos Estados Unidos e 20% da Ásia;
  • Quase 50% dos respondentes trabalham para empresas com mais de 1.000 funcionários;
  • 46% são de empresas envolvidas nas seguintes indústrias: Research & Insight, Marketing & Advertising ou Technology;
  • 77% dos respondentes trabalham em empresas B2B;
  • 25% dos respondentes trabalham com dados de mídias sociais há mais de 10 anos, sendo 47% em cargos de Gerente, Diretor ou C-Level;
  • 61% dos respondentes trabalham em cargos de Research & Insight ou Social Listening/Intelligence (contra 32% de 2019)

Perguntas que a pesquisa endereça:

  • As empresas estão construindo ferramentas próprias ou estão utilizando tecnologias já existentes para coletar e analisar dados de mídias sociais?
  • Quanto de análise manual está sendo feita x depende de IA e outras tecnologias para fornecer insights?
  • Como os desafios do social listening evoluíram?
  • As empresas ainda consideram um desafio tecnológico, por exemplo, encontrar as ferramentas certas para fornecer os melhores insights?
  • Profissionais de social listening ainda têm dificuldade diante de líderes e organização para mostrar o valor do seu trabalho?

O relatório está dividido em capítulos: primeiro, uma carta da Dr. Jillian Ney (fundadora do The Social Intelligence Lab) falando sobre a pesquisa; depois, uma seção para a metodologia contendo informações importantes sobre o público que participou; em seguida, os capítulos com os resultados alternam-se com textos dos patrocinadores – os quais destaco os de Jeremy Hollow (Listen+Learn) e de Jack Cuyvers (Convosphere), que achei que trouxeram provocações e análises bem interessantes.

ESCOLHENDO AS FERRAMENTAS E TECNOLOGIAS CERTAS

Os primeiros resultados trazem informações sobre a relação entre os profissionais e as principais ferramentas de social listening que utilizam, além de possíveis tecnologias que também auxiliam o trabalho. É uma seção importante para as ferramentas lá de fora, visto que 90% disseram ter uma influência significativa ou a palavra final na compra dessas soluções tecnológicas – e a pesquisa indica que o investimento nessas ferramentas segue crescendo (33% gastam mais de 100K todo ano).

Um dos “problemas” que o relatório aponta é a utilização de mais de uma ferramenta pela mesma empresa/agência: em 2019, 85% dos respondentes investiam em mais de uma solução para dados de mídias sociais e 45% queria reduzir o número de fornecedores. Em 2022, 81% dos respondentes continuam utilizando mais de uma ferramenta, sendo a média 2 ou 3 a resposta mais popular (55%) dentre os respondentes – e mais de três a resposta mais comum para empresas enterprise.

QUAIS FERRAMENTAS DE DADOS DE MÍDIAS SOCIAIS VOCÊ UTILIZA REGULARMENTE?

  1. Sprinklr (47.4%)
  2. Brandwatch (39.9%)
  3. Talkwalker (15.9%)
  4. Netbase (11.7%)
  5. Audiense (10.7%)
  6. Meltwater (8.9%)
  7. Synthesio (7.5%)
  8. Ferramentas internas próprias (5.6%)
  9. Linkfluence (5.1%)
  10. Social Studio (4.7%)

Embora tenha sido citada como a ferramenta mais popular, quase sempre apareceu junto a outras ferramentas, enquanto Brandwatch, Talkwalker e Netbase foram as mais populares dentre aqueles que responderam apenas uma ferramenta: “Essa descoberta parece refletir o testemunho de que, embora empresas enterprise procurem soluções all-in-one, constantemente acreditam que o elemento de social listening de ‘social suites’ [como a Sprinklr] não são poderosos o suficiente para as suas necessidades”.

QUAIS AS CINCO FEATURES DE TECNOLOGIAS DE ANÁLISE DE MÍDIAS SOCIAIS MAIS IMPORTANTES?

  • Cobertura de fonte de dados (64.5%)
  • Qualidade e relevância dos dados (68.4%)
  • Segmentação e categorização de dados (42.6%)
  • Regiões geográficas e línguas (40%)
  • Filtragem e ordenação de dados (34.2%)
  • Análise de sentimento (31%)
  • Exportação de dados (30.3%)
  • Métricas rastreadas (30.3%)
  • Análise de audiência (29.7%)
  • Capacidades de aprendizado de máquina / inteligência artificial (24.5%)
  • Preço (19.4%)
  • Integrações de API (14.8%)
  • Alertas e notificações (12.9%)
  • Compartilhamento de dashboards (11%)
  • Atendimento e gestão de conta (10.3%)
  • Relatórios automáticos (9.7%)
  • Importação dos dados (4.5%)
  • Análise de emoções (5.8%)

Algumas das primeiras respostas das funcionalidades mais importantes das ferramentas apontam para uma limitação intrínseca ao social listening: nós dependemos das APIs das mídias sociais. Isso afeta tanto a cobertura quanto a “qualidade e relevância dos dados”, diretamente ligada ao listening enquanto metodologia de pesquisa. Por isso as respostas abertas citavam a ausência de coleta de plataformas importantes (LinkedIn, TikTok, Quora) e categorização por geografia.

Finalizando esta seção, o relatório ainda revelou que 37% dos respondentes pretendem investir mais em novas tecnologias de análise de dados de mídias sociais (contra 8% em 2019) e 36% pretendem desenvolver uma atuação ou um centro de excelência de social listening centralizada/o (contra 17% em 2019): “Esses resultados sugerem que, desde a última pesquisa, mais empresas investiram em funcionários in-house e agora estão começando a levar análise de dados de mídias sociais mais a sério”.

TRABALHANDO COM DADOS DE MÍDIAS SOCIAIS E DA INTERNET

Há várias fontes de dados de mídias sociais diferentes, mas nem todas serão relevantes para o problema que você está tentando resolver. Se você conseguir entender as diferentes característica de cada fonte, e os potenciais insights que elas guardam, você pode reduzir a quantidade de dados que você precisa. E é isso que as empresas que possuem uma prática mais madura de social listening compreendem. Quando analisamos as fontes de dados mais importantes para profissionais de social intelligence, nós descobrimos que fóruns, sites de review e dados de busca apareceram no top5, atrás do Twitter e Instagram […]. Essa variedade sugere que profissionais de social listening estão caminhando para além de monitorar apenas canais proprietários das marcas nos maiores sites de redes sociais. Em vez disso, estão ampliando suas visões para canais onde consumidores estão tendo conversações que não são necessariamente sobre as marcas. Isso mostra um nível maior de maturidade na prática de social intelligence.

p. 11

O segundo capítulo de resultados começa com uma aspas fortes, as quais fiz questão de sublinhar aqui. Ao mesmo tempo que, de certo modo, endereça alguns dos problemas ou das limitações citadas para as próprias ferramentas de listening, também aponta para um caminho que a grande maioria das empresas brasileiras não percorrem. Aqui, entretanto, é importante relembrar que a maioria dos respondentes trabalham com pesquisa, o que pode justificar alguns dos resultados nesta e na próxima seção.

Em resumo, continua a abordar as problemáticas já listada nas limitações: fonte e qualidade dos dados. Twitter aparece como plataforma mais importante (talvez pela facilidade da coleta via API), seguida do Instagram e de fóruns – algo não muito comum no Brasil. Outro ponto não tão comum (até onde eu sei) para os brasileiros é justamente a questão da qualidade dos dados e toda a discussão sobre a limpeza da coleta (manual ou com queries) – algo citado como um dos principais desafios para os respondentes.

O quão importante são as seguintes fontes de dados em termos de relevância para a sua organização

O fantasma do fechamento das APIs também marca presença no relatório: 56% dos respondentes estão preocupados em não conseguirem mais acesso às fontes de dados de mídias sociais no futuro. Conectando isso com as respostas da plataformas mais relevantes e o fato da maioria dos respondentes trabalharem com pesquisa, compreende-se a alternativa por dados de fóruns, sites de review e dados de busca – por isso, também, a discussão sobre qualidade e limpeza dos dados.

Os resultados da pergunta sobre a junção dos dados de mídias sociais com outros dados é interessante porque bagunça um pouco essa constatação do público ser de pesquisa: web analytics aparece em 2º, enquanto transcrições de focus group e entrevistas estão na lanterna. Por outro lado, dados de pesquisa aparece como a opção preferida, o que faz sentido e aponta também em direção a compreender o comportamento dos usuários na internet.

Você mistura dados de mídias sociais com alguma outra fonte de dados alternativa?

A seção termina com uma importante discussão sobre ética e privacidade, além de uma breve citação a bots e mis/dis-information. “Ao observarmos como os respondentes descrevem os passos que tomam para cumprir com privacidade e ética, há um pouco mais de foco em cumprir com regulações de privacidade do que garantir práticas éticas”, constata. “Isso destaca a falta de guias formais para a indústria de social listening quando se trata de trabalhar com dados”.

A maioria dos respondentes coloca na conta das ferramentas essa preocupação, acreditando que são elas que deveriam se responsabilizar por seguir as normas regulatórias e termos de serviço da própria plataforma. Assim como (eu acredito que) no Brasil, alguns profissionais reconhecem que isso é algo no qual precisam trabalhar, mas possuem limitações de orçamento e tempo para lidar da forma correta – tanto do ponto de vista ético quanto legal, é bom diferenciar.

DESENVOLVENDO PROCESSOS E METODOLOGIAS PARA SOCIAL LISTENING

O terceiro capítulo é um dos mais interessantes, pois apresenta os “casos de uso” mais comuns do social listening. Esta talvez seja uma das maiores dificuldades que ferramentas e profissionais – também aqui no Brasil – possuem no sentido de resumir para que o listening serve, o que ajudaria muito a consolidar melhor a prática. No relatório, por exemplo, alguns desses objetivos/casos são mais amplos (posicionamento e estratégia de marca), outros mais específicos (monitoramento de saúde da marca).

Ainda que essa falta de direcionamento complique um pouco, identifiquei cada objetivo em torno de quatro grandes pilares: branding, indústria, consumidor e mensuração. Em branding estaria o mais comum, desde a famosa saúde da marca, passando por gestão de crise até identificação de temas/influenciadores; em indústria, são objetivos mais amplos, possivelmente de negócios; consumidor seria pensando naquele que é diferente do usuário; e, mensuração, a parte de performance/métricas.

QUAIS SÃO OS SEUS OBJETIVOS PRIMÁRIOS AO ANALISAR DADOS DE MÍDIAS SOCIAIS?

  • Posicionamento e estratégia de marca 51% [BRANDING]
  • Atitudes e opiniões 47.7% [BRANDING]
  • Inteligência competitiva 43.9% [MENSURAÇÃO]
  • Monitoramento de saúde da marca 39.4% [BRANDING]
  • Identificação de tendências dos consumidores 32.9% [INDÚSTRIA]
  • Desenvolvimento de serviço ou produto 29.7% [INDÚSTRIA]
  • Experiência ou jornada do consumidor 27.7% [CONSUMIDOR]
  • Relatório de marca 26.5% [BRANDING]
  • Interesses e afinidades do consumidor 25.8% [CONSUMIDOR]
  • Satisfação ou lealdade de clientes 24.5% [CONSUMIDOR]
  • Posicionamento e estratégia de marketing 18.1% [BRANDING]
  • Segmentação, tamanho e oportunidades de mercado 16.1% [INDÚSTRIA]
  • Gerenciamento de crise 16.1% [BRANDING]
  • Comportamento de compra do consumidor 14.2% [CONSUMIDOR]
  • Pesquisa de publicidade ou de mídia 13.5% [MENSURAÇÃO]
  • Mensuração de performance de conteúdo de mídias sociais 12.9% [MENSURAÇÃO]
  • Mensuração de performance de campanhas 11.6% [MENSURAÇÃO]
  • Seleção de temas e tópicos de conteúdo 9.7% [BRANDING]
  • Seleção de influenciadores 9% [BRANDING]
Objetivos mais comuns por “disciplina”

A quebra por “disciplina” (talvez departamento seria uma palavra mais apropriada) foi feita em dois momentos: para mostrar os objetivos mais comuns e a periodicidade das entregas. No primeiro caso, o destaque está nos outliers: desenvolvimento de produto/serviço aparece apenas em Brand e Data & Analytics; enquanto identificação de tendências dos consumidores aparece apenas em Research & Insight e Social Listening/Intelligence; já gerenciamento de crise só aparece em Brand e CX.

Essa quebra também revelou que todas as “disciplinas” possuem projetos ad-hoc como mais comum (exceto Data & Analytics), seguido de relatoria frequente a longo prazo. Mais uma vez, essa predominância de projetos ad-hoc (pontuais) talvez seja um sinal do perfil dos respondentes, visto que o mais comum no Brasil é, independente do departamento, a relatoria constante. Ainda assim, é difícil de ter essa visão geral pois a quebra por agência/marca também pode afetar nessas realidades.

Atividades nas quais gastam mais tempo

Outro ponto levantado nesta seção diz respeito ao processo de listening enquanto metodologia. Sobre isso, um dos respondentes cirurgicamente respondeu: “alinhar objetivos com o cliente, rodar a query [de busca] preliminar, revisar posts, revisar query se necessário, ler posts, categorizar posts, analisar dados categorizados, desenvolver uma narrativa, relatar e apresentar”. Aqui, assim como na respostas do gráfico sobre tempo por atividade, ficar mais uma vez evidente o perfil de pesquisa dos respondentes.

O relatório chama a atenção para a importância – o que eu concordo – em ter o maior tempo gasto alinhando com os clientes quais são as perguntas e problemas a serem endereçadas “para garantir que as perguntas sendo feitas são as certas e os objetivos dos projetos são claros”. Entretanto, pontua também a ausência de respostas de tempo investido na limpeza dos dados nessa etapa de planejamento, visto que a qualidade dos dados foi destaque como um dos principais desafios.

Ainda nessa temática, um resultado surpreendente da pesquisa é a constatação de que 53% dos respondentes relataram que ou quase sempre ou constantemente têm que analisar os dados fora das ferramentas de social listening (exportando). Os motivos para isso são vários: problemas com a taxonomia e categorização nas ferramentas, análises imprecisas e até querer juntar dados de mídias sociais com outras fontes de dados: “É mais fácil de manejar os dados no Excel”.

QUAIS SÃO OS PRINCIPAIS DESAFIOS EM ANALISAR DADOS DE MÍDIAS SOCIAIS PARA ENTREGAR INSIGHTS POR TODA A SUA ORGANIZAÇÃO?

  • Tempo e recursos limitados: “Enquanto softwares e ferramentas podem auxiliar na filtragem, nós investimos tempo em ler, agrupar e categorizar os resultados”.
  • Mostrar valor para outros departamentos e explicar as possibilidades do listening: “Muitas pessoas acreditam que social listening = análise de sentimento. Há tão mais que pode ser alcançado com dados de mídias sociais e demanda tempo e esforço para mudar esse pensamento”.
  • Funcionalidade limitada das ferramentas, principalmente quanto à necessidade de uma análise humana: “Nós reportamos sentimentalização mensalmente e por mais que o nível de acurácia aumente todo mês, eu ainda gasto muitas horas revisando.”

COMPREENDENDO A CULTURA ORGANIZACIONAL EM TORNO DO SOCIAL LISTENING

O quarto e último capítulo do relatório aborda questões sobre o social listening possivelmente como “disciplina separada” – realidade que, segunda a pesquisa, tem aumentado em empresas enterprise – e a sua relação com os demais departamentos de uma empresa. Essa mudança na estrutura das organizações – de pequenas atividades descoordenadas (em 2019) para departamentos centralizados em alinhamento com outras áreas de negócio – foi registrada tanto para marcas quanto para agências.

O tamanho dessas equipes varia entre 2 a 4 pessoas (segundo 35,5% dos respondentes) até times com mais de 8 profissionais (segundo 34,4% dos respondentes): “no entanto, ao observarmos a diferença entre marcas e agências […], percebemos que marcas são mais propensas a terem times menores”. 48% dos times de marcas registraram um tamanho de 2 a 4 pessoas, contra 27% dos times de agência. 21% dos times de marcas registraram times com mais de 8 pessoas, contra 43% de agências.

Essa diferença se evidencia também nos propósitos: enquanto profissionais que trabalham em marca focam em fornecer insights para clientes internos (85,5%) e fornecer acesso a dados e dashboards (63%), respondentes que trabalham em agências registaram a consultoria de insights estratégicos (67%) como a principal atividade. As áreas ou departamentos a quem os times de listening fornecem seu trabalho são: customer insights (77%), trends (65%) e inteligência competitiva (62%).

QUAL FOI O IMPACTO DA COVID-19 NO SOCIAL LISTENING?

  • 58% das marcas estão usando MAIS dados de mídias sociais desde o início da pandemia;
  • 50% das agências estão usando MAIS dados de mídias sociais desde o início da pandemia;
  • 13% das agências agora recebem MAIS atenção no modo como usam dados de mídias sociais;
  • 10% das marcas agora recebem MAIS atenção no modo como usam dados de mídias sociais.

O final desta seção ainda traz algumas questões (e respostas) bem interessantes sobre como o social listening é visto por outras áreas/departamentos de uma empresa. Na pesquisa, apenas 34% dos respondentes acreditam que seus colegas compreendem o que eles fazem, enquanto 61% acredita que eles apenas compreendem parcialmente. Além disso, 29% acredita que o listening é visto como parte integral do negócio – maior em agências (39%) do que em marcas (14,5%).

Quais são os principais desafios para a sua organização em termos de destravar o poder da análise de dados de mídias sociais para gerar tomada de decisões?

Orçamento, falta de integração com outras fontes de dados, lacuna de habilidades e incapacidade de mostrar ROI foram os principais desafios tanto para agências quanto para marcas. Já falta de visão ampla organizacional para o listening, dependência exagerada em pesquisa de mercado tradicional, falta de alinhamento entre esforços do negócio e falta de compreensão de tomadores de decisão sêniors foram os destaques para marcas. Em agências, problemas de privacidade, segurança e compliance.

AOS FINALMENTES

O relatório encerra com quatro principais descobertas/recomendações: 1) é imprescindível a elaboração de boas práticas padronizadas para o mercado; 2) profissionais precisam entender o papel da tecnologia quando se trata de garantir a qualidade e a segurança dos dados; 3) ainda não sabemos com certeza o impacto que o social listening possui sobre os negócios porque falta um feedback consolidado e; 4) profissionais de social listening são responsáveis por mostrar o valor da inteligência com dados de mídias sociais (mesmo sabendo que listening não responde a todos os problemas de negócio).

Apesar das evidentes diferenças com o mercado brasileiro (principalmente no que diz respeito ao perfil dos respondentes), acredito que esses quatro pontos se encaixam quase que perfeitamente à nossa realidade. Lá fora, o próprio SI LAB pode auxiliar no primeiro ponto, pois só na troca entre profissionais é possível desenvolver essas boas práticas. O segundo ponto só vem também com mais discussão de todas as partes envolvidas, marcas, agências e ferramentas. O terceiro é uma dificuldade que a própria pesquisa já enfrenta, e um quarto é a conclusão de todos os outros.

Pesquisa acadêmica com dados de mídias sociais: por onde começar?

No prefácio do livro “Análise de Redes para Mídia Social” (2015), o sociólogo Marc A. Smith introduz a obra de Raquel Recuero, Marco Bastos e Gabriela Zago dando destaque sobretudo à emergência do aparato teórico-metodológico que permitiu a popularização dos estudos de redes a partir de dados da internet. “Enquanto nossa sociedade adota a mídia social como um novo fórum para o discurso público, criando uma praça pública virtual, há uma necessidade crescente de ferramentas e métodos que possam documentar esses espaços […]”, explica.

A mídia social pode ser um fluxo desconcertante de comentários, uma assustadora mangueira de incêndio esperramando conteúdo. Com melhores ferramentas e um pequeno conjunto de conceitos da ciência social, o enxame de comentários, favoritos, etiquetas, curtidas, avaliações, atualizações e links pode revelar pessoas-chave, tópicos e subcomunidades. Quanto mais interações sociais moverem-se para grupos de dados que podem ser lidos por máquinas, mais novas ilustrações das relações humanas e organizacionais se tornam possíveis. Mas novos formatos de dados requerem novas ferramentas para coletar, analisar e comunicar percepções.

SMITH, p. 11.

Seis anos antes, a própria Recuero já chamava a atenção em “Redes Sociais na Internet” (2009) para como a (popularização e consolidação da) interação mediada por computador facilitou a produção de rastros identificáveis, a difusão de conteúdos diversos e a ampliação de limites interacionais. Esses aspectos foram desenvolvidos com mais detalhes em outra obra de sua autoria, “A conversação em Rede: comunicação mediada pelo computador” (2014), agora em torno da caracterização de elementos e dinâmicas especificamente dos sites de redes sociais (SRSs).

As affordances propostas por danah boyd para pensar os públicos em rede (networked publics)persistência, replicabilidade, escalabilidade e buscabilidade – ratificam como a internet (ou os SRSs) se tornou(aram) um espaço prolífero para identificar as “novas” formas de sociabilidade das últimas décadas. Nas palavras de Richard Rogers em “The End of the Virtual” (2009): “A questão não é mais saber o quanto da sociedade e da cultura está online, mas sim como diagnosticar mudanças culturais e condições da sociedade através da internet”.

Cerca de dez anos já se passaram desde a publicação dessas obras mais antigas e muitas outras questões (inclusive problemáticas) já entraram em cena, mas o interesse em fazer pesquisa com dados de mídias sociais segue crescente. A grande área da Comunicação (incluindo aqui também os chamados Media Studies), provavelmente a primeira que se propôs a avançar as discussões e as metodologias desse novo ecossistema social, hoje já partilha desse interesse com outras disciplinas das Ciências Humanas e o restante das Ciências Sociais Aplicadas.

É nesse contexto que surgem (sub)disciplinas/campos como as Humanidades Digitais (Sociologia Digital, História Digital), que unem as epistemologias específicas das Ciências Humanas com muito do que foi desenvolvido sobre mídias digitais nas últimas décadas (que localizo em Comunicação, mas cujos fundamentos são também muito ligados à Sociologia, por exemplo). Acrescentamos a esse cenário as técnicas de coleta/tratamento/análise de dados de áreas ainda mais distantes, como a Ciência da Computação ou Engenharia da Informação.

Pessoas de várias disciplinas são atraídas para o estudo da internet por muitas razões. Alguns querem utilizar as tecnologias para conduzir pesquisa tradicional dentro de suas bases disciplinares, outros querem se libertar dos grilhões das práticas disciplinares tradicionais. Alguns querem compreender algo sobre tecnologias particulares, mas possuem pouco treinamento em métodos para estudá-las. Outros sabem muito sobre os métodos da pesquisa sociais mas pouco a respeito do contexto tecnologicamente mediado que eles estão estudando.

(MARKHAM e BOYD, 2009, p. XIII apud FRAGOSO et. al, p. 28-29)

O que temos hoje, portanto, é um cenário de fartura de dados, ferramentas refinadas, metodologias consolidadas e avanços teórico-epistemológicos interdisciplinares. Em outras palavras: todo mundo quer um pedacinho desse bolo multicamadas. Este post, portanto, é para você que está na graduação ou numa pós e está doido para provar o sabor dessa belezura, mas que não faz ideia por onde começar – ou nem tem certeza se é realmente esse bolo que vai alimentar a sua fome (pode até achar que sim, mas talvez – mais para frente – descubra que não).

Neste post, pretendo apresentar aqui algumas orientações/indicações do que eu acredito que pode vir a ser útil para a sua jornada enquanto pesquisador acadêmico que deseja/pretende trabalhar com dados (publicações, principalmente) de mídias sociais. Já deixo aqui o agradecimento à minha amiga Aianne Amado, que tem desenvolvido comigo alguns projetos que passam por essa temática; e ao mestre (e meu ex-chefe) Tarcízio Silva, que me apresentou a maioria dessas discussões, autores e, principalmente, ferramentas e metodologias.

A proposta aqui não é a de oferecer um panorama geral, que exigiria uma elaboração ainda mais cuidadosa e “cientificamente responsável” (como em uma revisão bibliográfica ou estado da arte), mas apontar alguns caminhos interessantes para esse trabalho. Já são mais de duas décadas de produção acadêmica tanto no Brasil quanto lá fora que pavimentaram o chão no qual podemos caminhar hoje em dia, então é importante conhecer alguns desses esforços para continuarmos trilhando essa jornada sem querer reinventar a roda.

Apontamentos iniciais para a pesquisa acadêmica com dados de mídias sociais

A primeira coisa que eu acho importante de fazermos (coletivamente enquanto comunidade acadêmica) é acalmar os ânimos. Com esse boom de dados que é explorado em diversas narrativas mercadológicas (big data, data scientist, etc.), acabamos querendo também entrar nessa onda apenas para, como falei na metáfora anteriormente, pegar um pedacinho desse bolo. Vale, então, perguntar-se: será que o meu interesse de pesquisa se encaixa nesse contexto e/ou pode ser respondido a partir de dados (publicações) de mídias sociais?

Começo, portanto, apresentando quatro pontos que acredito que precisamos levar em consideração ao nos propormos a realizar pesquisa em mídias sociais. São questões que trago não para esgotarmos as discussões (que são complexas e podem ter argumentos consideralmente conflitantes) ou para desestimular o interesse por essa jornada, mas para pensarmos também o que não pode ser pesquisado a partir desses dados – ou até pode, mas que precisa ser responsavelmente abordado na teoria e metodologia da pesquisa.

1. Não pule para a metodologia antes de definir o objetivo e o problema de pesquisa

Na abertura do livro “Methods of Discovery: Heuristics for the Social Sciences” (2004), o sociólogo Andrew Abbott coloca que: “The heart of good work is a puzzle and an idea” (algo como “O coração de um bom trabalho [de pesquisa] é um quebra-cabeças e uma ideia”, em tradução literal). O autor chama a atenção para como o rigor e a criatividade devem andar lado a lado no fazer científico, para que seja possível destravar as ideias mais criativas através de métodos que devem servir de apoio, mas raramente de guias definitivos.

Trago essa referência porque muitas vezes o que eu vejo são estudantes de graduação ou pesquisadores de pós querendo utilizar certas metodologias apenas pela metodologia. Será que analisar tweets realmente responde à sua questão de pesquisa? Será que o que as pessoas publicam no Instagram se enquadra nas informações que você precisa para avaliar as suas hipóteses? Grafos são realmente muito bonitos (tenho uma amiga que sempre fala que parecem galáxias), mas será que eles atendem as suas necessidades?

2. Lembre-se que o Brasil ainda é um país extremamente desigual

Ainda nessa questão de êxtase por dados, não se engane: o Brasil infelizmente – e com índices piorados devido à pandemia e o descaso do governo federal – continua sendo um país com diversos problemas socioeconômicos. A pesquisa TIC Domicílios 2019 realizada pelo Centro Regional para o Desenvolvimento de Estudos sobre a Sociedade da Informação (Cetic.br) indicou que 80% dos brasileiros possuem acesso à internet, mas há diferenças importantes para serem consideradas a partir de recortes de renda, gênero, raça e regiões.

Gráfico desenvolvido pelo Canal Tech a partir do relatório da Cetic.br

Não se engane (como propõe o mercado de marketing/publicidade): pesquisas e relatórios de institutos como o próprio Cetic.br ou o IBGE, por exemplo, são bem mais importantes do que estudos de agências cool sobre a mais nova tendência digital para dois mil e tanto. Essa ponderação retorna ao primeiro ponto levantado: será que o que é produzido pelos pessoas na internet – às vezes, mais especificamente, nas mídias sociais – realmente atende o que você necessita? São 1) brasileiros falando sobre ou 2) “internautas” brasileiros falando sobre?

3. Entenda muito bem como os usuários se apropriam de cada plataforma e quais dados (conteúdos) geram em cada uma delas

Este ponto parte de dois lugares diferentes, mas com o mesmo pressuposto: a facilidade de falar de mídias sociais (ou sites de redes sociais) como um grupo. Quando falamos em fazer pesquisa sobre/nas/com dados de mídias sociais, estamos supondo que se trata de um coletivo relativamente homogêneo, semelhante – o que não necessariamente é o caso para todas. Embora autoras como danah boyd e Nicolle Ellison tenha, em 2007, tentando propor algumas características em comum para esses sites, mais de 10 anos depois, esse conceito se complexificou muito.

O problema, portanto, encontra-se neste lugar que pressupõe uma classificação bem definida para mídias sociais (ou sites de redes sociais), mas não leva em consideração como suas próprias arquiteturas estão em constante atualização, complicando suas semelhanças e diferenças. E aí entra outra questão também muito importante: o modo como as pessoas se apropriam e fazem a utilização de cada plataforma. Cada espaço estimula produções diferentes de nós mesmos, atendendo ainda à maquinaria da opinião pública – que une pessoas, empresas, personalidades, etc.

Em outras palavras, o que você publica/compartilha no Facebook não é a mesma coisa que você compartilha no Instagram, LinkedIn ou Twitter. Os públicos com os quais você interage em cada um desses sites (familiares, grupos de amigos, conhecidos, contatinhos, etc.) é muito provavelmente diferente, e isso tanto implica quanto está implicado no tipo de conteúdo que será gerado em cada um deles. Se você consegue perceber isso da perspectiva de usuário, deve também ter isso em mente enquanto pesquisador/a.

4. Fique por dentro das discussões sobre algoritmos, inteligência artificial, etc.

Além de nos comportarmos de modos diferentes em cada uma das plataformas (geralmente de acordo com as audiências às quais nos apresentamos), também somos moldados – ou melhor, moldamos nossas conversas – de acordo com o que está sendo falado, apresentado, compartilhado e/ou debatido em cada uma delas. Acontece que, infelizmente, esse processo de pauta envolve atores que atrapalham/complexificam a “espontaneidade” das conversas: empresas, marcas e as próprias mídias sociais – que possuem um modelo de negócio estruturado para isso.

Muito tem sido discutido – principalmente na academia – sobre as bolhas das mídias sociais, câmaras de eco, viés algorítmico, (des)inteligência artificial e assuntos correlatos. Embora cada temática e cada pesquisa aborde essas problemáticas a partir de uma discussão própria, acredito que o que todas elas possuem em comum é a constatação de que precisamos problematizar (e responsabilizar) as políticas de negócios das big techs, visto que todas as suas tomadas de decisões têm impacto e são impactadas pelo modo como as pessoas utilizam seus serviços.

Da cibercultura à era pós-APIs: um panorama não-oficial dos estudos da internet e das mídias sociais (no Brasil)

Talvez não esteja tão evidente assim, mas o principal intuito deste texto é apresentar algumas ferramentas e técnicas para a coleta/extração e análise de dados de mídias sociais. Para chegar aí, entretanto, estou tentando apresentar várias questões que considero importantes para pesquisadores que pretendem trabalhar com isso. Além dos apontamentos iniciais já apresentados, percebo também a necessidade de explicar onde estamos atualmente. Ou melhor: de onde vimos, como chegamos até aqui e (possivelmente) para onde vamos?

Como tenho tentado enfatizar durante todo o texto, fazer pesquisa sobre a internet, na internet ou com dados da internet não é algo nada novo. O que se proliferou consideravelmente na última década, porém, foi tanto a produção desenfreada de dados aos montes (em todos os aspectos da nossa vida) quanto as possibilidades de obtenção desses dados por diferentes atores e através de diversas capacidades técnicas (para o “bem” e para o “mal”). Como, então, podemos fazer o entendimento desse processo – e por que é tão importante fazê-lo?

No capítulo “Panorama dos Estudos de Internet” do livro “Métodos de pesquisa para internet” (2011), Fragoso, Recuero e Amaral fazem um compilado do que, até então, estava à frente dessa temática. Apresentam a proposta de pensar “os estudos de internet como um campo em constante mudança (Jones, 1999) surgido a partir de diversas disciplinas (Baym, 2005) […] dentro de um contexto sócio-histórico que dialoga com a tradição dos estudos de comunicação, cultura, mídia e tecnologia (Sterne, 1999)”.

Fases dos Estudos sobre Internet1a Fase (Início dos 90)2a Fase (Segunda metade dos 90)3a Fase (Início dos 00)
Wellmann (2004)Dicotomia entre utópicos e distópicos; a narrativa da história da comunicação parece ter início com a internet.Inicia por volta de 1998; coleta e análise de dados: documentação e observação sobre os usuários e suas práticas sociais; internet começa a atingir um público maior e mais diverso do que o da fase anterior; pesquisa de opinão e entrevistas; resultados atingidos: apropriações feitas por diferentes classes sociais, gêneros, faixas etárias etc.Abordagem teórico-metodológica: enfoque na análise dos dados; reflexões sobre padrões de conexões, personalização e comunicação.
Postill (2010)Hype acerca do próprio surgimento da internet; polarização real versus virtual; internet como esfera autônoma; interações síncronas versus assíncronas.Análise do objeto internet já inserida dentro do cotidiano; comparações entre a internet e outras mídias; popularização da internet para vários tipos de usuários; amostragem intencional (escolha de casos extremos)Enfoque nos usos e apropriações; explicitação metodológica.
ObservaçõesPara Postill, sobretudo nas duas primeiras fases, há muita ênfase no hype sobre a própria internet.Wellmann indica uma predominância na segunda fase dos estudos quantitativos, enquanto que na segunda fase a abordagem qualiquantitativa tem aparecido com mais força.
Tabela 1: Principais fases dos estudos de internet para Wellmann (2004) e Postill (2010).

Na Tabela 1, que reproduzo acima, apontam as fases dos estudos sobre internet a partir de dois autores, elaborando o argumento de se pensá-la não como disciplina, mas como um campo. Chamam a atenção, entretanto, para como essa historicização “merece ser relativizada, no sentido que, corresponde, em grande parte, ao desenvolvimento das pesquisas no contexto anglo-saxão”. No Brasil, apontam que “um direcionamento rumo a pesquisa empírica em internet entra com maior força apenas a partir da segunda metade dos anos 2000”.

Acrescentam que “antes disso [da segunda metade da década], boa parte dos estudos voltava-se a aspectos filosóficos ou até mesmo psicológicos cujas abordagens eram estritamente teóricas e e/ou ensaísticas sem comprometimento com coleta de dados no campo“. Esses estudos, no contexto brasileiro das Ciências Humanas e das Ciências Sociais Aplicadas, encontravam-se sobretudo associado aos estudos de cibercultura e dos estudos de interface humano computador (IHC). Surge, então, a pergunta: o que mudou a partir de 2005 em diante?

Eu fiz essa linha do tempo para apresentar em duas oportunidades que tive de falar com alunos, professores e pesquisadores acadêmicos sobre coleta de dados em mídias sociais (e como chegamos na era pós-APIs). Selecionei algumas obras não necessariamente por relevância ou impacto teórico (no Brasil e à fora), mas para tentar explicar mais ou menos o que aconteceu – a partir da minha interpretação – na primeira década do milênio em termos de internet, sites de redes sociais e, consequentemente, pesquisas que os envolvem de alguma forma.

No início dos anos 2000, as pesquisas e estudos de internet eram muito voltados para uma perspectiva mais sociotécnica – e que vislumbrava várias abordagens, das mais pragmática às mais distópicas/utópicas. Era também o momento em que a World Wide Web se consolidava como uma das grandes “revoluções” do mundo moderno, com várias expectativas realmente revolucionárias do que poderia estar por vir. Havia um entusiasmo muito grande com a possibilidade de conexão e descentralização dos meios de informação/comunicação.

Outra proposta de reflexões teóricas sobre a cibercultura (SCOLARI, 2009)

Acho importante também abrir um parênteses para falar do fenômeno da web 2.0, hoje até negligenciado, principalmente em termos de discussão, mas que foi fundamental para a consolidação do que temos atualmente. No início da internet, eram pouquíssimas as pessoas que podiam produzir conteúdo: a web 1.0 era formada por webmasters que sabiam fazer sites (HTML) completamente estáticos e usuários que navegavam por esse espaço; na web 2.0, esse cenário se torna mais dinâmico com a introdução de possibilidades com XML e RSS (de onde nascem os blogs, wikis, etc.).

Em meados dos anos 2000, “entrar” na internet já era algo bastante comum para boa parte da população brasileira. Foi o período de febre das lan houses, dos joguinhos online, da evolução dos discadores para banda largas, etc. – e também o primeiro momento em que um site de rede social ganha força: o Orkut. A meu ver, nessa época, a discussão virtual x offline (herança da década de 90) ainda continuava com bastante força, com muito sendo discutido – inclusive na imprensa – sobre comunidades virtuais, subculturas virtuais e mundos virtuais (Second Life, Habbo Hotel, etc.).

Duas coisas acontecem no final dessa década que, a meu ver, são fundamentais para o que viria a seguir – e estão bastante interligadas: a popularização de smartphones (e, obviamente, a ascensão econômica dos brasileiros para adquirirem esses objetos) e a consolidação da internet móvel (3G). Esse cenário foi fundamental para que, no final dos anos 2000, sites de redes sociais como Facebook, Twitter e YouTube ganhassem a projeção social e econômica que têm hoje em dia. Paramos de “entrar” na internet, que se tornou embutida, incorporada e cotidiana (HINE, 2015).

É também nesse contexto que a World Wide Web, que nasce com um entusiamo de revolução, é cooptada pelas garras do capitalismo nos modelos de negócios desenvolvidos pelas empresas de mídias sociais. Internet vira, de certo modo, sinônimo de redes sociais – um ponto obrigatório de passagem. Da Tabela 2, que também reproduzo do livro de Fragoso et. al, percebemos um redirecionamento dos estudos de internet em termos de abordagem teórica, cada vez mais em direção a pensá-la como artefato cultural e/ou como mídia mesmo.

Abordagem TeóricaInternet como CulturaInternet como Artefato CulturalInternet como Mídia
ConceitosCiberespaço, vida virtual, cibercultura, descorporificação, desterritorialização.Online/Offline, incorporada à vida cotidiana, localidade.Convergência de mídia, vida cotidiana, novas mídias, cultura digital.
Objeto/CampoCom base no texto: Chats, BBS, IRC, Usenet, Newsgroups, MUDsCom base na web: Páginas pessoais, websites, mundos virtuais.Redes sociais, objetos multimídia: Conteúdo gerado por consumidor, Web 2.0.
Metodologia
Qualitativa
Etnografia
Comunidades Virtuais, Comunicação Mediada por Computador, Identidade Online, Estudos feitos exclusivamente em tela.Laços sociais, representação de identidade, “estudos além da tela”, apropriação da tecnologia, etnografia virtual.Etnografia multimídia, etnografia conectiva, etnografia das redes.
Tabela 2: Abordagens teóricas sobre a internet enquanto objeto de estudo. Fonte: Ardevol et al. (2008)

Percebemos, portanto, que, a partir da virada da década, os sites de redes sociais (SRSs) passam a tomar conta, com várias das produções acadêmicas sendo principalmente dedicadas a esses fenômenos. O projeto de pesquisa “Why We Post”, liderado pelo etnógrafo Daniel Miller na University College London busca, desde 2012, compreender os usos e as consequências das mídias sociais no mundo inteiro. No Brasil, temos também a tese “Dinâmicas identitárias em sites de redes sociais” (2014), de Beatriz Polivanov, que vira livro e referência na área.

Essas obras não necessariamente trazem novos paradigmas para o campo da pesquisa na internet, mas atualizam e referenciam muito – o trabalho de Polivanov, por exemplo, traz bastante da produção brasileira das próprias autoras Raquel Recuero, Adriana Amaral, Suely Fragoso, Sandra Montardo, etc. – dos métodos já populares, como (n)etnografia virtual, entrevista em profundidade, etc. No entanto, dando continuidade à promessa da web 2.0, a produção de conteúdo gerado por usuários exige que essas pesquisas também atualizem seus repertórios ferramentais.

Nesse contexto, grupos como o Digital Methods Initiative da Universidade de Amsterdã surgem com alternativas para explorar dados da internet – e, consequentemente, dos sites de redes sociais – em grande escala. O livro “Digital Methods” (2013), de Richard Rogers, líder do grupo, é a publicação que reafirma a iniciativa de estruturar ferramentas capazes de compreender a sociedade através da internet, principalmente sob a perspectiva de redes, rastros de conflito, arquivos de conteúdo, etc. – para estudar cliques, hiperlinks, curtidas, comentários, etc.

Várias outras publicações também surgem nesse mesmo momento com o intuito de pensar métodos para fazer pesquisas com/nas mídias sociais, mas aqui chamo a atenção para essa produção do DMI devido à proposta do grupo de produzir principalmente um aparato técnico que desse conta desse novo cenário. E se hoje estamos vivendo a era da pesquisa “pós-APIs”, é porque foi nesse momento – e também com a ajuda de projetos como esse, muito ancorados nas lógicas das APIs – que a coleta de dados de mídias sociais pôde se popularizar tanto.

Para explicar isso, vou ter que voltar um pouquinho na nossa historicização da web. Quando os sites de redes sociais surgiram, eles eram também fruto da lógica da web 2.0 (que, como expliquei, teve como primeiros produtos os blogs e wikis, mas cuja evolução disso fica evidente na proposta das mídias sociais). Essa lógica da cultura colaborativa trazia consigo um estímulo de co-desenvolvimento para que as pessoas também pudessem criar e elaborar projetos em cima de estruturas e códigos já previamente estabelecidos (que é a cultura da programação até hoje).

As APIs (Application Programing Interface), que são basicamente “séries de comandos que permitem a usuários e aplicativos se comunicarem com os sites e requisitarem dados hospedados em seus servidores” (ALVES, 2017, p. 2016), foram lançadas praticamente junto às próprias mídias sociais. Foram a partir delas que vários aplicativos ganharam também bastante popularidade – como aqueles joguinhos do Facebook de meados de 2010 (Farmville, Colheita Feliz, SongPop), ou o antigo Twitpic de quando o Twitter ainda não permitia publicar imagens.

Foi a partir dessa oportunidade que muitos dos softwares acadêmicos desenvolvidos no final da primeira década dos anos 2000 e início da década seguinte ganharam também muita força, sendo talvez a Netvizz (do DMI), que permitia coletar dados do Facebook, a grande protagonista de toda essa história. Infelizmente, não por um bom motivo: quando os problemas começaram a vir à tona, a ferramenta foi aos poucos enfrentando limitações cada vez mais severas. O próprio Rogers, que ajudou a popularizar as ferramentas do seu grupo, foi forçado a admitir:

Ao construir as infraestruturas necessárias para apoiar e rastrear a crescente quantidade de interações online e ao tornar os registros resultantes disponíveis através das APIs, as plataformas reduziram significativamente os custos dos dados de mídias sociais. A facilidade da pesquisa com APIs veio com o preço de aceitar a padronização particular operada pelas plataformas de mídias sociais e o enviesamento que vem junto. […] Num frenesi consumista, nós estocamos dados como commodities produzidas em massa. A pesquisa com APIs é culpada (pelo menos em parte) por espalhar o hype dos dados de mídias sociais, reduzindo a diversidade de métodos digitais ao estudo de plataformas online, e por espalhar as ideias pré-concebidas de que o Facebook, o Google, o Twitter e seus semelhantes são os mestres do debate online, e não há alternativas a não ser viver sob as migalhas de suas APIs.

(VENTURINI, ROGERS; 2019)

A “era das APIs” realmente facilitou muito uma das etapas do processo metodológico de pesquisa com dados de mídias sociais, a coleta/extração dos dados, mas a verdade é que muita pesquisa já foi feita – inclusive no mesmo período – sobre mídias sociais sem necessariamente depender dessa alternativa. O próprio termo “pós-APIs” parece, hoje, demasiadamente apocalíptico, visto que várias plataformas continuam com APIs ainda bastante favoráveis principalmente àqueles interessados a realizar pesquisa acadêmica com dados de mídias sociais.

O Twitter lançou recentemente uma versão de sua API exclusiva para acadêmicos com acesso inédito a um volume de dados jamais visto até em algumas das suas opções pagas. O YouTube continua com a API funcionando relativamente bem, com ferramentas como o YouTube Data Tools (DMI) ainda no ar. Até mesmo o Facebook, maior site de rede social da atualidade, que começou a fechar sua API em 2015 e depois do seu afiliado Instagram em 2016, hoje tem a CrowdTangle como alternativa oficial da empresa para pesquisadores acadêmicos.

Ainda temos um cenário bastante próspero para quem deseja trabalhar com coleta de dados de mídias sociais, embora os tropeços dos últimos ainda. É importante, entretanto, ter em vista que “muitos dados” não é necessariamente o equivalente a uma pesquisa melhor, mais válida ou mais rica. Essa perspectiva positivista pela evidência quantitativa eufórica não é o legado que duas décadas de estudos de internet nos deixa, com um vasto repertório de métodos qualitativos sendo explorados, discutidos e potencializados no Brasil e à fora.

Abordagens e ferramentas de coleta para mídias sociais – quais dados estão disponíveis?

Há basicamente três maneiras para se coletar dados de mídias sociais (em 2021): via APIs, raspagem de dados (web scraping) ou manualmente. Qual é a diferença entre cada um deles e o que isso implica? Antes de responder essa pergunta, preciso admitir uma coisa: quando estou falando aqui de “dados de mídias sociais”, estou me referindo principalmente às publicações que são feitas pelos usuários (o famoso UGC – user-generated content) e/ou às informações semipúblicas disponíveis a nível de usabilidade das plataformas (seguidores, por exemplo).

No entanto, é evidente que os dados que geramos nas mídias sociais correspondem a muito mais do que isso. Cliques, alcance, tempo em tela, taxa de rejeição (bounce rate), dentre várias outras métricas também podem ser consideradas para análise de mídias sociais. No mercado de comunicação digital, essa diferença se estabelece nas definições de monitoramento e métricas, em que a segunda está muito mais associada a dados fornecidos pelas próprias plataformas cujo foco está na mensuração para otimização de objetivos de negócios (venda, awereness, etc.).

O foco das pesquisas com dados de mídias sociais, portanto, costuma ser as conversações em rede – ou seja, o conteúdo (das mensagens ou dos perfis) ou as próprias interações. É por isso que a análise de redes se popularizou tanto nas últimas décadas, por fornecer o aparato técnico-metodológico (e teórico) para compreendermos principalmente a lógica de conexões das redes – que estão nas trocas de mensagens, mas também na associação entre os atores (amizade, seguidores, vídeos relacionados, etc.), disseminação de (des)informação, etc.

Para gerar essas redes com centenas, milhares, às vezes milhões de conexões, alternativas de coleta via API ou web scraping facilitam muito o processo – o que não quer dizer que uma rede não possa também ser produzida manualmente. O mesmo vale para a análise de conversação/conteúdo, que também ganhou bastante notoriedade nas produções acadêmicas da última década. Na tabela abaixo, apresento de modo bastante simplificado/didático quais são as principais diferenças entre essas três opções de coleta, já listando algumas ferramentas.

APIsRaspagem de dados
(web scraping)
Coleta manual
Como utilizar?– Ferramentas plenas comerciais
– Softwares acadêmicos
– Códigos e scripts de programação
– Códigos e scripts de programação– Copia e cola
– Captura de tela
Limitações e implicações– Dados disponíveis de acordo com a documentação de cada plataforma– Prática vai contra os Termos de Serviço das plataformas
– Pode ter consequências operacionais e até jurídicas
– Assim como raspagem, envolve questões éticas da privacidade dos usuários
Exemplos de ferramentas ou softwares– Netlytic, YouTube Data Tools, Facepager– Twint, SNScrape, Instagram-Scraper– Spreadsheets, Excel, LibreOffice

Fazer a extração/coleta de dados via API significa basicamente utilizar das portas de acesso que as próprias plataformas disponibilizam para terceiros terem acesso a seus dados. Essa prática diz respeito ao modo como a web, que surgiu otimista pela descentralização de acesso, tem se transformado cada vez mais em plataformas proprietárias de empresas – como no caso das mídias sociais. A plataformização da web diz respeito a um modelo econômico dominante e as consequências da expansão das plataformas de redes sociais em outros espaços online.

O pesquisador brasileiro Marcelo Alves traz esse argumento da pesquisadora Anne Helmond – integrante do Digital Methods Initiative (DMI) – em que explica que “as APIs permitem fluxos de dados cuidadosamente regulamentados entre plataformas sob a forma de APIs abertas ou APIs proprietárias”. Essas infraestruturas programáticas que definem barreiras e se comunicam com o restante da web por meio de aplicações direciona a política de fluxo de dados, nas quais os planos de negócio das empresas são representadas através de permissões e leis de acesso.

Gráfico do artigo “Is the Sample Good Enough? Comparing Data from Twitter’s Streaming API with Twitter’s Firehose” comparando a mesma coleta através de duas APIs do Twitter

Há, portanto, dois pontos importantes em relação às APIs: suas documentações e chaves de acesso (token). As primeiras geralmente são disponibilizadas publicamente nos sites das plataformas (com dicionários sobre pontos de exportação, informações para consultas, erros comuns, etc.), mas a segunda exige uma requisição a ser solicitada (para conseguir uma chave). São diversos níveis de autorização, acesso e proibições de pontos de dados, cuja diversidade dos metadados está de acordo com as permissões concebidas (ALVES, 2018).

Em termos práticos, portanto, é imprescindível que os pesquisadores interessados nos dados dessas plataformas entendam como ler a documentação fornecida e aprendam a operacionalizar as interfaces para tirar o máximo de proveito de acordo com seus objetivos. Isso implica, entretanto, ter o mínimo de conhecimento de programação para saber como fazer requisições aos servidores do Facebook, Twitter ou YouTube – o que dificulta um pouco esse processo, como também é o caso para a opção de raspagem de dados (scraping).

É por isso que várias ferramentas/softwares foram desenvolvidas na última década a partir de iniciativas como a DMI para facilitar o acesso de pesquisadores acadêmicos aos dados fornecidos via API. Já citei aqui algumas delas, como: a falecida Netvizz que permitia acesso a dados do Facebook; a Netlytic e sua irmã mais nova, Communalytic, desenvolvida por pesquisadores da Social Media Lab com funcionalidades robustas de análise (de redes, inclusive) a partir da coleta de dados do Twitter, YouTube, Facebook/Instagram; e a YouTube Data Tools.

Todas essas fazem (ou faziam, como no caso da Netvizz) uso das APIs das plataformas, o que pode ser um grande facilitador em vários sentidos. No entando, apesar dos benefícios de interfaces que não exigem conhecimento de programação e repositórios online independentes da nossa máquina pessoal, o maior problema delas também está no trunfo das APIs e suas limitações. A versão gratuita para desenvolvedores, do Twitter, por exemplo, até recentemente só permitia a coleta de alguns milhares de tweets a cada 15 minutos e com um retroativo de até, no máximo, 7 dias.

É nesse contratempo – de modo mais amplo – que surge a alternativa de raspagem de dados (ou scraping, em inglês), que nada mais é do que um procedimento automatizado de uma coleta que você também poderia fazer manualmente. Isso porque essa técnica geralmente extrai os dados a partir de uma linguagem de marcação (HTML) do seu código-fonte, na qual “o mecanismo exibe a página e procura na linguagem de marcação pelas partes específicas referentes aos dados que precisamos” (ALVES, 2018, p. 24).

A maior dificuldade de se trabalhar com web scraping é ter o mínimo de conhecimento de programação para saber como rodar scripts em Python e R. No entanto, trabalhar com APIs também exige um conhecimento de técnicas e linguagem de programação para poder fazer as requisições (e até mesmo ler as documentações de acesso). A boa notícia é que para ambos os casos há vários scripts – códigos escritos por programadores, desenvolvedores, etc. – disponibilizados publicamente em repositórios como o GitHub.

Para quem não quer utilizar as ferramentas acadêmicas já citadas (que podem custar caro no bolso brasileiro) para extração via API, há projetos como o Facepager e o Social Feed Manager que já fazem boa parte do trabalho de programação por você, sendo necessário apenas alguns ajustes de configuração do acesso. Já quem não possui boas chaves de API à disposição, alguns scripts de raspagem como o Twint, o Instagram-Scraper e o SNScrape podem ser interessantes. Acima, compartilho vídeos-tutoriais de como instalar o Python para utilizá-los.

Além de todas as opções, há três iniciativas que estão constantemente atualizando suas listas de ferramentas para pesquisa em mídias sociais: o Social Media Research Toolkit do Social Media Lab/Social Media Data (com uma catalogação detalhada de variáveis importantes), o wiki Social Media Data Collection Tools organizado pelo Deen Freelon; e as ferramentas do médialab Sciences Po. Em seu blog institucional, o pesquisador Wasim Ahmed também já fez levantamentos de ferramentas em 2015, 2017, 2019 e recentemente em 2021.

Na tentativa de agregar todas essas ferramentas levantadas por esses repositórios e também incluir outras opções interessantes – inclusive projetos brasileiros, como o LTweet do LABCOM da UFMA -, criei recentemente uma planilha (ainda em construção – interessados em colaborar podem entrar em contato comigo!) para compartilhamento dentre a comunicade de pesquisadores brasileiros. No final das contas, o que fica evidente é que opção não falta para conseguirmos algum jeito de coletar/extrair dados de mídias sociais – a escolha é sua.

Para continuar estudando: uma nota pessoal, referências e métodos/metodologias mais comuns

Tentei, ao longo deste post, construir a minha fala em cima de vários referenciais teóricos e uma perspectiva mais impessoal sobre o assunto. Gostaria de finalizá-lo, entretanto, carregando um pouco a mão no eutnocentrismo, começando pelos motivos que me fizeram escrevê-lo, que são três: um pedido de ajuda de uma mestranda da USP, uma fala para alunos da graduação do curso de Estudos de Mídia da UFF e uma oficina que ministrei junto à minha querida amiga Aianne Amado para graduandos, mestrandos, doutorandos e doutores da UFS/UnB.

Esses três eventos aconteceram (não simultaneamente) nos últimos dois meses e me fizeram não só refletir, mas levantar e preparar um material didático para esses três diferentes públicos que tinham o mesmo interesse: aprender como coletar e analisar dados de mídias sociais. Para cada um deles, eu tive que desenvolver um modo diferente de explicar tudo isso que falei aqui (nem com tanta profundidade ou entrando em tantos detalhes como fiz agora), levando em consideração o nível – e a formação – de conhecimento de cada um.

Escrevi este texto com o intuito de compilar tudo que pude passar nessas três ocasiões, agregando já as discussões que conseguimos propor em alguns deles, com o intuito principal de ser realmente um guia (introdutório) para quem deseja trabalhar com dados de mídias sociais. Há muito mais do que eu trouxe aqui, mas imagino (espero) que o que pude apontar – e questionar – sirva de contribuição para você, que está lendo até agora. A minha proposta nunca foi a de esgotar as possibilidades, mas abrir os horizontes para futuros navegantes.

Acho também importante colocar que embora a minha formação (graduação) seja em Estudos de Mídia/UFF, muito do que eu aprendi e conheci veio do meu trabalho no IBPAD, com a mentoria do meu mestre, Tarcízio Silva. Foi sob sua orientação que produzi o material “100 Fontes sobre Pesquisa e Monitoramento de Mídias Sociais”, com o qual descobri vários dos autores que citei; foi também onde aprendi a mexer na Netvizz, no YouTube Data Tools e no Netlytic; além da prática de análise de redes com o Gephi e, depois, com a WORDij.

No mestrado, optei por seguir para uma área interdisciplinar menos voltada para Comunicação, o que fez com que eu tivesse que estudar sobre métodos digitais por conta própria. É realmente muito desafiador se manter atualizado de todas essas discussões e dos próprios fenômenos digitais nesse campo em constante mudança que é a internet, mas tento acompanhar vários pesquisadores da área através do Twitter, para ficar de olho no que há de mais novo (no sentido de inovador mesmo) em termos de metodologias, ferramentas e técnicas.

No entanto, é importante que não nos deixemos cair no deslumbramento do que está no hype somente pelo hype (como fizeram os primeiros estudiosos de internet). É preciso olhar constantemente para trás – vide a tabela 3, do livro bastante citado aqui de Fragoso et. al (2011) – a fim de entendermos como conseguimos avançar sem necessariamente reinventar métodos já consolidados, mas pensar como podemos agregar novas metodologias aos cenários atuais e emergentes – como tem sido feito constantemente com as abordagens chamadas “métodos mistos”.

ObjetosAlguns métodos apresentados na literatura
Blogs
Fotologs
Videologs
Moblogs
Microblogs
Análise de conteúdo
Análise de discurso
Etnografia + ARS
Entrevistas
Estudo de caso
Observação participante
Método Biográfico
Estatísticas
Páginas Pessoais
Websites
Análise de Hyperlinks
Etnografia
Estudo de Caso
Análise de webesfera
Webometria
PortaisEstudo de caso – Método GJOL
Etnografia
Entrevistas em profundidade
Análise documental
Mundos virtuais
MMORPGs
Interacionismo simbólico
Etnografia
Semiótica
Análise documental
Fóruns
Chats
Listas de discussão
IRC
Pesquisa de opinião (survey)
Observação Participante
Entrevista
Teoria Fundada
Sites de Redes
Sociais
ARS
Etnografia
ARS + Etnografia
Grupo Focal Online
Entrevista em profundidade
Análise de Conversação
Tabela 3: Algumas ferramentas digitais e métodos já utilizados em suas análises.

Temos no Brasil diversos pesquisadores, grupos, laboratórios e departamentos com um vasto repertório de pesquisa sobre internet: na UFBA, o GITS e o Lab404; na UFMA, o já citado LABCOM; na UFPel, o MIDIARS; na UFF, o MidiCom, o coLAB e o CiteLab; para citar apenas alguns. O Instituto Nacional de Ciência e Tecnologia em Democracia Digital (INCT.DD) tem toda uma rede de pesquisa com grupos de diversas universidades brasileiras voltado a pesquisar comunicação, internet e política. São atores que dão o tom da pesquisa em mídias sociais no Brasil.

Lá fora, além do tão citado DMI, indico também o iNOVA Media Lab, responsável pelo projeto #SMARTDataSprint, que vem desde 2018 atualizando e provocando vários dos paradigmas propostos pelos métodos digitais. Em português, deixo aqui a minha recomentação também para a obra “Métodos Digitais: teoria‐prática‐crítica”, organizado pela pesquisadora Janna Joceli Omena, que traz textos inéditos e traduções de importantes discussões sobre a temática. Em inglês, há o já citado Social Media Lab, a Social Media Research Foundation e a Association of Internet Researchers.

Finalizo este post com o mesmo tom que iniciei: muita calma com essa euforia por dados. Vivemos, de fato, um momento histórico em que nunca houve tantos dados à nossa disposição – e isso vem com várias ponderações, técnicas, ferramentais, éticas e políticas. Tentei apontar aqui algumas delas, mas enquanto pesquisadores acadêmicos acredito que precisamos ter sempre uma responsabilidade social que amplie e atribua as preocupações aos seus devidos lugares, usos e desusos desses meios em vários sentidos.

Também peço calma aos novos navegantes, que foram possivelmente bombardeados com todas essas informações de uma vez só. Eu admito: não li – por completo – todos os livros, teses ou dissertações que cheguei a citar por aqui. Conheço porque chegaram a mim e sei que são importante no cenário geral, mas sei que minha jornada ainda é muito nova para ter todo esse repertório debaixo do braço. O que eu recomendo é pelo menos saber do que se trata cada um desses apontamentos e discussões, para que seja aprofundado quando – e se – necessário.

Acredito também que precisamos pensar coletivamente enquanto comunidade acadêmica sobre essas diferentes perspectivas de se fazer pesquisa: ferramentas, métodos/metodologias e também epistemologias. A sensação que eu tenho é que, no Brasil, ficamos cada um no respectivo cantinho produzindo sobre nossas temáticas e assuntos de interesse, sem necessariamente discutir como estamos desenvolvendo essas pesquisas. A própria lógica e burocracia científica atrapalha de publicação não acompanha a velocidade de tantas mudanças – o que torna ainda mais urgente pensarmos como podemos manter de pé toda essa conversa.

Referências bibliográficas

ALVES, Marcelo. Abordagens da coleta de dados nas mídias sociais. In: SILVA, Tarcízio; STABILE, Max (Orgs.). Monitoramento e pesquisa em mídias sociais: metodologias, aplicações e inovações. São Paulo: Uva Limão, 2016.
ARDÈVOL, Elisenda., et al. Media practices and the Internet: some reflections through ethnography. 2008. Apresentação no Simposio del XI congreso de antropología de la FAAEE, Donostia, 10-13 de septiembre de 2008. Disponível em: . Acesso em: 01/02/2010.
FRAGOSO, Suely; RECUERO, Raquel; AMARAL, Adriana. Métodos de pesquisa para internet. Porto Alegre: Sulina, v. 1, 2011.
HINE, Christine. Ethnography for the Internet: Embedded. Embodied and Everyday (London: Bloomsbury Academic), 2015.
RECUERO, Raquel; BASTOS, Marco; ZAGO, Gabriela. Análise de redes para mídia social. Editora Sulina, 2015.
RECUERO, Raquel. Redes sociais na Internet. Porto Alegre: Sulina, 2009.
VENTURINI, Tommaso; ROGERS, Richard. “‘API-Based Research’ or How Can Digital Sociology and Digital Journalism Studies Learn from the Cambridge Analytica Affair.” Digital Journalism, 2019.
WELLMAN, Barry. The three ages of internet studies: ten, five and zero years ago. New Media & Society. London, Vol. 6 Issue 1, p. 123-129, 2004.

Materiais de apoio

Coleta de Dados em Midias Sociais para Pesquisa Acadêmica de Tarcízio Silva

Extração de dados altmétricos das mídias sociais de Marcelo Alves

Dados para pesquisas sociais from Débora Zanini

Social Analytics Summit 2016: o evento segundo o Twitter (e o Slideshare)

Aconteceu em São Paulo nos dias 25 e 26 de novembro o Social Analytics Summit 2016, realizado pela Media Education. Com a curadoria de Gabriel Ishida e Vinícius Ghise, a quinta edição do evento reuniu centenas de profissionais dos mais diferentes cargos e funções de trabalho em dois dias recheados de palestras interdisciplinares sobre como trabalhar de forma inteligente com dados na/da internet. Este ano, pela primeira vez, tive a oportunidade de estar presente na Faculdade Cásper Líbero para acompanhar tanto o workshop, na sexta-feira, quanto o evento, no sábado.

No entanto, como reitero desde o início do blog, embora os cursos e eventos aconteçam na rua (geralmente em São Paulo), muito do que se produz ali também chega de alguma forma à internet. Portanto, para ajudar aqueles que por quaisquer motivos não puderam (ou não quiseram) presenciar o SAS 2016, relato aqui o que rolou no evento de acordo com o Twitter. Para ajudar a estruturar a narrativa, conto também com o perfil da Media Education no Slideshare – que merece todos os elogios por sempre disponibilizarem os materiais de seus diversos eventos gratuitamente para quem tiver interesse em aprender. Antes, um adendo: infelizmente eles só divulgarão as apresentações daqui a alguns dias, ou seja, por ora, teremos apenas o Twitter para nos guiar.

Na sexta-feira, 25, aconteceu o workshop com palestras de Eduardo Faria (Pesquisas com dados digitais), Vinícius Ghise (Transformando dados em planejamento), Gustavo Pereira (Planejamento e resultados de mídia) e Beatriz Blanco (Data visualization). Como o público era bem menor e o caráter das palestras mais “educativo”, infelizmente não tivemos produção de tweets suficientes para contar como foi o dia. Ou seja, atualizo o post assim que as apresentações no Slideshare forem disponibilizadas para acrescentar mais conteúdo e contar o que rolou no workshop. Partimos, portanto, para sábado, dia do evento, com palestras sobre influenciadores, dashboards, big data, pesquisa, gestão de crise e estratégia.

Alguns slides do workshop já estão disponíveis:

A primeira palestra, “Dashboards e inteligência em tempo real”, foi comandada por Ingrid Pino com algumas intervenções de Leonardo Naressi, ambos da dp6. Ela falou sobre o assunto em três aspectos: 1) a diferença entre medir em tempo real e agir em tempo real; 2) quais dados entregar em um dashboard para inteligência em real-time; 2) como comunicar os dados para melhorar as ações. Ou seja, quando falamos de “real-time“, precisamos tratar de três pilares básicos: para que medir (objetivos práticos), o que medir (método) e como apresentar (data viz). Ou seja, é preciso que tudo esteja muito bem alinhado e estruturado porque é tudo muito rápido. Nas palavras dos próprios: “Planeje o que vai medir, prepare-se para agir e esteja aberto para improvisar”.

Embora a expressão “marketing real-time” tenha se popularizado pela adoção de uma estratégia de guerrilha de grandes empresas, como Coca-Cola, eles mostraram que essa prática não é tão “ostentiva” assim. Tendo um guia de conduta bem planejado e responsável, algumas ferramentas de criação de dashboards possuem uma taxa razoavelmente barata para implementar o necessário desse tipo de atuação, que pode ser útil para empresas de médio porte que estão bem imersas no universo digital (como e-commerces, por exemplo) – e não apenas para gestão de crises, mas também para criação de oportunidades. Felizmente o Slideshare já está disponível para quem tiver interesse:

Em seguida, foi a vez de Maira Berutti (MC15), Gabriel Ishida (Atlas Media Lab) e Leandro Bravo (Celebrity’s) assumirem o palco para um debate riquíssimo e muito importante: influenciadores trazem resultado? Berutti trouxe sua visão enquanto pesquisadora, Ishida pôde contribuir através da experiência com grandes marcas e estudos recentes sobre o assunto, e Bravo colaborou com uma visão de quem faz casting de produtores de conteúdo. Dividi algumas questões que foram abordadas em tópicos:

Como justificar o investimento em influenciadores?

Essa é uma questão que acho importante fazer um recorte. Na minha percepção, grandes empresas já compreenderam a importância (e contribuição) de se trabalhar com influenciadores digitais – o que deve ter sido relativamente fácil, já que a publicidade historicamente usa de celebridades há décadas para promover uma marca ou um produto. Ou seja, já não se precisa mais argumentar tanto assim com marcas como Coca-Cola, Skol, McDonald’s, Vivo, etc. quanto ao uso de influenciadores, principalmente quando o público que querem atingir é mais jovem. Entretanto, quando se trata de marcas menores ou de pequenas e médias empresas, a pergunta fica mais apropriada.

E aí a questão fica mais adequada: como justificar o investimento em influenciadores para marcas menores, pequenas e médias empresas? A resposta parece simples, mas a execução é bem mais desafiadora: educando o cliente. Acredito que uma falha seja a decisão de trabalhar com influenciadores antes de ter definido qual é o objetivo estratégico de comunicação da marca/empresa. O influenciador precisa vir como “ferramenta” ou “plataforma” para endossar a mensagem que se quer passar – e, neste caso, vale citar McLuhan para argumentar que o meio também é mensagem. Tendo os objetivos em mente, é possível argumentar com os clientes como e por qual motivo aquele influenciador pode ser um recurso para aquele esforço comunicacional: para ajudar na argumentação, vale embasar a fala na pesquisa da Traackr que listou os “tipos” de influenciadores.

Ao mesmo tempo em que o objetivo é definido e pensa-se num influenciador para uma ação ou uma campanha, é importante discutir também quais são os valores acionados por aquela pessoa e como esses aspectos simbólicos podem beneficiar ou destratar a imagem da empresa. Para selecionar com inteligência e responsabilidade o influenciador (seja ele youtuber, ex-viner, famoso do Snapchat ou Instagram, blogueiro, ou simplesmente um fã influente na sua comunidade de consumidores), é preciso analisar tanto os números (o que em termos de mensuração a pessoa pode entregar) quanto o histórico, valores simbólicos/culturais do indivíduo. Talvez o termo mais apropriado para discutir sobre a escolha de influenciadores não seja influência, mas relevância – e isso é sempre relativo, depende de referenciais distintos.

Se o tempo permitisse, o debate sobre influenciadores com certeza durariam alguns dias. Para quem tiver mais interesse no assunto, recomendo o capítulo escrito por Gabriel Ishida para o novo livro do IBPAD, “Monitoramento e Pesquisa em Mídias Sociais: metodologias, aplicações e inovações”, onde ele compilou descobertas de estudos que têm feito sobre a significância de influência e relevância nas mídias sociais. Para uma perspectiva mais acadêmica, conheci recentemente o trabalho de Crystal Abidin, que estuda sobre influenciadores, blogueiras e webcelebridades no Oeste da Ásia. Considero um assunto de tremenda importância e que precisa ser debatido com mais seriedade e responsabilidade, indo além das falácias e celebrações mercadológicas que vemos por aí.

A penúltima palestra da manhã, “Dados para quê mesmo?”, foi ministrada por Willian Zanette, da F/Nazca Saatchi. Ele falou sobre o uso de dados para embasar decisões estratégicas e gerar resultados valiosos. Sua fala foi bastante inspiradora para aqueles que trabalham com métricas e indicadores digitais em geral, argumentando que os profissionais data-driven já não são mais trunfos para as empresas, mas essenciais ao mercado. Por outro lado, ele também fez colocações importantes sobre a “generalização apressada” de dados como verdades absolutas, o que serve para refletir as limitações que o digital também apresenta. Em resumo, uma frase da apresentação que explica bem sua fala: “Pensamento integrado com inteligência de dados orientado para resultados”.

A palestra da Polis Consulting, patrocinadora do evento, “Identificação de influenciadores: como os dados podem te ajudar?” fechou o turno da manhã. Eles mostraram alguns dos trabalhos que têm desenvolvido na pesquisa e monitoramento de mídias sociais. apresentando também algumas aplicações para o famoso Facebook Topic Data. Um adendo cômico: como o horário do almoço estava próximo, a produção de tweets caiu bastante – mas, mesmo sendo breve, a apresentação foi bem interessante, principalmente no quesito de visualização de dados. Espero que disponibilizem em breve o Slideshare (e atualizo aqui quando isso acontecer).

Retornando do almoço, tivemos o resultado da pesquisa “O profissional de inteligência de mídias sociais no Brasil” apresentada por Ana Claudia Zandavalle, que visa gerar informação estratégica para o mercado. Em sua sexta edição, a pesquisa, que já foi comandada por Tarcício Silva e Júnior Siri, teve seu número mais alto de respondentes (386), com representantes de 24 dos 26 estados brasileiros. Os resultados apresentam informações sobre demografia, formação e estudos, ferramentas e conhecimento na área, campo de trabalho, fontes de informação e referências. Para quem tiver interesse, vale também dar uma olhada no capítulo homônimo do novo livro do IBPAD, que conta com descrições mais detalhadas sobre a pesquisa e seus dados evolutivos.

Pretendo me aprofundar mais na pesquisa quando fizer um post (ainda este ano) sobre produzir conteúdo para a internet. Preciso, entretanto, utilizar este breve espaço para agradecer a você – leitor – que, ao responder a pesquisa, recomendou este blog como um dos principais blogs/portais de referência. Com pouco mais de 1 ano de blog, já colhi frutos extraordinários de aprendizados (para quem não sabe, consegui meu atual estágio graças ao blog) e de vivências que a vida me proporcionou ao conhecer pessoas e profissionais incríveis em quem me espelho fielmente para traçar minha jornada profissional. Aos interessados, a boa notícia é que o Slideshare da pesquisa já está disponível tanto no perfil do Media Education quanto no perfil da Ana Claudia, que você confere logo abaixo:

Em seguida, foi a vez de Fabiane Nardon, da Tail Target, para falar sobre “O verdadeiro big data: possibilidades e desafios”. Esta foi sem dúvida uma das melhores – se não, a melhor – palestras de todo o Social Analytics Summit 2016. Além do conteúdo ter sido extraordinário (crédito para Fabiane), foi uma apresentação muito importante para o mercado no momento em que “big data” já foi (des)conceitualizado de várias formas. Ela apresentou como tem sido feito o trabalho com big data no Brasil e no exterior, apresentando possibilidades de atuação para o mercado digital e para onde o futuro aponta. Vale mencionar também seu alerta sobre o uso automatizado irresponsável dos dados, que reproduzem os preconceitos dos próprios indivíduos (no caso, aqueles que programam as máquinas).

Outra pesquisa incrível foi a “Dados para pesquisas sociais”, de Débora Zanini (Ovilgy). Mais do que uma palestra, foi uma verdadeiro aulão: ela quis mostrar ao público que é possível fazer pesquisas de âmbito sociais, políticas e culturais nas mídias sociais (desde que fique ciente suas proporções e limitações), ou, nas palavras de Richard Rogers: “A questão não é mais saber o quando da sociedade e da cultura está online, mas sim como diagnosticar mudanças culturais e condições da sociedade através da internet”. Para quem tiver interesse, escrevi um pouco sobre isso no curso que fiz no IBPAD sobre Etnografia para Mídias Sociais e na resenha que publiquei sobre o livro “Etnografia e consumo midiático: novas tendências e desafios metodológicos” – especialmente no capítulo de Christine Hine, citada na apresentação (sobre os 3 “e”s da internet).

Confira a apresentação:

Ela apresentou resumidamente um pouco da metodologia para realizar pesquisa sócio-político-cultural nas mídias sociais, tendo em visto as plataformas, os contextos sociais e os usuários e suas reapropriações. Também indicou diversas ferramentas acadêmicas para essa finalidade, como a Netvizz e a Netlytic. Destaco também o exemplo que trouxe para o evento, o relatório “The iconic image on social media”, realizado pelo grupo de pesquisa Visual Social Media Lab sobre a imagem do menino sírio que mudou o debate sobre imigração. Foi talvez a palestra mais rica em conteúdo, com assunto que poderia se desdobrar em muito mais conhecimento. Para nossa sorte, isso já aconteceu: recomendo o capítulo de sua autoria para o livro do IBPAD e o curso (que já fiz!) “Etnografia para mídias sociais”, que em breve terá sua modalidade online.

Por fim, como os tweets acima indicam, a última palestra foi sobre “Um novo patamar na gestão de crise”, por Willian Rocha. Ele apresentou um framework bem interessante para a utilização de práticas de monitoramento e métricas na gestão de crise (e de risco). Foi uma apresentação bem rápida, principalmente devido ao tempo curto que lhe restara, mas o conteúdo foi bem útil para aqueles que trabalham com Community Management e SAC 2.0/Relacionamento nas mídias sociais. Infelizmente o Slideshare ainda não está disponível, mas, assim que estiver, atualizo o post com o conteúdo.

Em suma, posso dizer que foi um grande evento. Destaco principalmente as palestras das mulheres, que tiveram falas bastante focadas e ricas em conteúdo, sem dar muitas voltas sobre o que tinham a falar. Não há críticas a se fazer sobre o local do evento, mas acho que seria interessante pensar um modo de aumentar ainda mais o networking dos profissionais atendentes. Talvez fosse legal programar algumas mesas de debates mais abertas e horizontais, com alguns mediadores que estimulassem a participação do público em geral. No mais, parabéns a Gabriel Ishida e Vinícius Ghise pela curadoria, e à Media Education pelo evento – até 2017!