Tag: métodos digitais

Pesquisa acadêmica com dados de mídias sociais: por onde começar?

No prefácio do livro “Análise de Redes para Mídia Social” (2015), o sociólogo Marc A. Smith introduz a obra de Raquel Recuero, Marco Bastos e Gabriela Zago dando destaque sobretudo à emergência do aparato teórico-metodológico que permitiu a popularização dos estudos de redes a partir de dados da internet. “Enquanto nossa sociedade adota a mídia social como um novo fórum para o discurso público, criando uma praça pública virtual, há uma necessidade crescente de ferramentas e métodos que possam documentar esses espaços […]”, explica.

A mídia social pode ser um fluxo desconcertante de comentários, uma assustadora mangueira de incêndio esperramando conteúdo. Com melhores ferramentas e um pequeno conjunto de conceitos da ciência social, o enxame de comentários, favoritos, etiquetas, curtidas, avaliações, atualizações e links pode revelar pessoas-chave, tópicos e subcomunidades. Quanto mais interações sociais moverem-se para grupos de dados que podem ser lidos por máquinas, mais novas ilustrações das relações humanas e organizacionais se tornam possíveis. Mas novos formatos de dados requerem novas ferramentas para coletar, analisar e comunicar percepções.

SMITH, p. 11.

Seis anos antes, a própria Recuero já chamava a atenção em “Redes Sociais na Internet” (2009) para como a (popularização e consolidação da) interação mediada por computador facilitou a produção de rastros identificáveis, a difusão de conteúdos diversos e a ampliação de limites interacionais. Esses aspectos foram desenvolvidos com mais detalhes em outra obra de sua autoria, “A conversação em Rede: comunicação mediada pelo computador” (2014), agora em torno da caracterização de elementos e dinâmicas especificamente dos sites de redes sociais (SRSs).

As affordances propostas por danah boyd para pensar os públicos em rede (networked publics)persistência, replicabilidade, escalabilidade e buscabilidade – ratificam como a internet (ou os SRSs) se tornou(aram) um espaço prolífero para identificar as “novas” formas de sociabilidade das últimas décadas. Nas palavras de Richard Rogers em “The End of the Virtual” (2009): “A questão não é mais saber o quanto da sociedade e da cultura está online, mas sim como diagnosticar mudanças culturais e condições da sociedade através da internet”.

Cerca de dez anos já se passaram desde a publicação dessas obras mais antigas e muitas outras questões (inclusive problemáticas) já entraram em cena, mas o interesse em fazer pesquisa com dados de mídias sociais segue crescente. A grande área da Comunicação (incluindo aqui também os chamados Media Studies), provavelmente a primeira que se propôs a avançar as discussões e as metodologias desse novo ecossistema social, hoje já partilha desse interesse com outras disciplinas das Ciências Humanas e o restante das Ciências Sociais Aplicadas.

É nesse contexto que surgem (sub)disciplinas/campos como as Humanidades Digitais (Sociologia Digital, História Digital), que unem as epistemologias específicas das Ciências Humanas com muito do que foi desenvolvido sobre mídias digitais nas últimas décadas (que localizo em Comunicação, mas cujos fundamentos são também muito ligados à Sociologia, por exemplo). Acrescentamos a esse cenário as técnicas de coleta/tratamento/análise de dados de áreas ainda mais distantes, como a Ciência da Computação ou Engenharia da Informação.

Pessoas de várias disciplinas são atraídas para o estudo da internet por muitas razões. Alguns querem utilizar as tecnologias para conduzir pesquisa tradicional dentro de suas bases disciplinares, outros querem se libertar dos grilhões das práticas disciplinares tradicionais. Alguns querem compreender algo sobre tecnologias particulares, mas possuem pouco treinamento em métodos para estudá-las. Outros sabem muito sobre os métodos da pesquisa sociais mas pouco a respeito do contexto tecnologicamente mediado que eles estão estudando.

(MARKHAM e BOYD, 2009, p. XIII apud FRAGOSO et. al, p. 28-29)

O que temos hoje, portanto, é um cenário de fartura de dados, ferramentas refinadas, metodologias consolidadas e avanços teórico-epistemológicos interdisciplinares. Em outras palavras: todo mundo quer um pedacinho desse bolo multicamadas. Este post, portanto, é para você que está na graduação ou numa pós e está doido para provar o sabor dessa belezura, mas que não faz ideia por onde começar – ou nem tem certeza se é realmente esse bolo que vai alimentar a sua fome (pode até achar que sim, mas talvez – mais para frente – descubra que não).

Neste post, pretendo apresentar aqui algumas orientações/indicações do que eu acredito que pode vir a ser útil para a sua jornada enquanto pesquisador acadêmico que deseja/pretende trabalhar com dados (publicações, principalmente) de mídias sociais. Já deixo aqui o agradecimento à minha amiga Aianne Amado, que tem desenvolvido comigo alguns projetos que passam por essa temática; e ao mestre (e meu ex-chefe) Tarcízio Silva, que me apresentou a maioria dessas discussões, autores e, principalmente, ferramentas e metodologias.

A proposta aqui não é a de oferecer um panorama geral, que exigiria uma elaboração ainda mais cuidadosa e “cientificamente responsável” (como em uma revisão bibliográfica ou estado da arte), mas apontar alguns caminhos interessantes para esse trabalho. Já são mais de duas décadas de produção acadêmica tanto no Brasil quanto lá fora que pavimentaram o chão no qual podemos caminhar hoje em dia, então é importante conhecer alguns desses esforços para continuarmos trilhando essa jornada sem querer reinventar a roda.

Apontamentos iniciais para a pesquisa acadêmica com dados de mídias sociais

A primeira coisa que eu acho importante de fazermos (coletivamente enquanto comunidade acadêmica) é acalmar os ânimos. Com esse boom de dados que é explorado em diversas narrativas mercadológicas (big data, data scientist, etc.), acabamos querendo também entrar nessa onda apenas para, como falei na metáfora anteriormente, pegar um pedacinho desse bolo. Vale, então, perguntar-se: será que o meu interesse de pesquisa se encaixa nesse contexto e/ou pode ser respondido a partir de dados (publicações) de mídias sociais?

Começo, portanto, apresentando quatro pontos que acredito que precisamos levar em consideração ao nos propormos a realizar pesquisa em mídias sociais. São questões que trago não para esgotarmos as discussões (que são complexas e podem ter argumentos consideralmente conflitantes) ou para desestimular o interesse por essa jornada, mas para pensarmos também o que não pode ser pesquisado a partir desses dados – ou até pode, mas que precisa ser responsavelmente abordado na teoria e metodologia da pesquisa.

1. Não pule para a metodologia antes de definir o objetivo e o problema de pesquisa

Na abertura do livro “Methods of Discovery: Heuristics for the Social Sciences” (2004), o sociólogo Andrew Abbott coloca que: “The heart of good work is a puzzle and an idea” (algo como “O coração de um bom trabalho [de pesquisa] é um quebra-cabeças e uma ideia”, em tradução literal). O autor chama a atenção para como o rigor e a criatividade devem andar lado a lado no fazer científico, para que seja possível destravar as ideias mais criativas através de métodos que devem servir de apoio, mas raramente de guias definitivos.

Trago essa referência porque muitas vezes o que eu vejo são estudantes de graduação ou pesquisadores de pós querendo utilizar certas metodologias apenas pela metodologia. Será que analisar tweets realmente responde à sua questão de pesquisa? Será que o que as pessoas publicam no Instagram se enquadra nas informações que você precisa para avaliar as suas hipóteses? Grafos são realmente muito bonitos (tenho uma amiga que sempre fala que parecem galáxias), mas será que eles atendem as suas necessidades?

2. Lembre-se que o Brasil ainda é um país extremamente desigual

Ainda nessa questão de êxtase por dados, não se engane: o Brasil infelizmente – e com índices piorados devido à pandemia e o descaso do governo federal – continua sendo um país com diversos problemas socioeconômicos. A pesquisa TIC Domicílios 2019 realizada pelo Centro Regional para o Desenvolvimento de Estudos sobre a Sociedade da Informação (Cetic.br) indicou que 80% dos brasileiros possuem acesso à internet, mas há diferenças importantes para serem consideradas a partir de recortes de renda, gênero, raça e regiões.

Gráfico desenvolvido pelo Canal Tech a partir do relatório da Cetic.br

Não se engane (como propõe o mercado de marketing/publicidade): pesquisas e relatórios de institutos como o próprio Cetic.br ou o IBGE, por exemplo, são bem mais importantes do que estudos de agências cool sobre a mais nova tendência digital para dois mil e tanto. Essa ponderação retorna ao primeiro ponto levantado: será que o que é produzido pelos pessoas na internet – às vezes, mais especificamente, nas mídias sociais – realmente atende o que você necessita? São 1) brasileiros falando sobre ou 2) “internautas” brasileiros falando sobre?

3. Entenda muito bem como os usuários se apropriam de cada plataforma e quais dados (conteúdos) geram em cada uma delas

Este ponto parte de dois lugares diferentes, mas com o mesmo pressuposto: a facilidade de falar de mídias sociais (ou sites de redes sociais) como um grupo. Quando falamos em fazer pesquisa sobre/nas/com dados de mídias sociais, estamos supondo que se trata de um coletivo relativamente homogêneo, semelhante – o que não necessariamente é o caso para todas. Embora autoras como danah boyd e Nicolle Ellison tenha, em 2007, tentando propor algumas características em comum para esses sites, mais de 10 anos depois, esse conceito se complexificou muito.

O problema, portanto, encontra-se neste lugar que pressupõe uma classificação bem definida para mídias sociais (ou sites de redes sociais), mas não leva em consideração como suas próprias arquiteturas estão em constante atualização, complicando suas semelhanças e diferenças. E aí entra outra questão também muito importante: o modo como as pessoas se apropriam e fazem a utilização de cada plataforma. Cada espaço estimula produções diferentes de nós mesmos, atendendo ainda à maquinaria da opinião pública – que une pessoas, empresas, personalidades, etc.

Em outras palavras, o que você publica/compartilha no Facebook não é a mesma coisa que você compartilha no Instagram, LinkedIn ou Twitter. Os públicos com os quais você interage em cada um desses sites (familiares, grupos de amigos, conhecidos, contatinhos, etc.) é muito provavelmente diferente, e isso tanto implica quanto está implicado no tipo de conteúdo que será gerado em cada um deles. Se você consegue perceber isso da perspectiva de usuário, deve também ter isso em mente enquanto pesquisador/a.

4. Fique por dentro das discussões sobre algoritmos, inteligência artificial, etc.

Além de nos comportarmos de modos diferentes em cada uma das plataformas (geralmente de acordo com as audiências às quais nos apresentamos), também somos moldados – ou melhor, moldamos nossas conversas – de acordo com o que está sendo falado, apresentado, compartilhado e/ou debatido em cada uma delas. Acontece que, infelizmente, esse processo de pauta envolve atores que atrapalham/complexificam a “espontaneidade” das conversas: empresas, marcas e as próprias mídias sociais – que possuem um modelo de negócio estruturado para isso.

Muito tem sido discutido – principalmente na academia – sobre as bolhas das mídias sociais, câmaras de eco, viés algorítmico, (des)inteligência artificial e assuntos correlatos. Embora cada temática e cada pesquisa aborde essas problemáticas a partir de uma discussão própria, acredito que o que todas elas possuem em comum é a constatação de que precisamos problematizar (e responsabilizar) as políticas de negócios das big techs, visto que todas as suas tomadas de decisões têm impacto e são impactadas pelo modo como as pessoas utilizam seus serviços.

Da cibercultura à era pós-APIs: um panorama não-oficial dos estudos da internet e das mídias sociais (no Brasil)

Talvez não esteja tão evidente assim, mas o principal intuito deste texto é apresentar algumas ferramentas e técnicas para a coleta/extração e análise de dados de mídias sociais. Para chegar aí, entretanto, estou tentando apresentar várias questões que considero importantes para pesquisadores que pretendem trabalhar com isso. Além dos apontamentos iniciais já apresentados, percebo também a necessidade de explicar onde estamos atualmente. Ou melhor: de onde vimos, como chegamos até aqui e (possivelmente) para onde vamos?

Como tenho tentado enfatizar durante todo o texto, fazer pesquisa sobre a internet, na internet ou com dados da internet não é algo nada novo. O que se proliferou consideravelmente na última década, porém, foi tanto a produção desenfreada de dados aos montes (em todos os aspectos da nossa vida) quanto as possibilidades de obtenção desses dados por diferentes atores e através de diversas capacidades técnicas (para o “bem” e para o “mal”). Como, então, podemos fazer o entendimento desse processo – e por que é tão importante fazê-lo?

No capítulo “Panorama dos Estudos de Internet” do livro “Métodos de pesquisa para internet” (2011), Fragoso, Recuero e Amaral fazem um compilado do que, até então, estava à frente dessa temática. Apresentam a proposta de pensar “os estudos de internet como um campo em constante mudança (Jones, 1999) surgido a partir de diversas disciplinas (Baym, 2005) […] dentro de um contexto sócio-histórico que dialoga com a tradição dos estudos de comunicação, cultura, mídia e tecnologia (Sterne, 1999)”.

Fases dos Estudos sobre Internet1a Fase (Início dos 90)2a Fase (Segunda metade dos 90)3a Fase (Início dos 00)
Wellmann (2004)Dicotomia entre utópicos e distópicos; a narrativa da história da comunicação parece ter início com a internet.Inicia por volta de 1998; coleta e análise de dados: documentação e observação sobre os usuários e suas práticas sociais; internet começa a atingir um público maior e mais diverso do que o da fase anterior; pesquisa de opinão e entrevistas; resultados atingidos: apropriações feitas por diferentes classes sociais, gêneros, faixas etárias etc.Abordagem teórico-metodológica: enfoque na análise dos dados; reflexões sobre padrões de conexões, personalização e comunicação.
Postill (2010)Hype acerca do próprio surgimento da internet; polarização real versus virtual; internet como esfera autônoma; interações síncronas versus assíncronas.Análise do objeto internet já inserida dentro do cotidiano; comparações entre a internet e outras mídias; popularização da internet para vários tipos de usuários; amostragem intencional (escolha de casos extremos)Enfoque nos usos e apropriações; explicitação metodológica.
ObservaçõesPara Postill, sobretudo nas duas primeiras fases, há muita ênfase no hype sobre a própria internet.Wellmann indica uma predominância na segunda fase dos estudos quantitativos, enquanto que na segunda fase a abordagem qualiquantitativa tem aparecido com mais força.
Tabela 1: Principais fases dos estudos de internet para Wellmann (2004) e Postill (2010).

Na Tabela 1, que reproduzo acima, apontam as fases dos estudos sobre internet a partir de dois autores, elaborando o argumento de se pensá-la não como disciplina, mas como um campo. Chamam a atenção, entretanto, para como essa historicização “merece ser relativizada, no sentido que, corresponde, em grande parte, ao desenvolvimento das pesquisas no contexto anglo-saxão”. No Brasil, apontam que “um direcionamento rumo a pesquisa empírica em internet entra com maior força apenas a partir da segunda metade dos anos 2000”.

Acrescentam que “antes disso [da segunda metade da década], boa parte dos estudos voltava-se a aspectos filosóficos ou até mesmo psicológicos cujas abordagens eram estritamente teóricas e e/ou ensaísticas sem comprometimento com coleta de dados no campo“. Esses estudos, no contexto brasileiro das Ciências Humanas e das Ciências Sociais Aplicadas, encontravam-se sobretudo associado aos estudos de cibercultura e dos estudos de interface humano computador (IHC). Surge, então, a pergunta: o que mudou a partir de 2005 em diante?

Eu fiz essa linha do tempo para apresentar em duas oportunidades que tive de falar com alunos, professores e pesquisadores acadêmicos sobre coleta de dados em mídias sociais (e como chegamos na era pós-APIs). Selecionei algumas obras não necessariamente por relevância ou impacto teórico (no Brasil e à fora), mas para tentar explicar mais ou menos o que aconteceu – a partir da minha interpretação – na primeira década do milênio em termos de internet, sites de redes sociais e, consequentemente, pesquisas que os envolvem de alguma forma.

No início dos anos 2000, as pesquisas e estudos de internet eram muito voltados para uma perspectiva mais sociotécnica – e que vislumbrava várias abordagens, das mais pragmática às mais distópicas/utópicas. Era também o momento em que a World Wide Web se consolidava como uma das grandes “revoluções” do mundo moderno, com várias expectativas realmente revolucionárias do que poderia estar por vir. Havia um entusiasmo muito grande com a possibilidade de conexão e descentralização dos meios de informação/comunicação.

Outra proposta de reflexões teóricas sobre a cibercultura (SCOLARI, 2009)

Acho importante também abrir um parênteses para falar do fenômeno da web 2.0, hoje até negligenciado, principalmente em termos de discussão, mas que foi fundamental para a consolidação do que temos atualmente. No início da internet, eram pouquíssimas as pessoas que podiam produzir conteúdo: a web 1.0 era formada por webmasters que sabiam fazer sites (HTML) completamente estáticos e usuários que navegavam por esse espaço; na web 2.0, esse cenário se torna mais dinâmico com a introdução de possibilidades com XML e RSS (de onde nascem os blogs, wikis, etc.).

Em meados dos anos 2000, “entrar” na internet já era algo bastante comum para boa parte da população brasileira. Foi o período de febre das lan houses, dos joguinhos online, da evolução dos discadores para banda largas, etc. – e também o primeiro momento em que um site de rede social ganha força: o Orkut. A meu ver, nessa época, a discussão virtual x offline (herança da década de 90) ainda continuava com bastante força, com muito sendo discutido – inclusive na imprensa – sobre comunidades virtuais, subculturas virtuais e mundos virtuais (Second Life, Habbo Hotel, etc.).

Duas coisas acontecem no final dessa década que, a meu ver, são fundamentais para o que viria a seguir – e estão bastante interligadas: a popularização de smartphones (e, obviamente, a ascensão econômica dos brasileiros para adquirirem esses objetos) e a consolidação da internet móvel (3G). Esse cenário foi fundamental para que, no final dos anos 2000, sites de redes sociais como Facebook, Twitter e YouTube ganhassem a projeção social e econômica que têm hoje em dia. Paramos de “entrar” na internet, que se tornou embutida, incorporada e cotidiana (HINE, 2015).

É também nesse contexto que a World Wide Web, que nasce com um entusiamo de revolução, é cooptada pelas garras do capitalismo nos modelos de negócios desenvolvidos pelas empresas de mídias sociais. Internet vira, de certo modo, sinônimo de redes sociais – um ponto obrigatório de passagem. Da Tabela 2, que também reproduzo do livro de Fragoso et. al, percebemos um redirecionamento dos estudos de internet em termos de abordagem teórica, cada vez mais em direção a pensá-la como artefato cultural e/ou como mídia mesmo.

Abordagem TeóricaInternet como CulturaInternet como Artefato CulturalInternet como Mídia
ConceitosCiberespaço, vida virtual, cibercultura, descorporificação, desterritorialização.Online/Offline, incorporada à vida cotidiana, localidade.Convergência de mídia, vida cotidiana, novas mídias, cultura digital.
Objeto/CampoCom base no texto: Chats, BBS, IRC, Usenet, Newsgroups, MUDsCom base na web: Páginas pessoais, websites, mundos virtuais.Redes sociais, objetos multimídia: Conteúdo gerado por consumidor, Web 2.0.
Metodologia
Qualitativa
Etnografia
Comunidades Virtuais, Comunicação Mediada por Computador, Identidade Online, Estudos feitos exclusivamente em tela.Laços sociais, representação de identidade, “estudos além da tela”, apropriação da tecnologia, etnografia virtual.Etnografia multimídia, etnografia conectiva, etnografia das redes.
Tabela 2: Abordagens teóricas sobre a internet enquanto objeto de estudo. Fonte: Ardevol et al. (2008)

Percebemos, portanto, que, a partir da virada da década, os sites de redes sociais (SRSs) passam a tomar conta, com várias das produções acadêmicas sendo principalmente dedicadas a esses fenômenos. O projeto de pesquisa “Why We Post”, liderado pelo etnógrafo Daniel Miller na University College London busca, desde 2012, compreender os usos e as consequências das mídias sociais no mundo inteiro. No Brasil, temos também a tese “Dinâmicas identitárias em sites de redes sociais” (2014), de Beatriz Polivanov, que vira livro e referência na área.

Essas obras não necessariamente trazem novos paradigmas para o campo da pesquisa na internet, mas atualizam e referenciam muito – o trabalho de Polivanov, por exemplo, traz bastante da produção brasileira das próprias autoras Raquel Recuero, Adriana Amaral, Suely Fragoso, Sandra Montardo, etc. – dos métodos já populares, como (n)etnografia virtual, entrevista em profundidade, etc. No entanto, dando continuidade à promessa da web 2.0, a produção de conteúdo gerado por usuários exige que essas pesquisas também atualizem seus repertórios ferramentais.

Nesse contexto, grupos como o Digital Methods Initiative da Universidade de Amsterdã surgem com alternativas para explorar dados da internet – e, consequentemente, dos sites de redes sociais – em grande escala. O livro “Digital Methods” (2013), de Richard Rogers, líder do grupo, é a publicação que reafirma a iniciativa de estruturar ferramentas capazes de compreender a sociedade através da internet, principalmente sob a perspectiva de redes, rastros de conflito, arquivos de conteúdo, etc. – para estudar cliques, hiperlinks, curtidas, comentários, etc.

Várias outras publicações também surgem nesse mesmo momento com o intuito de pensar métodos para fazer pesquisas com/nas mídias sociais, mas aqui chamo a atenção para essa produção do DMI devido à proposta do grupo de produzir principalmente um aparato técnico que desse conta desse novo cenário. E se hoje estamos vivendo a era da pesquisa “pós-APIs”, é porque foi nesse momento – e também com a ajuda de projetos como esse, muito ancorados nas lógicas das APIs – que a coleta de dados de mídias sociais pôde se popularizar tanto.

Para explicar isso, vou ter que voltar um pouquinho na nossa historicização da web. Quando os sites de redes sociais surgiram, eles eram também fruto da lógica da web 2.0 (que, como expliquei, teve como primeiros produtos os blogs e wikis, mas cuja evolução disso fica evidente na proposta das mídias sociais). Essa lógica da cultura colaborativa trazia consigo um estímulo de co-desenvolvimento para que as pessoas também pudessem criar e elaborar projetos em cima de estruturas e códigos já previamente estabelecidos (que é a cultura da programação até hoje).

As APIs (Application Programing Interface), que são basicamente “séries de comandos que permitem a usuários e aplicativos se comunicarem com os sites e requisitarem dados hospedados em seus servidores” (ALVES, 2017, p. 2016), foram lançadas praticamente junto às próprias mídias sociais. Foram a partir delas que vários aplicativos ganharam também bastante popularidade – como aqueles joguinhos do Facebook de meados de 2010 (Farmville, Colheita Feliz, SongPop), ou o antigo Twitpic de quando o Twitter ainda não permitia publicar imagens.

Foi a partir dessa oportunidade que muitos dos softwares acadêmicos desenvolvidos no final da primeira década dos anos 2000 e início da década seguinte ganharam também muita força, sendo talvez a Netvizz (do DMI), que permitia coletar dados do Facebook, a grande protagonista de toda essa história. Infelizmente, não por um bom motivo: quando os problemas começaram a vir à tona, a ferramenta foi aos poucos enfrentando limitações cada vez mais severas. O próprio Rogers, que ajudou a popularizar as ferramentas do seu grupo, foi forçado a admitir:

Ao construir as infraestruturas necessárias para apoiar e rastrear a crescente quantidade de interações online e ao tornar os registros resultantes disponíveis através das APIs, as plataformas reduziram significativamente os custos dos dados de mídias sociais. A facilidade da pesquisa com APIs veio com o preço de aceitar a padronização particular operada pelas plataformas de mídias sociais e o enviesamento que vem junto. […] Num frenesi consumista, nós estocamos dados como commodities produzidas em massa. A pesquisa com APIs é culpada (pelo menos em parte) por espalhar o hype dos dados de mídias sociais, reduzindo a diversidade de métodos digitais ao estudo de plataformas online, e por espalhar as ideias pré-concebidas de que o Facebook, o Google, o Twitter e seus semelhantes são os mestres do debate online, e não há alternativas a não ser viver sob as migalhas de suas APIs.

(VENTURINI, ROGERS; 2019)

A “era das APIs” realmente facilitou muito uma das etapas do processo metodológico de pesquisa com dados de mídias sociais, a coleta/extração dos dados, mas a verdade é que muita pesquisa já foi feita – inclusive no mesmo período – sobre mídias sociais sem necessariamente depender dessa alternativa. O próprio termo “pós-APIs” parece, hoje, demasiadamente apocalíptico, visto que várias plataformas continuam com APIs ainda bastante favoráveis principalmente àqueles interessados a realizar pesquisa acadêmica com dados de mídias sociais.

O Twitter lançou recentemente uma versão de sua API exclusiva para acadêmicos com acesso inédito a um volume de dados jamais visto até em algumas das suas opções pagas. O YouTube continua com a API funcionando relativamente bem, com ferramentas como o YouTube Data Tools (DMI) ainda no ar. Até mesmo o Facebook, maior site de rede social da atualidade, que começou a fechar sua API em 2015 e depois do seu afiliado Instagram em 2016, hoje tem a CrowdTangle como alternativa oficial da empresa para pesquisadores acadêmicos.

Ainda temos um cenário bastante próspero para quem deseja trabalhar com coleta de dados de mídias sociais, embora os tropeços dos últimos ainda. É importante, entretanto, ter em vista que “muitos dados” não é necessariamente o equivalente a uma pesquisa melhor, mais válida ou mais rica. Essa perspectiva positivista pela evidência quantitativa eufórica não é o legado que duas décadas de estudos de internet nos deixa, com um vasto repertório de métodos qualitativos sendo explorados, discutidos e potencializados no Brasil e à fora.

Abordagens e ferramentas de coleta para mídias sociais – quais dados estão disponíveis?

Há basicamente três maneiras para se coletar dados de mídias sociais (em 2021): via APIs, raspagem de dados (web scraping) ou manualmente. Qual é a diferença entre cada um deles e o que isso implica? Antes de responder essa pergunta, preciso admitir uma coisa: quando estou falando aqui de “dados de mídias sociais”, estou me referindo principalmente às publicações que são feitas pelos usuários (o famoso UGC – user-generated content) e/ou às informações semipúblicas disponíveis a nível de usabilidade das plataformas (seguidores, por exemplo).

No entanto, é evidente que os dados que geramos nas mídias sociais correspondem a muito mais do que isso. Cliques, alcance, tempo em tela, taxa de rejeição (bounce rate), dentre várias outras métricas também podem ser consideradas para análise de mídias sociais. No mercado de comunicação digital, essa diferença se estabelece nas definições de monitoramento e métricas, em que a segunda está muito mais associada a dados fornecidos pelas próprias plataformas cujo foco está na mensuração para otimização de objetivos de negócios (venda, awereness, etc.).

O foco das pesquisas com dados de mídias sociais, portanto, costuma ser as conversações em rede – ou seja, o conteúdo (das mensagens ou dos perfis) ou as próprias interações. É por isso que a análise de redes se popularizou tanto nas últimas décadas, por fornecer o aparato técnico-metodológico (e teórico) para compreendermos principalmente a lógica de conexões das redes – que estão nas trocas de mensagens, mas também na associação entre os atores (amizade, seguidores, vídeos relacionados, etc.), disseminação de (des)informação, etc.

Para gerar essas redes com centenas, milhares, às vezes milhões de conexões, alternativas de coleta via API ou web scraping facilitam muito o processo – o que não quer dizer que uma rede não possa também ser produzida manualmente. O mesmo vale para a análise de conversação/conteúdo, que também ganhou bastante notoriedade nas produções acadêmicas da última década. Na tabela abaixo, apresento de modo bastante simplificado/didático quais são as principais diferenças entre essas três opções de coleta, já listando algumas ferramentas.

APIsRaspagem de dados
(web scraping)
Coleta manual
Como utilizar?– Ferramentas plenas comerciais
– Softwares acadêmicos
– Códigos e scripts de programação
– Códigos e scripts de programação– Copia e cola
– Captura de tela
Limitações e implicações– Dados disponíveis de acordo com a documentação de cada plataforma– Prática vai contra os Termos de Serviço das plataformas
– Pode ter consequências operacionais e até jurídicas
– Assim como raspagem, envolve questões éticas da privacidade dos usuários
Exemplos de ferramentas ou softwares– Netlytic, YouTube Data Tools, Facepager– Twint, SNScrape, Instagram-Scraper– Spreadsheets, Excel, LibreOffice

Fazer a extração/coleta de dados via API significa basicamente utilizar das portas de acesso que as próprias plataformas disponibilizam para terceiros terem acesso a seus dados. Essa prática diz respeito ao modo como a web, que surgiu otimista pela descentralização de acesso, tem se transformado cada vez mais em plataformas proprietárias de empresas – como no caso das mídias sociais. A plataformização da web diz respeito a um modelo econômico dominante e as consequências da expansão das plataformas de redes sociais em outros espaços online.

O pesquisador brasileiro Marcelo Alves traz esse argumento da pesquisadora Anne Helmond – integrante do Digital Methods Initiative (DMI) – em que explica que “as APIs permitem fluxos de dados cuidadosamente regulamentados entre plataformas sob a forma de APIs abertas ou APIs proprietárias”. Essas infraestruturas programáticas que definem barreiras e se comunicam com o restante da web por meio de aplicações direciona a política de fluxo de dados, nas quais os planos de negócio das empresas são representadas através de permissões e leis de acesso.

Gráfico do artigo “Is the Sample Good Enough? Comparing Data from Twitter’s Streaming API with Twitter’s Firehose” comparando a mesma coleta através de duas APIs do Twitter

Há, portanto, dois pontos importantes em relação às APIs: suas documentações e chaves de acesso (token). As primeiras geralmente são disponibilizadas publicamente nos sites das plataformas (com dicionários sobre pontos de exportação, informações para consultas, erros comuns, etc.), mas a segunda exige uma requisição a ser solicitada (para conseguir uma chave). São diversos níveis de autorização, acesso e proibições de pontos de dados, cuja diversidade dos metadados está de acordo com as permissões concebidas (ALVES, 2018).

Em termos práticos, portanto, é imprescindível que os pesquisadores interessados nos dados dessas plataformas entendam como ler a documentação fornecida e aprendam a operacionalizar as interfaces para tirar o máximo de proveito de acordo com seus objetivos. Isso implica, entretanto, ter o mínimo de conhecimento de programação para saber como fazer requisições aos servidores do Facebook, Twitter ou YouTube – o que dificulta um pouco esse processo, como também é o caso para a opção de raspagem de dados (scraping).

É por isso que várias ferramentas/softwares foram desenvolvidas na última década a partir de iniciativas como a DMI para facilitar o acesso de pesquisadores acadêmicos aos dados fornecidos via API. Já citei aqui algumas delas, como: a falecida Netvizz que permitia acesso a dados do Facebook; a Netlytic e sua irmã mais nova, Communalytic, desenvolvida por pesquisadores da Social Media Lab com funcionalidades robustas de análise (de redes, inclusive) a partir da coleta de dados do Twitter, YouTube, Facebook/Instagram; e a YouTube Data Tools.

Todas essas fazem (ou faziam, como no caso da Netvizz) uso das APIs das plataformas, o que pode ser um grande facilitador em vários sentidos. No entando, apesar dos benefícios de interfaces que não exigem conhecimento de programação e repositórios online independentes da nossa máquina pessoal, o maior problema delas também está no trunfo das APIs e suas limitações. A versão gratuita para desenvolvedores, do Twitter, por exemplo, até recentemente só permitia a coleta de alguns milhares de tweets a cada 15 minutos e com um retroativo de até, no máximo, 7 dias.

É nesse contratempo – de modo mais amplo – que surge a alternativa de raspagem de dados (ou scraping, em inglês), que nada mais é do que um procedimento automatizado de uma coleta que você também poderia fazer manualmente. Isso porque essa técnica geralmente extrai os dados a partir de uma linguagem de marcação (HTML) do seu código-fonte, na qual “o mecanismo exibe a página e procura na linguagem de marcação pelas partes específicas referentes aos dados que precisamos” (ALVES, 2018, p. 24).

A maior dificuldade de se trabalhar com web scraping é ter o mínimo de conhecimento de programação para saber como rodar scripts em Python e R. No entanto, trabalhar com APIs também exige um conhecimento de técnicas e linguagem de programação para poder fazer as requisições (e até mesmo ler as documentações de acesso). A boa notícia é que para ambos os casos há vários scripts – códigos escritos por programadores, desenvolvedores, etc. – disponibilizados publicamente em repositórios como o GitHub.

Para quem não quer utilizar as ferramentas acadêmicas já citadas (que podem custar caro no bolso brasileiro) para extração via API, há projetos como o Facepager e o Social Feed Manager que já fazem boa parte do trabalho de programação por você, sendo necessário apenas alguns ajustes de configuração do acesso. Já quem não possui boas chaves de API à disposição, alguns scripts de raspagem como o Twint, o Instagram-Scraper e o SNScrape podem ser interessantes. Acima, compartilho vídeos-tutoriais de como instalar o Python para utilizá-los.

Além de todas as opções, há três iniciativas que estão constantemente atualizando suas listas de ferramentas para pesquisa em mídias sociais: o Social Media Research Toolkit do Social Media Lab/Social Media Data (com uma catalogação detalhada de variáveis importantes), o wiki Social Media Data Collection Tools organizado pelo Deen Freelon; e as ferramentas do médialab Sciences Po. Em seu blog institucional, o pesquisador Wasim Ahmed também já fez levantamentos de ferramentas em 2015, 2017, 2019 e recentemente em 2021.

Na tentativa de agregar todas essas ferramentas levantadas por esses repositórios e também incluir outras opções interessantes – inclusive projetos brasileiros, como o LTweet do LABCOM da UFMA -, criei recentemente uma planilha (ainda em construção – interessados em colaborar podem entrar em contato comigo!) para compartilhamento dentre a comunicade de pesquisadores brasileiros. No final das contas, o que fica evidente é que opção não falta para conseguirmos algum jeito de coletar/extrair dados de mídias sociais – a escolha é sua.

Para continuar estudando: uma nota pessoal, referências e métodos/metodologias mais comuns

Tentei, ao longo deste post, construir a minha fala em cima de vários referenciais teóricos e uma perspectiva mais impessoal sobre o assunto. Gostaria de finalizá-lo, entretanto, carregando um pouco a mão no eutnocentrismo, começando pelos motivos que me fizeram escrevê-lo, que são três: um pedido de ajuda de uma mestranda da USP, uma fala para alunos da graduação do curso de Estudos de Mídia da UFF e uma oficina que ministrei junto à minha querida amiga Aianne Amado para graduandos, mestrandos, doutorandos e doutores da UFS/UnB.

Esses três eventos aconteceram (não simultaneamente) nos últimos dois meses e me fizeram não só refletir, mas levantar e preparar um material didático para esses três diferentes públicos que tinham o mesmo interesse: aprender como coletar e analisar dados de mídias sociais. Para cada um deles, eu tive que desenvolver um modo diferente de explicar tudo isso que falei aqui (nem com tanta profundidade ou entrando em tantos detalhes como fiz agora), levando em consideração o nível – e a formação – de conhecimento de cada um.

Escrevi este texto com o intuito de compilar tudo que pude passar nessas três ocasiões, agregando já as discussões que conseguimos propor em alguns deles, com o intuito principal de ser realmente um guia (introdutório) para quem deseja trabalhar com dados de mídias sociais. Há muito mais do que eu trouxe aqui, mas imagino (espero) que o que pude apontar – e questionar – sirva de contribuição para você, que está lendo até agora. A minha proposta nunca foi a de esgotar as possibilidades, mas abrir os horizontes para futuros navegantes.

Acho também importante colocar que embora a minha formação (graduação) seja em Estudos de Mídia/UFF, muito do que eu aprendi e conheci veio do meu trabalho no IBPAD, com a mentoria do meu mestre, Tarcízio Silva. Foi sob sua orientação que produzi o material “100 Fontes sobre Pesquisa e Monitoramento de Mídias Sociais”, com o qual descobri vários dos autores que citei; foi também onde aprendi a mexer na Netvizz, no YouTube Data Tools e no Netlytic; além da prática de análise de redes com o Gephi e, depois, com a WORDij.

No mestrado, optei por seguir para uma área interdisciplinar menos voltada para Comunicação, o que fez com que eu tivesse que estudar sobre métodos digitais por conta própria. É realmente muito desafiador se manter atualizado de todas essas discussões e dos próprios fenômenos digitais nesse campo em constante mudança que é a internet, mas tento acompanhar vários pesquisadores da área através do Twitter, para ficar de olho no que há de mais novo (no sentido de inovador mesmo) em termos de metodologias, ferramentas e técnicas.

No entanto, é importante que não nos deixemos cair no deslumbramento do que está no hype somente pelo hype (como fizeram os primeiros estudiosos de internet). É preciso olhar constantemente para trás – vide a tabela 3, do livro bastante citado aqui de Fragoso et. al (2011) – a fim de entendermos como conseguimos avançar sem necessariamente reinventar métodos já consolidados, mas pensar como podemos agregar novas metodologias aos cenários atuais e emergentes – como tem sido feito constantemente com as abordagens chamadas “métodos mistos”.

ObjetosAlguns métodos apresentados na literatura
Blogs
Fotologs
Videologs
Moblogs
Microblogs
Análise de conteúdo
Análise de discurso
Etnografia + ARS
Entrevistas
Estudo de caso
Observação participante
Método Biográfico
Estatísticas
Páginas Pessoais
Websites
Análise de Hyperlinks
Etnografia
Estudo de Caso
Análise de webesfera
Webometria
PortaisEstudo de caso – Método GJOL
Etnografia
Entrevistas em profundidade
Análise documental
Mundos virtuais
MMORPGs
Interacionismo simbólico
Etnografia
Semiótica
Análise documental
Fóruns
Chats
Listas de discussão
IRC
Pesquisa de opinião (survey)
Observação Participante
Entrevista
Teoria Fundada
Sites de Redes
Sociais
ARS
Etnografia
ARS + Etnografia
Grupo Focal Online
Entrevista em profundidade
Análise de Conversação
Tabela 3: Algumas ferramentas digitais e métodos já utilizados em suas análises.

Temos no Brasil diversos pesquisadores, grupos, laboratórios e departamentos com um vasto repertório de pesquisa sobre internet: na UFBA, o GITS e o Lab404; na UFMA, o já citado LABCOM; na UFPel, o MIDIARS; na UFF, o MidiCom, o coLAB e o CiteLab; para citar apenas alguns. O Instituto Nacional de Ciência e Tecnologia em Democracia Digital (INCT.DD) tem toda uma rede de pesquisa com grupos de diversas universidades brasileiras voltado a pesquisar comunicação, internet e política. São atores que dão o tom da pesquisa em mídias sociais no Brasil.

Lá fora, além do tão citado DMI, indico também o iNOVA Media Lab, responsável pelo projeto #SMARTDataSprint, que vem desde 2018 atualizando e provocando vários dos paradigmas propostos pelos métodos digitais. Em português, deixo aqui a minha recomentação também para a obra “Métodos Digitais: teoria‐prática‐crítica”, organizado pela pesquisadora Janna Joceli Omena, que traz textos inéditos e traduções de importantes discussões sobre a temática. Em inglês, há o já citado Social Media Lab, a Social Media Research Foundation e a Association of Internet Researchers.

Finalizo este post com o mesmo tom que iniciei: muita calma com essa euforia por dados. Vivemos, de fato, um momento histórico em que nunca houve tantos dados à nossa disposição – e isso vem com várias ponderações, técnicas, ferramentais, éticas e políticas. Tentei apontar aqui algumas delas, mas enquanto pesquisadores acadêmicos acredito que precisamos ter sempre uma responsabilidade social que amplie e atribua as preocupações aos seus devidos lugares, usos e desusos desses meios em vários sentidos.

Também peço calma aos novos navegantes, que foram possivelmente bombardeados com todas essas informações de uma vez só. Eu admito: não li – por completo – todos os livros, teses ou dissertações que cheguei a citar por aqui. Conheço porque chegaram a mim e sei que são importante no cenário geral, mas sei que minha jornada ainda é muito nova para ter todo esse repertório debaixo do braço. O que eu recomendo é pelo menos saber do que se trata cada um desses apontamentos e discussões, para que seja aprofundado quando – e se – necessário.

Acredito também que precisamos pensar coletivamente enquanto comunidade acadêmica sobre essas diferentes perspectivas de se fazer pesquisa: ferramentas, métodos/metodologias e também epistemologias. A sensação que eu tenho é que, no Brasil, ficamos cada um no respectivo cantinho produzindo sobre nossas temáticas e assuntos de interesse, sem necessariamente discutir como estamos desenvolvendo essas pesquisas. A própria lógica e burocracia científica atrapalha de publicação não acompanha a velocidade de tantas mudanças – o que torna ainda mais urgente pensarmos como podemos manter de pé toda essa conversa.

Referências bibliográficas

ALVES, Marcelo. Abordagens da coleta de dados nas mídias sociais. In: SILVA, Tarcízio; STABILE, Max (Orgs.). Monitoramento e pesquisa em mídias sociais: metodologias, aplicações e inovações. São Paulo: Uva Limão, 2016.
ARDÈVOL, Elisenda., et al. Media practices and the Internet: some reflections through ethnography. 2008. Apresentação no Simposio del XI congreso de antropología de la FAAEE, Donostia, 10-13 de septiembre de 2008. Disponível em: . Acesso em: 01/02/2010.
FRAGOSO, Suely; RECUERO, Raquel; AMARAL, Adriana. Métodos de pesquisa para internet. Porto Alegre: Sulina, v. 1, 2011.
HINE, Christine. Ethnography for the Internet: Embedded. Embodied and Everyday (London: Bloomsbury Academic), 2015.
RECUERO, Raquel; BASTOS, Marco; ZAGO, Gabriela. Análise de redes para mídia social. Editora Sulina, 2015.
RECUERO, Raquel. Redes sociais na Internet. Porto Alegre: Sulina, 2009.
VENTURINI, Tommaso; ROGERS, Richard. “‘API-Based Research’ or How Can Digital Sociology and Digital Journalism Studies Learn from the Cambridge Analytica Affair.” Digital Journalism, 2019.
WELLMAN, Barry. The three ages of internet studies: ten, five and zero years ago. New Media & Society. London, Vol. 6 Issue 1, p. 123-129, 2004.

Materiais de apoio

Coleta de Dados em Midias Sociais para Pesquisa Acadêmica de Tarcízio Silva

Extração de dados altmétricos das mídias sociais de Marcelo Alves

Dados para pesquisas sociais from Débora Zanini

Ferramentas e outras indicações do CodaBR18, por Matheus Dantas

[Texto por Matheus Dantas, participante do Pontão da ECO-UFRJ]
Durante dois dias de aprendizado com mais de 40 horas de treinamento e várias trocas de conhecimento na ESPM em São Paulo, a Conferência Brasileira de Jornalismo de Dados e Métodos Digitais, Coda.br, em sua terceira edição apresentou diversas ferramentas – tanto para usuários experientes como para novatos – que facilitam o trabalho e divulgação de dados.

Se você não teve a oportunidade de acompanhar o evento, ou esteve lá e não conseguiu anotar tudo, o Insightee traz as principais ferramentas apresentadas e suas utilidades:

Base de dados da ABRAJI

Qual base de dados eu necessito para uma determinada pauta? Por onde começar a busca de dados sobre o sistema prisional? Esta planilha da Associação Brasileira de Jornalismo Investigativo é colaborativa e atualmente contém mais de 180 base de dados de diversos assuntos desde economia e política a dados militares e de segurança pública. Ótimo lugar para iniciar sua busca:

Google Trends

Sem ideia para pautas? Que tal ver o que as pessoas estão pesquisando no google. Keila Guimarães, curadora de dados do Google News Lab, mostrou que as pessoas são bem sinceras quando buscam no google. A ferramenta pode ser usada para encontrar reportagens fora da nossa bolha: as estatísticas de Trends são um termômetro, elas revelam aquilo que as pessoas querem saber mais a respeito. Para aprender a usar o Google Trends a empresa disponibiliza alguns cursos para extrair o melhor da ferramenta:

IramuteQ

A ferramenta gratuita faz uma poderosa análise de textos de forma simples e foi apresentada pelo IBPAD – Instituto Brasileiro de Pesquisa e Análise de Dados. A pasta com o tutorial de instalação, apresentação da ferramenta, exercícios e exemplos de análises estatísticas está aqui:

Queremos Saber

Se você se sente em risco quando se identifica ao pedir dados através da LAI (Lei de Acesso à Informação) o projeto Queremos Saber, que conta com apoio da Open Knowledge Brasil (OKBr), pode pedir para você. É necessário cadastrar o pedido no site https://queremossaber.org.br/, guardar o número do protocolo e o robô do projeto faz o trabalho no anonimato.

O órgão público responde a sua solicitação e o projeto disponibiliza a resposta através do número do seu protocolo (é muito importante guardar o número, não há outro tipo de identificação). O projeto ainda não disponibiliza para acesso público as informações já solicitadas, mas durante o evento Camille Moura da OKBr prometeu considerar a ideia.

Atualizando Tarefas Maçantes

Já estamos há muito tempo na terceira revolução industrial, que tal deixar as atividades repetitivas para os robôs? Aprenda aautomatizar tarefas maçantes com o Fernando Masanori:

Flourish

Dados são um monte de número e nem sempre a narrativa textual criada ajuda a interpretação do leitor. Que tal criar mapas bonitos, daqueles de grandes reportagens numa ferramenta sem custo nenhum? Graças ao Google News Lab, o Flourish é de graça para jornalistas, confere lá: www.flourish.studio

SQL

Como ‘entrevistar’ grande bases de dados? Tenta o SQL. Nesta pasta você encontra a apresentação da Cecilia do Lago, repórter do Estadão Dados, com o Leonardo Ferreira Leite, desenvolvedor de software no Serviço Federal de Processamento de Dados (Serpro) e algumas bases de dados para exercícios:

Bots no Twitter

Bots estão no twitter tanto para o bem como para o mal e você pode criar um (claro que para o bem) com as metodologias disponibilizadas pelo Pedro Burgos:

Dados Abertos para Investigações Jornalísticas

Imagens ou vídeos estranhos na internet? Confira ferramentas para criar o seu lide (Como, Onde e Quando?) nessa apresentação da Barbára Libório e do Adriano Belisário:

Estatística para jornalistas

Tá difícil de entender inferência, correlação e regressão linear? Renata Hirota do Volt Data Lab mostra como sair do básico para nunca mais errar em estatística:

Como tornar sua história de dados mais atraentes?

Essa daqui não é bem uma ferramenta, mas é a apresentação da jornalista Amanda Rossi sobre como deixar sua historia de dados mais atraente para o público, afinal não adianta você ter um ótimo furo e o seu leitor não se interessar por ele. Aqui vão as dicas:

+80 ferramentas

Para completar a lista aqui vão 80 ferramentas para ajudar a pesquisar, obter, coletar, armazenar, limpar, analisar e visualizar dados. Muitas são amigáveis para quem não tem grandes conhecimentos de programação. Elas foram apresentadas pela Natalia Mazotte, diretora-executiva da Open Knowledge Brasil: http://bit.ly/80tools-codabr

Outros links interessantes

+ Mini-tutorial introdutório sobre expressões regulares, por Álvaro Justen

Regressão linear, por Renata Hirota

Thread de conteúdos/indicações por Raphael Hernandes, incluindo documento de anotações sobre palestras e atividades

+ Lista de bases públicas (para jornalistas), por Tiago Mali

Dicas, recomendações e apresentações do #CodaBR18

+ Análise de dados: Pandas não morde, por Fernando Masanori

Jornalismo investigativo open-source: ferramentas on-line para responder quem, quando e onde, por Bárbara Libório e Adriano Belisário

Computação visual para Ciências Sociais e Jornalismo, por Tarcízio Silva

Jupyter Notebook – o bloquinho megablaster dos jornalista de dados, por Fernanda Campagnucci

Sobre Coda.br, humildade e networking no bar

10 artigos sobre performance, análise de redes e métodos digitais

No final do ano passado, finalizei um dos ciclos mais importantes da minha vida: a faculdade. Foram cinco anos na graduação de Estudos de Mídia estudando muito sobre comunicação, cultura, sociologia, política, mídias, identidade, consumo e muito mais. Embora tenha sido um bom aluno (com boas notas), sei que não aproveitei a universidade em todo o seu potencial – em vários sentidos, mas principalmente também quanto ao aprendizado. Sei que não sou completamente responsável por essa negligência – coloca aí na conta a falta de maturidade, um sistema de ensino ainda ultrapassado (mesmo num curso progressista como o meu), despreparo acadêmico, etc. -, mas reconheço que poderia ter aproveitado muito mais.

Inicio hoje aqui no blog, portanto, mais essa série de posts (não tão compromissadas quanto outras que já fiz, sem periodicidade definida nem promessas possivelmente falhas) na tentativa de tirar esse atraso. Acrescento a isso também outros dois motivos principais: 1) o meu “projeto” de mestrado (não o material, mas o projeto enquanto concepção mais abrangente), que engloba uma vontade de me manter atualizado com publicações recentes dentro do meu campo de interesse ao mesmo tempo em que (re)descubro leituras importantes/fundamentais para a minha área; 2) e, não menos importante, o meu humilde desejo – e tentativa constante – de expandir os muros da academia, trazendo-a para espaços mais abertos, já que muitas vezes a produção acadêmica (pública e de excelência, pelo menos no Brasil) não é tão bem aproveitada.

Neste primeiro post, compartilho 10 artigos que li recentemente – nas últimas semanas ou no máximo nos últimos meses. Apenas para fins de conteúdo, separei-os em três categorias: descobertas metodológicas, estudos de caso e reflexões epistemológicas. O primeiro grupo são quatro artigos cujo principal crédito que extrai da leitura foi um quadro de trabalho metodologicamente interessante e possivelmente replicável em futuras pesquisas; O segundo também são estudos de caso, mas o foco principal não é a metodologia e sim a análise com diferentes práticas metodológicas (quantitativas e qualitativas); O terceiro tem um nome pomposo (porque a academia gosta), porém é basicamente um conjunto de artigos que reflete sobre a prática de pesquisa desde a sua composição crítica até sua perspectiva prática.

DESCOBERTAS METODOLÓGICAS

Political Storytelling on Instagram: Key Aspects of Alexander Van der Bellen’s Successful 2016 Presidential Election Campaign (2017)

Karin Liebhart, Petra Bernhardt

This article addresses the strategic use of Instagram in election campaigns for the office of the Austrian Federal President in 2016. Based on a comprehensive visual analysis of 504 Instagram posts from Green-backed but independent presidential candidate Alexander Van der Bellen, who resulted as winner after almost one year of campaigning, this contribution recon- structs key aspects of digital storytelling on Instagram. By identifying relevant image types central to the self-representation of the candidate, this article shows how a politician makes use of a digital platform in order to project and manage desired images. The salience of image types allows for the reconstruction of underlying visual strategies: (1) the highlighting of the candidate’s biography (biographical strategy), (2) the presentation of his campaign team (team strategy), and (3) the pre- sentation of the candidate as a legitimate office holder (incumbent strategy). The article thus sheds light on visual aspects of digital storytelling as relevant factor of political communication.

Este artigo eu li para produzir o relatório EM BUSCA DO MELHOR ÂNGULO: a imagem dos presidenciáveis no Instagram – uma análise quanti-qualitativa com inteligência artificial lançado pelo IBPAD recentemente. As categorias de classificação propostas pelos autores foi replicada nesse novo trabalho, apenas com algumas adaptações/adições às originais. Além da ótima fundamentação teórica e discussão sobre política, também pode ser muito interessante para quem estuda auto-apresentação nas mídias sociais (principalmente no Instagram). Se tudo de certo, espero transformar o relatório que fizemos num artigo ainda mais crítico e reflexivo sobre o modo como esses políticos brasileiros se apresentam na plataforma. Clique aqui para baixar.


‘‘Privacy’’ in Semantic Networks on Chinese Social Media: The Case of Sina Weibo (2013)

Elaine J. Yuan, Miao Feng, James A. Danowski

Unprecedented social and technological developments call into question the meanings and boundaries of privacy in contemporary China. This study examines the discourse of privacy on Sina Weibo, the country’s largest social medium, by performing a semantic network analysis of 18,000 postings containing the word ‘‘ (privacy).’’ The cluster analysis identifies 11 distinct yet organically related concept clusters, each representing a unique dimension of meaning of the complex concept. The interpretation of the findings is situated in the discussion of the rapidly evolving private realm in relation to emerging new contexts of the public realm. Privacy, justified for both its instrumental functions and intrinsic values, both reflects and constitutes new forms of sociality on the sociotechno space of Weibo.

Outro artigo que foi essencial para uma produção minha. Recentemente descobri a partir de indicação de Tarcízio Silva a fantástica ferramenta WORDij. É uma ferramenta que, na verdade, agrega várias mini-ferramentas, mas (por falta de conhecimento) minha utilização tem sido voltada para a rede semântica de palavras que ela é capaz de gerar. No artigo em questão, os pesquisadores a utilizaram para analisar 18.000 posts sobre “privacidade” num site de rede social chinês – e conseguiram identificar 11 clusters distintos a partir da co-ocorrência de palavras, criando um mapa discursivo para os territórios conceituais abordados. Utilizei a mesma metodologia para produzir artigo no prelo, analisando 4.000 comentários de uma notícia do G1. Clique aqui para baixar.


A Forma Perspectiva no Twitter: uma técnica quanti-qualitativa para estudos de Redes Sociais (2014)

Lorena Regattieri, Fábio Malini, Nelson Reis, Jean Medeiros

Como podemos identificar perspectivas em grandes redes, através da aplicação de algoritmos de modularidade? Em humanidades digitais (MORETTI, 2013; JOCKERS, 2013), há um bom número de trabalhos acadêmicos explorando rotinas computacionais para agrupar e analisar grande quantidade de dados. Recentemente, dados sociais tornaram-se uma fonte valiosa para estudar fenômenos coletivos, eles fornecem os meios para compreender a coletividade humana por meio de análise de grafos. Neste trabalho, descrevemos a nossa abordagem sobre a forma da antropologia pós-social (VIVEIROS DE CASTRO, GOLDMAN, 2012), utilizando de técnicas de análise quanti-qualitativa e semântica. Esta técnica utiliza um script python para extrair a rede de co-ocorrência de hashtags de um do Twitter, a fim de aplicar no contexto do software open-source Gephi, gerando grafos. Assim, podemos descobrir o fluxo de perspectivas que envolvem uma controvérsia, categorias que revelam os pontos de vista em um debate disposto na rede. Nesse trabalho, utilizamos como estudo de caso o evento da Copa do Mundo 2014 no Brasil, precisamente, os dados relacionados a rede FIFA. Concluindo, este estudo apresenta um quadro teórico e metodológico baseado nos pós-estruturalistas, uma composição que tem como objetivo apoiar estudos no campo das ciências sociais e humanas, e provoca novas possibilidades para os estudos comunicacionais.

Esse artigo eu resolvi ler porque sabia que abordava propostas metodológicas para apresentação/visualização de redes de co-ocorrência utilizando o Gephi. Ou seja, seria um complemento à ferramenta e processo do artigo anterior. Confesso que a primeira parte, na qual os autores tentam associar a teoria ator-rede e antropologia pós-social com as humanidades digitais, é meio estranha, mas o estudo de caso com hashtags da FIFA apresentado ao fim entrega justamente o que eu estava procurando: melhores práticas para layouts de co-ocorrência no Gephi. Tenho testado as sugestões do artigo e ainda não encontrei uma “fórmula pronta”, mas as reflexões e ponderações de Malini e cia foram importantes para alguns trabalhos que tenho desenvolvido. Clique aqui para baixar.


Facebook and its Disappearing Posts: Data Collection Approaches on Fan-Pages for Social Scientists (2016)

Erick Villegas

Facebook fan-pages are channels of institutional self- representation that allow organizations to post content to virtual audiences. Occasionally, posts seem to disappear from fan-pages, puzzling page administrators and posing reliability risks for social scientists who collect fan-page data. This paper compares three approaches to data collec- tion (manual real-time, manual retrospective, and auto- matic via NVIVO 10®) in order to explore the different fre- quencies of posts collected from six institutional fan-pages. While manual real-time collection shows the highest fre- quency of posts, it is time consuming and subject to man-ual mistakes. Manual retrospective collection is only effec- tive when filters are activated and pages do not show high posting frequency. Automatic collection seems to be the most efficient path, provided the software be run frequently. Results also indicate that the higher the posting frequency is, the less reliable retrospective data collection becomes. The study concludes by recommending social scientists to user either real-time manual collection, or to run a software as frequently as possible in order to avoid bi- ased results by ‘missing’ posts.

Fechando essa categoria, esse artigo foi recomendação de Marcelo Alves. Confesso que quando vi o título, achei que abordaria as (novas) mudanças da API do Facebook – mas não me atentei à data de publicação, que é de 2016. De qualquer forma, é um artigo bem interessante. Apesar da conclusão relativamente óbvia/esperada, foi interessante para conhecer a ferramenta NVIVO10. Ainda não tive a oportunidade de testá-la, mas quando eventualmente o fizer provavelmente trarei aqui para o blog em forma de análise ou tutorial. Recentemente a Netvizz infelizmente tem perdido várias funcionalidades ótimas por causa do cenário caótico em que Zuckerberg nos deixou, então é sempre bom conhecer outras alternativas. Clique aqui para baixar.


ESTUDOS DE CASO

A discussão pública e as redes sociais online: o comentário de notícias no Facebook (2015)

Samuel Barros, Rodrigo Carreiro

O presente artigo faz uma análise das arenas de discussão estabelecidas em páginas de jornais brasileiros no Facebook. A abordagem proposta reconhece a circulação de material político no Facebook como importante na esfera pública contemporânea para a discussão sobre temas de relevância pública. A amostra é composta por 1.164 comentários coletados nas páginas oficiais da Folha de S. Paulo, O Estado de S. Paulo e O Globo. O objetivo é avaliar a qualidade deliberativa dessas arenas, levando em consideração os critérios reciprocidade, provimento de razões, grau da justificativa e respeito, além de discutir elementos estruturais do Facebook, a apropriação social e a discussão pública. No geral, as esferas de conversação da rede criadas em torno das notícias estudadas funcionam como ampliadores da diversidade dos argumentos, demonstrando que, em temas sobre os quais há forte consenso, há uma tendência de ocorrer menores índices de deliberação, além de não haver reciprocidade em quase metade dos comentários e mais de 50% das mensagens não apresentarem qualquer justificativa.

Li esse artigo para tê-lo como referência de uma pesquisa que iria realizar a partir de comentários de uma notícia no Facebook. Esta não se concretizou, mas o artigo ainda assim foi muito interessante. O diferencial da proposta dos autores é que eles não estão interessados numa análise voltada para o conteúdo mais explícito das mensagens (temas, assuntos, etc.), mas nos modos argumentativos e contra-argumentativos dos comentários. Ou seja, a preocupação deles é descobrir se esse ambiente online (comentários de notícias no Facebook) são propícios ou não para um debate saudável, responsável e maduro. A resposta já era de se esperar, mas é sempre bom encontrar referências científicas para sustentar nossas percepções mais óbvias. Clique aqui para baixar.


A fotografia como prática conversacional de dados. Espacialização e sociabilidade digital no uso do Instagram em praças e parques na cidade de Salvador (2018)

André Lemos, Leonardo Pastor

Este artigo investiga empiricamente a prática fotográfica através do aplicativo Instagram. Foram analisadas 305 imagens associadas à geolocalização de quatro praças e parques da cidade de Salvador. A análise foi desenvolvida através de três aspectos: processo de espacialização, processo de sociabilidade e processo de produção de si (retratos e selfies). O uso de metatexto (hashtags, legendas e emojis) e de dados de geolocalização indicam que a prática fotográfica se dá, hoje, como uma prática conversacional de dados. Ela convoca uma ampla rede que passa pelo local escolhido, pelo artefato utilizado, pelas formas de edição e manipulação da imagem, pelos metatextos, pelas geotags, pelo procedimento algorítmico da rede social, pelas formas de compartilhamento… O uso da fotografia em redes sociais é um ator-rede, performativo, algorítmico, muito diferente da prática de produção de fotos analógicas ou mesmo digitais antes do surgimento dessas redes. Isso possibilita aos usuários a criação de um discurso/ narrativa e de uma prática de dados relacionados à fotografia inédita até então.

Recentemente no IBPAD temos trabalhado bastante com projetos e metodologias envolvendo análise de imagens. Este artigo, portanto, surgiu como uma luva para nos acompanhar nessa jornada. Apesar de ser uma análise relativamente simples, cujo foco argumentativo dos autores é ratificar como a relação de sociabilidade entre fotografia e compartilhamento se entrelaça com o aparato algorítmico e “dataficante” das plataformas, o que mais gostei do trabalho foi o apontamento de que estamos sempre nos comunicando. Toda publicação nas mídias sociais comunica alguma coisa para alguém. Esse alguém pode não ter uma delimitação definida, sua recepção pode não ser o que esperamos, mas a mensagem está sempre ali para chegar a um receptor (mesmo que às vezes finjamos que não). Clique aqui para baixar.


O amor nos tempos de Facebook. Narrativas amorosas e performances de si em sites de redes sociais

Deborah Santos

Os sites de redes sociais representam espaços de compartilhamento que estão ressignificando o jeito através do qual as pessoas se relacionam consigo mesmas e com os outros que constituem “sua audiência”. Com a emergência destes espaços, as fronteiras entre o que era considerado como privado e como público estão sendo cada vez mais difusas, e os relatos íntimos encontram nas ágoras virtuais um terreno para se inserir em cenários públicos, reconfigurando assim o limite conceitual que restringe “o íntimo” a espaços de interação limitados em alcance. O presente trabalho é um recorte da minha pesquisa de mestrado e propõe-se entender, partindo da análise de um caso de estudo, de que maneira usuários da rede social Facebook constroem narrativas virtuais durante e após relacionamentos amorosos; usando as ferramentas da etnografia virtual como princípios de aproximação ao nosso objeto e partindo de um caso de estudo particular.

Deborah Rodríguez Santos é mestre e doutoranda pelo Programa de Pós-Graduação em Comunicação da UFF e ofereceu, neste período, a disciplina Dinâmicas Identitárias no Ciberespaço para alunos da graduação de Estudos de Mídia. Fiz a mesma matéria alguns anos atrás e por isso me interessei pelo trabalho da pesquisadora, que é orientada por outra referência também já bastante citada aqui no blog: a Profa. Dra. Beatriz Polivanov. O artigo em questão é uma versão (bem) resumida da sua dissertação, que trabalha com a questão da auto-apresentação nos sites de redes sociais (foco no Facebook) a partir do contexto amoroso entre jovens cubanos. Ou seja, além do interessantíssimo debate sobre performance na internet, atravessa também questões culturais específicas e de um lugar desconhecido para a maioria dos brasileiros. Clique aqui para baixar.


“Sabe o que Rola nessa Internet que Ninguém Fala?”: Rupturas de Performances Idealizadas da Maternidade no Facebook

Ana Souza, Beatriz Polivanov

Partindo da observação de que discussões sobre a maternidade têm ganhado visibilidade no Facebook, fazemos aqui uma análise exploratória de uma postagem da mãe, médica e cantora Júlia Rocha. Buscamos atingir os seguintes objetivos principais: 1) investigar que tipos de discursos têm emergido através desse “fenômeno” e de que modos visam desconstruir ou problematizar valores socialmente relacionados à maternidade e 2) entender o lugar de fala através dos quais tais relatos são produzidos, a partir de uma perspectiva pessoal de alguns “nós” na rede. Concluímos que a postagem de Júlia pode ser entendida enquanto uma ruptura de performances idealizadas da maternidade, atrelada a valores como cuidado dos filhos, de si e da relação conjugal, ganhando visibilidade na cultura digital a partir de uma ideia de “sinceridade” ou “autenticidade”.

Ana Luiza de Figueiredo Souza também é mestranda pelo Programa de Pós-Graduação em Comunicação da UFF. Ao lado de Santos e sob supervisão de Polivanov, ministrou a disciplina de Dinâmicas Identitárias no Ciberespaço em Estudos de Mídia neste período. Ambas participam do grupo de pesquisa MiDICom – Mídias Digitais, Identidade e Comunicação, liderado pela última. O artigo também segue parte da pesquisa realizada por Souza em seu mestrado, na qual trabalha com as temáticas de maternidade, auto-apresentação, narrativas pessoais e dispositivos de visibilidade/controle. Destaco especificamente duas questões legais no texto: a discussão sobre “ruptura de performance”, bastante discutida pelo grupo de pesquisa em seus trabalhos mais recentes; e a ótima referência sobre cinco dimensões de persona online, que conheci nesse artigo e resultou nesse post. Clique aqui para baixar.


REFLEXÕES EPISTEMOLÓGICAS

Disputas sobre performance nos estudos de Comunicação: desafios teóricos, derivas metodológicas (2018)

Adriana Amaral, Thiago Soares, Beatriz Polivanov

O presente artigo discute o termo “performance” nos estudos de Comunicação e mídia a partir de um resgate crítico-teórico do mesmo. Partimos de uma reconstituição conceitual do termo em suas vertentes das Ciências Humanas e Sociais francesa e anglo-saxã para apresentarmos seus desdobramentos no campo comunicacional brasileiro, sobretudo no que tange a temáticas como a música e o entretenimento, os fãs e os sites de redes sociais. Argumentamos que os estudos de performance são relevantes para entender as ações humanas, bem como suas mediações com os corpos, aparatos, ambientes, materialidades e audiências tão corriqueiras no cotidiano da vida contemporânea. Contudo, indicamos a necessidade de rediscussão do conceito para a análise de distintos objetos e ambientes mediados pelas tecnologias de comunicação e apontamos a possibilidade de entender a performance enquanto método de pesquisa.

Esse artigo muito provavelmente se tornará leitura básica/obrigatória em cursos de graduação na área de comunicação mais voltada para a academia. Isso porque, além do time de peso (Amaral, Soares e Polivanov – três referências na área), as autoras fazem um “remonte” teórico das premissas teóricas e epistemológicas que têm sustentado os estudos sobre performance no Brasil em Comunicação. Para isso, acionam a matriz etimológica da palavra francesa, rediscutem ideias de autores já consolidados como Goffman e Giddens, e situam minimamente o cenário de pesquisa sobre performance de gosto (na música e) em sites de redes sociais. Além disso, referenciam também autores não tão conhecidos assim, como Diana Taylor e Richard Schechner, ambos integrantes do Programa de Pós-Graduação em Estudos da Performance na New York University (NYU) nos Estados Unidos. Clique aqui para baixar.


A reality check(list) for digital methods

Tommaso Venturini, Liliana Bounegru, Jonathan Gray, Richard Rogers

Digital Methods can be defined as the repurposing of the inscriptions generated by digital media for the study of collective phenomena. The strength of these methods comes from their capacity to take advantage of the data and computational capacities of online platforms; their weakness comes from the difficulty to separate the phenomena that they investigate from the features of the media in which they manifest (‘the medium is the message’, according to McLuhan’s 1964 dictum). In this article, we discuss various methodological difficulties deriving from the lack of separation between medium and message and propose eight practical precautions to deal with it.

Fechando com chave de ouro, esse é outro artigo que possivelmente será bibliografia básica nas escolas de comunicação – talvez não para graduação, mas para pós (até pelo idioma). Os autores remontam as premissas da famosa obra Digital Methods de Richard Rogers e fornecem um “guia” teórico-metodológico para a prática de pesquisa digital a partir de oito questões divididas em quatro categorias relevantes. Papel das mídias digitais em relação ao objeto de estudo: quanto do seu objeto de estudo ocorre no plataforma que você está estudando? você está estudando rastros midiáticos por si só ou como proxies (representações)? Definição do objeto de estudo: a sua operacionalização está sintonizada com os formato do plataforma? com as práticas dos usuários da plataforma? Da análise de uma única plataforma à análise de plataformas convergentes: o fenômeno que você está estudando acontece em diferentes plataformas? você possui operacionalizações diferentes porém comparáveis para cada plataforma? Demarcação de corpus e acesso aos dados: o que seu corpus representa? você está levando em consideração as maneiras pelas quais os dados são “entregues” pela plataforma? Clique aqui para baixar.

Primeira semana do curso Social Media Analytics, da QUT: Twitter, métodos digitais e TAGS

Faz muito tempo que eu tenho interesse em fazer um curso no FutureLearn – para ser mais exato, desde a primeira edição do curso Why We Post, do departamento de Antropologia da University College London comandado por Daniel Miller, que aconteceu em fevereiro deste ano. Até cheguei a me inscrever na segunda edição, que aconteceu em junho, mas os afazeres da vida social (faculdade, estágio, etc.) não me permitiram dar continuidade aos estudos. Acontece que o momento finalmente chegou: por indicação do Tarcízio Silva, fiz a inscrição no curso Social Media Analytics: Using Data to Understand Public Conversations, que teve início semana passada, no dia 18 de julho.

Antes, uma explicação informal do que é o FutureLearn: assim como o também bastante popular Coursera, trata-se de uma plataforma de MOOCs (Massive Open Online Course), um ambiente virtual de educação à distância que oferece diversos cursos para pessoas de todos os níveis de graduação. Não sei exatamente como funciona a associação com grandes instituições de ensino e/ou universidades, mas são cursos – até onde eu sei – elaborados em parcerias com universidades internacionais, principalmente da Europa e dos Estados Unidos. Este especificamente foi feito em associação com a Queensland University of Technology, no Digital Media Research Centre, comandado pelas pesquisadoras Jean Burgess, Axel Bruns e Tim Highfield. Na página do curso, você pode assistir um vídeo com os educadores, conhecer o conteúdo programático e analisar os pré-requisitos necessários para participar (spoiler: ter uma conta no Twitter e no Google).

Do pessoal ao político, as conversações nas mídias sociais estão no coração da mudança sócio-cultural. Neste curso você será apresentado a métodos digitais para analisar os dados de mídias sociais no Twitter. Você aprenderá com pesquisadores consagrados, fará atividades práticas e enfrentará problemáticas acerca de dados de mídias sociais.

Introdução do curso: Métodos digitais pode nos dar uma compreensão mais completa dessas conversações nas mídias sociais, assim como nos permite analisar mais a fundo os atores e os problemas centrais e como estes mudam ao passar do tempo. Estudando a comunicação em mídias sociais utilizando métodos digitais também aprendemos sobre alguns aspectos tecnológicos das plataformas. Uma parte importante dessa compreensão é como as tecnologias de mídias digitais e seus usos diários mudam com o passar do tempo e influenciam umas às outras. Esse é um processo contínuo nas mídias sociais, onde tanto as plataformas quanto os tipos de conversações que acontecem nessas plataformas estão constantemente mudando.

Objetivo do curso: Pensar uma problemática que pode ser compreendida melhor através da coleta de dados no Twitter; a proposta é desenvolvermos habilidades e conhecer ferramentas gratuitas que podem nos ajudar nessa mineração de dados.

SEMANA 1

A primeira semana buscou introduzir algumas reflexões e conceitos sobre a coleta de dados no Twitter – site de rede social que, ao decorrer do curso, vamos utilizar de ambiente para a exploração das conversações. A primeira atividade retomou um assunto recorrente que, de tempos em tempos, sempre aparece nos debates entre jornalistas, profissionais de comunicação/internet, etc.: a morte do Twitter. A pergunta, baseada num trecho de um texto da professora Jean Burgess, era: “are social media still social?”. Em resposta ao argumento de que o Twitter estava morrendo, ela constatou que:

“…as discussões sobre o declínio desse espaço, no momento, está relacionado com a perda da sociabilidade, de certa forma. E para aqueles de nós aos quais os prazeres do Twitter tinham a ver tanto com a intimidade do ambiente, relações pessoais e brincadeiras quanto com o sucesso profissional do cinema, celebridades e manchetes, isso representa uma perda real e lamentável: sociabilidade importa.”

Seu texto responde às provocações desse artigo, Why Twitter’s Dying (And What You Can Learn From It), que eu coincidentemente também “respondi”, humildemente, nesse post de 2015. Para retomar esse debate, compartilho aqui algumas ideias e opiniões expostas por colegas do curso na página da atividade. Já adianto que não concordo com algumas delas, outras concordo em partes; de qualquer forma, acho importante trazer esses pensamentos porque nos ajuda a ter uma noção mais eficaz do imaginário social acerca das mídias sociais e, principalmente, do Twitter:

  • Lee-Ann Lipman: “I’ve personally never found it to be a “social” network, as a place I connect with friends so to speak. For that I would use Facebook.”
  • Georgia Brennan-Scott: “I have often thought of Twitter as a place where one can express themselves freely and publicly with both known and unknown readers. I think there is a freedom in that.”
  • Stacey Larner: “I also find the public nature of twitter makes me want to limit my silly conversations with friends.”
  • Morgana Prior: “When people realise tweets they made 2 years ago, 4 years ago, 6 years ago could be dug out by a journalist it changes how freely people use it. Even those of us not in the limelight start to wonder if our online activity could somehow shackle our future.”
  • Jessica Pelide: “Twitter has a global sociability and this represents a vantage and a disadvantage at the same time: the bigger the crowd is, the bigger the noise is, the more bewildered (and less social) you are.”
  • Michael Salter: “However your Twitter experience is personally curated by the user. If you feel like something is ‘off’, then you might need to unfollow certain users, block others, and start following new people.”
  • Doug Ferguson: “I use Twitter to create (or spread) messages that might resonate with followers. Twitter is for sharing ideas and archiving important messages.”
  • Andrew Wood: “It seems to me that Twitter is what you make of it. Approach it appreciatively with a view to encouraging contribution and collaboration in testing and exploring ideas and opinions – tapping into its social capacity – and it works just fine. It depends on how you listen.”

Alguns aspectos centrais aparecem em boa parte das opiniões retratadas: a questão do público (em oposição ao privado), a questão da conexão “globalizada”, a questão da construção e fixação do self em ambientes virtuais, a questão da ressonância das mensagens, etc. Um aspecto central que eu percebi ter guiado vários dos comentários, embora poucos dos que trouxe aqui, mas também o argumento da professora, foi a noção de “sociabilidade” enquanto relacionado a intimidade (ou “pessoal”, no sentido de algo próximo). Aqui vale pensar buscar o sentido etimológico da palavra: sociabilis (sociare) + itatem (itas), que significa “a qualidade ou condição de associar-se de maneira próxima”. A meu ver, esse é um ponto-chave para iniciar o debate em resposta à provocação. A diferença entre “social” e “pessoal” (íntimo) precisa ficar clara para que os argumentos se desenvolvam de forma responsável, crítica e sem moralismos/saudosismos.

Muita da argumentação no texto e também na seção de comentários foi pautada nessas duas instâncias: 1) moralismo, no maior sentido Baumaniano de romantização do passado, tal que este texto perfeitamente rebate; 2) e saudosismo, no sentido de usuários antigos do Twitter que hoje não se sentem mais contemplados pela plataforma. Curiosamente, essas pessoas me pareciam um pouco mais velhas do que os usuários que eu costumo associar à ferramenta – mas não quero fazer essa associação geracional que também se apoia num argumento de moralismo, só que ao contrário. Meu pensamento aqui segue esse raciocínio: para discutir sobre o “social” em social media, preciso compreender antes quais sentidos atravessam a questão de sociabilidade. Entretanto, sociabilidade não está relacionado a uma questão de intimidade, mas de interação e conexão entre os sujeitos. Nesse sentido, arriscaria dizer que nenhum site de rede social está se tornando menos “social”, pelo contrário – só tem intensificado a sociabilidade, colocando em cena sujeitos também desconhecidos entre si.

Depois desse animado e estimulante início, passamos para algumas propostas mais específicas do curso. Os artigos iniciais apresentaram uma noção básica acerca de conversação em rede, hashtags, ativismo político e a anatomia de um tweet – já destrinchado (também em imagem) nesse outro post sobre monitoramento de mídias sociais. Essa primeira parte foi intitulada Understanding #conversations; a segunda parte, Gathering Twitter data, foi mais prática, mas também nos apresentou alguns conceitos e ideias iniciais sobre métodos digitais, questões éticas da pesquisa virtual (que não consegui me aprofundar devido ao tempo curso para ler todos os artigos disponíveis, conforme explicarei melhor mais adiante), etc. O assunto métodos digitais foi introduzido pelo profº. Axel Bruns com a seguinte fala:

 “Nós usamos tecnologias de mídia digital todos os dias, em variadas formas, desde as pesquisas no Google até assitir vídeos de gatos no YouTube. Somos capazes de usar métodos digitais para pesquisar esses usos porque, sempre que utilizamos essas tecnologias de mídias digitais, deixamos rastros digitais. E, utilizando esses métodos digitais para analisar esses rastros, conseguimos observar e compreender muito mais desenvolvimentos gerais na sociedade.”

A partir daqui já começamos a colocar a mão na massa: como mencionei no início do post, o objetivo prático do curso nos propõe a fazer uma pesquisa “real” sobre algum assunto que possa ser melhor compreendido através da coleta e análise de dados do Twitter. Para isso, já na primeira semana, fomos estimulados a desenvolver o nosso tópico de pesquisa – seguindo as seguintes instruções: 1) Qual é o assunto, problema ou evento que você está pesquisando?; 2) Quais grupos estão envolvidos nesse assunto, problema ou evento?; 3) Quais termos e/ou hashtags estão associadas a ele?; 4) Quais coisas você espera ou prediz encontrar?; 5) Crie uma pergunta para resumir as suas ideias. Como eu ainda não tenho uma ideia formada, vou deixar para formular essa pergunta na segunda semana. Pensei, inicialmente, em pesquisar algo sobre #cidadeolímpica, UERJ ou candidatos à prefeitura de Niterói – mas ainda estou considerando todas as possibilidades (aceito sugestões).

Uma vez que o curso se destina a pessoas de todas as idades e graus de conhecimento/escolaridade (embora haja um fator excludente decisivo que é o fato de ser completamente em inglês), um dos artigos falou um pouco sobre API. Para quem já trabalha com monitoramento ou com mídias sociais de uma maneira geral, o termo Application Programming Interfaces não é estranho. No entanto, achei extremamente importante para nivelar, na medida de possível, o nível de conhecimento de todos os colegas. Em suma, “APIs fornecem uma maneira de acessar as plataformas de mídias sociais que adentra o website e se conecta diretamente à infra-estrutura subjacente”. Em outras palavras, é a porta de entrada que permite a coleta – geralmente num volume considerável – de dados nas plataformas e sites de redes sociais – é pela API do Twitter, por exemplo, que a TAGS, ferramenta que vamos utilizar para extrair os dados, consegue puxar boa parte da “anatomia” do tweet que pesquisamos. E por falar em TAGS…

A primeira ferramenta para coleta de dados no Twitter apresentada foi a TAGS (Twitter Archiving Google Sheet). O vídeo acima já é bastante explicativo, mas funciona da seguinte forma: ela disponibiliza uma planilha do Google Sheets com alguns scripts que permitem aplicar a pesquisa de queries durante um período de até sete dias anteriores ao momento de início da ativação do script – essa limitação de período, por exemplo, é por conta dos direcionamentos de sua API “gratuita”. Para isso você precisa salvar uma cópia da planilha no seu Google Drive e fazer a autorização – no próprio Google Sheets – de uma conta qualquer no Twitter. Essas queries (nome difícil para termos/expressões de busca) possibilitam também alguns operadores (já conhecidos dos profissionais de monitoramento) que ajudam a especificar a pesquisa: AND encontra tweets com duas ou mais palavras específicas; OR encontra tweets que tenha uma palavra específica e outra palavra distinta; from:username encontra tweets enviados pelo usuário; to:username encontra tweets que mencionam o usuário, etc.

A questão óbvia a partir daí é como definir esses termos. Isso requer que você pense cuidadosamente sobre qual material um potencial termo pode capturar e o que pode deixar passar. Isso inclui tanto falsos positivos (posts que respondem aos seus termos, mas que não têm nada a ver com o tópico que te interessa) quanto falsos negativos (posts que seriam relevantes para os seus interesses, mas que não contêm nenhuma das palavras que você escolheu pesquisar). Não há respostar fáceis para essa questão. O que você escolhe pesquisar é sempre profundamento específico ao contexto, e você provavelmente trabalhará por um processo gradual de aperfeiçoamento antes de chegar a uma escolha satisfatória de termos. Nessa etapa e em qualquer posterior análise dos seus dados, você ainda vai precisar ficar atento a qualquer conteúdo relevante que pode ter deixado passar por causa de sua escolha específica de termos.

Embora eu já esteja familiarizado com o processo de coleta de dados voltado para o monitoramento de mídias sociais, posso dizer que ter conhecido a ferramenta já valeu a inscrição no curso. Sempre vi (e ouvi) discussões sobre as ferramentas desenvolvidas pelas universidades ao redor do mundo, mas nunca cheguei ao ponto de pesquisar e buscar conhecê-las mais a fundo. Acredito que o mercado (principalmente agências de comunicação/publicidade) já está tão acostumado com a utilização de ferramentas pagas, que são polidas e especialmente apresentada/desenvolvidas para atender a esse público, que acaba criando um ponto cego e um ciclo vicioso que não colabora com o desenvolvimento e avanço das discussões na área. Agora que conheci uma, quero conhecer várias – e a próxima que vou “testar” é, com certeza, a Netlytic. Para mais sobre outras possibilidades de ferramentas de busca no Twitter, recomendo esse artigo (compartilhado na seção de comentários da atividade no curso) e essa seção de blog posts.

Google Sheet da pequisa dos termos "niteroi OR niterói" com a TAGS
Google Sheet da pequisa dos termos “niteroi OR niterói” com a TAGS

Esse é o formato da coleta de dados (clique na imagem para ter a visual: a ferramenta traz o ID do usuário, username, conteúdo do tweet, data e hora do tweet (não sei exatamente em qual fuso-horário se encontra), geo-coordenadas, língua definida pelo usuário na configuração da conta, a plataforma utilizada (iPhone, Android, Web, etc.), o local que o usuário colocou na configuração do perfil e o link do tweet. É muita coisa para uma ferramenta gratuita, até onde eu sei. Para praticar a testar a ferramenta, fiz uma busca simples pelo termo referente à cidade de Niterói (deveria ter acrescentado Nikity, aliás) e deixei o script rodando de hora em hora (o vídeo explica como faz isso, mas é simples). Pediram que, para a próxima etapa do curso, tivéssemos uma coleta de pelo menos 50.000 tweets. Faz umas 6 horas que está rodando e tenho apenas cerca de 6.200 tweets até o momento em que vos escrevo. Torçam por mim!

Antes de encerrar, só preciso pontuar uma coisa que vi alguns colegas comentando também na atividade de encerramento da primeira semana: embora a FutureLearn indique que são necessárias “apenas” três horas por semana dedicadas ao curso, a verdade é que o ideal deve ser entre 5 e 7 horas por semana. Neste primeiro período, comecei o curso apenas na quinta-feira à noite, terminando de ler todos os artigos e fazendo todas as atividades só no domingo. Se você quiser ler todos os materiais, todos os arquivos disponibilizados também em PDF e artigos de sites recomendados, ficar por dentro do que os colegas estão falando nos comentários e ainda fazer todas os exercícios propostos, reserve pelo menos 5 horas da semana para o curso. Não que isso seja ruim, pelo contrário, tem muita coisa boa para aprender, mas é preciso organizar uma rotina responsável para não perder nada importante (os debates com os colegas, por exemplo, na minha opinião, são enriquecedores!).

Dito isso, deixo aqui o convite a todos para participarem do curso – ainda dá tempo de se inscrever! São apenas três semanas mas acredito que o aprendizado será enorme. Como eu disse, o curso é para todos, mas é claro que ajuda se você tiver um conhecimento mínimo sobre monitoramento de mídias sociais – para nivelar o conhecimento, recomendo uma lida rápida nesse outro post do blog. Se você estiver fazendo o curso ou decidir começar por indicação, entra em contato no Twitter ou aqui mesmo na seção de comentários para trocarmos figurinhas sobre os assuntos vistos – e nos ajudarmos. A gente se vê! 🙂