Os estereótipos mais comuns nos anúncios do Facebook

O Facebook divulgou na semana passada o relatório , desenvolvido a partir de um levantamento interno que analisou milhares de campanhas realizadas na plataforma entre 2017 e 2018. Produzido junto à consultoria 65 / 10, o documento une o discurso de responsabilidade social da publicidade à provocação da realidade baseada em dados para mostrar como as marcas devem tomar ação imediata para mudar o cenário atual, que reforça estereótipos e não corresponde com suas audiências.

“Nossa missão é incentivar e apoiar as empresas que se dispõem a trilhar esse percurso fornecendo ferramentas, melhores práticas e, é claro, dados valiosos. Para entender o contexto no qual o program age, analisamos milhares de campanhas veiculadas em nossas plataformas por toda a América Latina e esse processo nos mostrou quão distantes ainda estão esses dois pólos – a realidade da população versus aquilo que a publicidade nos conta”.

Para justificar a relevância da temática (e todo o argumento de acionável no qual se baseia), são apontados inicialmente alguns dados sobre a representatividade com recorte de gênero, raça e tipos de corpo de outra pesquisa semelhante: a TODXS – Uma análise da representatividade na publicidade brasileira, da Heads (já na sétima edição). Como cases que comprovam a eficácia de investir em diversidade, apresentam uma campanha da Jeep (no Brasil) e uma da Johnson’s Baby (na Argentina), com os números positivos que resultaram desse investimento.

O relatório também apresenta oficialmente a ferramenta Last 5 Ads, que convoca os anunciantes do Facebook a avaliarem o seu comprometimento com a diversidade. Talvez mais interessante do que a ferramenta (porque, convenhamos, quem anuncia sabe muito bem “quem” está anunciando), o documento “ADS 4 EQUALITY – Ciência e Dados trabalhando para promover diversidade na comunicação” encara o problema e aponta, de maneira coerente e lógica, como mensurar os resultados para comprovar a eficácia da preocupação com representações mais diversas.

O documento propõe um ciclo contínuo que envolve levantamento de hipóteses, teste, aprendizado e implementação. Para que a mensuração do impacto de uma comunicação mais representativa possa ser desenvolvida responsavelmente, elenca pilares fundamentais: pergunta de negócio, definição de métricas de sucesso, padrão de ação (o que fazer com as respostas em mãos), desenho do teste, planejamento e interpretação dos resultados. Há todo um destrinchamento desses pilares e já alguns moldes de plano de execução para testes, o que facilita bastante para que essa mudança seja colocada em prática.

Talvez o grande trunfo do relatório seja, na verdade, os 33 estereótipos que foram identificados a partir da análise de milhares de anúncios feitos diariamente na plataforma entre 2017 e 2018. É uma pena, entretanto, que não tenha sido divulgado o quanto essas “minorias” representam no total de anúncios (há somente o comparativo homens x mulheres por área da publicidade no início do relatório), pois seria importante para reforçar: essas pessoas já aparecem pouco e, quando aparecem, geralmente são retratadas pejorativamente das seguintes formas.

Os estereótipos foram mapeados dentro das cinco categorias: gênero (mulheres e homens), raça (negros, ameríndios e asiáticos), orientação sexual (gays e lésbicas), corpos dissidentes (pessoas com deficiências, pessoas gordas, pessoas transsexuais e pessoas idosas) e classe. Cada estereótipo identificado foi descrito como é geralmente apresentado nos anúncios e justificado sobre “por que fazer diferente”. Abaixo, listei todos os 33 que foram encontrados a partir das categorias propostas (para mais detalhes sobre cada um, é melhor conferir no relatório – ou o post ficaria muito extenso):

MULHER

  • A mãe/esposa perfeita
  • Supermulher (multitaskers)
  • Corpo perfeito
  • Objetificada
  • Não sabe lidar com o dinheiro (ou shopaholics)
  • Rivais

RAÇA: NEGROS

  • Raivosos
  • Subalternos
  • Hipersexualizados
  • Místicos

RAÇA: ASIÁTICOS

  • Minoria modelo
  • China doll, a mulher perfeita

ORIENTAÇÃO SEXUAL: GAYS

  • O gay afeminado
  • Promiscuidade x falta de família

CORPOS DISSIDENTES: PESSOAS GORDAS

  • Antes-e-depois
  • A gorda ninfomaníaca e a virgem
  • O gordo engraçado
  • A gorda hiperfeminina

CORPOS DISSIDENTES: PESSOAS IDOSAS

  • A ranzinza e a gentil
  • A aventureira
  • Boa genética

HOMEM

  • Superpai (e o herói que habita em todo homem)
  • O provedor (moneymaker)
  • Máquina de sexo
  • O garoto e o velho

RAÇA: AMERÍNDIOS

  • Preguiçosos
  • Exóticas
  • Inocentes (e não-civilizados)

ORIENTAÇÃO SEXUAL: LÉSBICAS

  • Hipersexualizadas
  • Masculinas
  • Curiosa

CORPOS DISSIDENTES: PESSOAS COM DEFICIÊNCIA

  • Herói ou heroína: ser iluminado
  • Garota-propaganda da superação

CORPOS DISSIDENTES: PESSOAS TRANSSEXUAIS

  • A mulher trans: hiperfeminina
  • O homem trans: invisibilizado

CLASSE

  • Quer ser a classe A
  • Só compra promoção
  • Senso estético duvidoso

Embora a metodologia não tenha sido nem minimamente explicada (o que particularmente acho uma grande falha, visto se tratar de um tema tão delicado), supõe-se que a análise foi feita em diferentes tipos de mídia: texto, imagem e vídeo – este último principalmente, dado o detalhamento de alguns descritivos. Também não fica tão evidente se o recorte/escopo da análise foi voltada somente aos anúncios brasileiros ou se abraçou também outros países da América Latina, dada a presença de ameríndios em recorte de raça. Um exercício interessante seria tentar encontrar esses estereótipos em posts de marcas famosas no Facebook.

Por fim (e antes de finalizar com uma perspectiva mais pessoal/opinativa), o relatório ainda apresenta algumas práticas para repensar os processos: perguntar, conhecer, ampliar, pensar diferentes estratégias para diferentes públicos, ter um objetivo de negócio claro, convocar pessoas diversas na cadeia de produção da comunicação, verificar desastres, utilizar o Last5Ads e aprender com o passado. Ao final, ainda traz um mini-glossário com descrições simples de termos considerados importantes: colorismo, empoderamento, corpos dissidentes, protagonismo e cisgênero/transgênero.

Para enfim finalizar, queria deixar minha opinião sob duas perspectivas diferentes – e tentei ser o mais imparcial possível na descrição do relatório até aqui por entender justamente esse equilíbrio desses dois lugares que me atravessam. Primeiro, como profissional de comunicação/pesquisa, achei o relatório bem interessante, principalmente a lista dos estereótipos identificados (por mais que, novamente, a metodologia não tenha sido compartilhada – o que sempre me deixa com a pulga atrás da orelha) e a tentativa de argumentar entre a responsabilidade social e a coerência data-driven.

Acho que, inclusive, essa lista de 33 estereótipos pode (deveria) ir além do Facebook e ser trabalhada/pensada em diferentes áreas da comunicação como um todo – afinal, o Facebook é apenas o medium, mas a narrativa e todo seu aparato constitutivo se assemelha em diferentes meios (produção de texto, jornalismo, fotografia, cinema, etc.). No mais, também considero um material valiosíssimo para professores (de graduação a cursos livres) apresentarem aos alunos, mais uma vez tanto pela responsabilidade social quanto pelos argumentos responsáveis de negócio baseado em dados.

Agora, sendo um pouco mais crítico, é um material bem raso sobre diversidade e representação/diversidade. Tudo bem, é para gente do mercado, mas precisamos superar o TED da Chimamanda para falar sobre esse assunto. Precisamos aprofundar a discussão, complexificar, não somente reconhecer que é um problema estrutural, mas de fato apontar o que nos trouxe aqui e para onde deveríamos ir. O relatório só cita a contratação de pessoas “diversas” como solução para o problema no finalzinho, bem discretamente – e isso deveria ser o básico do básico.

É interessante de se perceber, por exemplo, como esse problema que reconhecem como estrutural age nas entrelinhas (de maneira explícita): o homem e a mulher são brancos, tanto nas imagens que utilizam como exemplo quanto na descrição dos estereótipos. Raça aparece de maneira extremamente superficial, quando, principalmente no Brasil, é a categoria “estereotipada” que mais atravessa diversas outras frentes da representação. Não obstante tivemos iniciativa como a do Desabafo Social, que mudou toda a estrutura de busca de um dos maiores banco de imagens do mundo.

No geral, valorizo o esforço do relatório e, ao menos, a iniciativa e proposta que já vem gerando mudanças – com o nascimento de bancos de imagens como o Nappy e o Tem Que Ter. No entanto, é preciso ser crítico para compreender que é apenas um projeto da maior empresa do mundo – acusada diversas vezes de validar discursos de ódio, reforçar opressões simbólicas e ser conivente com tais práticas. Não dá para esperar que a mudança venha (só) das empresas, porque, no fim do dia, elas se importam mais com o dinheiro entrando. Mas aqui já sou eu acadêmico falando.

Entre identidade e representação: uma análise exploratória da produção acadêmica sobre nordestinos

*Texto originalmente produzido para o XV ENECULT – Encontro de Estudos Multidisciplinares em Cultura, submetido e não aprovado para o GT de Culturas e Identidades.

Pedro Meirelles(1)

Nas últimas décadas, diversas produções acadêmicas têm se dedicado a compreender como a cultura nordestina tem sido (re)produzida em/para produtos culturais e midiáticos que (re)constroem os sentidos em torno do que significa Nordeste e ser nordestino. Esses trabalhos surgem como esforço coletivo para pensar sobre uma identidade conjugada na esfera cultural da sociedade brasileira que se formou de maneira muito específica, constantemente no lugar de oposição – não necessariamente de forma combativa, mas geralmente enquanto posição de alteridade.

Este artigo surge no contexto do projeto de pesquisa de mestrado desenvolvido pelo autor no Programa de Pós-Graduação em Cultura e Territorialidades da Universidade Federal Fluminense, em que investiga as diferentes narrativas e produções de sentido criadas (e disputadas) em torno do Nordeste e dos nordestinos na internet. A partir do levantamento bibliográfico necessário para a pesquisa, percebeu-se a possibilidade de analisar de modo mais criterioso quais são os estudos desenvolvidos em âmbito científico, com recorte específico das Ciências Sociais e Humanas, sobre questões culturais das categorias simbólicas supracitadas.

O objetivo, portanto, é identificar as principais discussões referentes às noções teóricas de identidade e representação quanto ao Nordeste e aos nordestinos nas produções acadêmicas. Para responder a essa pergunta de pesquisa, foi feito um extenso levantamento de artigos, monografias, dissertações e teses cujo foco do trabalho se sustentava sob esses pilares fundamentais. Através de um processo de classificação e categorização sistemática das produções levantadas, além de um reforço técnico de análise textual e semântica (a ser apresentado e detalhado na metodologia), pretende-se descobrir as principais temáticas, enquadramentos e referenciais teóricos.

É importante ressaltar que, embora o artigo tenha uma proposta semelhante e até procedimentos metodológicos similares às pesquisas denominadas “estado da arte”(2) , não é a intenção do autor que esse seja interpretado de tal forma. A proposta aqui é de trabalhar o levantamento bibliográfico das pesquisas produzidas de modo exploratório, sem intenção alguma de se afirmar enquanto mapeamento totalizante. Ou seja, interessa-nos explorar o objetivo de pesquisa modo mais criativo e menos sistemático, a partir de diferentes técnicas de análise que podem oferecer insumos interessantes sobre os debates teóricos em relação principalmente às abordagens conceituais.

Antes de apresentarmos com mais detalhamento a metodologia e as questões de pesquisa, cabe introduzir uma discussão inicial sobre por que as questões sobre identidade e representação são relevantes para o projeto como um todo e, mais especificamente, como dialogam com a pauta nordestina. Na próxima seção, portanto, situamos o debate acerca da centralidade da cultura a partir principalmente da argumentação de Stuart Hall (1997; 2015; 2016), discutindo esse fenômeno sob a perspectiva dos processos indissociáveis de representação e identidade; e, por fim, identificando brevemente como a questão nordestina se encaixa nesse debate.

Identidade, representação e o circuito da cultura

Em mapeamento exploratório sobre estudos da cultura no Brasil, Pitombo et al. (2015), a partir de corpus específico dos trabalhos publicados no Encontro de Estudos Multidisciplinares em Cultura – ENECULT, identifica o eixo temático “Narrativas e representações culturais” como um dos mais populares do evento. A categoria diz respeito a trabalhos que envolvem “a representação e as narrativas acerca da identidade cultural a partir da análise de produtos culturais (…) como programas de TV, músicas, obras literárias, filmes” (p. 12). Embora as autoras não explorem os motivos por trás desse resultado específico, toda a argumentação teórica do texto parte de um mesmo ponto de partida: o interesse crescente de pesquisadores de diferentes campos e áreas para com a centralidade da cultura.

Nesse contexto, o protagonismo da cultura parte de uma perspectiva epistemológica, “em relação às questões de conhecimento e conceitualização, em como a ‘cultura’ é usada para transformar nossa compreensão, explicação e modelos teóricos do mundo” (HALL, 1997, p. 16). Ainda que a cultura em seu sentido mais amplo e dentro do senso comum (produção de hábitos, valores, costumes, normas, tradições, etc. de determinados grupos sociais) tenha um repertório bem antigo, Hall (1997) sinaliza que é no século XX que ela se torna uma problemática para o homem ocidental, quando, principalmente por volta da década de 1950 e 1960, acontece uma espécie de “revolução cultural” que a materializa e a torna substancial tanto na esfera da sociedade(3) civil quanto especificamente para as Ciências Sociais.

A “virada cultural” está intimamente ligada a esta nova atitude em relação à linguagem, pois a cultura não é nada mais do que a soma de diferentes sistemas de classificação e diferentes formações discursivas aos quais a língua recorre a fim de dar significado às coisas. O próprio termo “discurso” refere-se a uma série de afirmações, em qualquer domínio, que fornece uma linguagem para se poder falar sobre um assunto e uma forma de produzir um tipo particular de conhecimento. O termo refere-se tanto à produção de conhecimento através da linguagem e da representação, quanto ao modo como o conhecimento é institucionalizado, modelando práticas sociais e pondo novas práticas em funcionamento.

(id. Ibid, p. 29)

A “virada cultural” define a cultura “como um processo original e igualmente constitutivo, tão fundamental quanto a base econômica ou material para a configuração de sujeitos sociais e acontecimentos históricos” (HALL, 2016, p. 25-26). Epistemologicamente, portanto, a cultura passa a ser interpretada no contexto de outra virada – que Hall chama de “virada linguística” das Ciências Sociais e dos Estudos Culturais –, na qual “o sentido é visto como algo a ser produzido (grafo do autor) – construído – em vez de simplesmente ‘encontrado’” (p. 25). Esse sentido é fruto do que DuGay et al. (1997 apud WOODWARD, 2014) denominaram de “circuito da cultura”, que atravessa diversas áreas e processos/práticas da vida em sociedade.

O argumento desses autores é que “para se obter uma plena compreensão de um texto ou artefato cultural, é necessário analisar os processos de representação, identidade, produção, consumo e regulação” (WOODWARD, 2014, p. 16). Ainda que todos esses processos se atravessem e se influenciem concomitantemente (como melhor representado pelo esquema visual produzido), aqui nos interessa pensar especificamente identidade e representação devido à proposta do projeto, que trabalha com a ideia de disputas de significados e narrativas. Ou seja, voltamos o olhar para as produções de sentido constituintes do circuito cultural a partir da linguagem(4) como “um dos ‘meios’ privilegiados através do qual o sentido se vê elaborado e perpassado”.

Abordamos a questão da identidade cultural, portanto, a partir da discussão em torno do seu caráter construtivo e descentralizado. Nesse cenário, ela é “fixada” através das construções de sentido nas quais “a cultura é usada para restringir ou manter a identidade dentro do grupo e sobre a diferença entre grupos” (HALL, 2016, p. 21-22). Ou seja, de modo simples, as identidades culturais se estabelecem em torno de “comunidades imaginadas” que supostamente compartilham dos mesmos valores, símbolos e mapas conceituais. No entanto, esses elementos não são inerentes às suas essências, mas construídos – e disputados – em diversas arenas culturais. Sobre o sentido de nacionalidade, Hall (2015, p. 31) explica que

As culturas nacionais são compostas não apenas de instituições culturais, mas também de símbolos e representações. Uma cultura nacional é um discurso — um modo de construir sentidos que influencia e organiza tanto nossas ações quanto a concepção que temos de nós mesmos (…). As culturas nacionais, ao produzir sentidos sobre “a nação”, sentidos com os quais podemos nos identificar, constroem identidades. Esses sentidos estão contidos nas estórias que são contadas sobre a nação, memórias que conectam seu presente com seu passado e imagens que dela são construídas.

A identidade nacional (tomada aqui como exemplo específico, mas correlata à noção mais ampla de identidade), portanto, surge “do diálogo entre os conceitos e definições que são representados para nós pelos discursos de uma cultura e pelo nosso desejo (…) de responder aos apelos feitos por estes significados” (HALL, 1997, p. 26). Ou seja, além da questão que envolve o “fazer parte” de um grupo, há uma segunda instância tão importante quanto que diz respeito aos processos de identificação – e, consequentemente, de construção/representação – de determinados valores simbólicos. O discurso de pertencimento nacional só se legitima através dos sistemas de “significação” que fornece aos indivíduos o mapa mental necessário para se perceber enquanto parte de determinada cultura (Hall, 2016).

Para que possamos pensar e discutir sobre identidade, portanto, temos também que falar sobre outro processo-chave do circuito cultural: a representação. É esta esfera que nos oferece tanto os signos quanto os significados necessários para que possamos nos posicionar, ou seja, “é por meio dos significados produzidos pelas representações que damos sentido à nossa experiência e àquilo que somos” (WOORDWARD, 2014, p. 18). Fica evidente, portanto, como todos esses referenciais teóricos – identidade, representação e cultura – devem ser observados, conforme nossa linha de argumento e filiação, sob uma perspectiva construtivista na qual há uma disputa constante pela produção – e identificação – de sentidos compartilhados.

O argumento que estarei considerando aqui é que, na verdade, as identidades nacionais não são coisas com as quais nós nascemos, mas são formadas e transformadas no interior da representação. Nós só sabemos o que significa ser inglês” devido ao modo como a “inglesidade” (Englishness) veio a ser representada — como um conjunto de significados — pela cultura nacional inglesa. Segue-se que a nação não é apenas uma entidade política mas algo que produz sentidos — um sistema de representação cultural. As pessoas não são apenas cidadãos/ãs legais de uma nação; elas participam da ideia da nação tal como representada em sua cultura nacional.

(HALL, 2015, p. 30)

É sob essa linha de pensamento teórico que vários trabalhos de produção acadêmica (artigos, monografias, dissertações e teses) têm feito um esforço para tentar compreender e discutir a identidade e a representação nordestina no âmbito da cultura nacional. Partindo tanto de pesquisas teóricas quanto de pesquisas empíricas e/ou estudos de caso, essas produções analisam – sob diferentes perspectivas – como o Nordeste “nasceu”, foi e continua sendo narrado na arena discursiva da sociedade brasileira. Ou seja, uma vez que a identidade é uma construção fruto dos processos de representação de uma cultura, esses estudos trazem à tona discussões sobre esse circuito para com as categorias “nordestinos” e “Nordeste”.

O que faz “ser” nordestino? Como se inventou o Nordeste? Como meios de comunicação de massa representaram e representam historicamente os nordestinos e o Nordeste? Como a literatura nacional ajudou na criação de uma imagem regionalista? Como as políticas de gestão federal influenciaram no jogo de articulações para a criação da região? Como a música, principalmente o forró, tornou-se um dos principais narradores da legítima experiência nordestina? Como o cinema nacional e as produções audiovisuais televisivas corroboraram em todo esse processo? Essas são algumas das perguntas que envolvem tanto identidade quanto representação e fazem parte do escopo teórico por trás das produções a serem analisadas.

Questões da pesquisa e metodologia

Tendo em vista a relevância – social e epistemológica – dos trabalhos sobre as narrativas e produções de sentido em torno do Nordeste e dos nordestinos enquanto categorias culturais, estabelecemos como objetivo principal e secundários deste trabalho, respectivamente, as seguintes questões:

  • Quais são as discussões e os debates em torno das questões de identidade e representação do Nordeste nas produções acadêmicas?
    • Quais são as categorias temáticas gerais (referentes ao objeto de pesquisa) dessas produções? Ex: Cinema, Música, etc.
    • Quais são as referências bibliográficas que se apresentam com maior frequência nesses recortes?

O primeiro passo para responder a esses questionamentos foi encontrar um corpus de análise minimamente significativo. Foi realizado, então, um levantamento de produções científicas a partir da plataforma de pesquisa acadêmica do Google(5) . Novamente, como o artigo não tem a ambição de fazer um mapeamento completo referente ao estado da arte da temática aqui abordada, esse processo foi mais exaustivo do que totalizante: foram selecionadas 165 produções acadêmicas(6) encontradas a partir da listagem ranqueada por ordem de relevância (segundo critérios da plataforma) que traziam discussões concomitantes sobre identidade, representação e Nordeste.

O segundo passo necessário, após o levantamento de essas produções, foi criar um aporte analítico capaz de nos fornecer as informações requisitadas referentes a cada uma das perguntas da pesquisa. Criamos, então, uma planilha(7) com as seguintes variáveis a serem preenchidas com os dados de cada produção encontrada: tema/área, título, autor(es/as), resumo, ano, bibliografia e tipo de trabalho. Essa categorização sistemática dos dados levantados permite que possamos começar a delinear as respostas que desejamos fornecer às questões deste trabalho. Na próxima seção, apresentamos como ficou a disposição de corpus e resultados da análise.

Resultados da análise exploratória

FIGURA 01 – Gráficos referente ao Tipo e Ano das publicações
FONTE – O autor

Dentre as produções acadêmicas mapeadas, a grande maioria foram do tipo Artigo (70%) – referentes a apresentações em eventos, anais de congressos, projetos científicos, etc.; seguido de Monografia (15%) e Dissertação (11%), com apenas quatro Teses (2%) encontradas. Quanto à época de produção dos trabalhos, há uma concentração relativamente estável sobretudo na última década (de 2009 em diante), com um pico considerável em 2014 – não há nenhuma novidade ou acontecimento explícito nos dados que provoque esse aumento repentino, visto que os trabalhos desse ano específico abordam temas antigos em geral (principalmente Literatura e Música).

É importante ratificar que essas informações não dizem respeito à toda produção acadêmica sobre identidade, representação e Nordeste/nordestinos, mas pode ser vista como indicativo para possíveis futuros mapeamentos mais aprofundados – e, principalmente, delimitam e apresentam o corpus de análise selecionado. É nesse mesmo contexto que apresentamos na Figura 02, na qual foram contabilizadas as Áreas/Temas dos trabalhos (referentes especificamente aos objetos de pesquisa e/ou discussão teórica). Foram identificadas em apenas um trabalho: Turismo, Teatro, Religião, Letras, Biblioteconomia, Política, Direito e Artes.

FIGURA 02 – Gráfico referente às Áreas/Temas dos trabalhos
FONTE – O autor

As produções sobre Cinema (20%), Música (20%) e Literatura (19%) somam juntas mais da metade do corpus de análise. São trabalhos que analisam especificamente ou de maneira mais abrangente como as produções culturais – filmes, canções, cantores(as), romances, cordel, etc. – dessas áreas atravessam, influenciam ou envolvem questões relacionadas à (construção da) identidade nordestina e da representação do Nordeste e do povo nordestino. Na Figura 03, três esquemas de nuvens de palavras (mais frequentes) foram produzidos 8 a partir dos títulos dos trabalhos para ilustrar alguns dos assuntos recorrentes em cada uma dessas categorias.

FIGURA 03 – Nuvens de palavras de termos mais frequentes nos títulos dos trabalhos por categoria
FONTE – O autor

Retomando a Figura 02, temos ainda vários trabalhos que foram classificados na categoria Geral. As produções aqui atribuídas trabalham as questões de identidade, representação e Nordeste sob uma perspectiva mais conceitual e teórica, sem um recorte específico de objeto de estudo e/ou análise. Já Pedagogia e Migração/Territorialidade apontam produções bem específicas, abordando, respectivamente, como o Nordeste é/pode ser visto em sala de aula (ou no processo de ensino e aprendizagem como um todo), e em estudos que discutem sobre a questão da migração nordestina em relação também a uma noção de territorialidade.

As produções sobre Internet são, em sua maioria, estudos de caso sobre páginas da web e/ou de mídias sociais nas quais a identidade nordestina é reconfigurada simbolicamente para o “ciberterritório”. Em Televisão, autores discutem sobre o modo como o Nordeste e os nordestinos são representados/retratados nas narrativas audiovisuais “fictícias”, assim como acontece nos trabalhos categorizados em Imprensa. Por fim, a categoria Gênero surge não necessariamente como uma temática, mas como uma área de pesquisa – que, aqui especificamente, discute principalmente as questões sobre a “masculinidade” nordestina.

Em sequência, interessa-nos também descobrir quais são os autores mais populares que embasam essas discussões. Para isso, foi desenvolvido um código em linguagem de programação R que contabilizou todos os termos em caixa alta (conforme padronização nos modelos da ABNT) das bibliografias mapeadas; em seguida, averiguou-se, a partir da listagem em ordem de maior frequência, quais eram referentes a autores (e excluídos termos como siglas de universidade, nomes de editoras, etc.); para finalizar, a verificação final foi feita com o software AntConc(9) . A listagem dos autores mais citados com o número de ocorrências está disposta a seguir:

AutoresFrequência Bibliográfica
Durval Muniz de Albuquerque182
Stuart Hall98
Michel Foucault62
Tomaz Tadeu da Silva47
Zygmunt Bauman43
Eni Pucicinelli Orlandi39
Mikhail Bakhtin39
Gilberto Freyre39
Néstor García Canclini36
Alfredo Bosi33
Pierre Bourdieu31
Luís da Câmara Cascudo31
Renato Ortiz30
Homi K. Bhabha25
Michel Pêcheux24
Antônio Cândido24
Euclides da Cunha22
Ariano Suassuna22
Patativa do Assaré21
Maria do Rosário Gregolin21
Ismail Xavier21
Maura Penna21
Michel de Certeau20
Luiz Paulo da Moita Lopes20
Roger Chartier19

Destaca-se evidentemente a relevância do autor Durval Muniz de Albuquerque Jr., que aparece com uma numeração superior à própria totalidade de artigos mapeados (165) devido à presença de citações a mais de um dos seus trabalhos num único artigo. Além de A invenção do Nordeste e outras artes (1999), sua produção mais popular, outras obras de sua autoria como Nordestino: uma invenção do falo: uma história de gênero masculino (2003) e Preconceito contra a origem geográfica e de lugar: as fronteiras da discórdia também receberam menções expressivas. O historiador, inquestionavelmente, é a principal referência sobre Nordeste e nordestinos na academia.

Stuart Hall é o segundo autor mais citado nos trabalhos, sobretudo por suas obras A identidade cultural na pós-modernidade (2006) e Da diáspora: identidades e mediações culturais (2003). Assim como Tomaz Tadeu da Silva – cuja publicação Identidade e diferença: a perspectiva dos estudos culturais (2005) também foi bastante referenciada e consta, inclusive, com um texto de autoria de Hall –, são os teóricos mais populares neste campo para discutir a questão da identidade. Ainda que Zygmunt Bauman também faça parte desse jogo, com Identidade: Entrevista a Benedetto Vecchi (2005), o filósofo recebe mais atenção quanto à questão da modernidade.

Outro nome também bastante conhecido da comunidade acadêmica, Michel Foucault acumula pontos de modo razoavelmente equilibrado entre suas obras: Arqueologia do saber (1969), A ordem do Discurso (1970) e Microfísica do Poder (1978). Há de ser feita uma investigação mais profunda sobre qual é o diálogo que os autores promovem com o filósofo, no entanto, a partir da leitura de alguns resumos que o citam de modo específico, pôde-se identificar sobretudo as questões que envolvem relações de poder e a ênfase na Análise do Discurso enquanto abordagem teórico- metodológica desenvolvida por vários trabalhos.

Esse campo também ganha corpo com a presença notória de nomes como Eni Pucicinelli Orlandi, Michel Pêcheux, Maria do Rosário Gregolin e Luiz Paulo da Moita Lopes. Os trabalhos desenvolvidos em diálogo com esses autores geralmente advêm da área de Comunicação, onde a Análise do Discurso é bastante popular para desenvolver pesquisa sobre produtos culturais/midiáticos. Por outro lado, sob uma perspectiva mais “culturalista”, autores como Mikhail Bakhtin, Néstor García Canclini, Homi Bhabha e Pierre Bourdieu oferecem os conceitos e um modo de pensar esses mesmos produtos a partir de contextualizações mais antropológicas e sociológicas.

Vale comentar ainda aqueles autores que oferecem o panorama teórico para discutir sobre a cultura brasileira e/ou nordestina de modo mais abrangente, liderados por Gilberto Freyre em suas diferentes publicações. Somam a essa lista Luís da Câmara Cascudo, Renato Ortiz, Antônio Cândido e Alfredo Bosi – esses últimos cujo trabalho se desenvolve bastante em cima da Literatura, área já referida como de bastante importância para as questões em cena aqui. Importante citar, nesse sentido, a presença de Euclides da Cunha, Ariano Suassuna e Patativa Assaré, que, assim como Freyre, são fontes e objetos de estudo dessas produções.

Considerações finais

A ideia do artigo surgiu a partir de uma demanda produtiva-pessoal do autor para com o desenvolvimento do seu projeto de mestrado. A proposta do trabalho foi realizar um levantamento exploratório das produções acadêmicas sobre o Nordeste e sobre os nordestinos quanto às questões de identidade e representação, de modo a esquematizar minimamente quais são as áreas e temáticas mais comuns para pensar – e teorizar – todas essas questões no ambiente acadêmico.

Como resultado desse processo, foi possível identificar que trabalhos sobre Cinema, Música e Literatura são recorrentes nas discussões sobre produções de sentidos e significados em torno de Nordeste e nordestinos. Uma análise com mais afinco da bibliografia dos trabalhos mapeados permitiu também identificar que o historiador Durval Muniz de Albuquerque Jr. é a autoridade no assunto, enquanto que teóricos como Stuart Hall, Michel Foucault, Tomaz Tadeu da Silva e Zygmunt Bauman fornecem o arcabouço conceitual para as discussões travadas.

Por fim, ressalta-se mais uma vez o caráter exploratório da pesquisa e as possibilidades de desdobramentos para um futuro trabalho. Expandindo a análise, seria possível pensar em investigar cada um dos campos/áreas temáticas principais, para identificar preferências teóricas ou de métodos; voltando o olhar para a bibliografia, seria possível também tensionar a lista de autores mais citados para discutir a popularidade de alguns específicos; ou, ainda, analisar o local da produção para pensar a relação autor-identidade-nordeste e a associação Nordeste x estados, para localizar os Nordestes sobre o qual estão discutindo.

Notas
  1. Mestrando no Programa de Pós-Graduação em Cultura e Territorialidades da Universidade Federal Fluminense (PPCULT/UFF).
  2. “Definidas como de caráter bibliográfico, elas parecem trazer em comum o desafio de mapear e de discutir uma certa produção acadêmica em diferentes campos do conhecimento, tentando responder que aspectos e dimensões vêm sendo destacados e privilegiados em diferentes épocas e lugares, de que formas e em que condições têm sido produzidas certas dissertações de mestrado, teses de doutorado, publicações em periódicos e comunicações em anais de congressos e de seminários. Também são reconhecidas por realizarem uma metodologia de caráter inventariante e descritivo da produção acadêmica e científica sobre o tema que busca investigar, à luz de categorias e facetas que se caracterizam enquanto tais em cada trabalho e no conjunto deles, sob os quais o fenômeno passa a ser analisado.” (FERREIRA, 2002, p. 258)
  3. Além da dimensão epistemológica, Hall (1997, p. 27) cita quatro dimensões gerais para discutir a centralidade da cultura: “a ascensão dos novos domínios, instituições e tecnologias associadas às indústrias culturais que transformaram as esferas tradicionais da economia, indústria, sociedade e da cultura em si; a cultura vista como uma força de mudança histórica global; a transformação cultural do quotidiano; a centralidade da cultura na formação das identidades pessoais e sociais”.
  4. “Colocando em termos simples, cultura diz respeito a “significados compartilhados”. Ora, a linguagem nada mais é do que o meio privilegiado pelo qual “damos sentido” às coisas, onde o significado é produzido e intercambiado. Significados só podem ser compartilhados pelo acesso comum à linguagem. Assim, esta se torna fundamental para os sentidos e para a cultura e vem sendo invariavelmente considerada o repositório-chave de valores e significados culturais.” (HALL, 2016, p. 18)
  5. Google Scholar: https://scholar.google.com.br/
  6. A coleta foi feita a partir da query de busca “identidade nordestina” OR (identidade AND nordeste) OR (representação AND nordestinos) OR (representação AND nordestinas) entre março e abril de 2019; e o critério de recorte foi a presença dos termos identidade(s), representação(ões), narrativa(s), sentido(s) ou cultura(s) no título ou resumo do trabalho, em consonância com o enfoque quanto às categorias-mães Nordeste/nordestino(as) (não específicas aos estados); foram desconsiderados trabalhos que não continham resumo (capítulos de livro, ensaios, etc.).
  7. A planilha está disponível online e pode ser acessada no link:
  8. Os termos “nordeste”, “nordestino(a)” e “nordestino(as)” foram removidos para melhor visualização. Optou-se por manter “identidade” e “representação” para perceber como essas duas terminologias aparecem – ou não – em categorias específicas.
  9. Software de análise de texto: http://www.laurenceanthony.net/software/antconc/
Referências bibliográficas

FERREIRA, Norma. Pesquisas denominadas estado da arte: possibilidades e limites. Educação e Sociedade, Campinas, v. 1, n.79, p. 257-274, 2002.
HALL, Stuart. A centralidade da cultura: notas sobre as revoluções culturais do nosso tempo. Educação & realidade, v. 22, n. 2, 1997.
HALL, Stuart. A identidade cultural na pós-modernidade. Rio de Janeiro: DP&A Editora, 2015.
HALL, Stuart. Cultura e representação. Rio de Janeiro: Ed. PUC-Rio, 2016.
PITOMBO, Mariella; RUBIM, Lindinalva; SOUZA, Delmira. ESTUDOS DA CULTURA NO BRASIL:
UMA ANÁLISE A PARTIR DO ENECULT. In: XI Encontro de Estudos Multidisciplinares em Cultura – XI ENECULT, 2015, Salvador. Salvador: CULT, 2015. v. 1.
WOODWARD, Kathryn. Identidade e diferença: uma introdução teórica e conceitual. In: Identidade e diferença: a perspectiva dos estudos culturais. Petrópolis, RJ: Vozes, p. 7-72, 2014.

Histórico das APIs no monitoramento e pesquisa em mídias sociais

Quando eu comecei a trabalhar com monitoramento, em dezembro de 2015, o Facebook já tinha matado de vez a possibilidade de coleta de posts públicos no feed da plataforma. Ou seja, quando eu entrei no mercado, o caos que agitou empresas e agências já tinha sido razoavelmente controlado para o ano seguinte, com algumas alternativas surgindo para suprir essa valiosa lacuna – como escrevi nesse outro post, a exemplo da popularização das disciplinas de Etnografia e Análise de Redes, além do redirecionamento para CRM. Desde então, fora algumas perdas pontuais, não tivemos muitas mudanças no cenário – até que 2018 aconteceu.

Do ano passado para cá, as perdas pontuais que levaram anos para acontecer acabaram se tornando praticamente mensais. Isso aconteceu principalmente porque, no olho do furacão da opinião pública, Mark Zuckerberg se viu obrigado a tomar responsabilidade pelo seu monopólio técnico-comunicacional (Facebook, Instagram, WhatsApp e Messenger) quanto à privacidade dos dados de seus usuários. Em paralelo (e também em consequência), surgiram iniciativas governamentais como a General Data Protection Regulation na União Europeia para fortalecer uma conscientização e responsabilização por parte de toda a sociedade civil quanto ao uso de dados de cidadãos para fins diversos.

Embora os argumentos de Zuckerberg sejam facilmente contestáveis (como fizeram Richard Rogers e Tommaso Veturini em artigo recente), enquanto usuários/indivíduos/cidadãos, poderíamos admitir que essa preocupação com a privacidade dos nossos dados é algo positivo para a sociedade de modo geral (novamente, sob uma perspectiva bem ingênua que supõe que nossas informações ficarão guardadinhas no Facebook e demais empresas digitais e não serão utilizadas por quem pagar mais). No entanto, para quem trabalha com dados de mídias sociais (com fins mercadológicos ou acadêmicos), o futuro é muito preocupante.

Antes de entrar nessa indispensável discussão sobre o futuro (embora já tenha trazido aqui no blog outros textos que abordam essa questão — e tenho alguns outros planejados), acho importante olharmos também para o passado. É nesse contexto, portanto, que lançamos hoje no IBPAD a publicação “Histórico das APIs no monitoramento e pesquisa em mídias sociais”. Sob a minha autoria, o material faz um remonte histórico a partir de notícias e reportagens de como as APIs foram lançadas, popularizadas e modificadas no contexto da pesquisa e do monitoramento. Para fins didáticos, elenquei cinco períodos sobre essa história:

  • 2006 – 2010: O nascimento otimista das APIs
  • 2010 – 2013: Os primeiros problemas
  • 2014 – 2015: As primeiras mudanças
  • 2016 – 2017: O início do fim?
  • 2018 – 2019: O futuro desafiador

É evidente que esses períodos foram arbitrariamente recortados conforme julguei coerente, no entanto, partiu de um esforço de compreensão geral do mercado e do contexto digital como um todo. No primeiro momento (2006-2010), portanto, discorro sobre como surgiram as APIs e como – por muitos anos – havia um certo otimismo em relação a elas; em seguida (2010-2013), matérias começavam a questionar – e denunciar – o montante de dados disponíveis nas mídias sociais; o que resultou nas primeiras mudanças (2014-2015), como o fim da v1.0 da Graph API do Facebook; e as coisas foram piorando (2016-2017), até chegar onde estamos atualmente (2018-2019).

Ainda que tenha abordado as APIs do Twitter, YouTube e Instagram na publicação, o foco principal é o Facebook – por vários motivos: 1) pela importância da plataforma na vida dos brasileiros; 2) pela importância da plataforma no mercado de monitoramento de mídias sociais; 3) por ter sido a plataforma que mais registrou mudanças nos últimos anos; 4) por ter uma figura pública à frente como porta-voz e, portanto, maior cobertura midiática; 5) por deter o monopólio sobre as principais mídias sociais, tendo comprando o Instagram, o WhatsApp e tornando o Messenger em um produto independente; etc.

Linha do tempo ordena os acontecimentos mais relevantes para o mercado de monitoramento e pesquisa em mídias sociais / Fonte: IBPAD

É importante ressaltar também que a “história” é contada sobretudo pela perspectiva do mercado de monitoramento. Ou seja, ainda que tenha tentado expandir um pouco o debate e citado até alguns textos acadêmicos/teóricos sobre a temática, o objetivo era narrar como as APIs sofreram alterações drásticas nos últimos anos e por que isso era relevante ou como isso afetava as ferramentas, agências digitais e marcas envolvidas com esse trabalho. Além do levantamento de notícias, matérias e reportagens, também fiz minimamente um trabalho interno em grupos de discussão do mercado para saber como os profissionais reagiam aos acontecimentos.

Foi um trabalho bem legal e que humildemente me orgulho bastante de ter feito. Aprendi muito sobre o mercado e descobri várias coisas da época em que eu ainda não estava presente – como o caso da DataSift com o Facebook Topic Data, que eu nunca tinha entendido direito; ou do firehose do Twitter com a GNIP, que também só tinha ouvido falar. Espero que o material possa apresentar um pouco da breve história do monitoramento sob a perspectiva das APIs àqueles que chegaram depois (como eu) e que possa também jogar uma luz nesse debate que é indispensável tanto para o mercado quanto para a academia.

A última parte da publicação, inclusive, que intitulei “O que o futuro guarda?”, é propositalmente inconclusiva. Tanto porque eu obviamente não tenho a resposta para essa pergunta quanto porque acho importante não tentar fechar o sentido do debate, pois não há verdades absolutas – nem soluções milagrosas. Nos próximos posts aqui do blog, trarei mais uma vez a questão das APIs à tona a partir de uma visão crítica sobre seus aspectos sociotécnicos – principalmente a partir do fantástico trabalho da pesquisadora Janna Omena – e pretendo colocar em pauta o seguinte questionamento: o monitoramento vai morrer?

Pesquisa com APIs pós-Cambridge Analytica

Em setembro do ano passado, trouxe aqui para o blog o texto “Computational research in the post-API age”, do pesquisador Dr. Deen Freelon,  no qual ele faz algumas considerações sobre o futuro da pesquisa computacional no que ele chamou de “era pós-APIs”. Dando sequência ao debate levantado naquele momento, trago desta vez outro texto de pesquisadores também renomados, Tommaso Venturini e Richard Rogers, no qual discutem sobre o futuro da pesquisa em mídias sociais após o escândalo da Cambridge Analytica – e suas devidas consequências.

Antes de entrar no texto, uma rápida contextualização (para quem não trabalha na área): 2018 foi o ano que o Facebook mais fechou o cerco quanto ao acesso irrestrito aos dados dos usuários; isso aconteceu principalmente devido aos problemas ocorridos nas eleições norte-americanas que elegeram Donald Trump e culminou numa audiência pública de Mark Zuckerberg diante do congresso de senadores. No rascunho “‘API-based research’ or how can digital sociology and journalism studies learn from the Cambridge Analytica affair”, que estará no livro Digital Journalism (a ser lançado), Venturini e Rogers partem do escândalo da CA para discutir o futuro da pesquisa com APIs e a importância de desenvolver uma prática de trabalho de campo digital mais sólida e diversa.

“Dentre outros motivos, as eleições presidenciais de 2016 serão lembradas pela revelação de que seu resultado pode ter sido afetada pela Cambridge Analytica, uma vergonhosa agência de marketing que ilegitimamente coletou dados de milhões de usuários do Facebook e os utilizou para a campanha de Donald Trump. O escândalo estimulou um vasto debate sobre a frouxidão da proteção de privacidade nas mídias sociais e forçou o Facebook a prometer uma redução drástica das informações disponibilizadas pela sua API.”

(VENTURINI; ROGERS, 2019)

O artigo se desenvolve sob dois pilares: primeiro, quanto aos “aprendizados” que todos nós – pesquisadores, mas também usuários e pessoas físicas da sociedade civil – podemos adquirir do caso da CA; e, segundo, num debate (praticamente um puxão de orelha bem dado) sobre como a pesquisa na internet se tornou limitada e monopolizada metodologicamente. Há também, tanto no tom quanto de forma explícita no texto, uma crítica ferrenha às práticas de marketing que utilizam dados de usuários de mídias sociais para lucro corporativo em oposição à utilização desses mesmos dados para pesquisa em Ciências Sociais – um debate complicado, principalmente para mim, visto que estou em ambos os lados (então deixemos para outra oportunidade).

Aprendendo com o caso da Cambridge Analytica

Na primeira seção do texto os pesquisadores partem de duas falas proferidas por Zuckerberg em sua audiência, destacando dois problemas: a ideia de que 1) “os dados produzidos pelas mídias sociais são poderosos, mas neutros – extremamente úteis ou extremamente perigosos a depender de como serão utilizados” e que 2) “a solução contra essa má utilizações é trancar esses dados dentro das plataformas para que não caiam nas mãos erradas” (p. 2). Os autores chamam atenção sobretudo para como essas argumentações fazem parte da narrativa estratégica do Facebook para parecer “um aventureiro tropeçando na lanterna mágica de dados pessoais e sem querer libertar seu gênio” – contra a maléfica Cambridge Analytica (que seria o verdadeiro culpado).

Remontando os acontecimentos, eles listam os seguintes fatos (e considerações):

  • Num primeiro momento, a CA tentou comprar dados de um projeto antigo da Cambridge University – o teste myPersonality, um app do Facebook que coletou informações sobre 6 milhões de usuários a partir de um quiz de personalidade; além das respostas, o projeto também coletou informações sobre os perfis e suas curtidas, mas nada sobre as amizades dos usuários que fizeram o teste; a negociação não foi pra frente porque os acadêmicos se negaram à utilização comercial dos dados coletados;
  • Num segundo momento, a CA resolveu replicar esse projeto com a ajuda do Profº. Aleksandr Kogan, também pesquisador da Cambridge University, que lançara seu próprio projeto e cujos alunos foram posteriormente trabalhar no próprio Facebook; o app criado era mais improvisado e foi utilizado por menos de 300 mil usuários – os 80 milhões de perfis “roubados” comumente noticiados pela imprensa são o total desses 300 mil + a média de amigos de um usuário comum (267);
  • A v1.0 da Graph API permitia a coleta de dados não somente de usuários (que autorizaram a utilização de um app), mas também de sua lista de amigos; no entanto, as informações psicológicas – tanto ostentadas midiaticamente – só estavam disponíveis quanto aos quase 300.000 usuários que fizeram o teste, ou seja, 99,5% das entradas coletadas pela CA não continham informações referente à “abordagem psicológica” da empresa.
  • Os respondentes do teste de Kogan foram recrutados através de serviços pagos, plataformas reconhecidas por trazer força de trabalho através de fazendas de cliques; o próprio Kogan, em sua audiência, chamou os dados de “barulhento” e “sem valor” para anúncios políticos.

Ou seja, resumindo ainda nas palavras de Venturini e Rogers, “o ‘big data’ o qual a CA se gaba é questionável em qualidade e origem, falho por cobertura desigual e antiético em sua coleta” (p. 3). O caso da Cambridge Analytica é interessante por porque eles fizeram tudo numa brecha extremamente perigosa que o próprio Facebook deixou aberta por anos (que foi a v1.0 da Graph API) – esse artigo discute bem quanto a isso, basicamente argumentando como a prática da empresa não é nada do que agências do mundo inteiro não tenham feito nos últimos anos; e porque, mesmo assim, eles aparentemente fizeram tudo errado – como apontam (e batem com gosto) os pesquisadores, desfazendo seus argumentos (metodológicos).

Aleksandr Kogan em depoimento sobre seu trabalho com a Cambridge Analytica

Venturini e Rogers chamam atenção para os dois principais supostos trunfos da CA: a “segmentação de audiência através de análise sofisticada de personalidade” e a identificação de ideias conspiratórias para o direcionamento de fake news. Quanto ao primeiro, reforçam que eles só tinham os dados psicológicos de 300.000 usuários (e não 80 milhões) e que basicamente o Facebook não tem uma opção de segmentação para pessoas a partir de “estados da mente”, então perfis psicológicos não seriam tão úteis assim; e, quanto ao segundo, é muito mais provável que tenham obtido essas informações através de questionários e focus group – do que através de rastros online.

Então, se o valor dos dados da Cambridge Analytica eram tão irrelevantes e provavelmente não tiveram poder nenhum para anúncios de campanhas políticas, por que Zuckerberg não contra-argumentou quanto a isso em sua audiência? Segundo os autores, por dois motivos:

  1. Para que o Facebook fosse visto não como protagonista da história, mas como coadjuvante, “um provedor de infraestrutura desajeitado, mas humilde”;
  2. Porque o Facebook faz basicamente a mesma coisa que a Cambridge Analytica fez (o que volta para o artigo que citei anteriormente), “ambos sustentam seu mercado de anúncios ostentando o poder de seus dados e social analytics”.

Fechando essa seção com chave de ouro, em uma das citações mais poderosas do texto, os autores explicam: “As mídias sociais não liberaram descuidadamente levas de dados sensíveis pré-existentes que agora precisam ser controladas”. Muito pelo contrário, “elas [as empresas de mídias sociais] construíram proposital e implacavelmente a profecia auto-realizável do ‘marketing computacional’ e, para fazer isso, criaram um novo tipo de dado para sustentá-la” (p. 3-4). Ou seja, as plataformas criaram, principalmente de uns anos pra cá, o próprio ecossistema de venda de dados dos seus próprios usuários em troca de lucro (e esse modelo de negócio é o que as têm sustentado).

Pesquisa com APIs e trabalho de campo digital

A segunda parte do texto basicamente discorre sobre aquela máxima de que há males que vem para o bem. Depois de bater muito na Cambridge Analytica e no Facebook (e em agências de marketing em geral), Venturini e Rogers admitem que “a crescente preocupação pública gerada por isso [o caso da CA] e por outros escândalos recentes relacionados a campanhas eleitorais deve fazer com que [as APIs] fechem ainda mais” (p. 4) e isso é uma oportunidade para pesquisadores darem um passo para trás e repensarem o modo de fazer pesquisa online.

“Registros digitais vêm num nível muito mais fino de agregação do que demografia e questionários. Eles permitem não apenas calibrar categorias e opiniões, mas examinar interações palavra por palavra. Antes do advento da mediação digital, isso só era possível nas pequenas e situadas comunidades as quais pesquisadores podiam observar etnograficamente. Hoje em dia, uma investigação tão sensível quanto é possível para populações maiores, aumentando as possibilidades em tempo e espaço.”

(VENTURINI; ROGERS, 2019)

Eles argumentam que, principalmente nesta década (na qual houve um estrondo absurdo também da popularidade de sites de redes sociais), pesquisadores acabaram tendo o trabalho enviesado pelas infraestruturas de coleta de registros digitais. “Comparada a técnicas anteriores de coleta de registros digitais, as APIs das mídias sociais vieram como um presente de Deus, oferecendo imensa quantidade de dados acessíveis em alguns cliques prontos para serem analisados” (p. 4), explicam. Isso foi fruto, no entanto, de uma concentração (e praticamente um monopólio do Facebook) das discussões online que também fizeram parte do contexto de venda de anúncio publicitário dessas plataformas (onde acontecem as discussões).

“Ao construir as infraestruturas necessárias para apoiar e rastrear a crescente quantidade de interações online e ao tornar os registros resultantes disponíveis através das APIs, as plataformas reduziram significativamente os custos dos dados de mídias sociais”, explicam. “A facilidade da pesquisa com APIs [ou API-research, a qual descrevem como ‘uma abordagem às Ciências Sociais Computacionais e Sociologia Digital baseada na extração de registros de datasets disponibilizados por plataformas onlines através das suas interfaces de aplicação de programação (APIs)’] – veio com o preço de aceitar a padronização particular operada pelas plataformas de mídias sociais e o enviesamento que vem junto” (p. 5), completam.

Aqui os autores chamam atenção de um assunto sobre o qual eu penso já há algum tempo: a euforia (negligente) dos dados. Nós, tanto pesquisadores acadêmicos quanto profissionais do mercado, criamos uma bolha que eventualmente iria estourar. “Num frenesi consumista, nós estocamos dados como commodities produzidas em massa”, alertam. “A pesquisa com APIs é culpada (pelo menos em parte) por espalhar o hype dos dados de mídias sociais, reduzindo a diversidade de métodos digitais ao estudo de plataformas online, e por espalhar as ideias pré-concebidas de que o Facebook, o Google, o Twitter e seus semelhantes são os mestres do debate online, e não há alternativas a não ser viver sob as migalhas de suas APIs” (p. 5).

Como mencionei anteriormente, portanto, sobre males que vem para o bem, eles argumentam que “o fechamento das APIs das mídias sociais devem nos lembrar de que dinâmicas coletivas existiam muito antes das plataformas sociais (e ainda existem junto a elas” – e, portanto, “não são a única maneira de estudar fenômenos online” (p. 5). Dentre algumas alternativas possíveis, citam “crawling” e “scraping” tanto quanto participar ativamente dos websites para gerar registros válidos. E ainda que esses métodos de pesquisa tenham seus enviesamentos e limitações, além de serem difíceis e trabalhosos, Venturini e Rogers argumentam que esses “maus necessários” têm pelo menos três vantagens:

  1. A coleta de registros feito de maneira direta (e não pelas APIs) permite que os pesquisadores também analisem as dinâmicas da plataforma tal qual os usuários as vivenciam – a interação com os atores/participantes pode ainda ser um ponto positivo (como no caso de moderadores fornecendo o arquivo de discussão de um grupo), encorajando o diálogo entre ambas as partes;
  2. O fechamento das APIs de gigantes como Facebook, Twitter e Google força voltarmos o olhar a outras alternativas de fonte de dados que, a depender do assunto, podem conter informações muito mais valiosas;
  3. Não é o fim da coleta de dados de grandes plataformas, com soluções em parcerias entre pesquisa e indústria como no projeto Social Science One.

Novamente fechando com grande estilo, eles argumentam que “as restrições de APIs podem acabar sendo algo bom se encorajarem pesquisadores a voltarem ao trabalho de campo”. Explicam que “reduzir nossa dependência em dados padrões das APIs não significa desistir do projeto de colher dados ricos de grandes populações, mas implica em investir nos esforços necessários para cultivar tais dados”. Para finalizar num tom mais ameno: “a consulta de APIs por si só pode ser uma forma de trabalho de campo quando não é uma acumulação de atacado de dados só pela larga quantidade, mas um trabalho cuidadoso de extração desenvolvido em colaboração com as plataformas e seus usuários”.

Algumas implicações políticas

Na última seção, mais curta (e concisa) que as demais, eles discorrem brevemente sobre a ideia de que as mídias sociais seriam o principal – único e/ou melhor – meio para estudar fenômenos sociais. Nesse sentido, eles discutem sobre as plataformas não essencialmente sob uma perspectiva metodológica, mas sob um olhar mais apurado – crítico e teórico, eu diria – sobre as dinâmicas sociais as quais sustentam e pelas quais são sustentadas.

Eles argumentam que o caso da Cambridge Analytica evidencia “o quão facilmente o debate público pode ser poluído por marketing computacional”. Citando Henry Jenkins, afirmam que a influência dos dados de mídias sociais e seus sistemas de mensuração são maiores quando servem à proposta fruto da sua essência, que é “promover o tipo de atenção superficial mais adequada ao sistema contemporâneo de propaganda e entretenimento”. Esses sistemas foram desenvolvidos “para promover uma audiência de consumidores cujas características são opostas àquelas de um público democrático saudável” (p. 7).

“Por elas [as plataformas de mídias sociais] focarem em ações sem esforço como um clique, uma curtida e um compartilhamento, os sistemas de mensuração promovem um tipo de engajamento que é fácil e de pouca duração; por mensurar essas ações de maneira individualizada (em vez de comunitária), eles alimentam popularidade individual em vez de ação coletiva. Por isso resistir ser ‘capturado’ pela infraestrutura das mídias sociais é crucial não apenas metodologicamente, mas também politicamente”.

(VENTURINI; ROGERS, 2019)

Seja como indivíduo (usuário) ou pesquisador, é preciso ter cautela perante os sites de redes sociais. Como o último, levar sempre em consideração seu contexto de produção e seus enviesamentos: “pesquisa através de plataformas de mídias devem sempre também ser pesquisa sobre plataformas de mídia” (p. 8). Para Venturini e Rogers, precisamos abdicar do “conforto” das APIs e voltar a campo (digitalmente) se quisermos entender e apoiar o trabalho de atores sociais e políticos que anseiam por um debate público saudável.

Referência bibliográfica

Venturini, Tommaso, and Richard Rogers. 2019. “‘API-Based Research’ or How Can Digital Sociology and Digital Journalism Studies Learn from the Cambridge Analytica Affair.” Digital Journalism, Forthcoming.

A imagem dos nordestinos e do Nordeste segundo o Google

Quando você pensa em Nordeste e/ou em nordestinos, o que vêm à sua cabeça? Quais referências visuais primeiro vêm à mente? Como pessoas inseridas na cultura brasileira, temos no nosso imaginário social uma série de signos aos quais podemos associar o “ser nordestino”. Segundo Albuquerque Júnior (199, p. 307), o Nordeste “é uma cristalização de estereótipos que são subjetivados como característicos do ser nordestino […]”, através de verdades instituídas “repetidas ad nauseum, seja pelos meios de comunicação, pelas artes, seja pelos próprios habitantes de outras áreas do país e da própria região”.

Na obra “A invenção do Nordeste”, o historiador Durval Muniz de Albuquerque Jr. explora toda a complexidade e historicidade sob os quais se basearam a construção desse espaço inventado. Nessa citação específica, já adianta algumas constatações importantes: 1) o Nordeste e a “nordestinidade” é uma construção social e histórica; 2) criada em cima do apagamento das particularidades de cada estado; 3) cuja operação foi/é praticada através da repetição discursiva; 4) de produtos culturais-midiáticos e; 5) consequentemente, tanto por cidadãos da própria região quanto daqueles de outros lugares do Brasil.

No meu TCC, explorei principalmente as questões de número 1 – através de uma breve porém responsável revisão de literatura e fundamentação teórica – e 5 – com questionário respondido por pessoas cuja identidade nordestina era explorada com mais veemência no Facebook. Para o meu projeto de mestrado, pretendo seguir explorando a questão 1 e, desta vez, desenvolver melhor as questões 2, 3 e 4 – ou seja, para além de trabalhar diretamente com as pessoas e como elas enxergam essa associação identitária, tentar compreender como os discursos – de modo geral – estão em disputa e operam midiática e culturalmente.

Como um dos primeiros experimentos desse trabalho contínuo, decidi averiguar empiricamente o que Albuquerque Jr. chamou de “cristalização de estereótipos”. Alguns esforços acadêmicos foram produzidos nesse sentido, analisando, por exemplo, a representação do Nordeste em capas de revista; ou nas artes como na literatura, cinema e música. No entanto, esses trabalhos geralmente focam no discurso textual (pela facilidade de interpretação) e em produtos pré-digitais. Uma das minhas propostas para o mestrado é justamente trazer essa discussão para a era da internet, em que novas dinâmicas de poder estão em jogo.

A começar, por tanto, pelo site mais acessado do Brasil e do mundo: o Google. Achei que seria interessante explorar a representação do Nordeste a partir de imagens do Google. No entanto, antes de seguir para a análise, é importante entender como funciona, de modo simples, o mecanismo do Google para não partirmos da suposição errônea de que é a própria plataforma que ativa esses conteúdos ou que há profissionais selecionando/fazendo a curadoria dessas imagens. E ninguém melhor para explicar sobre como isso funciona do que o próprio CEO do Google, Sundar Pichai, em depoimento judicial:

Nesse vídeo, Pichai explica por que, quando a deputada Zoe Lofgren pesquisara no Google Images o termo “idiota”, aparecia a imagem de Donald Trump. Pichai explica que a ferramenta faz uma raspagem de bilhões de páginas da web indexadas na plataforma à procura do termo, para depois ranqueá-las com base em mais de 200 critérios, como relevância, ineditismo, popularidade, como as pessoas estão utilizando, etc. e apresentar os melhores resultados de acordo. Ou seja, há um esforço técnico-algorítmico do próprio Google, mas a essência (a fonte de dados, literalmente) são os próprios usuários de internet.

É óbvio que isso é extremamente complexo e não tão simples quanto a resposta (devido ao contexto) explicou. Vários pesquisadores já têm se debruçado sobre a imparcialidade dos algoritmos e das tecnologias de aprendizado de máquina e inteligência artificial, para principalmente não fugirmos da responsabilização das empresas de tecnologia quanto à manutenção de preconceitos de gênero e raça. Neste experimento específico, esse parênteses – importantíssimo – pode ser compreendido também na construção (e manutenção) dos estereótipos, que mesmo proferidos pelos próprios moradores da região, continuam sendo estereótipos.

Análise: +3.000 imagens sobre nordestinos no Google

Como o Google tem um limite de exibição de resultados para imagens, fiz a coleta com algumas pequenas alterações de termos: nordestino, nordestina, nordestinos, nordestinas e nordeste; ao total, foram 3.684 imagens coletadas (com o DownThemAll!) – após limpeza de URLs duplicados, finalizei com 3.135 imagens. Para fazer a análise das imagens, utilizei a mesma metodologia desenvolvida para este relatório, com a API de análise de conteúdo de imagens do próprio Google e os scripts em Python desenvolvidos por André Mintz para esforços de computação visual com auxílio de técnicas de análise de redes. Clique na imagem abaixo para ver o resultado em tamanho maior:

Ao todo, consegui identificar pelo menos 23 territórios imagéticos: culinária, bebidas, mercadinhos, denúncias, política, artesanato, produtos gráficos I e II, símbolos culturais, natureza, pessoas, cavalgada, vestimentas de couro, música I e II, mapas, apresentações artísticas, multidões/festejos, futebol, paisagens urbanas I e II, paisagens praianas e paisagens do sertão. Importante lembrar, no entanto, que essas divisões foram feitas a partir da minha interpretação; a disposição espacial das imagens se reúnem (e se afastam) pela semelhança identificada através da API de análise de imagens do Google, posteriormente organizada em rede.

Isso significa que não há – de nenhuma forma – imparcialidade na análise. Há recortes arbitrários feitos tanto pela ferramenta de inteligência artificial (e por isso é importante questioná-las, estressá-las, etc.), quanto do formato espacial que optei por dispor as imagens quanto pela minha própria leitura do produto resultante. Para comentar algumas questões possivelmente interessantes sobre o resultado, separei (novamente, do jeito que achei mais propício) os 23 territórios em oito categorias – que atravessam umas às outras de vários modos, cuja delimitação é exclusivamente didática:

Culinária e bebidas

Era de se esperar que a culinária nordestina fosse receber uma atenção considerável no Google. É possível identificar pratos típicos como cuscuz, macaxeira, bolo de rolo, caranguejo, moqueca, feijoada, carne do sol, acarajé, pamonha e até queijinho na brasa. Talvez o mais interessante nesse grupo, entretanto, são dois bolos decorativos com elementos “típicos” como dois bonequinhos de cangaceiros e um chapéu de couro, além de xilogravuras. Esse que também aparece nas bebidas, em propaganda da Brahman; mas cujo destaque são as cachaças e o famoso Guaraná Jesus.

Denúncias

Importante para lembrar que o “local” da análise interfere nos resultados é o grupo que chamei de Denúncias. Tratam-se de capturas de tela de mensagens preconceituosas feitas contra nordestinos nos últimos anos. Especialmente em época de eleições, é bastante comum que isso aconteça e alguns jornais/blogs noticiam o ocorrido (depois de as mensagens se proliferarem na rede em forma de denúncia geralmente por usuários comuns). Com a divulgação das notícias, as imagens acabam sendo indexadas pela plataforma.

Produtos gráficos,
símbolos culturais e mapas

E como nem só de fotos vive a internet, vale falar também desses grupos semelhantes. Com exceção dos Mapas (fruto provavelmente do termo “nordeste” na coleta), os outros três são produções gráficas digitais (banners, panfletos, montagens, etc.) que, em grande maioria, trazem alguma simbologia explícita já associada à cultura nordestina – como o chapéu de couro, por exemplo, presente em outros grupos. Ademais, os formatos de ilustração tipo xilogravura, o paisagismo do sertão e até alguns escolhas de tipografia.

Música, apresentações artísticas
e multidões/festejos

Outro grupo cujos signos ficam também em bastante evidência – e se complementam: em Música (I e II), instrumentos como zabumba, sanfona e triângulo; em Apresentações Artísticas, os figurinos do cangaço e roupas tradicionais; e em Multidões/Festejos, as imagens de festas juninas, do carnaval e de outros eventos folclóricos. Visualmente, chama a atenção principalmente as vestimentas, sempre inspirados na roupa do cangaço e/ou nas tradições de festas juninas. Em Multidões, é possível perceber também caravanas e passeatas políticas – um detalhe importante.

Pessoas, política e futebol

O detalhe é importante porque não tem como falar sobre Nordeste sem falar sobre política – em diversos sentidos. No grupo de Pessoas, são políticos que mais aparecem: Lula, Haddad, Bolsonaro, Alckmin, etc; alguns famosos também compõem o visual, como Caetano Veloso e Pitty, para citar alguns. O grupo Políticos deve ter sido tomado sua própria forma devido ao enquadramento das imagens, cuja API do Google já conseguiu identificar nos parâmetros de editoriais sobre política. Por fim, a paixão pelo futebol também vem em evidência: e ainda em tom político, com chapéu de palha e um “orgulho” refletido, por exemplo, na Lampions League.

Artesanato,
vestimentas de couro e mercadinhos

Em menor saliência, separei os grupos Artesanato, Vestimentas de Couro e Mercadinhos simplesmente pelo reforço à composição visual já percebida em outros grupos do que se refere aos nordestinos. São as famosas priquitinhas, o chapéu de couro (novamente), as peças de cerâmica/argila do famoso Pezão, e os mercadinhos – também confundido com restaurantes – tipo mercearia cuja própria paleta de cores significa alguma coisa. Detalhes simples, literalmente, mas que somam ao quadro geral que estamos montando.

Paisagens urbanas

O grupo Paisagens Urbanas divide-se em dois: um mais cotidiano, com imagens aparentemente mais corriqueiras; e outro mais “publicitário”, com imagens que remetem principalmente ao turismo. No primeiro, destaca-se a presença do Centro Luiz Gonzaga de Tradições Nordestinas, a famosa feira de São Cristóvão – localizada no Rio de Janeiro; no mais, algumas imagens avulsas de ruas das cidades. No segundo, fotografias profissionais destacam o Nordeste por uma lente mais mercadológica, como se estivesse vendendo-a como experiência (provavelmente fotos de sites de agências de turismo) – salvo algumas poucas exceções.

Natureza, cavalgada,
paisagens praianas
e paisagens do sertão

Por fim, o último grupo (talvez merecesse duas divisões distintas, mas achei melhor reunir tudo pois) traz basicamente fotos da natureza. Em Natureza vemos algumas espécies provavelmente mais comuns no Nordeste e, no grupo que chamei de Cavalgada, homens montando em cavalos refletem as histórias do sertão. Ao lado deles (literalmente), fotografias que provavelmente reforçam a seca que sofrem alguns municípios também ganham destaque. Por fim, o Nordeste paradisíaco é representado nas Paisagens Praianas – não coincidentemente ao lado das paisagens urbanas mais publicitárias.


Como discuti um pouco na monografia, não é porque as dinâmicas de poder se tornaram mais complexas que os estereótipos vão imediatamente sumir. O processo de transcodificação (Hall, 2016) é muito mais difícil de se por em prática do que imaginamos, e a própria reversão é ambivalentemente perigosa: “para transformarmos um estereótipo não precisamos necessariamente intervê-lo ou subvertê-lo. Escapar das garras de um dos extremos do estereótipo […] talvez signifique simplesmente estar preso em sua alteridade estereotípica” (id. ibid., p. 215).

O meu intuito aqui, entretanto, não é questionar nem tensionar os estereótipos construídos acerca da imagem (ou das imagens) dos nordestinos, mas dar um pontapé inicial para mostrar – empiricamente – que há um conjunto de símbolos e signos representativos do Nordeste e dos nordestinos. Quando argumentar sobre esse “imaginário social” sobre esses atores no contexto da cultura brasileira, posso mostrar – literalmente – do que se trata (talvez não em sua totalidade, mas em larga extensão – o que trabalhos focados em outras mídias não acompanham).

A problematização em cima do que essa representação envolve e quais são seus efeitos reais fica para outra ocasião mais propícia (e possivelmente acadêmica). Além disso, vale ainda refletir sobre não somente o que ficou de dentro, mas o que ficou de fora desse quadro – ou seja, a não-presença de alguns aspectos também comunica alguma coisa; e, no mais, uma comparação da generalização de Nordeste/nordestinos com cada um dos estados seria uma oportunidade riquíssima – que também vai ficar para outra oportunidade.

Referências bibliográficas

ALBUQUERQUE JR., Durval Muniz de. A invenção do Nordeste e outras artes. São Paulo: Cortez, 1999.
HALL, Stuart. Cultura e representação. Rio de Janeiro: Ed. PUC-Rio, 2016.

Um breve rascunho sobre a história da inteligência em mídias sociais

O mês de novembro sempre chega, há pelo menos alguns anos, com bastante expectativa para profissionais que trabalham com monitoramento e métricas (social analytics). Isso porque, além de ser o mês oficial da Consciência Negra (sempre bom lembrar), é também o mês não-tão-oficial da divulgação dos resultados da pesquisa “O profissional de inteligência de mídias sociais”. Agora já na sua 8ª edição, tendo passado pelas mãos de grandes profissionais (Tarcízio Silva, Júnior Siri, Ana Claudia Zandavalle e atualmente com Pedro Barreto), a pesquisa chega aos quase dez anos de idade com muitas histórias para contar.

É por isso que, neste post, achei que seria legal não apenas comentar sobre os resultados da última edição, mas fazer um breve rascunho de como a história da área de inteligência de mídias sociais (como se convencionou, a partir também da pesquisa, chamar o mercado de comunicação digital em mídias sociais dedicado ao trabalho de monitoramento e métricas) desenvolveu-se por todos estes anos. Já comentei em diversos textos aqui no blog a relevância da pesquisa para mim, quando “entrei” na área em 2015, portanto reforço seu papel não somente para atores que já fazem parte e escrevem seu roteiro, mas também para aqueles que chegam (ou chegarão) um pouco perdidos nesse contexto.

Antes de trazer as apurações e os levantamentos que fiz, ratifico mais uma vez: essa breve história é (quase) completamente baseada nos resultados das pesquisas desde 2011, com alguns pitacos e acréscimos a partir do meu nível de conhecimento (novamente — de alguém que chegou somente em 2015). Ou seja, é possível que algumas considerações relevantes fiquem de fora, por isso chamei de “rascunho”; estou mais do que aberto a correções, contra-argumentações e novas/mais perspectivas. Por ora, eis a história conforme eu compreendi e, arbitrariamente (como todo escrito histórico), convencionei dividir em quatro momentos: O nascimento (2008-2011); A consolidação (2012-2014); O amadurecimento (2015-2017); e Os desafios (2018-).

2008-2011 – O nascimento

É sempre bom ratificar que o trabalho em/com mídias sociais não é nada recente – aliás, não é nada novo há já algum tempo: no curso CoLab Social Media, Nathália Capistrano contou como já desenvolvia ações no Orkut em 2007/2008, para citar apenas um exemplo; o primeiro post do famoso blog de Avinash Kaushik, com o título “Traditional Web Analytics is Dead”, foi publicado em maio de 2006 – ainda que não seja especificamente sobre mídias sociais, é uma referência relevante tanto pelo profissional em si quanto para mostrar como marcas (lá fora, mas aqui também) já estavam online há bastante tempo. Acontece que de 2008-2009 adiante, as mídias sociais – encabeçada pelo Facebook, principalmente – dominaram a internet.

O relatório acima, “Monitoramento e Análise de Mídias Sociais – Gerando Insights de Consumidores a partir de Conversação Online” (em português), que é de 2008 e foi citado na primeira edição da pesquisa (2011) declara: “este relatório investiga como as empresas podem competir com sucesso num mundo no qual conteúdo da web gerado por consumidores está marginalizando o valor de canais de mídia tradicional, e no qual redes um-a-um estão substituindo figuras de autoridade tradicionais no fornecimento de informação confiável sobre uma marca”. Tendo entrevistado mais de 250 empresas, mostra como o trabalho de monitoramento/mensuração já era uma realidade em meados da década passada.

Quando a primeira edição da pesquisa, “Usos e Percepções do Monitoramento de Mídias Sociais” (148 respondentes), foi lançada, portanto, o mercado de monitoramento já era uma realidade no Brasil – ferramentas como Scup e Radian6 já existiam, por exemplo, e todo o mercado brasileiro de comunicação/publicidade já encarava as mídias sociais como ponto de parada obrigatório. A primeira definição de “monitoramento de mídias sociais” foi, inclusive, rascunhada um ano antes, em 2010, por Tarcízio Silva, no livro #MídiasSociais – Perspectivas, Tendências e Reflexões, que contém inclusive alguns apontamentos históricos já interessantes para esse panorama que trazemos aqui:

No Brasil, agências digitais passaram a oferecer o serviço de monitoramento, e algumas foram criadas com esse negócio como central. Em outros casos, foram criados braços de agências ou institutos de pesquisa e análise de mercado dedicados à atividade. Desde 2008, cerca de uma dúzia de agências, em geral de médio porte, começaram a produzir, publicar e apresentar conteúdo para educar o mercado sobre suas possibilidades, ainda que de forma não coordenada. A crescentemente demanda pelo serviço também estabeleceu o contexto pro lançamento de softwares nacionais. Desde o início de 2010, com o debate em torno destas eleições de legislação novamente renovado, temas relacionados às mídias sociais e o monitoramento das conversações entraram em pauta. De portais de âmbito nacional aos blogs mais segmentados, vez ou outra se fala repetidamente da corrida pelo maior número de tweets positivos, por exemplo. (p. 43).

É importante ratificar que o foco na disciplina de monitoramento aqui se dá simplesmente devido ao recorte específico também da primeira pesquisa, voltada exclusivamente (na teoria) aos profissionais que trabalhavam com essa atividade (como o próprio nome da primeira edição indica). Isso não quer dizer, de forma alguma, que o trabalho com métricas já não estivesse em voga, muito pelo contrário – o próprio post de 2006 de Kaushik é exemplo de como a disciplina de web analytics (ainda que desassociada do contexto de mídias sociais) é bem antiga. Talvez o “pulo do gato” esteja justamente na essência do contexto do trabalho de monitoramento: a proliferação em massa de conteúdos produzidos por usuários.

Ainda assim, a linha entre monitoramento e métricas (tanto social quanto web analytics) sempre foi tênue, desde a primeira edição: o quadro de “métricas mais importantes” trazia, em 2011, tanto indicadores típicos do primeiro (sentimento, reputação, influência, satisfação, resolução de problemas, temas, etc.) quanto do segundo (engajamento, alcance, ROI, vendas, leads, etc). O quadro abaixo é um levantamento de vários materiais voltados à “mensuração” de mídias sociais apresentado por Tarcízio Silva (que comandou a primeira edição da pesquisa) num material de 2010, que também reforça o cenário nebuloso de diferença entre monitoramento e métricas no início da década.

Slides da apresentação “Métricas para Mídias Sociais – conceitos, elementos, abordagens e ferramentas”, de Tarcízio Silva (2010)

Enfim, retornando aos resultados da primeira edição da pesquisa, o que eles nos apontam sobre o cenário em 2011?

  • Antes de mais nada, reforça que monitoramento/métricas não é algo novo, com pelo menos dois relatórios que já apontavam boas práticas na área;
  • Ainda assim, a profissão generalizante em/de mídias sociais era predominante, conforme as nomenclaturas mais comuns dentre os respondentes refletiam: Analistas/Coordenadores de Mídias Sociais, Analistas/Assessores de Comunicação;
  • Esse cenário amador também reflete as ferramentas plenas e parciais mais utilizadas, que trouxe nesse primeiro ano nomes como Google Alertas, Hootsuite e Tweetdeck – aplicações bem diferentes entre si, diga-se de passagem;
  • O monitoramento atendia principalmente à proposta de relacionamento, seguido imediatamente pela avaliação de resultados de comunicação – o que é muito interessante, pois a primeira resposta é completamente dependente do trabalho de monitoramento enquanto que a segunda pode, mais uma vez, estar se referindo a métricas (social e web analytics);
  • As principais insatisfações eram: dados imprecisos, delay na entrega, poucos cruzamentos/recursos, falta de conhecimento e pouco investimento – todas justificativas que fazem sentido a uma área que apenas começava a engatinhar e amadurecer, conforme os próximos anos vão mostrar;
  • Para o futuro, o relatório apontava como urgente: educar o mercado, produzir conteúdo/conhecimento, integrar fonte de dados e padronizar métricas – todos objetivos alcançados com sucesso (talvez somente a última ainda levante discussões, embora poucos se proponham a discutir atualmente).

2012-2014 – A consolidação

O objetivo dos players (profissionais, ferramentas, agências, etc.) no início da década era, portanto, educar – praticamente evangelizar – o mercado. E foi justamente isso que aconteceu nesse segundo momento, quando a disciplina de monitoramento se consolidou e ganhou corpo em conjunto à também matéria de métricas específicas para/de mídias sociais. Entre 2012 e 2014, explodiu a produção de conteúdo (dentre livros, e-books, eventos, etc.) sobre “monitoramento e métricas”, quando a linha tênue entre ambas tornou-se não mais um motivo de confusão pejorativamente, mas uma junção estratégica para somar forças ao argumento da importância do trabalho de “acompanhamento de resultados”.

No ano de 2012, com praticamente doze meses de distância, duas publicações importantíssimas foram lançadas: a coletânea Para Entender o Monitoramento de Mídias Sociais, organizada por Tarcízio Silva, com capítulos sobre análise de sentimento, SAC, gestão de crises, netnografia, etc.; e Monitoramento e métrica de mídias sociais: do estagiário ao CEO, de Diego Monteiro e Ricardo Azarite, chefias da Scup que já se consolidava como principal ferramenta de monitoramento do Brasil naquele momento. Ambas publicações foram muito além do recorte de monitoramento/métricas (principalmente a segunda), trazendo um panorama completo de boas práticas para a atuação de marcas nas mídias sociais.

Importante ressaltar, nesse momento, a ofensiva do Scup quanto à produção de conteúdo: além do livro, que veio a se tornar um dos mais relevantes para a área – conforme relembrado ano após ano na própria pesquisa -, a empresa criou na época um blog chamado Scup Ideas para compartilhar conhecimento sobre monitoramento/métricas e convidou dezenas de profissionais de agências já especializados no assunto para produzir e-books simples (porém extremamente educativos) sobre essas mesmas temáticas. Ainda patrocinou webinars, palestras/eventos, cursos rápidos e muito mais. Embora o blog e os e-books tenham se perdido na venda para a Sprinklr, eles ainda vivem aqui no blog.

A segunda edição da pesquisa, portanto, com 182 respondentes, já refletia um pouco desse cenário mais profissionalizantes. Nomenclaturas como “Analista de Métricas e Monitoramento” e “Analista de Buzz Intelligence” surgem, ainda que com a soberania de “Analista de Mídias Sociais” – que deve também ser celebrado uma vez que a primeira pesquisa trazia títulos ainda mais abrangentes de comunicação; a popularidade da Scup também se consolida, conseguindo quase 50% das menções em ferramentas mais citadas; além da presença/diferenciação dos tipos de softwares, comerciais plenas/gestão/métricas. A evolução do mercado dependia, neste momento, da valorização da área pelas empresas e da especialização da função.

Mas o mercado já estava evoluindo: a segunda maioria dos respondentes citaram “material online” como principal fonte de aprendizado, fruto justamente da proliferação de conteúdo que estava acontecendo através de blogs, grupos/comunidades, livros/e-books, eventos/cursos e Slideshare – todas essas opções também citadas na pesquisa. Ou seja, o mercado estava se educando, profissionais procurando capacitação, empresas se mobilizando para produzir conteúdo/conhecimento sobre o assunto, e a dupla “monitoramento e métricas” já tinha poder de argumentação nas maiores agências e empresas do Brasil – principalmente no eixo Sudeste, que historicamente sempre concentrou a mão de obra e força de trabalho.

Nesse sentido, a terceira edição da pesquisa (161 respondentes) demonstrou quase uma continuação dos resultados de 2012, sobretudo na coroação da Scup e na diferenciação explícita entre monitoramento e métricas (também na apresentação de resultados sobre ferramentas). Além disso, algumas outras considerações levantadas no resumo apontaram o cenário da época: o crescimento de ferramentas como Facebook Insights e Socialbakers refletia o poder do Facebook no Brasil; a queda de ferramentas de gestão é fruto da profissionalização também das próprias plataformas de mídias sociais (e funções de agendamento, por exemplo); a lembrança dos respondentes de ferramentas de web analytics reforça a importância do ROI financeiro; e mais capacitações (cursos livres e strictu sensu) surgem na área.

Outra “fonte histórica” também interessante para compreender esse período é o anual Social Analytics Summit, organizado pela Media Education. Com sua estreia em 2012 ainda sob nomenclatura “Metrics Summit 2012”, a primeira edição – apesar do nome – já misturava monitoramento e métricas dentre suas palestras; já em 2013, surge termos importantes como “inteligência” e “big data”, que se tornariam indispensáveis ao mercado desde então; em 2014, nem monitoramento nem métricas, mas “social analytics” – ou o ainda mais arriscado, “ciência de dados”. Esse quadro reflete como, em apenas alguns anos, a “inteligência de mídias sociais” nasceu e começou a engatinhar com as próprias pernas.

Ao chegarmos em 2014, portanto, a área já tinha se consolidado. Grandes players já tinham feito seus nomes, cursos livres e especializações/MBAs já eram uma realidade bastante popular (pelo menos no Sudeste), médias e grandes empresas já dedicavam um setor – ou pelo menos mais de um profissional – ao acompanhamento de marca e resultados nas mídias sociais, etc. E tudo isso pôde ser consolidado na 4ª edição da pesquisa, agora já nas mãos do sergipano Júnior Siri. Com 222 respondentes e agora intitulado “Profissional de métricas, monitoramento e social analytics no Brasil”, a pesquisa crescia em popularidade assim como a área em si ganhava mais projeção e, consequentemente, mais profissionais interessados/capacitados.

O termo inteligência (em inglês) já era uma realidade dentre as nomenclaturas mais relevantes: social intelligence, buzz intelligence, data intelligence, business intelligence, etc. Segundo explicação do próprio Siri, o aumento do percentual de respondentes que trabalham a maior parte do tempo ou exclusivamente com tais habilidades “mostra que, apesar de muitos profissionais de social media desempenharem diversas funções, está cada vez mais comum vê-los utilizando mais tempo em atividades de inteligência”. Nesse contexto, já havia também mais profissionais com especialização/MBA em marketing digital, comunicação digital, mídias digitais e BI/métricas, expurgando de vez a generalizante função de comunicação.

Dentre as ferramentas de web/social analytics, destaque para o contínuo crescimento do Google Analytics e Socialbakers (além do próprio Facebook Insights ainda relevante), que traduziam um cenário próspero para o Facebook e para inbound marketing. Já quanto às ferramentas de monitoramento, a coroação soberana da Scup enquanto líder de mercado devido principalmente a um trabalho – convenhamos, sensacional – de educação e evangelização de profissionais e clientes, com centenas de materiais produzidos nos dois/três anos anteriores. E, por falar em produção de conteúdo, essa edição trouxe a primeira lista de profissionais referência na área, com autores, professores e profissionais capacitadores.

Outro aspecto muito legal -que essa edição da pesquisa trouxe foi a apresentação de resultados por região. Embora a concentração no Sudeste (sobretudo em São Paulo) seja desconcertante, é muito interessante pensar as diferentes realidades do Brasil e como isso impacta o/é impactada pelo investimento na área. Para fechar essa era, vale citar só mais algumas coisinhas relevantes: 1) a morte eminente do alcance orgânico no Facebook, que vai estremecer um pouco o cenário dos anos seguintes; 2) a profissionalização do mercado já era realidade, acarretando em melhores salários; e 3) uma pesquisa muito semelhante da Trampos, “O raio-x dos profissionais de mídias sociais no Brasil” serviu como bom parâmetro comparativo.

2015-2017 – O amadurecimento

Ao chegarmos em 2015, a área já estava consolidada no mercado. Tão consolidada que os termos “monitoramento, “métricas” e “social analytics” já deixaram de vez o título da pesquisa, dando enfim espaço para o lançamento da “inteligência de mídias sociais” na própria pesquisa – lembrando que não foi a pesquisa em si que convocou essa expressão, mas o mercado que, nos anos anteriores, incorporou o termo sobretudo da nomenclatura de “Business Intelligence”. Quase que de modo celebratório, a pesquisa, agora “O profissional de inteligência de mídias sociais no mercado brasileiro” veio ainda mais densa, com novas questões e novamente recorde de respondentes: 296, seguindo padrão de crescimento iniciado em 2013.

Quanto à demografia, no entanto, houve pouca ou quase nenhuma mudança: São Paulo e Rio de Janeiro continuam predominantes, mulheres são maioria e os profissionais continuam jovens (entre 19 e 30 anos). Na seção de formação e estudos, entretanto, há uma certa “novidade” à época que merece destaque: a pesquisa identificou 52 cursos de 35 instituições diferentes. Lembra que as metas da “era” passada era justamente educar o mercado? Pois então, vários profissionais e empreendedores viram nisso uma oportunidade de lançar cursos sobre a temática cuja demanda era enorme – e surgem cursos livres, tanto em pequenas instituições quanto em escolas de graduação já renomadas, além de incorporação a Pós/especializações/MBAs.

Essa movimentação reverberou também nas principais referências, conforme apontado no próprio relatório: “foram lembrados aqueles que produzem conteúdo voltado para a área e os que têm participação ativa em eventos e grupos de discussão online […] referências como portais/blogs e livros estão associados a outros tópicos da pesquisa”. Ou seja, as obras coletivas do Scup garantiram tanto à ferramenta quanto aos profissionais que as produziram a presença em outras categorias; assim como a produção de conteúdo da Social Figures, comandada por Tarcízio Silva, também foi mão dupla para receber destaque nessa edição; o mesmo para a escola Atlas Media Lab e Gabriel Ishida, indissociáveis; e para a Trespontos Brasil, que produzira materiais com as professores Mariana Oliveira e Priscila Muniz – também ao Scup.

Dentre os livros mais citados (que que permanecerão praticamente os mesmos no ano seguinte), podemos arbitrariamente argumentar por uma diferença prática de leitura: obras do mercado (Diego Monteiro e Ricardo Azarite; Tarcízio Silva e colaboradores; Avinash Kaushik) e obras da academia (Martha Gabriel, Raquel Recuero e Adriana Amaral). Nesse sentido, reforça-se a proliferação de especializações/MBAs, distingue o conteúdo prático e teórico e, de certa forma, escancara ainda como a academia é – com muita ressalva – um lugar mais propício à apreciação intelectual de mulheres. Vale lembrar que o público feminino sempre foi maioria na pesquisa, o que nem sempre se concretizou também dentre as referências levantadas.

Outro detalhe importante que pode passar despercebido, mas que aparece em pelo menos seis slides é o surgimento, pela primeira vez, da disciplina de social ads (mídia): aparece nos grupos mais referenciados; através dos nomes Camila Porto e Fábio Prado Lima, também produtores de conteúdo e professores; nas integrações com outras áreas; e nos destaques do Sudeste e maiores agências. Essa novidade é fruto da polêmica morte do alcance orgânico no Facebook: se antes os profissionais conseguiam um bom retorno nas suas publicações apenas produzindo conteúdo de qualidade e utilizavam as métricas para otimizar esses resultados, de 2013 em diante a morte anunciada do alcance orgânico exigiu que as empresas agora pagassem para ter seu conteúdo bem-sucedido, fortalecendo a área de social ads (ou mídia, em seu nome tradicional).

facebook announcement

Outra importante impacto também aconteceu em 2015, quando o Facebook anunciou uma mudança drástica em sua API que afetou diretamente a atividade específica de monitoramento da plataforma. Como anunciado pelos textos proferidos nessa época, seria necessário – quase urgente – que o mercado, mais uma vez, buscasse alternativas responsáveis e uma capacitação ainda mais rigorosa para lidar com esse obstáculo: é também nessa época que se proliferam, conforme refletido na edição de 2016, cursos de Etnografia e Análise de Redes para Mídias Sociais – que não são matérias recentes, tendo já sido tópicos de discussão na era anterior, mas agora com maior projeção e relevância.

Algumas outras novidades da 6ª edição (368 respondentes, mais um recorde), agora conduzida por Ana Claudia Zandavalle, são: o surgimento (e a posterior morte) do Snapchat; o aumento considerável da realização de cursos livres (com 116 cursos e 100 instituições); o surgimento da Stilingue, que viria nos anos seguintes a tomar a coroa do Scup; o crescimento do Gephi, justamente em correlação com a proliferação da disciplina de ARS; a presença de referências como Resultados Digitais e Rock Content, empresas mais abrangente de marketing digital que refletem principalmente: 1) a produção em massa de conteúdo de materiais online, tal qual fizera Scup; e 2) a popularização do chamado “inbound marketing”, que propõe justamente a criação de conteúdo atraente (e, de certa forma, úteis) ao consumidor.

O que temos de 2016 para 2017 são, portanto, algumas notas de amadurecimento do mercado: o sustento das fases seguintes à graduação (especialização/MBA, mestrado e doutorado); a consolidação das disciplinas de Etnografia de Análise de Redes, sob o comando principalmente do IBPAD, que também lançara um livro colaborativo nessa mesma época com vários autores relevantes; as obras consolidadas de Diego Monteiro e Ricardo Azarite, Tarcízio Silva e colaboradores, Martha Gabriel, Jim Sterne e Raquel Recuero; a coroação da Stilingue como líder do mercado e consequente decadência do Scup; a popularização do Gephi como fruto do crescimento da ARS; a junção agora praticamente indissociável da disciplina de social ads, com profissionais, grupos, cursos e sites de referência; e, por fim, o também crescimento da Resultados Digitais e RD Station.

Eu ainda argumentaria por um fenômeno que talvez seja um pouco difícil de sustentar sem melhor averiguação dos dados, mas que me parece fazer sentido: há, a partir principalmente de 2015 em diante, o surgimento de uma “nova leva” de profissionais de “social media”. Na sétima edição, três grupos surgem como referência nesse sentido: Entusiastas da Social Media, Entusiastas | Social Media e Escola Social Media; em 2016, apareceu Entusiastas e Profissionais da Social Media; em 2015, Entusiastas e Social Media Brasil (no entanto, aqui o cenário era bem mais plural e, de certa forma, especializado, com grupos específicos de cursos, ferramentas e áreas bem delimitadas como web analytics). Sem contar a nomenclatura “Social Media”, que cresceu bastante e se manteve até 2018.

2018- Os desafios

A oitava e mais recente edição da pesquisa saiu há apenas algumas semanas, agora sob o comando de Pedro Barreto. Uma das mais relevantes mudanças está no enfoque dado à categoria de respondentes que dedicam a maior parte do tempo ao trabalho de inteligência, enquanto que todas as últimas pesquisas consideravam aqueles que trabalhavam “pelo menos parte do tempo” com a área – foi também a primeira vez que o cargo focado na área superou a outra opção, com 29% a 27% de disputa. Essa categoria mais especializada representa 75% dos respondentes, o que reflete um mercado já consolidado e maduro – com um público mais velho e com maior experiência de mercado.

Embora, num primeiro momento, a pesquisa pareça não trazer muitas novidades em termos técnicos (de especialização, etc.), eu argumentaria que há pelo menos cinco públicos diferentes que podem ser identificados nessa última pesquisa:

  1. Profissionais de Monitoramento – são profissionais que já respondem a pesquisa há alguns anos e trabalham (quase) exclusivamente com o monitoramento de mídias sociais, provavelmente em agências/empresas de médio-grande porte;
  2. Profissionais de Social/Web Analytics – são profissionais que trabalham diretamente com métricas de mídias sociais e websites, ou seja, cuja rotina diária envolve ferramentas como Facebook Insights, Twitter Analytics, Google Analytics, etc.;
  3. Profissionais de BI – seria como uma junção dos dois profissionais citados acima, com uma visão mais experiente e mais analítica de todo o cenário, possivelmente com pontes direta a outros indicadores de negócio (e, consequentemente, esforços de mídia paga);
  4. Profissionais de Social Media – são (novos) profissionais que não trabalham necessariamente em agências/empresas de médio-grande porte, mas que conseguem desenvolver o trabalho com métricas e (talvez) monitoramento de alguma forma em sua rotina, embora seja muito mais comum o diálogo direto com a disciplina de mídia para justificativa de ROI;
  5. Pesquisadores – são profissionais que dialogam entre academia e mercado, tentando unir as realidades de forma proveitosa para ambos os lados – e que são fruto da vontade de especialização do mercado, muitas vezes atravessada pela área de jornalismo e política.

Particularmente, acredito que estamos em um momento crítico (por falta de melhor termo, mas sem querer soar apocalíptico, apenas responsável) da área. Cito ao menos dois pontos distintos, mas que “chacoalharam” o mercado nos últimos anos: a nova lógica de publicização do conteúdo, que resultou na crescente absurda da área de social ads nos últimos anos e que se entrelaçou com a área de métricas, já que ambas se preocupam em resultados e otimização; e do outro lado do navio, a dificuldade cada vez maior de se trabalhar com dados (públicos) de mídias sociais, fruto dos mais recentes escândalos políticos envolvendo principalmente o Facebook – mas que, na verdade, reflete uma lógica capitalista por trás de uma suposta justificativa de preocupação com dados dos usuários.

O futuro, ao meu ver, é bastante incerto. Embora “inteligência artificial” tenha se tornado a buzzword mais queridinha do mercado nos últimos anos, parece que ninguém sabe ao certo do que se trata. Será que a Etnografia consegue se sustentar no ritmo frenético do mercado de agências? Se for somente a criação de bots para relacionamento, não me parece tão revolucionário assim. Mídia programática também ganhou destaque nos últimos anos, o que parece comprovar que as empresas não entenderam nada de 2010 para cá (dica: ninguém gosta de propaganda indesejada). Paralelamente, inbound marketing segue firme e forte, embora o foco esteja sempre na aquisição de leads e menos em entender o consumidor. Por fim, growth hacking também chegou prometendo bastante, mas será que não é mais do mesmo?

O que a história nos mostra é que a solução sempre está na especialização: um ponto que eu não citei nos comentários sobre as edições é o também crescente enfoque em ciência de dados e áreas correlatas. Tenho visto nos últimos anos diversos colegas procurando especialização em técnicas mais quantitativas, além de o aprendizado de programação para superar os obstáculos das APIs. Isso mostra como (pelo menos alguns) profissionais da área de mídias sociais já não a compreendem como ponto de partida, mas como atravessamento inevitável – e é necessário, portanto, ir muito além das suas limitações. O monitoramento não vai morrer, o Facebook não vai morrer, a publicidade não vai morrer. Mudanças (drásticas, sobretudo nos últimos anos na sociedade em geral) acontecem, mas a gente se adapta – e continua estudando.

Ferramentas e outras indicações do CodaBR18, por Matheus Dantas

[Texto por Matheus Dantas, participante do Pontão da ECO-UFRJ]
Durante dois dias de aprendizado com mais de 40 horas de treinamento e várias trocas de conhecimento na ESPM em São Paulo, a Conferência Brasileira de Jornalismo de Dados e Métodos Digitais, Coda.br, em sua terceira edição apresentou diversas ferramentas – tanto para usuários experientes como para novatos – que facilitam o trabalho e divulgação de dados.

Se você não teve a oportunidade de acompanhar o evento, ou esteve lá e não conseguiu anotar tudo, o Insightee traz as principais ferramentas apresentadas e suas utilidades:

Base de dados da ABRAJI

Qual base de dados eu necessito para uma determinada pauta? Por onde começar a busca de dados sobre o sistema prisional? Esta planilha da Associação Brasileira de Jornalismo Investigativo é colaborativa e atualmente contém mais de 180 base de dados de diversos assuntos desde economia e política a dados militares e de segurança pública. Ótimo lugar para iniciar sua busca:

Google Trends

Sem ideia para pautas? Que tal ver o que as pessoas estão pesquisando no google. Keila Guimarães, curadora de dados do Google News Lab, mostrou que as pessoas são bem sinceras quando buscam no google. A ferramenta pode ser usada para encontrar reportagens fora da nossa bolha: as estatísticas de Trends são um termômetro, elas revelam aquilo que as pessoas querem saber mais a respeito. Para aprender a usar o Google Trends a empresa disponibiliza alguns cursos para extrair o melhor da ferramenta:

IramuteQ

A ferramenta gratuita faz uma poderosa análise de textos de forma simples e foi apresentada pelo IBPAD – Instituto Brasileiro de Pesquisa e Análise de Dados. A pasta com o tutorial de instalação, apresentação da ferramenta, exercícios e exemplos de análises estatísticas está aqui:

Queremos Saber

Se você se sente em risco quando se identifica ao pedir dados através da LAI (Lei de Acesso à Informação) o projeto Queremos Saber, que conta com apoio da Open Knowledge Brasil (OKBr), pode pedir para você. É necessário cadastrar o pedido no site https://queremossaber.org.br/, guardar o número do protocolo e o robô do projeto faz o trabalho no anonimato.

O órgão público responde a sua solicitação e o projeto disponibiliza a resposta através do número do seu protocolo (é muito importante guardar o número, não há outro tipo de identificação). O projeto ainda não disponibiliza para acesso público as informações já solicitadas, mas durante o evento Camille Moura da OKBr prometeu considerar a ideia.

Atualizando Tarefas Maçantes

Já estamos há muito tempo na terceira revolução industrial, que tal deixar as atividades repetitivas para os robôs? Aprenda aautomatizar tarefas maçantes com o Fernando Masanori:

Flourish

Dados são um monte de número e nem sempre a narrativa textual criada ajuda a interpretação do leitor. Que tal criar mapas bonitos, daqueles de grandes reportagens numa ferramenta sem custo nenhum? Graças ao Google News Lab, o Flourish é de graça para jornalistas, confere lá: www.flourish.studio

SQL

Como ‘entrevistar’ grande bases de dados? Tenta o SQL. Nesta pasta você encontra a apresentação da Cecilia do Lago, repórter do Estadão Dados, com o Leonardo Ferreira Leite, desenvolvedor de software no Serviço Federal de Processamento de Dados (Serpro) e algumas bases de dados para exercícios:

Bots no Twitter

Bots estão no twitter tanto para o bem como para o mal e você pode criar um (claro que para o bem) com as metodologias disponibilizadas pelo Pedro Burgos:

Dados Abertos para Investigações Jornalísticas

Imagens ou vídeos estranhos na internet? Confira ferramentas para criar o seu lide (Como, Onde e Quando?) nessa apresentação da Barbára Libório e do Adriano Belisário:

Estatística para jornalistas

Tá difícil de entender inferência, correlação e regressão linear? Renata Hirota do Volt Data Lab mostra como sair do básico para nunca mais errar em estatística:

Como tornar sua história de dados mais atraentes?

Essa daqui não é bem uma ferramenta, mas é a apresentação da jornalista Amanda Rossi sobre como deixar sua historia de dados mais atraente para o público, afinal não adianta você ter um ótimo furo e o seu leitor não se interessar por ele. Aqui vão as dicas:

+80 ferramentas

Para completar a lista aqui vão 80 ferramentas para ajudar a pesquisar, obter, coletar, armazenar, limpar, analisar e visualizar dados. Muitas são amigáveis para quem não tem grandes conhecimentos de programação. Elas foram apresentadas pela Natalia Mazotte, diretora-executiva da Open Knowledge Brasil: http://bit.ly/80tools-codabr

Outros links interessantes

+ Mini-tutorial introdutório sobre expressões regulares, por Álvaro Justen

Regressão linear, por Renata Hirota

Thread de conteúdos/indicações por Raphael Hernandes, incluindo documento de anotações sobre palestras e atividades

+ Lista de bases públicas (para jornalistas), por Tiago Mali

Dicas, recomendações e apresentações do #CodaBR18

+ Análise de dados: Pandas não morde, por Fernando Masanori

Jornalismo investigativo open-source: ferramentas on-line para responder quem, quando e onde, por Bárbara Libório e Adriano Belisário

Computação visual para Ciências Sociais e Jornalismo, por Tarcízio Silva

Jupyter Notebook – o bloquinho megablaster dos jornalista de dados, por Fernanda Campagnucci

Sobre Coda.br, humildade e networking no bar

O papel da representação – em Cultura e representação, de Stuart Hall

Em março de 2017 publiquei aqui no blog a primeira parte do que prometi que seria uma série de três posts sobre o livro “Cultura e Representação” (Stuart Hall, 2016), organizado pela Editora PUC-Rio. A obra traz três textos independentes (produzidos originalmente para diferentes publicações), porém complementares: a Apresentação (introdução da coletânea Representation: Cultural Representation and Signifying Practices, de 1997), o Capítulo 1 – O papel da representação (o original, The Work of Representation) e o Capítulo 2 – O espetáculo do outro (o original, The Spectacle of the Other). Tendo mais de um ano do lançamento desta série, compartilho aqui – enfim – o segundo post sobre o livro, como uma espécie de resumo-comentado.

No texto “O papel da representação” (primeiro capítulo da obra), Hall se debruça com tremenda minúcia em alguns dos conceitos mais relevantes do seu trabalho: representação, sentido, linguagem e discurso. Extremamente metódico, o autor divide a leitura em cinco tópicos principais: 1. Representação, sentido e linguagem (no qual explica as principais teorias em torno de signos, significados e sentidos); 2. O legado de Saussure (no qual apresenta a “virada linguística” nos estudos sociais); 3. Da linguagem à cultura: da linguística à semiótica (no qual apresenta a abordagem da semiótica quanto à construção de sentido); 4. Discurso, poder e sujeito (no qual localiza a importância de Foucault para pensar poder/política/causa e efeito); e 5. Onde está o sujeito? (no qual toma para si a responsabilidade de localizar o sujeito na estrutura).

1. Representação, sentido e linguagem

Na primeira parte, o autor apresenta gradativamente os conceitos que serão trabalhados no texto, a começar por representação: um processo-chave do circuito cultural (significados produzidos e compartilhados) que conecta o sentido e a linguagem (signos e imagens que significam/representam objetos) à cultura. Em outras palavras (e de modo simples), representação seria a produção de sentido pela linguagem. E para explicar com mais detalhes sobre esse assunto, ele apresenta três abordagens/teorias principais: a Reflexiva, a Intencional e a Construtivista – esta última mais relevante (e atual), à qual o autor se filia e na qual desenvolve todo o seu pensamento -, a serem exploradas com mais detalhes logo mais.

Para facilitar a compreensão, colocaria que, fosse essa temática uma simples equação matemática, seria algo como: representação = sentido + linguagem. Ou seja, “é a conexão entre conceitos e linguagem que permite nos referirmos ao mundo ‘real’ dos objetos, sujeitos ou acontecimentos, ou ao mundo imaginário de objetos, sujeitos e acontecimentos fictícios” (p. 34). Nesse contexto, há o que o autor pontua didaticamente como dois processos (ou sistemas) complexos de representação: o primeiro, ligado aos conceitos sustentados pela construção metódica de sentido; e, o segundo, ligado ao uso da linguagem (enquanto instrumento comunicacional) para carregar consigo a função do primeiro.

Hall simplifica o primeiro sistema (bastante complexo, é bom ratificar) como “um conjunto de conceitos ou representações mentais que nós carregamos” relacionados a ordem de objetos, sujeitos e acontecimentos “que podem ‘representar’ ou ‘se colocar como’ o mundo” (p. 34). Diz respeito, portanto à nossa capacidade enquanto seres inteligíveis capazes de produzir e manter um sistema conceitual mental que nos permita julgar “o mundo de maneira relativamente similar”, podendo “construir uma cultura de sentidos compartilhada e, então, criar um mundo social que habitamos juntos” (p. 36). Talvez aqui seja difícil de compreender por se tratar de um processo bem abstrato, mas os exemplos que surgirão mais para frente devem ajudar.

Já o segundo sistema é relativamente mais simples (de compreender), já que se faz literalmente mais concreto no nosso cotidiano. É a linguagem esse “segundo sistema de representação envolvido no processo global de construção de sentido” (p. 36), sobre o qual os signos se organizam. Estes “indicam ou representam os conceitos e as relações entre eles que carregamos em nossa mente e […], juntos, constroem os sistemas de significado da nossa cultura” (p. 37). Ele chama atenção para o sentido mais amplo atribuído à linguagem (e, consequentemente, aos signos) nessa explicação, não se limitando à fala/escrita/etc., mas tudo que seja capaz “de carregar e expressar sentido”, organizado sistematicamente e se tornando, assim, “uma linguagem”.

No cerne do processo de significação na cultura surgem, então, dois “sistemas de representação” relacionados. O primeiro nos permite dar sentido ao mundo por meio da construção de um conjunto de correspondências, ou de uma cadeia de equivalências, entre as coisas, pessoas, objetos, acontecimentos, ideias abstratas etc. – e o nosso sistema de conceitos, os nossos mapas conceituais. O segundo depende da construção de um conjunto de correspondências entre esse nosso mapa conceitual e um conjunto de signos, dispostos organizados em diversas linguagens, que indicam ou representam aqueles conceitos. A relação entre “coisas”, conceitos e signos se situa, assim, no cerne da produção do sentido na linguagem, fazendo do processo que liga esses três elementos o que chamamos de “representação” (p. 38).

Todo esse “ciclo” da representação exige que as pessoas possuam minimamente “mapas conceituais” semelhantes, ou seja, maneiras parecidas de interpretas os signos de uma linguagem: “à medida que a relação entre o signo e o seu referente se torna menos clara, o sentido começa a deslizar e escapar de nós, caminhando para a incerteza” (p. 39). Essa condição (ou pré-requisito) é importante também para nos lembrar a arbitrariedade dessa relação entre signo, conceito e objeto; ou seja, a palavra “melancia” nos remete à fruta devido ao acordo que fizemos na sociedade brasileira/língua portuguesa quanto à referência entre signo e objeto real, mas poderia ser qualquer outra combinação de letras: “yulate” (ou “watermelon”, em inglês).

O sentido, portanto, não nasce com o signo, é incorporado a ele: “Somos nós quem fixamos o sentido tão firmemente que, depois de um tempo, ele parece natural e inevitável. […] Ele é construído e fixado pelo código, que estabelece a correlação entre o nosso sistema conceitual e nossa linguagem […]” (p. 42). Os códigos, portanto, possibilitam-nos a falar e ouvir inteligentemente ao fixar arbitrariamente as relações entre o nosso sistema conceitual e os nossos sistemas linguísticos, num processo de tradutibilidade em ambas direções. Crianças, por exemplo, aprendem o sistema de convenções sociais e representações (tanto na fala quanto na interpretação) para que passem a, gradativamente, atuar como sujeitos culturalmente competentes.

Uma implicação desse argumento sobre códigos culturais é que, se o sentido é o resultado não de algo fixo na natureza, mas de nossas convenções sociais, culturais e linguísticas, então o sentido não pode nunca ser finalmente fixado […]. Obviamente, deve haver alguma fixação do sentido na linguagem, ou nunca poderíamos entender uns aos outros […]. Convenções sociais e linguísticas mudam, sim, através do tempo […]. Códigos linguísticos variam significativamente entre uma língua e outra. […] O principal ponto é que o sentido não é inerente às coisas, ao mundo. Ele é construído, produzido. É o resultado de uma prática significante – uma prática que produz sentido, que faz os objetos significarem. (p. 46)

Para explicar como a representação do sentido pela linguagem funciona, Hall traz três enfoques das teorias já citadas: reflexiva, intencional a construtivista. Na primeira, “o sentido é pensado como repousando no objeto, pessoa, ideia ou evento no mundo real, e a linguagem funciona como um espelho, para refletir o sentido verdadeiro como ele já existe no mundo” (p. 47). O foco dessa teoria, portanto, está na mimesis (reflexão/imitação) do real – por isso também é comumente chamada de mimética. Já na segunda, o foco é o interlocutor: “as palavras significam o que o autor pretende que signifiquem” (p. 48). Seu caráter individualista, entretanto, esbarra na necessidade comunicacional que exige o conhecimento compartilhado dos signos e dos sentidos a eles atribuídos.

É sob o manto da teoria construtivista, entretanto, que o autor se deleita. Nela, nem o signo pelo signo nem o interlocutor pelo interlocutor basta, mas um jogo complexo entre todas as partes envolvidas: “Nem as coisas nelas mesmas, nem os usuários individuais podem fixar os significados na linguagem. As coisas não significam: nós construímos sentido, usando sistemas representacionais – conceitos e signos”. Em complemento, explica a dinâmica desse processo: “São os atores sociais que usam os sistemas conceituais, o linguístico e outros sistemas representacionais de sua cultura para construir sentido, para fazer com que o mundo seja compreensível e para comunicar sobre esse mundo, inteligivelmente, para outros” (p. 49).

Para explicar melhor a teoria construtivista (e o processo de representação como um todo), o autor utiliza o ótimo exemplo da linguagem dos semáforos. Primeiro, levemos em consideração as cores que conhecemos. Elas existem, obviamente, mas os nomes os quais as atribuímos foram definidos por nós mesmos: “usamos um modo de classificar o espectro colorido para criar cores que são diferentes umas das outras. Nós representamos ou simbolizamos as diversas cores e as classificamos de acordo com diferentes conceitos de cor” (p. 49-50). São, portanto, dois momentos (didáticos): aquele no qual nosso mapa mental compreende e distingue as cores umas das outras; e outro no qual associamos a essas cores, diferenciadas, signos e códigos linguísticos.

É óbvio que, na prática, esse processo é menos metódico e mais “bagunçado”, mas ele nos leva a três considerações relevantes: 1) nem o significado nem o signo existem sozinhos, são construídos socialmente; 2) uma vez que são construídos socialmente, poderiam ser qualquer coisa; 3) exatamente devido a essa possibilidade de ser qualquer coisa, mas tendo essa fixação social, há um duplo arbitrário em jogo. E é justamente em cima dessa arbitrariedade que os construtivistas vão argumentar de onde surge o sentido: “o que significa, o que carrega sentido, eles argumentam, não é cada cor por si mesma nem o conceito ou palavra para ela. É a diferença entre vermelho e verde que significa” (p. 53).

Em princípio, qualquer combinação de cores – como qualquer coleção de letras na linguagem escrita ou de sons na linguagem falada – funcionaria, dado que as cores fossem suficientemente diferentes para não serem confundidas. Os construtivistas expressam essa ideia dizendo que todos os signos são ‘arbitrários’. Esse termo significa que não existe nenhuma relação natural entre o signo e seu sentido ou conceito […]. É o código que fixa o sentido, não a cor por si própria. Isso também tem implicações mais amplas para a teoria da representação e sentido na linguagem, e significa que signos por eles mesmos não podem fixar sentido. Em vez disso, o sentido depende da relação entre um signo e um conceito, o que é fixado por um código. O significado, os construtivistas diriam, é ‘relativo’. (p. 52)

Em resumo, portanto, vale recapitular: representação é a produção do sentido pela linguagem“O sentido é produzido dentro da linguagem, dentro e por meio de vários sistemas representacionais que, por conveniência, nós chamamos de ‘linguagens’. O sentido é produzido pela prática, pelo trabalho, da representação. Ele é construído pela prática significante, isto é, aquele que produz sentidos” (p. 54). Como um ciclo da teoria construtivista, portanto, compreenderia-se: conceitos formados nas nossas mentes em sistemas classificatórios inteligíveis > signos que transportam os sentidos > tradução dos nossos conceitos em linguagem através de mapas de sentido compartilhados.

  • Teoria Reflexiva (Mimética): propõe uma relação direta e transparente de imitação ou reflexão entre as palavras (signos) e as coisas;
  • Teoria Intencional: reduz a representação às intenções do autor ou sujeito;
  • Teoria Construtivista: propõe uma relação complexa e mediada entre as coisas no mundo, os conceitos em nosso pensamento e a linguagem.

2. O legado de Saussure

A segunda parte do texto é completamente dedicada ao filósofo Ferdinand de Saussure, responsável pela “virada linguística” das Ciências Sociais (e, consequentemente, dos Estudos Culturais). A visão social-construtivista da linguagem ratifica a importância dos signos (sistema de sinais), porém somente num contexto de sistema de convenções compartilhadas. Deste modo, o significante (a palavra ou imagem de um objeto) se correlaciona com o conceito mental desse objeto parar gerar sentido, “mas é a relação entre eles, fixada pelo nosso código cultural e linguístico, que sustenta a representação” (p. 57). Novamente, para simplificar: signo = significante (forma que significa) + significado (ideia significada).

Embora essa primeira introdução ao autor possa indicar uma caminhada em direção à teoria reflexiva, Hall logo explica que é a natureza arbitrária do signo que fundamenta – para Saussure, assim como para os construtivistas – a construção de sentido pela linguagem: “Signos não possuem um sentido fixo ou essencial. […] Os signos, argumentou ele, ‘são membros de um sistema e definidos em relação a outros membros daquele sistema'” (p. 58). O filósofo, enfática e revolucionariamente, argumentou que “os significantes devem estar organizados em um ‘sistema de diferença'” para produzir sentido, pois “é a diferença entre os significantes que significa” (p. 59) – logo, a retomada ao signo não se refere a sua mimesis, mas a seu caráter social/cultural.

É aí que a teoria construtivista pesa em seu pensamento, quando ele localiza o signo (e o sentido) à história: “Os conceitos (significados) aos quais elas [as palavras] se referem também se modificam, historicamente, e toda transformação altera o mapa conceitual da cultura, levando diferentes culturas, em distintos momentos históricos, a classificar e pensar sobre o mundo de maneira diversa” (p. 59). Ou seja, não há como sustentar o significante e o significado sem compreender o processo histórico e cultural nos quais eles estão concebidos. Isso quebra “qualquer vínculo natural e inevitável” entre ambos, abrindo assim “a representação para o constante ‘jogo’ de deslizamento do sentido, para a constante produção de sentidos, novas interpretações” (p. 60).

O sentido deve ser ativamente ‘lido’ ou ‘interpretado’. Consequentemente, há uma imprecisão necessária e inevitável sobre a linguagem. O sentido que nós captamos, como espectadores, leitores ou público, nunca é exatamente o sentido que foi dado pelo interlocutor, escritor ou pelos outros espectadores. E, uma vez que, para dizer algo relevante, nós devemos ‘entrar na linguagem’, onde todos os tipos de sentidos que nos antecedem, que seria fazer uma triagem de todos os outros sentidos ocultos que podem modificar ou distorcer o que nós queremos dizer. […] Assim, a interpretação torna-se um aspecto essencial do processo pelo qual o sentido é dado e tomado. O leitor é tão importante quanto o escritor na produção do sentido. Todo significante dado ou codificado com significado tem que ser significativamente interpretado ou decodificado pelo receptor (Hall, 1980). Signos que não tenham sido inteligivelmente recebidos ou interpretados não são, em nenhum sentido útil, “significativos” (p. 60-61).

Um dos termos – conceitos – importantes de Saussure é o que ele chamou de langue (ou sistema de linguagens), que é basicamente a estrutura regrada que nos possibilita formar sentenças socialmente compreensíveis. Em complemento à langue, há a parole, reconhecida como “atos particulares de fala, escrita ou desenho que […] são produzidos por um interlocutor ou escritor real”. Em suma, a partir de Culler (1976), Hall explica: “A langue é o sistema da linguagem, a linguagem como um sistema de formas, enquanto a parole é a fala [ou escrita] real, os atos de fala que só são possíveis pela linguagem” (p. 61). Ou seja, o primeiro seria a base (cultural) na qual o segundo pode operar a partir de performances individuais.

Nosso autor destaca que, para Saussure, a langue, por se tratar de um sistema razoavelmente fechado/limitado de regras e códigos, poderia ser estudada cientificamente. Já a parole, por mais individual que seja (ela realmente é lida como a fala/linguagem de cada um de nós), precisa da langue para se sustentar: “Cada afirmação autoral só se torna possível porque o ‘autor’ compartilha com outros usuários da linguagem as regras e códigos comuns do sistema – a langue -, que permite que eles se comuniquem um com o outro significantemente” (p. 62). Essa argumentação é importante para fazer coro com o que já vimos anteriormente, sempre lembrando que 1) nada é natural e 2) tudo se constrói em sociedade, e não no vácuo.

O grande feito de Saussure foi nos forçar a prestar especial atenção na linguagem em si, como um fato social, no processo de representação em si, em como a linguagem realmente funciona e no papel que desempenha na produção do sentido. Ao fazer isso, Saussure salvou a linguagem do status de mero meio transparente entre coisas e sentido. Ele mostrou, em vez disso, que a representação é uma prática. No entanto, em seu próprio trabalho, Saussure tendeu a focar, quase exclusivamente, nos dois aspectos do signo – significante e significado. Deu pouca ou nenhuma atenção a como essa relação entre significante / significado poderia servir ao propósito do que nós previamente chamamos de referência – ou seja, nos referindo ao mundo das coisas, pessoas e eventos que estão fora da linguagem, no mundo ‘real’. (p. 63)

Ainda que seu trabalho tenha sido importantíssimo para as Ciências Sociais como um todo, a obsessão funcionalista pelo seu objeto de pesquisa o cegou de levar em consideração as “características mais interativas e dialógicas da linguagem – como é realmente usada, como funciona em situações reais, no diálogo entre diferentes tipos de locutores” (p. 64). Hall aponta que “teóricos culturais posteriores aprenderam com o ‘estruturalismo’ de Saussure, mas abandonaram sua premissa científica”, explicando que: “Como por vezes acontece, o sonho ‘científico’ que residia por trás do impulso estruturalista do seu trabalho (embora influente em nos alertar para certos aspectos de como a linguagem funciona) provou ser ilusório. A linguagem não é um objeto que possa ser estudado com a precisão de uma ciência” (p. 64).

E continua: “A linguagem permanece governada por regras, mas não é um sistema ‘fechado’ que pode ser reduzido aos seus elementos formais. Uma vez que está constantemente mudando, ela é, por definição, um conceito aberto. O sentido continua sendo produzido pela linguagem em formas que nunca podem ser previstas de antemão e o seu deslizamento, como nós descrevemos acima, não pode ser contido” (p. 64). Diante dessa crítica tão contundente, portanto, como se sobressai o legado de Saussure? O modo pelo qual ele deu atenção, pioneiramente, ao processo como o significante (código de linguagens) associa significados (conceitos mentais) produz signos linguísticos que se traduzem em sentidos referentes ao “mundo real”.

3. Da linguagem à cultura: da linguística à semiótica

O legado de Saussure é justamente o responsável pela fundação da semiótica. Matéria extremamente comum (e temida) nos cursos de Publicidade e Propaganda, continua tão relevante talvez por estarmos vivendo cada vez mais numa sociedade hiper-visual. Nessa terceira parte do texto, Hall apresenta – sem entrar em muitos detalhes, por estar menos interessado na poética e mais interessado nos efeitos de sentido – como podemos compreender a disciplina. Para aproximar o leitor do conteúdo, utiliza dois exemplos simples que explicam bem os conceitos: a linguagem da moda e o mito de Roland Barthes – o primeiro, num localizado principalmente num contexto da sociedade do consumo; e, o segundo, político-cultural.

Na abordagem semiótica, não apenas palavras e imagens, mas os próprios objetos podem funcionar como significantes na produção do sentido. Roupas, por exemplo, podem ter uma função física simples – cobrir e proteger o corpo do clima. Contudo, também se apresentam como signos. Elas constroem significados e carregam uma mensagem (p.68).

Ao abordar a “linguagem da moda”, é importante ter em mente que ele se refere a todo o espectro cultural de como nós, em sociedade, compreendemos nosso vestuário – não se trata apenas do mercado da moda. Lembrando que os signos são os produtos da junção de significantes com significados, ele aponta que “o código da moda nas culturas consumidoras ocidentais […] correlacionam tipos ou combinações particulares de roupas com certos conceitos”, denotando às roupas categorias de elegância, formalidade, casualidade, etc. Logo, as roupas são significantes que, convertidas em signos, podem ser lidos como uma linguagem – e, no contexto da moda, “são arranjados em certa sequência, em determinadas relações uns com os outros” (p. 69-70).

Talvez fique ainda mais fácil de entender se levarmos em consideração os vestidos de casamento. Todo o ritual em torno do casamento é extremamente simbólico, mas façamos um recorte apenas na vestimenta. Na prática, a roupa que a mulher usa é apenas um vestido de coloração branca. Essa interpretação Hall explica como denotativa, “o nível simples, básico, descritivo, em que o consenso é difundido e a maioria das pessoas concordaria no significado”. No entanto, ele é branco por um motivo: carrega um sentimento de pureza, angelical, etc. À nossa primeira leitura (um vestido branco), acrescenta-se um sentido mais amplo: “[A linguagem da moda] os conecta a sentidos e temas mais abrangentes, ligando-os ao que nós chamaremos de campos semânticos mais vastos de nossa cultura” (p. 71).

O argumento fundamental por trás da abordagem semiótica é que, uma vez que todos os objetos culturais expressam sentido, e todas as práticas culturais dependem do sentido, eles devem fazer uso dos signos; e na medida em que fazem, devem funcionar como a linguagem funciona e ser suscetíveis a uma análise que, basicamente, faz uso dos conceitos linguísticos de Saussure (ou seja, a distinção entre significante/significado e langue/parole, sua ideia de códigos e estruturas subjacentes e a natureza arbitrária do signo) (p. 67).

O segundo exemplo que Hall utiliza para explicar a semiótica provavelmente já é de conhecimento a qualquer pessoa que teve uma aula sequer de semiótica (que não foi o meu caso): o mito de Barthes. Num dos ensaios mais famosos do linguista, ele escreve sobre uma capa de revista francesa a qual foi apresentado, que continha um adolescente negro fazendo continência para a bandeira francesa (à direita). A primeira interpretação que fazemos, denotativa, é justamente esta que escrevi – no entanto, semioticamente, é possível (e compreensível) fazer uma leitura muito mais densa do que vemos na capa da revista, conhecendo o histórico de colonização dos povos africanos – também em grande parte – pela França.

“O primeiro significado completo funciona como significante no segundo estágio do processo de representação e, quando ligado a um tema mais amplo pelo leitor, produz uma segunda mensagem, ou significado, mais elaborada e ideologicamente enquadrada”, explica Hall. Ou seja, é o primeiro significado (o signo de uma pessoa, um jovem negro, na capa de uma revista francesa, com roupas militares), que fundamenta a segunda interpretação – o militarismo/colonialismo francês sob povos africanos. “Barthes dá a esse segundo conceito ou tema um nome: ele o chama de ‘uma mistura a propósito do ‘imperialismo francês’ e do ‘militarismo’. Isto, diz ele, adiciona uma mensagem sobre o colonialismo francês e seus fiéis soldados filhos negros. Barthes chama esse segundo nível de significação de mito” (p. 72-73).

Seja lá o que pense sobre a “mensagem” real que Barthes ressalta, para uma análise semiótica ideal você deve ser capaz de delinear precisamente os diferentes passos pelos quais esse sentido mais amplo foi produzido. Barthes argumenta que, aqui, a representação acontece por dois processos independentes, porém ligados. No primeiro, os significantes (os elementos da imagem) e os significados (os conceitos – soldado, bandeira e assim por diante) se unem para formar um signo com uma simples mensagem denotada: um soldado negro está saudando a bandeira francesa. Em um segundo estágio, essa mensagem, ou signo completo, é ligada a outro conjunto de significados – um conteúdo amplo e ideológico sobre o colonialismo francês (p. 73).

4. Discurso, poder e o sujeito

Embora a semiótica tenha sido – e continue sendo – extremamente importante, o sentido jamais pode ser fixado, ou seja “interpretações nunca produzem um momento final de absoluta verdade”. Hall recorre mais uma vez a Derrida para argumentar que a diferença “nunca pode ser totalmente capturada por um sistema binário”, o que faz com que “qualquer noção de sentido final [seja] sempre infinitamente descartada, adiada” (p. 77). É aqui que entra, portanto, Michel Foucault, um para pensarmos a representação sob outra perspectiva para além do seu caráter poético – “sublinhando três de suas principais ideias: seu conceito de discurso, o problema do poder e conhecimento, a questão do sujeito” (p. 79).

Na abordagem semiótica, a representação foi entendida com base na forma como as palavras funcionam como signos dentro da linguagem. Contudo, em primeiro lugar temos que, em uma cultura, o sentido frequentemente depende de unidades maiores de análise […]. A semiótica parecia confinar o processo de representação à linguagem, e tratá-la como um sistema fechado, bastante estático. Desenvolvimentos posteriores se tornaram mais preocupados com a representação como uma fonte para a produção do entendimento social – um sistema mais aberto, conectado de maneira mais íntima às práticas sociais e às questões de poder. […] Mesmo que a linguagem, de algum jeito, ‘fale sobre nós’ (como Saussure tendia a argumentar), também é importante notar que em certos momentos históricos algumas pessoas têm mais poder para falar sobre determinados assuntos do que outros […]. Modelos de representação, argumentaram esses críticos, devem focar nesses aspectos mais amplos de conhecimento e poder (p. 77-78).

Uma das mudanças mais significativas (e simbólicas, de certa forma) que Foucault traz, no contexto da representação, é a troca do termo “linguagem” para o termo “discurso”. Pode parecer algo simples, mas é bastante valioso no pensamento do filósofo: “o que interessava a ele eram as regras e práticas que produziam pronunciamentos com sentido e os discursos regulados em diferentes períodos históricos” (p. 80). Ou seja, para ele, a produção do sentido pela linguagem – enquanto discurso“produz os objetos do nosso conhecimento, governa a forma com que o assunto pode ser significativamente falado e debatido, e também influencia como ideias são postas em prática e usadas para regular a conduta dos outros” (p. 80).

Já fica explícito aqui como – sob qual perspectiva – o autor pretende trabalhar representação, a partir do conceito de discurso, levando em consideração normas de conduta e campos institucionais da sociedade: “essa ideia de que coisas e ações físicas existem, mas somente ganham sentido e se tornam objetos de conhecimento dentro do discurso está no coração da teoria construtivista sobre o sentido e a representação”. Pode parecer confuso, mas o que ele quer dizer é que, no jogo do sentido (que é o mesmo da cultura e da representação), as coisas só existem a partir do discurso. Ou seja, “é o discurso – não as coisas por elas mesmas – que produz o conhecimento” (p. 83).

A ideia de que ‘o discurso produz os objetos do conhecimento’ e de que nada que tem sentido existe fora dele é, à primeira vista, uma proposição desconcertante, que parece correr contra o cerne do pensamento comum. […] O que realmente argumenta é que ‘nada tem nenhum sentido fora do discurso’ (Foucault, 2012). Como Laclau e Mouffe colocaram, ‘nós usamos [o termo discurso] para enfatizar o fato de que toda configuração social tem sentido’ (1990: 100). O conceito de discurso não é sobre se as coisas existem, mas sobre de onde vem o sentido das coisas (p. 81).

De certo modo, poderia-se dizer que Foucault historiciza a linguagem, elevando-a ao discurso e complexificando-a quanto à produção de conhecimento e ao regime da verdade (em comparação à “não-historicidade” da semiótica). “Ele se concentrou na relação entre conhecimento e poder, e em como este funcionava dentro do que o filósofo chamou de aparato institucional e suas tecnologias (técnicas)”, explica Hall. Ao enxergar “o conhecimento como inexoravelmente envolvido em relações de poder porque este sempre é aplicado à regulação da conduta social na prática (ou seja, a ‘corpo’ particulares)”, marcou um desenvolvimento significativo na abordagem construtivista recuperando “a representação das garras de uma teoria puramente formal e deu a ela um contexto operacional histórico, prático e ‘global'” (p. 85).

A perspectiva discursiva em sua contextualização histórica se assemelha à argumentação marxista na qual “as ideias refletiam a base econômica da sociedade e, então, as ‘ideias em vigor’ eram aquelas da classe dominante, que governa a economia capitalista; assim, o pensamento correspondia aos interesses dos dominadores”. Hall explica, entretanto, que Foucault se aproximava mais ao pensamento de Gramsci, uma vez que a teoria marxista clássica de ideologia “tendia a reduzir toda a relação entre conhecimento e poder à questão do poder da classe e seus interesses”. Para eles, “grupos sociais particulares estão em conflito de diversas formas, incluindo ideologicamente, para ganhar o consenso dos outros grupos e alcançar um tipo de ascendência sobre eles, na prática e no pensamento” (p. 87).

A noção de discurso em Foucault está muito associada também às suas outras concepções de poder, conhecimento e verdade, por isso o livro também aborda – tímida, mas suficientemente – essas outras questões. Hall explica que o conhecimento é uma forma de poder circunstancial, cuja efetividade é mais importante do que sua veracidade. “O conhecimento não opera no vácuo. Ele é posto ao trabalho, por certas tecnologias e estratégias de aplicação, em situações específicas, contextos históricos e regimes institucionais” (p. 89), explica. Foucault, para quem não conhece, desenvolvia trabalhos em torno de instituições onde o poder era uma questão central, como escola, prisões e hospícios, por isso sua preocupação com “regimes de verdade”.

A verdade não existe fora do poder ou sem poder (…) A verdade é deste mundo; ela é produzida nele devido a múltiplas coerções e nele produz efeitos regulamentados de poder. Cada sociedade tem seu regime de verdade, sua ‘política geral’ de verdade: isto é, os tipos de discurso que ela acolhe e faz funcionar como verdadeiros; os mecanismos e as instâncias que permitem distinguir os enunciados verdadeiros dos falsos, a maneira como se sancionam uns e outros; as técnicas e os procedimentos que são valorizados para a obtenção da verdade; o estatuto daqueles que têm o encargo de dizer o que funciona como verdadeiro (Foucault, 1984: 10)

Além de historicizar a linguagem e, consequentemente, pensar o discurso enquanto disputa de sentido, Foucault também foi responsável por descentralizar o poder – muitas vezes interpretado de forma maniqueísta. “Relações de poder permeiam todos os níveis da existência social e podem, portanto, ser encontradas operando em todos os campos da vida social – nas esferas privadas da família e da sexualidade, tanto quanto nas esferas públicas da política, da economia e das leis”, explica Hall, parafraseando o autor. Para ele(s), o poder circula – é implantado e exercido – como em uma rede que penetra todo o corpo social, “atravessando e produzindo coisas, induzindo ao prazer, a formas do conhecimento, produzindo discurso” (p. 90).

É nesse contexto que Foucault conceitua “rituais meticulosos” ou a “microfísica do poder” (este último bastante popular até para além da academia), que seria basicamente – muito basicamente! – “os vários circuitos localizados, táticas, mecanismos e efeitos pelos quais o poder circula”. Ou seja, ele redireciona a fixação pela estrutura (simbolicamente, na figura do Estado, da lei, da classe privilegiada, etc.) detentora de grandes poderes para um olhar muito mais complexo. Essas relações de poder “conectam a maneira pela qual o poder opera de fato, do chão às grandes pirâmides de poder, por meio do que ele chama de movimento capilar (vasos capilares são aqueles que ajudam a troca de oxigênio entre sangue e os tecidos de nosso corpo)” (p. 90), explica Hall.

Essa perspectiva “revolucionária” de Foucault provocou uma ruptura muito representativa. Marxistas clássicos acusam-no de ser muito “pós-moderno”, responsabilizando-o pela invisibilização da consciência de classe. Essa é uma leitura rasa (e quase rancorosa, eu acrescentaria) do argumento do filósofo, conforme Hall também se propõe a explicar: “[não é que] o poder nesses níveis mais baixos meramente reflete ou ‘reproduz, no nível de indivíduos, corpos, gestos e comportamentos, a forma geral da lei ou do governo’ (Foucault, 2015)”, mas porque essa abordagem “‘enraíza [o poder] nas formas de comportamento, nos corpos e nas relações locais de poder que não deveriam, de forma alguma, ser vistas como uma simples projeção de um poder central’ (Foucault, 1980: 201)” (p. 91).

Embora sua obra seja claramente produzida na esteira da ‘virada da linguagem’ e profundamente influenciada por ela, um marco da abordagem construtivista da representação, a definição de discurso estabelecida por Foucault é bem mais ampla que a de linguagem. Ela inclui vários outros elementos da prática e da regulação institucional que a abordagem de Saussure, com seu foco linguístico, excluiu. Foucault é sempre mais historicizante, considerando formas de poder/conhecimento como enraizadas em contextos e histórias particulares. Acima de tudo, para Foucault, a produção do conhecimento é sempre atravessada por questões de poder e do corpo; e isso expande enormemente o escopo do que está envolvido na representação (p. 93).

5. Onde está o “sujeito”?

O último capítulo (antes do resumo) do texto aborda criticamente a posição do sujeito principalmente no pensamento de Foucault, já que Saussure se absteve de falar sobre os indivíduos – vale lembrar que o foco de sua “ciência” é a langue, não a parole. Hall traz que o filósofo trabalha a questão do sujeito em seus trabalhos mais avançados, ainda que de maneira a romper com uma ideia ilusória de sujeito totalmente dotado de consciência/núcleo de si mesmo – para ele, o sujeito é produzido (e só existe) no discurso. “É o discurso, não os sujeitos que o falam, que produz o conhecimento. Sujeitos podem produzir textos particulares, mas eles estão operando dentro dos limites da episteme, da formação discursiva, do regime da verdade, de uma cultura e período particulares” (p. 99), explica.

O ‘sujeito’ de Foucault parece ser produzido por meio do discurso em dois sentidos ou lugares diferentes. Primeiro, o próprio discurso produz ‘sujeitos’ – figuras que personificam formas particulares de conhecimento que o discurso produz. Esses sujeitos têm os atributos que poderíamos esperar, como definidos pelo discurso: o homem louco, a mulher histérica, o homossexual, o criminoso individualizado, e assim por diante. Essas figuras são específicas para regimes discursivos e períodos históricos determinados. O discurso também produz um lugar para o sujeito (ou seja, o leitor ou espectador, que também está ‘sujeito ao’ discurso), onde seus significados e entendimentos específicos fazem sentido. Não é inevitável, nesse sentido, que todos os indivíduos em um dado período se tornem sujeitos de um discurso em especial, portadores de seu poder/conhecimento. Mas para que eles – nós – assim façam/façamos, é preciso se/nos colocar na posição da qual o discurso faz mais sentido, virando então seus ‘sujeitos’ ao ‘sujeitar’ nós mesmos aos seus significados, poder e regulação. Todos os discursos, assim, constroem posições de sujeito, das quais, sozinhos, eles fazem sentido. (p. 100)

Para explicar a complexidade do sujeito (e da representação em sentido mais amplo) no pensamento de Foucault, Hall traz a discussão em torno da pintura Las Meninas, de Diego Velázquez – sobre a qual o filósofo disserta na sua obra As palavras e as coisas (1999). É uma obra bem complexa, que merece um tempo de deslumbramento para tentar entender o que está acontecendo. “A representação e o sujeito são as mensagens por trás da pintura – o que ela quer dizer, seu subtexto […] É tão construída em torno daquilo que você não pode ver, quanto daquilo que pode observar”, explica. Segundo Foucault, o sentido da imagem é produzido “por meio dessa complexa interação entre presença (o que você vê, o visível) e ausência (o que você não pode ver, o que está deslocado no quadro)” (p. 105).

É uma questão de perspectiva: os autores apontam que há dois “centros” na pintura – a menina (ao meio) e o casal real (que não aparece explicitamente na obra a não ser no reflexo do espelho, mas cuja encenação nos permite concluir sua presença). Esse jogo de atenção suspensa sempre adia o sentido final, uma vez que “nós tomamos as posições indicadas pelo discurso, nos identificamos com elas, sujeitamos nós mesmos aos seus sentidos e nos tornamos ‘sujeitos'” (p. 106). A visão radical de Foucault argumenta que é o sujeito que sempre há de completar o sentido, pois “o discurso produz uma posição de sujeito para o espectador-sujeito”.

Para a pintura funcionar, o espectador, quem quer que ele ou ela seja, deve primeiro se sujeitar ao discurso dela e, dessa forma, tornar-se o espectador ideal da pintura, o produtor de seus sentidos – seu ‘sujeito’. Isso é o que significa quando é dito que o discurso constrói o espectador como um sujeito – pelo que queremos dizer que ele constrói um lugar para o sujeito-espectador que está olhando e produzindo um sentido para a cena. […] A representação, portanto, ocorre a partir de pelo menos três posições na pintura. A primeira somos todos nós, o espectador, cujo “olhar” coloca juntos e unifica os diferentes elementos e relações na imagem em um sentido geral. Esse sujeito deve estar lá para a pintura fazer sentido, mas ele/ela não está representado na tela. Em seguida, há o pintor que retratou a cena. Ele está “presente” em dois lugares de uma vez, uma vez que deve ter sentado onde nós estamos agora para pintar mas, então, colocou-se (representou a si próprio na) na imagem olhando para trás, em direção àquele ponto de vista onde nós, espectadores, tomamos seu lugar (p. 107).

6. Conclusão: representação, sentido e linguagem reconsiderados

Na conclusão do texto, Hall faz um resum(ã)o de tudo que foi apresentado/discutido, começando pela definição mais simples de representação: “trata-se do processo pelo qual membros de uma cultura usam a linguagem (amplamente definida como qualquer sistema que emprega signos, qualquer sistema significante) para produzir sentido”. Essa concepção já descarta, de certa forma, a teoria reflexiva, pois somos nós que atribuímos sentido às coisas. E se o sentido é atribuído pela sociedade, conforme mudanças ocorrem, eles também mudarão: “uma ideia importante sobre representação é a aceitação de um grau de relativismo cultural entre uma e outra cultura, certa falta de equivalência e a necessidade de tradução quando nos movemos de um universo mental ou conceitual de uma cultura para outro” (p. 108).

Essa abordagem construtivista, defendida pelo autor, aponta três “ordens” diferentes que envolvem o jogo da representação: o mundo das coisas/pessoas/eventos/experiências (o mundo físico); o mundo conceitual (nossos mapas mentais); e os signos, arranjados nas linguagens, que comunicam esses conceitos. A construção de sentido através da representação só se faz possível através do ciclo de codificação e decodificação dos significados, no entanto, conforme chama a atenção: “por estarem os sentidos sempre mudando e nos escapando, os códigos operam mais como convenções sociais do que como leis fixas ou regras inquebráveis”, ou seja, os códigos – e os sentidos – de uma cultura estão sempre em constante disputa.

“Nós olhamos para duas versões do construtivismo: aquela que se concentrou em como linguagem e significação (o uso de signos na linguagem) funcionam para produzir sentidos, que depois de Saussure e Barthes nós chamamos de semiótica; e aquela, seguindo Foucault, que se concentrou em como o discurso e as práticas discursivas produzem conhecimento”, relembra Hall. A semiótica destaca a importância do significante e do significado (langue e parole), demarcando sobretudo a diferença e estabelecendo oposições binárias para a produção do sentido. Já a abordagem discursiva leva mais em consideração o poder e o conhecimento em voga, que atuam sob regimes de verdade e cujo discurso produz os sujeitos definindo também suas posições (de onde o conhecimento procede).

Hall finaliza o texto ratificando que não defende uma teoria em subjugamento da outra, reiterando que tanto a semiótica de Saussure e Barthes têm muito a colaborar assim como os pensamentos de Foucault também são extremamente importantes para o contexto da representação. “O que nós oferecemos aqui é, esperamos, um balanço relativamente claro, embora experimental, de um conjunto de ideias complexas de um projeto não acabado” (p. 111), explica. O segundo texto da obra, “O espetáculo do outro”, é onde ele promete aplicar tudo que foi passado até aqui de maneira prática, colocando em prática a teoria mas não tomando-as como completamente verdadeiras.

A minha saga com Python (ou como aprendi o básico do básico)

Em abril de 2017, escrevi aqui no blog o texto “A minha saga com redes sociais (ou por que é importante compreendê-las)”, no qual narrava a minha relação com a disciplina de análise de redes sociais, desde o preconceito acadêmico-epistemológico até a inevitável aceitação e consequente aprendizado (resultante até em palestra no Social Media Week SP). Um ano e cinco meses depois, escrevo este post quase em situação e contextos idênticos, mudando apenas a protagonista: agora, compartilho a minha experiência com (e a minha redenção à linguagem de programação) Python.

Antes de começar, um spoiler: não sou (nem pretendo ser/me tornar) um programador, apenas aprendi alguns dos conceitos básicos, modos de aplicação e pressupostos práticos. Como escrevi recentemente no último post, Pesquisa em mídias sociais na era pós-API, estamos passando por um momento crítico – uma virada metodológica – que exige derrubar barreiras e vasculhar alternativas criativas para lidarmos com a situação das APIs. O meu interesse e intuito em aprender o básico do básico de Python foi prático: eu preciso coletar dados de mídias sociais e as ferramentas que eu utilizo estão cada vez mais limitadas. Como resolver esse problema?

Tudo começou em fevereiro deste ano, quando tivemos um workshop interno no IBPAD sobre aplicação da Vision API do Google para análise automatizada de imagens com inteligência artificial. Foi quando instalei o Python pela primeira vez, já que o processo envolvia a utilização de dois scripts; e instalei também o Notepad++, provavelmente um dos editores de texto/código aberto mais populares do mundo. A simplicidade do projeto (instalar o Python > preparar os datasets CSV > mudar configurações simples de comando com o Notepad++ > executar o script utilizando o Prompt de Comando) foi fundamental para não me “assustar”. Tivesse sido algo mais complexo, talvez eu teria me fechado muito mais.

Um dos primeiros trabalhos que realizamos com esse aprendizado foi esse estudo exploratório da hashtag #férias no Instagram, quando analisamos mais de 12.000 publicações. Embora seja relativamente simples, acho que foi um marco (tanto para o IBPAD quanto para mim) no que se refere à abertura de novos horizontes. Depois desse relatório, fizemos vários trabalhos utilizando computação visual e inteligência artificial em diferentes segmentos/contextos, como a publicação “EM BUSCA DO MELHOR ÂNGULO: A imagem dos presidenciáveis no Instagram – uma análise quanti-qualitativa com inteligência artificial”, na qual utilizamos métodos mistos de análise.

Esse projeto também foi importante porque me levou à segunda fase com Python: arriscar executar (sozinho) outro script. Precisávamos de uma maneira para coletar todas as publicações dos perfis dos pré-candidatos à Presidência, mas a API do Instagram não fornece acesso a esse tipo de coleta. Foi quando entrou o InstagramScraper“uma aplicação de comando escrita em Python que raspa e faz o download de fotos e vídeos de um usuário”. Na verdade, é muito mais potente: possibilita baixar publicações de usuários (ou de uma lista de usuários), publicações com uma hashtag específica, de uma localidade e até mesmo Stories. Foi nesse momento que comecei a “arriscar” mais, dentro das possibilidades do – e das instruções fornecidas pelo – script.

Depois de desvendar a coleta de dados do Instagram, queria conseguir fazer o mesmo no Twitter. Foi quando encontrei o TwitterScraper, que possui até um site com uma versão beta/demo para testar a coleta de 1.000 tweets. Além de ser o meu site de rede social favorito, é também o campo “oficial” da minha pesquisa acadêmica. Por mais que a Netlytic ainda seja a minha alternativa número um (pela praticidade em vários sentidos), há sempre alguma limitaçãozinha. Por exemplo, o artigo “#Casamentoreal: O Discurso Brasileiro no Twitter sobre o Evento da Monarquia Britânica” (no prelo), que auxiliei na análise com o Wordij, teve coleta feita manualmente simplesmente porque não podíamos retornar mais de sete dias na coleta com a API.

Nesse mesmo período, uma demanda do trabalho exigiu que eu modelasse dados do Twitter, extraídos a partir de uma ferramenta de monitoramento, de modo a criar um arquivo capaz de gerar uma rede no Gephi (ou seja, uma lista de arestas em CSV com origem e destino). Foi quando encontrei o TSM (Twitter Subgraph Manipulator), outro script Python, desenvolvido por Dr. Deen Freelon, utilizado no fantástico projeto “Beyond the hashtags: #Ferguson, #Blacklivesmatter, and the online struggle for offline justice”. Esse foi outro marco na minha relação com Python porque, diferente dos scripts que havia utilizado até então, esse módulo desenvolvido pelo pesquisador era muito mais complexo (do que apenas coletar dados, por exemplo).

Algumas coisas que o TSM consegue fazer:

  • Suportar comunidades muito grandes (milhões de nós/arestas) – o único limite é a memória do seu computador;
  • Extrair retweets e menções-@ em formado de lista de arestas para análise e visualização de rede;
  • Dividir parte de redes em comunidades, isolar as comunidades N mais largas e identificar os usuários mais conectados em cada comunidade;
  • Medir a insularidade de comunidades de uma rede (utilizando índices EI) para determinar o quanto cada uma delas se parece com uma câmara de eco;
  • Medir a sobreposição entre comunidades de uma rede para determinar quais interagem mais ou menos entre si com constância;
  • Identificar os retweets mais frequentes numa base de dados do Twitter e ranqueá-las pelo número de retweets e por comunidade;
  • Rastrear comunidades do Twitter (ou de outra fonte) ao passar do tempo: computar placares de similaridade (com ou sem o peso de coeficientes) para comunidades dividas em parte a partir da mesma base de dados em dois recortes de tempo diferentes;
  • Descobrir quais nós são intermediários entre as comunidades;
  • Encontrar a hashtag mais utilizada em cada comunidade (ou dataset);
  • Encontrar os links ou domínios web mais utilizados em cada comunidade (ou dataset).

Confesso que me bati um pouco para descobrir como utilizar a função de transformar menções e retweets em uma lista de arestas. Como minha experiência com os outros scripts era limitada a execuções de uma linha no Prompt de Comando, não foi fácil compreender a lógica por trás do script para conseguir fazer o que eu queria (e o Read Me também não ajudou muito, direcionando as instruções para o arquivo .py já com os códigos prontos e suas explicações práticas, mas completamente indecifráveis para quem não possui experiência). Felizmente, como em vários outros pacotes disponíveis online em plataformas como GitHub, dois arquivos “demo” me guiaram pelo caminho a seguir.

O formato .ipynb não me era familiar até então, portanto tive que recorrer ao Google para – em mais uma descoberta – fazer o download e instalação do Jupyter Notebook. Quando finalmente consegui abrir o arquivo, um dos exemplos trazia exatamente a função que eu queria, mas eu ainda tinha uma dúvida: onde eu coloco isso? Tentei, primeiro, direto no Prompt de Comando, já que era o único lugar no qual eu já tinha feito algo – sem sucesso. Sem saber que eu poderia executar ali mesmo no próprio notebook, segui a segunda orientação: criei um arquivo .py com apenas o código do exemplo, substituindo o arquivo .csv e o executei… Isso mesmo, no Prompt de Comando. Funcionou! Com muito mais trabalho do que o necessário, mas funcionou.

Nesse momento o Python já tinha me ganhado. Recapitulando as (minhas) conquistas: conseguia coletar dados do Instagram, utilizá-los na Vision API do Google; coletar dados do Twitter (sem as limitações da API), transformá-los em listas de arestas para o Gephi e mais algumas outras funções interessantes (cheguei a utilizar o cálculo de modularidade do próprio módulo em alguns projetos, por exemplo; de resto, não testei as outras funções, mas sabia como chegar lá – mesmo aos trancos e barrancos). Ou seja, o meu objetivo inicial – aprender a coletar dados de mídias sociais sem depender de ferramentas específicas – já havia sido contemplado, de certa forma.

Foi quando o destino colocou no meu caminho mais uma oportunidade de aprendizado: um workshop gratuito para um seleto grupo de 100 participantes organizado pelo HUB de Inovação na UFRJ sobre raspagem de dados públicos com Python. Fiz a minha inscrição sem muitas expectativas (pela falta de conhecimento no assunto), mas felizmente tive a sorte e oportunidade de ser selecionado para participar desse intensivo de quase 10h num sábado. Quem abriu o evento foi a jornalista Judite Cypreste, com a palestra “Programação para jornalistas: descobrindo pautas com Python”, na qual apresentou vários cases legais sobre jornalismo de dados utilizando Python – a apresentação abaixo é de outro evento, mas os exemplos utilizados foram os mesmos.

O workshop, oficialmente intitulado “Não é Bruxaria, é Pandas!”, foi ministrado por Fernando Masanori, professor e palestrante com dezenas de cursos/apresentações em todo o Brasil e a fora. Foram mais ou menos 7 horas (com pausa para o almoço, é claro) de aprendizado desde a instalação do Python e alguns dos principais pacotes (requests, beautifulsoup, selenium, pandas, etc.) até exemplos práticos de análise de dados públicos com dataset fornecido pelo professor. Como o workshop foi bastante prático, não houve uma apresentação em PDF ou PPT para guiar o ensino, somente a orientação de Masanori a partir de um notepad colaborativo. Caso tenha interesse, entretanto, ele disponibilizou todo o treinamento (documentação e documentos) no GitHub.

A oficina foi muito importante para que eu entendesse um pouco melhor a “lógica” por trás da linguagem. Para entender, por exemplo, como funcionava o Jupyter Notebook e como eu deveria usá-lo no módulo TSM, quando tive que gerar a lista de arestas. Não saí de lá sabendo programar o que eu quisesse, mas saí compreendendo um pouco melhor como se estruturam as funções em Python. É evidente que ele não passou todas as funções de linguagem, mas as principais (mais importantes e simples) foram apresentadas e eu – obviamente – anotei tudo para ter um caderno de apoio sempre que precisar utilizar scripts/módulos de outras pessoas. Ou seja, agora eu posso dizer com segurança que sei o básico do básico.

Reforço, entretanto, o que coloquei no início do texto: não é a minha pretensão – de forma alguma – tornar-me um Programador ou até mesmo (oficialmente) um Cientista de Dados. Seguindo o conselho de Jake VanderPlas, autor do livro Python Data Science Handbook, o meu objetivo nunca foi aprender Python; aprender Python foi o meio que encontrei para solucionar o meu problema inicial. Este tweet foi citado no workshop, também está na apresentação acima e é como eu encerro – por ora – este texto. Uma dica simples, mas certeira. Se eu tivesse começado somente com o intuito de aprender a linguagem, sendo tão de humanas quanto sou, teria sido consumido pelo medo. Agora, posso até colocar no LinkedIn como conhecimento básico (bem básico).

Pesquisa em mídias sociais na era pós-API

No rascunho “Computational research in the post-API age”, o pesquisador Dr. Deen Freelon, da University of North Carolina, aponta dois marcos importantíssimos para quem atua com pesquisa/monitoramento de mídias sociais – ambos específicos do Facebook: em abril de 2015, quando a plataforma fechou a API de pesquisa pública (que permitia acesso “buscável” a todos os posts públicos num período de duas semanas); e outro, mais recente, quando a empresa de Mark Zuckerberg fechou drasticamente o cerco de acesso à API de páginas.

De 2015 para cá, muita coisa mudou no mercado de inteligência de mídias sociais – dentre as principais mudanças, eu citaria a crescente relevância do trabalho de mídia paga em relação direta com o trabalho de mensuração (métricas), e com certo menosprezo do mercado pelo trabalho de monitoramento. Isso acontece por vários motivos, a meu ver, que se atravessam e se retroalimentam: 1) o ritmo de agências e clientes; 2) o desprezo do mercado por pesquisa (e conhecimento – científico – de modo geral); 3) a falta de inovação de atores relevantes (principalmente ferramentas líderes de mercado); 4) e o – cada vez mais – desafiador cenário de como adquirir dados de mídias sociais (aqui, focaremos neste); dentre outros.

Quando o Facebook resolveu matar a coleta de posts públicos dos usuários (em seus feeds/murais), uma conversa foi iniciada e estabeleceu-se um debate sobre “o futuro” do monitoramento de mídias sociais (isso em 2015). Três anos depois, o mercado não reagiu tão ativamente à nova política da plataforma – muito mais restritiva e complexa. Ainda que haja um debate intenso sobre proteção de dados pós escândalo da Cambridge Analytica, somado à criação do GDPR e Lei de Proteção de Dados (no Brasil), pouco se discutiu sob a perspectiva do mercado de monitoramento e pesquisa em mídias sociais. Por isso, para trazer esse assunto à tona, retomo – e recorro – ao ensaio pragmático de Freelon.

“O fechamento da API de Páginas eliminou todos acessos ao conteúdo do Facebook conforme acordado em seus Termos de Serviço. Permita-me sublinhar a magnitude dessa mudança: não há atualmente uma maneira para extrair de forma independente o conteúdo do Facebook sem violar seus Termos de Serviço. Num estalar de dedos metafórico, o Facebook invalidou instantaneamente todos os métodos que dependiam da API de Páginas. […] Nós nos encontramos numa situação na qual o investimento pesado em ensinamento e aprendizado de métodos específicos da plataforma podem se tornar obsoletos do dia para a noite: é isso que quero dizer com ‘a era pós-API’.”

Embora soe apocalíptico (assim como em 2015 soou), não é o fim do monitoramento/pesquisa em mídias sociais. Para contornar esse cenário nebuloso, Freelon aponta duas prioridades para quem trabalha nesse contexto: será necessário – o quanto antes – aprender a fazer “scraping” de páginas da web; ao mesmo tempo em que compreendamos as consequências potenciais de violar os Termos de Serviço das plataformas ao fazer isso. Ou seja, de certo modo (e como seu título indica), está na hora de superarmos as APIs para que consigamos trabalharmos sem as restrições arbitrárias das plataformas.

Sobre o aprendizado de técnicas de scraping (que envolvem, majoritariamente, linguagens de programação como Python e R), o pesquisador cita que a flexibilidade é a sua principal vantagem. Por outro lado, essa flexibilidade – que está ligada justamente a um campo maior de possibilidade/escopo maior de trabalho – significa também ter que lidar com diferentes demandas de programação. Ou seja, significa ter que programar séries diferentes (possivelmente completamente diferentes) para cada scraping desejado, além de ter que se adaptar ao cenário caótico de restrições que, quando estabilizados em API, tornava-se muito mais amigável.

O segundo ponto – menos técnico e mais crítico – é referente às dimensões legais e éticas das práticas de web scraping. “A extração de conteúdo automatizada em larga escala consome um valor absurdo de banda larga dos sites fontes, motivo pelo qual várias das plataformas mais populares da web – inclusive Facebook e Google – proíbem essa prática de modo explícito em seus Termos de Serviço”, explica. Isso pode acarretar desde um simples bloqueio de IP do seu computador em acesso ao site até medidas muito mais graves, como contrapartidas legais que podem destruir a carreira (e até a vida) de um pesquisador.

Nesse cenário inóspito e tendo essas duas medidas em mente, Freelon propõe as seguintes recomendações “para equilibrar a segurança do(a) pesquisador(a), a privacidade dos usuários e prerrogativas das empresas”:

  1. Utilize métodos autorizados sempre que possível: ou seja, antes de se render a técnicas de scraping por vias repreensíveis, procure ao máximo modos de o fazer através de medidas oficialmente sancionadas;
  2. Não confunda o acordo dos Termos de Serviço com proteção de privacidade: “ao utilizar métodos de acordo com os Termos de Serviço, você está respeito as prerrogativas de negócio das empresas que criaram a plataforma que você está estudando, mas pode ou não estar respeitando a dignidade e privacidade dos usuários da plataforma”.
  3. Compreenda os riscos de violação dos Termos de Serviço: conforme as APIs vão se fechando e técnicas de scraping ficando mais comuns, é possível que as empresas utilizem de seu capital para ir atrás de quem não segue suas regras.

É evidente que a visão e as colocações do pesquisador partem de uma perspectiva acadêmica, pois, como bem lembra Marcelo Alves nesse excelente texto, “[o fechamento da API] gera uma nova assimetria de poder entre quem pode ou não realizar pesquisas e se beneficiar dos insights de dados digitais, na medida em que sempre será possível comprar os dados de algum revendedor autorizado pelo Facebook”. É por isso que grandes ferramentas de monitoramento de mídias sociais não serão (tão) afetadas nesse cenário, o que consequentemente também não gera um impacto tão ruim para grandes marcas/empresas.

Quem sofre, como de costume, são as empreitadas de pequeno e médio porte: como a Netvizz, por exemplo, que está possivelmente com seus dias contados. É um cenário extremamente difícil para pesquisadores independentes/acadêmicos. Se engana, entretanto, quem acha que isso só afeta esses atores: é justamente devido a essa desigualdade de acesso que o monitoramento de mídias sociais como conhecemos tem perdido tanta força. Talvez fique mais evidente esta questão quando compararmos, por exemplo (mais uma vez), ao trabalho de mídia paga, que se popularizou justamente pelo esforço do Facebook em torná-lo o mais intuitivo possível.

Dificultar a pesquisa/o monitoramento de dados sociais digitais, portanto, é ruim para pesquisadores independentes, acadêmicos, analistas de monitoramento, BI… – é ruim para todo mundo. É, ainda assim, importante para lembrar o que e quem está por trás das mídias sociais. O Facebook se ancora na justificativa de proteção de dados dos usuários para dificultar o acesso de maneira completamente irresponsável e arbitrária. A verdade é que, no fim das contas, o capitalismo sempre vence e quem pagar mais vai conseguir o que quiser, quando quiser e como quiser. Cabe a nós pensar como contornar essa situação.

Por aqui, depois de muito me opor ao aprendizado de programação, já comecei a engatinhar em Python. Tenho utilizado um script para fazer raspagem de publicações do Instagram e muito recentemente consegui aprender como rodar outro para coletar tweets até retroativamente. No meu caso, as implicações são éticas e legais, por isso tenho mergulhado nesse debate – travado principalmente na academia – sobre os limites da exposição de dados. Minha preocupação, entretanto, é mais para com os usuários do que para com as empresas. E você, vai deitar pro Facebook?

 

#existepesquisanobr: as narrativas na mobilização em prol da ciência brasileira

Atualização 06/08/2018: @felipebsoares e @raquelrecuero também fizeram redes sobre o tema – clique aqui e aqui para conferir!

A última semana foi bastante agitada no cenário político brasileiro. As duas entrevistas concedidas pelo candidato Jair Bolsonaro – uma na segunda-feira, 30, para o Roda Viva; e outra na sexta-feira, 3, para a Globo News – já deram um gostinho de como será o cenário de discussão sobre os debates para as eleições presidenciáveis este ano. No meio desse caos, a notícia sobre a possível suspensão das bolsas Capes agitou ainda mais a esfera pública (digital). Em resposta, milhares de pessoas se mobilizaram através das mídias sociais em luta pela pesquisa brasileira: no Facebook, organizaram eventos/manifestações e acionaram o tema em suas imagens de perfil; no Twitter, a hashtag #existepesquisanobr viralizou.

Curiosamente, ela “nasceu” não em resposta direta ao corte das bolsas Capes, mas devido a um comentário de Bolsonaro na primeira entrevista citada – o tweet acima foi o primeiro a registrar a hashtag na plataforma. Um levantamento realizado pelo DAPP-FGV apontou um pico de menções sobre a Capes na tarde/noite do dia 2 de agosto, mas foi somente no dia 3, sexta-feira, praticamente 24h após o primeiro tweet, que a hashtag ganhou volume no Twitter. Além do crescimento significativo da produção de tweets, houve também a mobilização técnica-ferramental dos usuários pela causa através de retweets para demonstrar apoio e ajudar na proliferação do manifesto. Os gráficos abaixo mostram a evolução do engajamento do público tanto de maneira autoral quanto referente à manifestação em rede.

Com o sucesso da hashtag, resolvi explorar os dados para descobrir quais foram as principais áreas, temáticas e assuntos citados pelos pesquisadores acadêmicos brasileiros (com Twitter). Utilizei o TwitterScraper em Python para fazer a coleta dos tweets e processei as 6.433 mensagens no WORDij para criar uma rede semântica que pudesse ajudar nesse desafio. É importante ratificar, antes de explorá-la mais a diante, duas coisas: o script só faz a coleta de tweets originais (sem retweets) – o que faz sentido nesta análise, já que a presença de retweets pesaria o volume para tweets mais populares, enviesando a rede (a coleta setada na Netlytic registra mais de 35.000 entradas, o que indica que mais de 80% são apenas retweets); e a análise é dedicada ao conteúdo das mensagens, não às dinâmicas interacionais entre usuários.

Imagem 1 – Rede de co-ocorrência de palavras em base de 6.433 tweets com a hashtag #existepesquisanobr – 3.125 nós (palavras) 10.227 arestas [CLIQUE NA IMAGEM PARA AMPLIAR]
 

O grafo acima representa a rede semântica criada a partir da co-ocorrência de termos identificados na base de tweets processada com a WORDij. Os clusters (grupos coloridos) foram calculados com Modularidade 1 no Gephi e representam os termos mais conectados entre si. Os tamanhos dos nós (círculos) e suas respectivas legendas são proporcionais ao grau de conexão, ou seja, à quantidade de ligações que o termo possui na rede (quanto maior, mais frequente).

Talvez o que mais chame atenção imediatamente é o ponto fora da curva, o cluster marrom: na imagem não ficou tão nítido (não a fiz maior para que o arquivo não ficasse muito pesado), mas é um grupo bem específico de palavras em inglês que narram alguns tweets feitos como uma espécia de “denúncia” à comunidade científica internacional. Seguindo pelas margens, o grupo verde musgo (à esquerda, abaixo), também é bastante autocentrado, a partir de tweets do que parece ser um bot que retuita notícias pró-Direita e publica aleatoriamente hashtags em alta no Twitter. Esses dois clusters já dão indícios que, para além do propósito original da hashtag (divulgar suas pesquisas), ela também incorpora outras narrativas.

O cluster verde, por exemplo, traz palavras que evidenciam a utilização da hashtag como demarcador discursivo para opinar sobre a manifestação – quase unanimemente de forma positiva (elogiosa), o que pode de certa forma ser visto como um indicativo de sucesso para o propósito de divulgação das pesquisas. Situação semelhante ocorre com os clusters laranja e azul claro, quando a tag é utilizada para demarcar a discussão em críticas ao governo. É possível perceber narrativas mais abrangentes, que enquadram o assunto de maneira mais generalista (o Brasil não investe em ciência/educação); e críticas específicas, mencionando as bolsas Capes, o auxílio moradia de juízes e o corte de verbas no ensino público superior, por exemplo.

Imagem 2 – Rede de co-ocorrência de palavras em base de 6.433 tweets com a hashtag #existepesquisanobr – cluster “Meta” em destaque, representa 14,78% da rede [CLIQUE NA IMAGEM PARA AMPLIAR]
 

Imagem 3 – Rede de co-ocorrência de palavras em base de 6.433 tweets com a hashtag #existepesquisanobr – clusters “Governo” em destaque, representam 25,98% da rede [CLIQUE NA IMAGEM PARA AMPLIAR]
 

Imagem 4 – Rede de co-ocorrência de palavras em base de 6.433 tweets com a hashtag #existepesquisanobr – clusters temáticos em destaque, representam 53,5% [CLIQUE NA IMAGEM PARA AMPLIAR]
É, portanto, nos demais clusters que se encontram as informações necessárias para finalmente descobrirmos quais foram as áreas/temáticas mais frequentes na hashtag. Antes de avançar, acho importante trazer à tona, principalmente para aqueles interessados na metodologia, as condições técnicas da análise de redes como me propus a fazer. Se prestarmos atenção no cluster azul e laranja, na parte superior, há vários termos referentes aos projetos e pesquisas citados pelos usuários. Por isso, em vez de simplesmente excluir esses três grupos (verde, azul e laranja), optei por fazer uma limpeza “visual”: filtrei cada um no próprio Gephi e excluí coletivamente os termos inapropriados; em seguida, removi também os termos dos demais clusters sem muita carga informacional relevante (“pesquiso”, “estudo”, “entender”, etc.).

O resultado final você confere logo abaixo (após a limpeza, nova aplicação do layout ForceAtlas 2 e do cálculo de modularidade). Nesse cenário, vários termos aparecem às margens devido à falta de conexão com os demais – mesmo assim, preferi mantê-los no grafo para não perdermos conteúdo. No componente mais conectado, é possível (e mais fácil “de fora para dentro”) identificar algumas áreas predominantes: Ciências da Saúde, Ciências Biológicas, Ciências Sociais Aplicadas e Ciências Humanas. Quanto mais ao centro, mais difuso se tornam as conexões, o que dificulta a interpretação, mas indica também como alguns objetos e temas são interpretados em diferentes perspectivas e áreas de conhecimento. Fique à vontade para explorar a rede e descobrir mais padrões interessantes!

Imagem 5 – Rede de co-ocorrência de palavras em base de 6.433 tweets com a hashtag #existepesquisanobr após trabalho de filtragem e adequação [CLIQUE NA IMAGEM PARA AMPLIAR]
Antes de finalizar, deixo aqui as minhas (humildes) considerações sobre isso tudo: a academia está longe de ser perfeita. Muito longe. Há diversos problemas, estruturais, específicos e cotidianos. No entanto, é obrigação de todos – que, assim como eu, tiveram o privilégio de garantir uma formação numa instituição pública superior de qualidade – denunciar o desmonte que acontece há anos, quando a “cara” da academia estava, finalmente, começando minimamente a mudar. Se já mencionei em outras ocasiões aqui no blog que é preciso “derrubar” o muro da academia com o restante da sociedade, precisamos ficar atentos também à derrubada que acontece dentro desses muros.

Quanto à análise, ratifico que foi uma proposta extremamente exploratória. A minha intenção era mais trazer a pauta do debate para o blog e (finalmente) apresentar oficialmente o WORDij aqui (já que até artigo já publiquei o utilizando). Reconheço que muito provavelmente há alguns deslizes metodológicos e estou mais do que aberto à discussão e aprendizado, basta deixar um comentário aqui embaixo ou me mandar por e-mail. Tenho trabalhado bastante com redes semânticas e estou buscando estudar cada vez mais sobre o assunto para ter uma base teórica bastante sólida que sustente a metodologia adequadamente. Em breve farei outros posts de análises semelhantes para propagar conhecimento – espero – continuar aprendendo.

**Agradeço especialmente ao Toth, do Data7, pelo constante aprendizado sobre análise de redes.