Início Comunicação Política Diálogos possíveis (I): comunicação, computação e métodos de análise

Diálogos possíveis (I): comunicação, computação e métodos de análise

646
4
COMPARTILHAR

*Em parceria com Renato Vimieiro

Já era o tempo em que comunicólogo torcia o nariz para cientista da computação e vice-e-versa. Da esfera prática do mercado jornalístico ao domínio acadêmico, a comunicação tem colhido os frutos de se abrir para o diálogo com uma área que muitas vezes causa arrepios e desconfiança aos mais tradicionais. Muitas das parcerias entre os dois campos ocorrem devido ao aumento significativo da quantidade de informação no universo digital. O salto dos 281 hexabytes (ou 281 bilhões de gigabytes) em 2007 para cerca de 1.800 hexabytes de informação produzida neste formato em 2011 (Gantz et al., 2008) cria empecilhos e oportunidades para a produção de conteúdo de mídia e exploração analítica dessa enxurrada de dados. E é aí que entra a computação, como que gerando os problemas e ajudando a resolvê-los.

Algumas áreas de interface já são mais conhecidas. Não nos atreveremos aqui a discutir, por exemplo, quais os pontos de contato mais explorados entre Comunicação, Política e Novas Tecnologias, uma vez que os colegas de blog já têm feito isso largamente e com muito mais propriedade. Queremos aqui apenas tocar em alguns “nichos de mercado”, digamos, que são ligeiramente menos explorados mas que fornecem interessantes insights sobre os desafios em que a computação tem trabalhado em conjunto com a comunicação na busca por soluções. Sobretudo, esses intercâmbios estão mais diretamente relacionados aos métodos ou procedimentos operacionais adotados no fazer profissional ou científico da comunicação. Vamos a eles.

1) Técnicas para lidar com grandes amostras. O primeiro ponto que queremos brevemente discutir é mais de natureza analítica. Temos visto atualmente um processo interessante no que diz respeito aos métodos utilizados para pesquisas de cunho mais quantitativo. O acúmulo de material noticioso à disposição dos pesquisadores tem gerado um movimento por parte desses, já que, para irem além das amostras proporcionais e se beneficiarem do amplo conteúdo à disposição, eles precisam lançar mão de novas técnicas. Como afirmam Rezende et al (2011), hoje, “o volume de dados textuais armazenado é tal que extrapola a capacidade humana de, manualmente, analisá-lo e compreendê-lo por completo” (p.7). Assim, temos, por exemplo, a adoção no campo da comunicação, da linguística, da sociologia, da ciência política, entre outros, de técnicas de mineração de textos (text mining), área da computação. Não que isso já não fosse feito anteriormente. Em 1997, M. Mark Miller publicou um trabalho bastante conhecido na área de análise de enquadramentos em que ele já utilizava técnicas de text mining para encontrar grupos de palavras e expressões que indicassem a presença do discurso/frame de determinados atores sociais na mídia. Mas hoje text mining não é mais estratégia de uns poucos que têm mais domínio de técnicas computacionais. Exemplos disso são inúmeros, mas vamos enumerar apenas uns poucos para começar:

– O grupo Media Patterns, da Universidade de Bristol (UK), por exemplo, tem trabalhado para identificar distintos padrões em conteúdo tanto de mídia digital tradicional quanto de mídia social. Tópicos, gênero das fontes citadas, nível de legibilidade dos textos e redes de organizações são algumas das categorias identificadas através de diferentes técnicas. No caso, chama atenção aqui as próprias ferramentas utilizadas para fazer a análise do conteúdo em si. Em algumas situações, as análises carecem de mais amparo teórico, porém, com a devida fundamentação, muitas dessas técnicas podem auxiliar a resolver problemas em pesquisas com mais fôlego conceitual.

Nuvem de palavras deste post. É possível ver claramente o tópico que é explorado através desta ferramenta. Gerado através do Wordle.

– A análise de tópicos é bastante popular, sobretudo agora com as análises de mídia social. As famosas “word clouds” ou “tag clouds”, que são aquelas nuvens com palavras/expressões mais tuitadas ou postadas em blogs, basicamente fazem isso. O tamanho da fonte da palavra é determinado, em suma, pela frequência do termo (ocorrência em relação ao tamanho do texto). Mas existem também outras técnicas (mais sofisticadas) que podem ser utilizadas para identificar, por exemplo, as relações entre termos em um conjunto de textos. Nesse sentido, não só a frequência é importante mas também a repetida ocorrência, associada, de duas ou mais expressões em diferentes documentos. Esse tipo de análise já foi utilizado na área de análise de enquadramentos (Hellsten et al., 2010) e é conhecida como análise de associações.

2) Surgimento de novos objetos de pesquisa e técnicas para lidar com eles. A área de mídias sociais é o melhor exemplo para isso. Não só as técnicas computacionais propiciaram em si o surgimento de plataformas como Twitter, Facebook, Flickr, YouTube, entre outros, como também novas técnicas têm sido utilizadas para a análise do próprio conteúdo acumulado nessas novas formas de mídia. O grupo Media Patterns, citado acima, tem trabalhado também nessa seara. Mas, especificamente, é preciso explicar que estamos nos referindo aqui menos a técnicas de análise de conteúdo em si e mais às ferramentas que permitem identificar o fluxo de informação nessas redes. Claro, as duas ferramentas em geral andam de mãos dadas. Mas, análise de conteúdo não é algo novo na comunicação. Em contraposição, o surgimento dessas novas plataformas cria novos objetos e a necessidade de novos métodos não só para analisar o conteúdo armazenado mas também a relação desse com outras dinâmicas e fluxos comunicativos. Outro exemplo é o projeto Mapping Online Publics, desenvolvido na Queensland University of Technology, na Austrália. Os métodos adotados, nesse caso, são também originados da computação.

3) Computational Journalism, Data Journalism ou Data Driven Journalism. Na esfera prática do jornalismo, existe uma necessidade latente de utilização de novas ferramentas para lidar com amplos conjuntos de dados disponíveis publicamente, como no caso WikiLeaks. Em texto publicado recentemente, na edição de outubro da revista Communications of the ACM, dois professores da Duke University e um de Stanford explicam como a computação pode auxiliar jornalistas na produção de notícias de interesse público, o que eles chamam de Computacional Journalism. Basicamente se trata da utilização de técnicas analíticas da computação para encontrar informações de interesse público em conjuntos (amplos) de documentos disponíveis para os jornalistas. Outro exemplo: o jornal inglês The Guardian mantém um blog, o Datablog, em que eles analisam diferentes eventos e dados através de ferramentas de computação. Por fim, o último exemplo vem da Associated Press, que utilizou técnicas de extração do conhecimento de bases textuais para a identicação de grupos de documentos publicados pelo WikiLeaks que precisariam ser analisados mais detidamente pelos jornalistas. A iniciativa é explicada abaixo no vídeo e também no blog pessoal de um dos integrantes do projeto.

Nas próximas semanas, trataremos mais detalhadamente cada um desses nichos em diferentes posts.

 

 

[author] [author_image timthumb=’on’]http://www.comunicacaoepolitica.com.br/blog/wp-content/uploads/2011/03/anacarol.jpg[/author_image] [author_info]Ana Carolina Vimieiro é mestre em Comunicação Social pela UFMG e jornalista graduada pela PUC Minas. Passou por redações de portal, impresso, TV, rádio e assessoria, antes de se dedicar à área acadêmica. Tem interesse por análise de enquadramentos e, em especial, pelos procedimentos metodológicos adotados nesta linha de estudos. É atleticana fanática, apaixonada por futebol e maníaca por seriados. Vive atualmente na Austrália. [/author_info] [/author]

[author] [author_image timthumb=’on’]http://www.comunicacaoepolitica.com.br/blog/wp-content/uploads/2011/10/renato1.jpg[/author_image] [author_info]Renato Vimieiro é doutorando em Ciência da Computação pela University of Newcastle, Austrália, onde integra o Centre for Bioinformatics, Biomarker Discovery and Information-Based Medicine (CIBM). Mestre em Computação pela UFMG, atua na área de mineração de dados, com interesse específico por aplicacões em bioinformática e análise de mídia.[/author_info] [/author]

 

Ana Carolina Vimieiro
Ana Carolina Vimieiro é mestre em Comunicação pela UFMG e, atualmente, doutoranda na mesma área pela Queensland University of Technology (QUT), Austrália. Foi membro do Eme (Grupo de Pesquisa em Mídia e Esfera Pública, Fafich/UFMG) durante o mestrado e hoje integra o ARC Centre of Excellence for Creative Industries and Innovation (CCI) e o Social Media Research Group, ambos com sede na QUT. Seus interesses de pesquisa incluem: inovações metodológicas, sociologia do futebol, política informal, cultura participativa e mídias sociais.

4 COMENTÁRIOS

    • brigadinha, edna!
      estamos preparando o próximo.
      Vamos discutir métodos que auxiliam na análise de grandes amostras, o primeiro ponto desse texto. Vamos abordar tanto técnicas mais quantitativas (text mining) qnto qualitativas. Pq amostras mais representativas não significam necessariamente análises apenas quantitativas.

      Acho q vamos colocar alguns detalhes operacionais p/ajudar quem tiver interesse em aplicar essas técnicas! 😉 Estamos pensando em talvez fazer um tutorial, mais p/frente.

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here