Moisés Rabinovici | Portal Imprensa
Leo Garbin
Escrevi “search” no Google e ele me devolveu cerca de 25 bilhões de resultados em 20 segundos. Estava “searching” um argumento a mais para afirmar aqui, agora, que o jornalista, hoje, não só deve ter o português impecável e o inglês fluente como também deve saber algo sobre codificação para sobreviver aos tsunamis de dados.
Este é o assunto do momento na Columbia University, em NY: “Liberate Data!”. Lembra palavra de ordem dos anos 60. Ou movimento guerrilheiro: vamos libertar os dados reféns de governos... Palestras e webminars propagam que é chegada a idade da “Big Data”. Os EUA estão com déficit de 190 mil analistas de dados e de mais 1,5 milhão de alfabetizados em codificação. Jornalistas estão começando a se relacionar sem medo com o sufocante fluxo de informação, amparados por programas que limpam e refinam matéria bruta e desestruturada garimpada em buscadores como o Google, em redes sociais como Facebook, nas mensagens do Twitter, em blogs e sites.
Faz tempo que estudo uma extensão do Firefox que extrai de gigantescos bancos de dados apenas as informações que procuro. É o OutWit Hub (www.outwit.com), gratuito. Talvez tenha sido o programa pioneiro. Depois, surgiu o Google Refine, que vai às células de uma lista ou planilha, estabelece ordem, limpeza e clareza; acrescenta dados de outras fontes e muda formatos. Também grátis, está em http://code.google.com/p/google-refine/.
O Pro-Publica, dedicado ao jornalismo investigativo, descobriu no garimpo de dados os médicos americanos que receitavam remédios apenas de laboratórios que sabiam retribuir com generosas doses de propina.
O Tow Center for Digital Journalism da Columbia University trouxe de Londres, em fevereiro, o cientista-chefe e o presidente do ScraperWiki (https://scraperwiki.com/). Ambos disseram que os jornalistas devem aprender a separar o joio do trigo em press releases, estatísticas e declarações de políticos. O diretor de notícias interativas do NYT, Aron Pilhofer, atribuiu à imprensa o papel de abrir pontes entre dados e reportagem.
Alguns repórteres usam Microsoft Excel para encontrar ouro em minas de informações. Outros pagam pelo serviço. A Amazon oferece o Mechanical Turk (www.mturk.com/mturk/welcome), que transcreve entrevistas gravadas, revisa textos ou até os escreve, edita e sim processa também bancos de dados. Um professor do Texas pagou US$ 200 pela transcrição de 11 horas de áudio. Para três horas, o preço cai para US$ 15,40. Alguns custam centavos. Havia 401.451 HITs (Tarefas para Inteligência Humana) no Mturk quando o visitei em fevereiro.
A guerrilha para libertar informação está avançando no mundo virtual. Pegue em armas (Scraper, Refine e OutWit) ou pague uma legião estrangeira (Amazon): não há alternativa para o lixo que invade pesquisas, enterra preciosos dados e paralisa nosso correio eletrônico.
Assinar:
Postar comentários (Atom)
Nenhum comentário:
Postar um comentário