Lívia Vieira
Professora da UFBA e pesquisadora do objETHOS

Falar sobre inteligência artificial no jornalismo é falar sobre inovação. Mas será que toda inovação melhora a prática profissional? Com base no estudo “Actually, it’s about Ethics, AI, and Journalism: Reporting on and with Computation and Data”, do Tow Center da Universidade de Columbia, é possível dizer que a IA já faz parte do jornalismo e os repórteres estão trabalhando com técnicas cada vez mais avançadas. No entanto, a distribuição desigual dessa prática e as questões éticas são grandes desafios para as organizações jornalísticas.

O estudo do Tow Center traz uma perspectiva histórica muito interessante: junto com exemplos atuais de utilização de IA pelas redações, os autores Bernat Ivancsics e Mark Hansen relembram a parceria entre a IBM e o The New York Times na Feira Mundial de 1964, por meio de comentários de Joseph Weizenbaum, uma figura famosa na pesquisa de IA nos anos 1960. A parceria resultou em um dos mais ambiciosos sistemas de entrega de informações da época. 

A recuperação histórica inclui Joseph Pulitzer e a defesa da disciplina de estatística nos cursos de jornalismo em 1904; Walter Lippmann e seu sonho, em 1920, com um mundo em que as notícias fossem menos politizadas e com mais fatos baseadas em dados estruturados; e Phillip Meyer com seu jornalismo de precisão, introduzindo os princípios básicos da reportagem assistida por computador, em 1967. Tudo isso para dizer que não se trata de um fenômeno novo e que, por meio de dados, jornalistas podem investigar situações que de outra forma permaneceriam invisíveis.

Na Feira Mundial de 1964, a IBM apresentou uma máquina treinada para reconhecer datas manuscritas. Em parceria com o NY Times, a empresa extraiu de cada edição (desde 1851) a notícia mais importante, a elencou em manchetes, e assim alimentou a máquina. Desta forma, era possível escrever qualquer data em um cartão, que era escaneado e, segundos depois, a máquina mostrava a manchete daquele dia.

De 1964 a 1966, Joseph Wiezenbaum desenvolveu o programa ELIZA, um experimento de “conversação” homem-computador. “Em resumo, um chatbot”, dizem os autores do estudo. Hoje, o programa foi republicado em linguagens modernas como Python

“No essencial, a ELIZA pesquisa as informações de uma pessoa na conversa em busca de determinadas palavras-chave. Se uma palavra-chave for encontrada, uma regra será aplicada para transformar sua entrada e criar a resposta da ELIZA. O programa de Wiezenbaum é um exemplo de um tipo de inteligência artificial que costuma ser chamada de “programação heurística” – depende de “’dicas’, ‘sugestões’ ou ‘regras básicas.’”

Em 1969, outra grande invenção: o The Information Bank, que indexava todos os conteúdos do jornal. Mas foi um percurso turbulento. Repórteres reclamavam que, embora extensa, a indexação não incluía jargões, gírias, acrônimos ou termos técnicos recém-criados. E havia uma crítica mais grave: como não era possível relatar todos os acontecimentos nos arquivos, o banco era um produto de escolhas editoriais humanas do NY Times. Levando em consideração que o arquivo se tornaria parte importante das pesquisas feitas em bibliotecas e universidades, “temia-se que o Times poderia facilmente se tornar um árbitro da história ainda mais poderoso do que é agora. Para muitos pesquisadores, o que não está no banco simplesmente não aconteceu”, diz um trecho de um artigo publicado na New York Magazine em 1972.

Joseph Weizenbaum chegou a declarar que o The Information Bank estava, de fato, destruindo a história.

“O New York Times começou a construir um “banco de dados” de acontecimentos organizados. Obviamente, apenas os dados que são facilmente entregáveis ​​como subprodutos de máquinas de escrever são admissíveis no sistema. À medida que o número de assinantes do sistema aumenta, e à medida que eles aprendem cada vez mais a contar com “todas as notícias que uma vez eram adequadas para imprimir”, como o Times identifica orgulhosamente sua política editorial, quanto tempo levará para que o que conta como fato seja determinado pelo sistema, antes que todo outro conhecimento, toda memória, seja simplesmente declarado ilegítimo?”

Após todos esses entraves, o The Information Bank foi descontinuado. Os autores afirmam que o Times, inclusive, o apagou de sua história. “Um livro recente publicado pelo Times sobre sua história não incluía uma única palavra sobre o The Information Bank ou seus quatorze anos de atividade pública”.

Inteligência Artificial e Jornalismo hoje

Os pesquisadores de Columbia lembram que, hoje, jornalistas passam inúmeras horas montando conjuntos de dados: copiando textos e tabelas de sites, digitalizando documentos públicos ou mesclando tabelas de dados existentes que possuem classificadores comuns. Algumas das melhores reportagens começam preenchendo lacunas com conjuntos de dados. “Do número de pessoas mortas nos EUA pela polícia ao destino de pessoas retornadas aos seus países de origem depois de terem tido negados asilo nos EUA, os dados e a computação fornecem aos jornalistas ferramentas que revelam fatos sobre registros oficiais fracos ou inexistentes”.

No entanto, a sofisticação computacional é desigual entre as redações. Algumas empresas lutam para produzir uma análise simples de planilhas, enquanto as grandes organizações têm recursos de computação disponíveis em um laboratório interno. Isso faz com que veículos como o AI Studio do Quartz compartilhem seus recursos com outras organizações de notícias, fornecendo treinamento de aprendizado de máquina a repórteres. 

Assim, há a necessidade de jornalistas desenvolverem suas habilidades técnicas para se tornarem criadores de ferramentas, e não só usuários delas. “É dessa maneira que controlamos, moldamos nosso relacionamento com a IA e talvez possamos criar uma forma técnica totalmente nova, repleta da ética e dos valores de nossa profissão”, concluem. É um desafio que precisa ser encarado de frente, para que a inovação não seja prejudicial ao exercício do jornalismo que se pretende ético e responsável.

Publicidade