IA na produção de conteúdo: qual o risco de automatizar notícias e artigos?
IA na produção de conteúdo: qual o risco de automatizar notícias e artigos?
A inteligência artificial já é realidade na produção de conteúdo para a internet desde muito antes de o ChatGPT virar moda. No jornalismo, por exemplo, seu uso remonta a mais de uma década atrás
Ainda em 2014, escrevi um artigo sobre um “furo” (informação noticiada por um veículo de imprensa antes de todos os demais) que o Los Angeles Times tinha dado ao publicar sobre um terremoto na frente dos concorrentes – e quem tinha apurado e escrito tudo era um robô.
Escrevi na época:
“Não é novidade que os robôs estão invadindo as Redações do mundo inteiro [...]. Eles escrevem principalmente notícias que são mais simples, factuais, objetivas, como aquelas que falam como foi uma partida de futebol ou, como no exemplo, como foi o terremoto, onde estava seu epicentro e qual sua magnitude.
Basta o robô estar ligado a algum centro epistemológico, ou a algum tempo real de partida de futebol ou à Sala de Imprensa da PM. Ele saberá perfeitamente reunir as informações básicas [...] e transformá-las em um texto legível, desses que a gente sempre encontra nos portais de notícia.”
Neste artigo vou mostrar como os algoritmos são usados nas redações de todo o mundo, de forma mais corriqueira, pelo menos desde 2010.
Vou exemplificar com algumas dessas iniciativas aqui no Brasil.
Mas, para além de suas vantagens mais visíveis, vou comentar alguns problemas nem tão óbvios sobre a automatização.
E, para não deixar ninguém pessimista, vou trazer possíveis soluções ao final do texto. Boa leitura!
Como a inteligência artificial é usada no jornalismo?
A inteligência artificial é usada de muitas formas no jornalismo, já há alguns anos, e a tendência é que esse uso cresça bastante daqui para a frente.
Ainda em 2019, Charlie Beckett, no estudo “New powers, new responsibilities: a global survey of journalism and artificial intelligence”, apontou diversos processos jornalísticos que já estavam adotando a IA em veículos de todo o mundo:
- Coleta de notícias - fornecimento de informações, geração de ideias para histórias, identificação de tendências, investigações, monitoramento de eventos ou problemas, extração de informações ou conteúdo.
- Produção de notícias - criação, edição, embalagem de conteúdo para diferentes formatos e plataformas, criação de texto, imagem e vídeo, redirecionamento de conteúdo para diferentes públicos.
- Distribuição de notícias - personalização, marketing, busca de públicos, compreensão do comportamento do usuário, monetização/assinaturas.
Esse estudo, que foi publicado pela London School of Economics and Political Science e pelo Google News, analisou 71 veículos jornalísticos de 32 países, inclusive o Brasil, e mostrou que cerca de 70% deles já usavam IA no processo de produção de notícias naquele ano – principalmente na coleta de notícias.
Em 2016, quando o professor e pesquisador Andreas Graefe escreveu seu “Guide to Automated Journalism” (guia para o jornalismo automatizado), ele já apontava que “as principais empresas de mídia, como Associated Press, Forbes, The New York Times, Los Angeles Times e ProPublica, já tinham começado a automatizar seus conteúdos noticiosos.
Mas a IA está presente no jornalismo há ainda mais tempo.
Segundo a tese de doutorado "Jornalismo em vídeo gerado por inteligência artificial: narrativas e credibilidade", de Silvio Barbizan (PUC-RS, 2021), seu uso para criar textos de forma automatizada remonta há 60 anos atrás, embora tenha se popularizado a partir de 2010:
“(...) Programas capazes de redigir autonomamente existem há mais de 60 anos. Os primeiros experimentos nessa área estão ligados ao desenvolvimento da natural language generation na década de 50 do século passado. Cerca de 20 anos mais tarde surgiu a primeira aplicação em jornalismo. Nos Estados Unidos, Harry R. Glahn desenvolveu um computador capaz de escrever textos com a previsão do tempo a partir do banco de dados de uma central meteorológica americana. Desde então, outras aplicações ocorreram, mas em caráter experimental ou pontual. Foi a partir de 2010 que o uso se popularizou.”
Foi em 2010 que o Los Angeles Times lançou uma plataforma para seu projeto The Homicide Report, que tinha um robô que escrevia e publicava pequenas notas sobre cada homicídio ocorrido na região metropolitana de Los Angeles.
Os jornalistas desse veículo encararam a inovação como “uma ferramenta que os auxilia a atingir a meta de cobrir todos os homicídios da cidade, liberando-os para se dedicarem à apuração e à redação de notícias com maior profundidade”, como descreve o artigo “Cartografando o Jornalismo Automatizado: redes sociotécnicas e incertezas na redação de notícias por robôs”, publicado por Silvia DalBen e Carlos d’Andréa no 5º Seminário de Pesquisa em Jornalismo Investigativo, em 2017.
Hoje também é comum a programação de algoritmos para distribuir aos leitores conteúdos mais personalizados, sobre assuntos ou editorias que os interessem mais.
Há ainda o uso de IA para criação de vídeos inteiros, que foi o tema da tese de Barbizan. Ele se debruçou sobre 25 vídeos, todos feitos por inteligência artificial, de conglomerados de mídia de nove países, inclusive o Brasil. E constatou a criação de vídeos automatizados para coberturas esportivas, de celebridades, de política, economia e outros assuntos.
Outro uso que vem se fortalecendo no Brasil é para o combate às fake news, como aponta o artigo "Inteligência Artificial no jornalismo: um estudo do robô Corona Repórter", das pesquisadoras da UFPB Laura Rayssa de Andrade Cabral e Fabiana Cardoso de Siqueira, publicado na "Revista Brasileira de Ensino de Jornalismo" em dezembro de 2022:
“O jornalismo automatizado se fortalece a partir do uso de softwares que escrevem textos mediante as técnicas de Natural Language Generation [...], como também através do uso de chatbots, seja para relacionamento com o público, ou atuando nas redes sociais e aplicativos de mensagens como ferramenta de combate à desinformação, por exemplo. Essa é uma prática recorrente no exterior e que está se fortalecendo no Brasil.”
As autoras apontam que o uso de robôs no jornalismo brasileiro está aumentando, “especialmente, em situações em que é preciso produzir, em pouco espaço de tempo, grandes volumes de notícias que demandam esforços para “garimpar” e interpretar os dados”.
Mas fazem uma observação importante:
“Mesmo quando são os robôs que escrevem as notícias, normalmente estas passam pelo crivo de um jornalista, seja para revisar o conteúdo ou para incrementar mais detalhes, como a fala de uma ou mais fontes etc.”
Exemplos do uso de IA no jornalismo brasileiro
Corona Repórter
Robô que compilava informações de órgãos governamentais, sempre sobre a Covid-19, e as distribuía pelo Twitter. Iniciativa feita em parceria entre a UFMG e a USP, foi lançada em 2020, e o último tuíte publicado saiu em dezembro de 2021.
Da Mata Repórter
Outra parceria entre UFMG e USP, robô criado em 2020 divulga no Twitter dados de desmatamento da Amazônia Legal. Último post foi em agosto de 2022.
Elas no Congresso
Robô criado pela Revista AzMina em 2020, que ainda está bastante ativo no Twitter, e acompanha a tramitação de proposições que tratam dos direitos das mulheres no Congresso.
Robotox
Mais um robô usado para divulgar informações automatizadas pelo Twitter, desta vez relacionados a agrotóxicos. Iniciativa pela Agência Pública e Repórter Brasil em 2019 e ainda está ativa.
Outros robôs jornalísticos no Twitter
A dissertação de mestrado “Jornalismo automatizado: Inteligência Artificial e robôs nas redações das organizações jornalísticas”, publicado em 2022 por Laura Rayssa de Andrade Cabral, da UFPB, traz ainda diversos outros exemplos de robôs para conteúdo noticioso que já existiram no Brasil, a maioria já extintos, como as iniciativas Fátima, da agência de fact-checking Aos Fatos, que apontava fake news no Twitter, e Rui, do Jota, que monitorava quanto tempo processos importantes ficavam parados no STF.
A @fatimabot, inclusive, venceu o Prêmio Cláudio Weber Abramo de Jornalismo de Dados em 2019, mas acabou bloqueada pelo Twitter.
Cobertura eleitoral do g1
Todos os 5.568 municípios brasileiros ganharam uma matéria publicada no g1, nas eleições de 2020, com os resultados do pleito. A iniciativa só foi possível graças ao uso de automação, com inteligência artificial, a partir de dados do Tribunal Superior Eleitoral (TSE), que o g1 classificou, na época, de “iniciativa inédita”.
Os dados, antes de publicados, passavam por uma revisão dos jornalistas na Redação.
Em 2022, a iniciativa se repetiu, agora mostrando como foi a votação em cada um dos municípios.
Quais são os riscos da automação da informação?
Já falei sobre alguns dos problemas do uso de inteligência artificial para produção de conteúdo no artigo que escrevi sobre o ChatGPT.
Como aqui estou tratando de um escopo mais amplo de inteligência artificial, acho que os riscos também são um pouco maiores – claro que dependendo de cada caso.
Mas os principais são os seguintes:
-
Queda na qualidade dos conteúdos;
-
Textos repetitivos e enfadonhos;
-
Divulgação de conteúdo copiado;
-
Divulgação de dados errados ou falsos;
-
Falta de transparência;
-
Queda na credibilidade;
-
Aumento de disputas judiciais.
A seguir, detalho cada um desses itens.
1. Queda na qualidade dos conteúdos
Por qualidade, refiro-me tanto à criatividade, à originalidade, ao bom texto e às boas fontes, quanto à capacidade humana de analisar, formar opinião e se aprofundar em determinados assuntos – que é algo esperado de um conteúdo jornalístico.
Sobre isso, Andreas Graefe escreveu o seguinte em seu guia de 2016, ao falar das limitações do jornalismo automatizado:
“Os algoritmos não podem fazer perguntas, explicar novos fenômenos ou estabelecer causalidade e, portanto, são limitados em sua capacidade de observar a sociedade e cumprir tarefas jornalísticas, como orientação e formação de opinião pública.
A qualidade da escrita de notícias automatizadas é inferior à escrita humana, mas provavelmente melhorará, especialmente com o avanço da tecnologia de geração de linguagem natural.”
Silvio Barbizan foi além em sua tese:
“[...] A notícia não responde ao básico, não detalha e aprofunda. Também não tem originalidade nem é criativa. [...] Então, numa visão sombria, o que se tem é a popularização de notícias atraentes e rasas produzidas por sistemas fechados cujas configurações e intenções são inacessíveis. Impossível não entender que esse quadro pode agravar a crise que o jornalismo já vive.”
E, lá em 2014, eu já tinha apontado o seguinte:
“[...] Ainda falta muito para que os robôs tenham a capacidade de fazer análises, emitir opiniões e, principalmente, elaborar textos que deem prazer de ler. Eles jamais poderão escrever uma crônica de futebol emocionante, que faça o torcedor relembrar cada lance com o coração aos pulos. Jamais poderão elucubrar sobre as intenções de um candidato político ao se aliar a um ex-rival. Jamais poderão escrever criticamente sobre um caso policial mal explicado ou uma lei que não serve pra nada.”
Não sei, agora em 2023, se “jamais” farão nada disso que observei há nove anos. Mas a maioria dos robôs, realmente, só faz o arroz-com-feijão, pelo menos do ponto de vista de estrutura criativa de um texto.
2. Textos repetitivos e enfadonhos
Veja uma iniciativa como aquela do g1, de escrever os resultados para todos os municípios brasileiros, nas eleições de 2020.
É útil para SEO, ao inundar o Google com conteúdos que podem interessar aos moradores daquelas localidades que nunca são cobertas por nenhum veículo de imprensa. Mas, para o leitor que abre qualquer um daqueles textos, a sensação é de tédio, por terem basicamente a mesma estrutura sempre.
Como diz o artigo de Cabral e Siqueira, que analisaram o trabalho do robô Corona Repórter:
“[...] Cumpre com sua função de informar os usuários sobre notícias relacionadas à pandemia da Covid-19, contudo, limita-se a bases de dados muito específicas, de estatísticas gerais da pandemia, realidade que, de certa forma, provoca a repetição do mesmo tipo conteúdo, apenas atualizando as informações, o que depois de um certo tempo pode não ser tão atrativo para um usuário muito ativo na rede social.” [grifo meu]
3. Divulgação de conteúdo copiado
Aqui vai depender do tipo de IA que estamos falando, de qual é sua base de dados e da finalidade de seu uso.
Robôs como o ChatGPT são treinados para trazer respostas a partir de bancos de dados imensos. As fontes das respostas não são especificadas. As respostas são as mesmas para perguntas iguais, e muitas vezes erradas.
Jornalistas que usarem esse tipo de ferramenta para produzir conteúdos correm sérios riscos de estarem divulgando dados de baixa confiabilidade e que parecerão cópias daqueles publicados por outros que usaram a mesma fonte.
4. Divulgação de dados errados ou falsos
Graefe já alertava para isso lá em 2016, quando escreveu:
“Os algoritmos dependem de dados e suposições, ambos sujeitos a vieses e erros. Como resultado, os algoritmos podem produzir respostas inesperadas, não intencionais e que contêm erros.”
Em seu estudo de 2019, Charlie Beckett ouviu de um executivo de jornal um receio ainda maior:
“O aprendizado de máquina é a ferramenta perfeita para gerar deep fakes e conteúdo falso, e isso será um grande problema para todas as notícias de meios de comunicação confiáveis.”
Eu também alertei para isso em outro artigo que escrevi, sobre a OpenAI, criadora do ChatGPT:
“O ChatGPT não fornece a fonte para suas respostas e muitas vezes comete erros grosseiros. Não é a primeira vez que flagrei uma resposta errada do principal produto da OpenAI.[...] Em outra ocasião, o ChatGPT chegou a me pedir desculpas duas vezes por um erro.”
A frequência ou gravidade de um erro que um algoritmo pode cometer vai depender do banco de dados no qual ele se baseia, na forma como ele foi programado, em como ele está sendo usado.
O ChatGPT, especificamente, tem um agravante que é a desatualização de seus dados, que vão só até 2021 [isso ao menos até março de 2023, quanto este artigo foi escrito]. A própria OpenAI, no texto de apresentação que escreveu sobre a ferramenta, em 2022, apontou como sua primeira limitação o seguinte:
“Às vezes, o ChatGPT escreve respostas que parecem plausíveis, mas que são incorretas ou sem sentido.”
Mesmo a versão mais atualizada da tecnologia, o GPT-4, lançada em 14 de março, ainda não é totalmente confiável, como admitiu a OpenAI nestes dois trechos:
“Apesar de suas capacidades, o GPT-4 tem limitações semelhantes aos modelos GPT anteriores. Mais importante, ainda não é totalmente confiável (ele ‘alucina’ fatos e comete erros de raciocínio).”
“O GPT-4 geralmente não tem conhecimento dos eventos que ocorreram após o corte da grande maioria de seus dados (setembro de 2021) e não aprende com sua experiência.”
5. Falta de transparência
Falta de transparência é um problema tanto no que diz respeito à metodologia por trás da coleta de informações de cada um desses algoritmos, que nem sempre é comunicada ao público final, quanto, no caso de uma IA como o ChatGPT, ao fato de ela não conseguir informar as fontes para suas respostas.
Sobre isso, Barbizan defendeu uma regulamentação que aumente essa transparência:
“[...] O que está posto é que essas notícias estão cada vez mais presentes no cotidiano do mundo e por isso há a necessidade de transparência, de regulamentação quanto aos algoritmos, de bases sólidas e, ainda, de conhecimento e educação da sociedade quanto à origem das notícias automatizadas.”
6. Queda na credibilidade
Credibilidade é o principal ativo de qualquer veículo de imprensa. Uma vez perdida, é difícil de ser recuperada.
Se os leitores eventualmente perceberem queda na qualidade nos textos e vídeos e na qualidade e acurácia das informações prestadas, eles podem perder a confiança naquele portal de notícias e partir para outro.
7. Aumento de disputas judiciais
Eventuais notícias que venham com erros ou até mesmo pareçam plagiadas – dois dos riscos que já apontei acima – podem acabar indo parar na Justiça.
E quem vai responder por aquela apuração equivocada? O robô?
Leia também: Conteúdo artesanal: por que ferramentas de IA não se comparam a redatores humanos?
E quais as vantagens da IA na produção de conteúdo?
É claro que existem vantagens para o uso de inteligência artificial na produção de conteúdo, sobretudo no trabalho mais automatizado mesmo, mais “braçal” – como, no caso do jornalismo, para fazer as notinhas de previsão do tempo, de lances em partidas esportivas ou coberturas que envolvam muitos dados.
Ainda em 2016, Graefe apontava os seguintes potenciais do uso de algoritmos no noticiário:
- Os algoritmos são capazes de gerar notícias mais rapidamente, em maior escala do que por repórteres humanos.
- Os algoritmos podem usar os mesmos dados para contar histórias em vários idiomas e de diferentes ângulos, personalizando-os de acordo com as preferências de um leitor individual.
- Os algoritmos têm o potencial de gerar notícias sob demanda, criando histórias em resposta às perguntas dos usuários sobre os dados.
O pesquisador Barbizan, que citei no tópico anterior, por ter apontado alguns dos problemas na automação, também viu suas vantagens:
“Para os veículos há um ganho econômico, como a conquista de novos públicos graças à cobertura de setores antes inviáveis. Ganham, também, com uma produção em escala muito maior, mais rápida e mais barata. Já o público – pelo menos uma boa parte dele – ganha um produto ao seu gosto: fácil de entender, acessível e de consumo rápido.”
A inteligência artificial permite experiências de larga escala, como os exemplos que vimos do Los Angeles Times e do g1 nas eleições.
Pensando em produção de conteúdo de forma mais ampla, como nas estratégias de marketing de conteúdo para marcas, a inteligência artificial também oferece os mesmos riscos e vantagens apontados para o trabalho jornalístico.
Meu colega Lucas Amaral fez um artigo, por exemplo, em que listou oito maneiras pelas quais o ChatGPT pode ajudar na produção do marketing de conteúdo.
Em outro texto, ele listou mais 14 ferramentas de inteligência artificial que cumprem o mesmo papel do sucesso da OpenAI.
Talvez o X da questão seja a participação ou mediação dos humanos nesse processo. Não é porque existe um software com inteligência artificial facilitando um trabalho de coleta de dados ou mesmo de produção de conteúdos que os humanos tenham que ser deixados de lado.
Pelo contrário, eles são essenciais justamente para garantir uma entrega final que tenha qualidade, confiabilidade e garanta a credibilidade daquele produto.
Como dizem Cabral e Siqueira em seu artigo:
“Consideramos relevante o papel de mediador do jornalista, de aprimorar as informações da inteligência artificial do robô para o público. Essa é uma das questões mais discutidas quando se fala acerca da substituição do homem pela máquina. Nesse caso, compreendemos que a substituição não deve existir e que o melhor é a soma entre o profissional de jornalismo e as facilidades tecnológicas propiciadas pelo uso de robôs com IA.”
Elas defendem que, para isso, os jornalistas ampliem seu leque de habilidades, somando à criatividade e sensibilidade, conhecimentos de “programação, análise e interpretação de dados”.
Estamos diante de um presente em que a inteligência artificial já é muito usada pelo jornalismo e um futuro em que ela deve estar presente em 100% das práticas jornalísticas, em maior ou menor graus, por suas inegáveis vantagens, principalmente do ponto de vista econômico.
Sabemos quais os riscos dessa automação em uma profissão tão delicada, que lida com informações e que deve prezar pela qualidade da fonte dessas informações e boa análise dos dados, que são seu próprio sustentáculo.
Então é preciso que toda a forma de produção das notícias seja repensada, sempre com inclusão dos jornalistas humanos como mediadores do que é produzido pelos algoritmos – e estes precisarão se qualificar com habilidades técnicas que antes não eram exigidas, como programação e ciência de dados.
Mas, para além desse conhecimento técnico que deve passar a ser exigido, os jornalistas que mantiverem suas habilidades mais humanas também vão se diferenciar.
Pelo menos é nisso que acredito, e já escrevia a respeito naquele meu artigo de 2014:
“Mesmo que os robôs invadam as Redações para cobrir o arroz-com-feijão, os jornalistas que escrevem com emoção, senso crítico e análises bem-fundamentadas ainda terão vez (ufa!). Seja no jornal impresso, no portal de notícias, em um blog — ou em quaisquer plataformas novas que surjam no futuro.
No final, robôs e pessoas coexistirão, mas só os jornalistas que conseguem pensar com a própria cabeça, escrever com emoção, transmitir prazer ou indignação e errar em seus julgamentos (sim, errar, para aprender e evoluir) vão sobreviver.”
Quer ler mais conteúdos relacionados ao universo da comunicação e do marketing digital? Assine gratuitamente nossa newsletter e receba emails quinzenais com informações de qualidade.
ARTIGOS RELACIONADOS
NEWSLETTER
Cadastre-se para receber tendências e análises sobre as melhores práticas de marketing digital