Regulamentação, plágio e desinformação são componentes envolvidos quando o assunto é texto produzido por inteligência artificial
Apenas seis meses após o seu lançamento, em janeiro de 2023, a OpenAI, empresa responsável pelo ChatGPT, desativou a sua ferramenta de detecção de textos redigidos por inteligência artificial generativa.
A justificativa citada foram os problemas com a precisão do recurso. Porém, na mesma nota, prometeu trabalhar em avanços no sistema.
De acordo com a publicação, apenas 26% dos textos foram corretamente identificados como artificialmente redigidos e 9% dos artigos criados por redatores humanos foram apontados como escritos por IAs.
Ferramentas de inteligência artificial generativa geram controvérsia ao redor do mundo
Desde o lançamento do ChatGPT, em novembro de 2022, o uso da tecnologia de IA generativa vem sendo alvo de polêmicas e debates. Isso porque, apesar de aparentar criar textos originais, os textos elaborados pela ferramenta se baseiam em outros conteúdos disponíveis na rede mundial de computadores.
Isso gerou uma série de imbróglios relacionados a plágio, criação de deep fakes, aplicação em trabalhos acadêmicos e desinformação, já que o banco de dados não é atualizado regularmente. Alguns países, como a Itália, baniram a plataforma. Outros, como o Reino Unido, Estados Unidos e China, estudam sanções para regulamentação do uso e indicação correta das origens do material produzido.
O Bard, que emergiu como uma resposta à acoplagem do ChatGPT ao Bing, não foi incluído na lista de países com acesso à nova feature do Google. Especula-se que uma das razões seja o avanços no Projeto de Lei das Fake News (PL 2630/2020), que atribui responsabilidade às big techs na difusão de notícias falsas e discursos de ódio.
Aprendizado de máquina dificulta identificação de textos criados artificialmente
Um dos grandes problemas enfrentados na detecção de conteúdo produzido via inteligência artificial é exatamente o funcionamento do mecanismo. Baseado em aprendizado de máquina, é programado para desenvolver-se de maneira automatizada.
Para se ter uma ideia, apenas cinco meses após o lançamento do GPT-3, tecnologia generativa do ChatGPT, com 175 bilhões de parâmetros, foi inaugurado o GPT-4, com um valor estimado de 1.7 trilhões de parâmetros.
Esses parâmetros se referem às variáveis internas que auxiliam na criação de novos textos de LLM (large language model). O que quer dizer que quanto maior esse número, mais poderosa é a ferramenta. Com isso, torna-se cada vez mais difícil a identificação.
Plataformas de detecção de conteúdo produzido por IA também evoluem
Contudo, como citado por John Mueller, um dos principais porta-vozes do Google, a revolução tornou-se um “jogo de gato e rato”. Ou seja, na medida em que as ferramentas de IA generativa se desenvolvem, também evoluem as formas de detecção.
Prova disso ocorreu em um estudo realizado pela agência de SEO Reboot Online. Em abril de 2023, a empresa criou um experimento para testar a eficiência de artigos produzidos por humanos e máquinas nos mecanismos de busca.
Para tal, criou uma série de textos produzidos pelo ChatGPT e os verificou no Crossplag, ferramenta de detecção de IA. O resultado foi que em nenhum deles foi identificada a interferência de robôs.
Porém, três meses depois, ao realizar o mesmo teste, a ferramenta se mostrou muito mais acurada, apontando a interferência da inteligência artificial em 80% dos textos criados por máquinas, provando que tais recursos também se desenvolvem.
Afinal, conteúdos produzidos por inteligência artificial podem ser detectados?
A velocidade com que as ferramentas de inteligência artificial generativa se desenvolvem complexifica a elaboração dos identificadores. A detecção de IA é baseada na engenharia reversa para predição de padrões. Contudo, a própria tecnologia se reinventa e estabelece novos padrões.
Uma pesquisa realizada pela Authority Hacker (2023) revela que 65,8% das pessoas acreditam que os textos redigidos por IA são iguais ou melhores do que aqueles escritos por humanos.
Porém, é inegável que o uso irrestrito dessas plataformas pode gerar problemas à sociedade, cada vez mais presentes em áreas como marketing digital, jornalismo e educação. Existem, inclusive, iniciativas que visam a inclusão de marcas d’água para etiquetagem de conteúdo produzido de maneira sintética.
Em um mundo em que a desinformação nos leva a caminhos cada vez mais perigosos, é muito importante investir em conteúdo produzido por pessoas com boa capacidade de apuração, checagem, criatividade, originalidade e pesquisa.
Para o marketing de conteúdo e o SEO, contudo, há uma questão ainda mais importante. Ora, se a produção de conteúdo genérico está ao alcance de qualquer um, o que fará com que uma marca se destaque nos buscadores?
É por isso que contar com soluções que visam a produção de conteúdo único, com informações adicionais que as máquinas são incapazes de produzir, como estudos, testes e entrevistas, é cada vez mais essencial para se destacar no mercado.
Se você gostou dessa notícia, inscreva-se na nossa newsletter para receber outros materiais relacionados ao tema.