terça-feira, outubro 22, 2024
24.9 C
Vitória
terça-feira, outubro 22, 2024
terça-feira, outubro 22, 2024

Leia Também:

​IA e jornalismo

Avanços como o ChatGPT despertam tanto fascínio quanto inquietação

Recentes avanços em inteligência artificial (IA) generativa, como o ChatGPT, despertam tanto fascínio quanto inquietação. Estudos indicam que, apesar de metade da população estar ciente dessa tecnologia, apenas uma pequena fração a utiliza regularmente. A pesquisa do Instituto Reuters revela uma tendência preocupante: a maioria dos usuários frequentes são jovens de 16 a 24 anos, enquanto apenas 16% dos maiores de 55 anos já experimentaram a ferramenta. Esta divisão etária destaca uma lacuna significativa no engajamento tecnológico, que pode ter consequências profundas na forma como diferentes grupos populacionais interagem com informações.

A utilização da IA generativa tem se mostrado predominantemente voltada para a criação de mídia (28%), superando seu uso para consumo de informações (24%). Isto inclui traduções, resumos de textos e recomendações, mas apenas 5% dos entrevistados recorrem à IA para se atualizar com as últimas notícias. A limitação do ChatGPT em acessar a web em tempo real e o bloqueio de sites de notícias contribuem para esse cenário. Este dado evidencia uma lacuna entre a potencialidade da ferramenta e seu uso real na disseminação de informações.

A pesquisa também revela variações significativas entre países. Nos Estados Unidos, 10% dos entrevistados usam IA para notícias, comparados a apenas 2% no Reino Unido e Dinamarca. Esta discrepância pode ser atribuída a iniciativas como a do Google nos EUA, que integra textos gerados por IA ao sistema de busca, experimentação que também ocorre no Brasil, gerando controvérsias sobre a qualidade e confiabilidade das informações apresentadas.

Há uma expectativa generalizada de que a IA causará grandes impactos em diversos setores, incluindo o jornalismo. No entanto, apenas 66% dos entrevistados acreditam que a tecnologia terá um impacto significativo na mídia de notícias. Este ceticismo é reforçado pela baixa confiança no uso responsável da IA por organizações de notícias, que ocupam a 9ª posição entre 12 setores consultados. Este dado sugere uma preocupação generalizada com a integridade jornalística em um ambiente dominado por tecnologias emergentes.

Além disso, a percepção pública sobre a melhoria do jornalismo por meio da IA é predominantemente negativa. Com um saldo de -8, o jornalismo fica atrás de setores como a pesquisa científica, que apresenta um saldo positivo de 44. Este pessimismo é particularmente forte no Reino Unido, onde a pontuação líquida é de -35. Em contraste, países como Argentina e Japão são mais otimistas, sugerindo que as expectativas sobre a IA variam culturalmente.

A pesquisa também destaca um ceticismo sobre o uso de IA por jornalistas. Muitos acreditam que a tecnologia é frequentemente usada para tarefas como edição de gramática e tradução, mas uma parcela significativa suspeita que a IA é usada para criar imagens e até autores artificiais. Esta desconfiança reflete uma visão crítica do público sobre a aplicação ética da IA no jornalismo, sugerindo que a percepção popular pode estar distorcida pela desconfiança nas instituições de mídia.

No Brasil, a questão da desinformação ganha contornos ainda mais graves, especialmente com a aproximação das eleições municipais. O uso de IA para criar e disseminar notícias falsas pode ter consequências desastrosas, minando a integridade do processo democrático. Plataformas digitais como X (antigo Twitter) e Instagram têm a responsabilidade de monitorar e controlar a disseminação de conteúdos enganosos. Contudo, a proteção legal oferecida pela Seção 230 nos EUA, que exime essas plataformas de responsabilidade pelo conteúdo postado pelos usuários, suscita um importante debate sobre a necessidade de regulamentação mais rígida.

Comparar plataformas digitais com veículos de comunicação tradicionais é complexo. Enquanto os primeiros funcionam como intermediários tecnológicos, os segundos têm uma responsabilidade editorial explícita. Porém, a crescente influência das plataformas digitais na formação de opinião pública exige uma reavaliação de sua responsabilidade sobre o conteúdo distribuído. No Brasil, esse debate se intensifica, refletindo uma necessidade urgente de legislações que garantam a transparência e a veracidade das informações em um cenário cada vez mais digital e interconectado.

A Seção 230 dos EUA protege as plataformas da responsabilidade por conteúdos postados por usuários, enquanto o artigo 19 do Marco Civil da Internet no Brasil exige uma ordem judicial para a remoção de conteúdos, criando um viés de maior controle judicial sobre a moderação de conteúdos. Essas diferenças refletem abordagens distintas na regulamentação da internet, com implicações significativas para a liberdade de expressão e a integridade da informação online. À medida que avançamos, a responsabilidade das plataformas digitais e a transparência no uso da IA serão fundamentais para preservar a integridade da informação e a saúde democrática.

Flávia Fernandes é jornalista, professora e autêntica “navegadora do conhecimento IA”
Instagram:
@flaviaconteudo

Emal: [email protected]

Mais Lidas