Pressionadas em várias frentes - da responsabilidade por suicídio de adolescentes ao risco de contágio ainda maior do ambiente político e econômico por informações falsas -, as big techs anunciaram um acordo para tentar evitar que "fakes" baseadas em inteligência artificial adicionem uma camada de engano, distorcendo eleições e decisões de consumo.
O acerto envolve a OpenAI, criadora do ChapGPT, o X (ex-Twitter), o Tik Tok e a Meta (dona de Facebook, Insgraram e WhatsApp) e outras 16 gigantes da tecnologia e da informação. Seu compromisso é "trabalhar colaborativamente em ferramentas para detectar e abordar a distribuição online desse conteúdo de IA, conduzir campanhas educacionais e fornecer transparência, entre outras medidas concretas".
A decisão foi tomada depois de uma audiência no Congresso dos Estados Unidos em que algumas dessas empresas tiveram de ouvir que "têm sangue nas mãos" e em que o criador do Facebook, Marck Zuckerberg, esboçou um inédito pedido de desculpas às famílias de pessoas que teriam sido vítimas do ambiente hostil das redes sociais.
O avanço das aplicações de inteligência artificial - considerado o potencial, o ChatGPT é considerado uma espécie de precursor tosco, com suas mãos de seis dedos e gatos de cinco patas - embute a possibilidade de uso ilegal das ferramentas. Embora com falhas evidentes para um observador mais cuidadoso, hoje já é possível fabricar um vídeo de Joe Biden pedindo votos para Donald Trump.
O exemplo é propositalmente grosseiro, mas cobre todas as variações. E assim como são ferramenta para influenciar eleições, ferramentas de inteligência artificial podem ser usadas para produzir falsidades corporativas. Da mesma forma que geram ataques hacker com base na tecnologia disponível até agora, cibercriminosos estão atentos ao potencial da inteligência artificial, que pode gerar outras formas de extorsão empresarial.
O que gera dúvidas sobre a efetividade do acordo é o fato de trazer apenas enunciados e metas genéricos sobre como frear a circulação de conteúdo enganoso. Como não há "rotulagem" - aviso de que o material foi feito com base em inteligência artificial - automática, sua inclusão depende de quem o produz, ou seja, até agora não há regras que obriguem a essa boa prática, muito menos fiscalização sobre a aplicação das regras.