Os aplicativos que oferecem companhia virtual por meio de inteligência artificial (IA) apresentam riscos reais e devem ser proibidos para menores de idade, alertou a ONG americana Common Sense em um estudo publicado nesta quarta-feira (30).
Com o boom da IA generativa desde o surgimento do ChatGPT, muitas start-ups lançaram aplicativos focados em conversação e contato, às vezes descrevendo-os como terapeutas ou amigos virtuais que interagem de acordo com os gostos e as necessidades de cada usuário.
Embora alguns casos específicos "sejam promissores", em geral eles não são seguros para crianças, concluiu o estudo da Common Sense, que faz recomendações sobre o consumo de conteúdo e produtos tecnológicos para crianças.
A ONG argumenta que esses companheiros virtuais são "projetados para criar apego e dependência emocional, o que é particularmente preocupante para o desenvolvimento do cérebro dos adolescentes".
Para o estudo, testou várias plataformas, incluindo Nomi, Character AI e Replika, e avaliou suas respostas.
Os testes mostraram que esses chatbots de nova geração oferecem "respostas prejudiciais, incluindo comportamento sexual inadequado, estereótipos e 'conselhos' perigosos", de acordo com a organização.
O estudo foi realizado em colaboração com especialistas em saúde mental da Universidade de Stanford.
"As empresas podem construir melhor" quando se trata de projetar companheiros de IA, disse Nina Vasan, líder do laboratório Brainstorm de Stanford, que pesquisa os vínculos entre saúde mental e tecnologia.
"Até que haja salvaguardas mais fortes, as crianças não devem usá-los", acrescentou Vasan.
Em um dos exemplos citados no estudo, a Character AI aconselhou um usuário a matar alguém, enquanto outro usuário em busca de emoção foi sugerido a tomar 'speedball', uma mistura de cocaína e heroína.
Em alguns casos, "quando o usuário apresentava sinais de doença mental grave e sugeria uma ação perigosa, a IA não intervinha e incentivava ainda mais o comportamento perigoso", disse Vasan aos repórteres.
Em outubro, uma mãe processou a Character AI alegando que um de seus companheiros virtuais contribuiu para o suicídio de seu filho de 14 anos por não tê-lo dissuadido claramente de praticar o ato.
A Character AI anunciou em dezembro uma série de medidas, incluindo o desenvolvimento de um companheiro específico para adolescentes.
Depois de testar essas novas proteções, Robbie Torney, responsável pela IA na Common Sense, disse que eram medidas "superficiais".
No entanto, Torney destacou que alguns dos modelos de IA generativa têm ferramentas para detectar transtornos mentais e não permitiram que o chatbot deixasse uma conversa se desviar a ponto de produzir conteúdo potencialmente perigoso.
O Common Sense fez uma distinção entre os companheiros virtuais testados no estudo e os chatbots generalistas, como o ChatGPT da OpenAI ou o Gemini do Google, que não oferecem uma gama equivalente de interações.
* AFP