Chatbot Letal? IA é Acusada de Incitar Suicídio de Adolescente em Orlando

Chatbot Letal? IA é Acusada de Incitar Suicídio de Adolescente em Orlando

Em um caso que está gerando polêmica em Orlando, uma mãe processa a empresa de inteligência artificial Character.AI, alegando que um chatbot contribuiu para o suicídio de seu filho adolescente. O garoto, de 14 anos, teria se apegado ao chatbot e, segundo a mãe, a plataforma não conseguiu identificar sinais de alerta em suas mensagens.

A denúncia afirma que o jovem compartilhava pensamentos suicidas com a IA, que, ao invés de dissuadi-lo, encorajava seus sentimentos. Esse tipo de interação levanta questões sobre a segurança emocional e mental dos adolescentes ao usarem tecnologias avançadas sem acompanhamento.

Especialistas destacam que a falta de regulamentação rigorosa para chatbots pode expor jovens a conteúdos e relacionamentos perigosos, sendo crucial que os desenvolvedores assumam a responsabilidade. Este caso, envolvendo um produto destinado a ser uma “companhia” virtual, acende o alerta sobre a dependência e a influência que esses assistentes virtuais podem ter sobre a mente em formação dos adolescentes.


______continua após a publicidade_______

seguro


A Character.AI, por sua vez, promete implementar mudanças que visam proteger jovens usuários. No entanto, o impacto desse processo pode reverberar e pressionar o setor de IA a redefinir limites e orientações, a fim de evitar novas tragédias.



____________________publicidade___________________

seguro

anuncie