
Segundo o relatório recente do “JPMorgan Chase”, denominado “Amigo Falso”, estima-se que cerca de 800 milhões de pessoas, principalmente adolescentes, estejam sendo prejudicadas na saúde mental pelo “ChatGPT”
Da Redação – “Amigo Falso” é o título de nova pesquisa de um grupo de monitoramento de Inteligência Artificial. As descobertas são preocupantes: a IA está facilitando interações perigosas entre adolescentes, levando-os a tomar decisões ruins. E conforme relatório recente do “JPMorgan Chase”, estima-se que quase 800 milhões de pessoas – cerca de 10% da população mundial – , estejam sendo prejudicadas pelo “ChatGPT.”
Como resultado, a natureza de algumas das conversas está provocando mudanças. Os desenvolvedores do “ChatGPT” não querem mais que seus usuários o utilizem como terapeuta ou amigo, já que o bot “não conseguiu reconhecer sinais de delírio” ou dependência emocional.
“A tecnologia tem um limite, e acho que pode ser muito limitada”, disse o Dr. David Gutterman, psicólogo clínico. Ele afirma que há uma variedade de informações que o usuário precisa avaliar, antes de analisar os resultados da tecnologia.
“As pessoas se lançam e se aprofundam em um diagnóstico específico porque, novamente, se você observar algumas das respostas que surgem da tecnologia, ela é bastante convincente, entretanto, prejudiciais à saúde mental, principalmente de adolsecentes”, disse Gutterman.
Isso se correlaciona diretamente com os resultados de pesquisas que mostram que, minutos após testar interações diretas, o chatbot produziu informações sobre transtornos alimentares e abuso de substâncias. O psicólogo acrescenta que há tantas nuances na saúde mental que muitas coisas podem passar despercebidas.
“Inconscientemente, as pessoas podem inserir informações de uma forma que a tecnologia responda especificamente ao que está sendo inserido”, disse Gutterman. “Há várias pessoas que utilizariam a tecnologia como um substituto ou uma forma de obter informações sem necessariamente validá-las”, ressaltou.
A “OpenAI” anunciou que está trabalhando em estreita colaboração com médicos e pesquisadores para descobrir como o “ChatGPT” responde a esses momentos críticos. A empresa também afirmou que está desenvolvendo ferramentas para orientar as pessoas na direção certa em tempos de crise.
Se você ou alguém que você conhece precisar de ajuda, pode falar com à “Suicide & Crisis Lifeline”, ligando ou enviando uma mensagem de texto para o 988, ou pode conversar online.
Esta matéria é um oferecimento da Assureline Insurance