(Tenho a sensação de que o debate público sobre a inteligência artificial está manifestamente atrasado face ao ritmo com que ela está a ser aplicada. As inúmeras aplicações em curso e o esforço de investigação para liderar o processo avança de facto mais rapidamente que as nossas dúvidas conceptuais, éticas ou morais. E isso é preocupante, pois significa que a inteligência artificial viverá um longo período sem regulação. Nos últimos tempos, percorrendo as principais notícias sobre o tema, apercebi-me de uma utilização que me perturbou dado o seu profundo significado sobre o estado societal da nossa civilização urbana. Rezam as crónicas que a IA está a ser utilizada por muita gente como assistente psicológico-emocional à falta de melhor interlocutor ou porque o estado das políticas de saúde mental estão pelas ruas da amargura. Das profissões que julgaria ameaçadas pelo incremento de utilização da IA os psicólogos e psiquiatras seriam as últimas a admitir relativamente às quais tal pudesse acontecer, mas as notícias são inequívocas – muita gente recorre já às diferentes aplicações gratuitas ou de aprofundamento pago para dialogar sobre os seus estados psicológicos e emocionais. Nas minhas leituras de esplanada de verão dei-me conta de um artigo no New York Times da jornalista tecnológica Kashmir Hill com uma reportagem realizada na Califórnia sobre um jovem de 16 anos, Adam Raine, que recentemente se suicidou. Foi, entretanto, recolhida evidência que o estudante californiano, além de utilizar o Chat GPT para as suas tarefas escolares terá começado a interagir com a aplicação no âmbito da sua trágica decisão de colocar um fim à sua vida.)
A principal evidência recolhida não foi obtida, como seria previsível, através da consulta das suas redes sociais, mas antes de registos da interação do jovem com o Chat GPT designadamente sobre um tema aterrador – condições concretas de suicídio, designadamente por enforcamento, foram discutidas ao longo de meses, pressupondo-se que Adam Raine encontrou um subterfúgio qualquer para superar protocolos de advertência e de aconselhamento psicológico que constam dos manuais de utilização daquela aplicação de IA. A evidência é perturbadora sobretudo porque foram encontrados registos de uma primeira tentativa falhada de enforcamento realizada por Raine, através da mostra de fotografias do seu pescoço com marcas visíveis sobre a tentativa falhada.
É obvio que a evidência recolhida identificou inúmeros avisos emitidos pelo Chat GPT para Raine encontrar apoio para discutir os seus problemas, tais como linhas de ajuda ou profissionais especializados. Foi também possível identificar uma série diversificada de temas sobre os quais o jovem dialogava com a aplicação, sendo evidente que ela se transformara no amigo de confiança com o qual os jovens aceitam discutir temas mais pessoais, entre as quais estava a utilização de literatura da mais obscura e relacionada com a prática do suicídio.
Quer isto significar que a influência da IA sobre a saúde mental dos seus utilizadores, designadamente os mais jovens, está já muito mais avançada do que qualquer investigação existente ou em curso sobre os seus efeitos nessa matéria. Claro que o registo de conversas com o Chat GPT que precederam atos de suicídio são ainda residuais, mas o que aprece evidente é que a aplicação não está ainda coerentemente preparada com mecanismos de alerta para sinalizar utilizações indevidas como esta que precedeu o suicídio de Adam Raine.
Resumindo, se tinha a perceção de que o debate público sobre IA está manifestamente atrasado face ao ritmo e variedade de aplicação da ferramenta, este caso transformou a perceção em convicção.
É de alienação e não de IA que devemos falar, mas também de isolamento social profundo que o suicídio de Adam Raine representa.

Sem comentários:
Enviar um comentário