O que a técnica está fazendo para ajudar na prevenção do suicídio

Embora não seja possível prevenir todo suicídio, há muitas coisas que podem ajudar a diminuir o risco. E algumas delas são tão próximas quanto seu smartphone.

Sistemas de saúde, empresas de tecnologia e instituições de pesquisa estão explorando como eles podem ajudar na prevenção de suicídios. Eles estão procurando aproveitar a tecnologia em geral - e a inteligência artificial (IA) em particular - para capturar sinais sutis de risco de suicídio e alertar um humano para intervir.

"A tecnologia, embora não esteja sem seus desafios, oferece oportunidades incríveis", diz Rebecca Bernert, PhD, diretora e fundadora do Laboratório de Pesquisa em Prevenção de Suicídio da Escola de Medicina da Universidade de Stanford em Palo Alto, CA.

Por exemplo, Bernert diz que se a IA pode sinalizar pacientes em risco com base em seus registros de saúde, seus médicos de atendimento primário poderiam estar melhor preparados para ajudá-los. Embora os profissionais de saúde mental sejam especialmente treinados para isso, estudos mostram que entre as pessoas que morrem por suicídio, cerca de 45% vêem seu médico de cuidados primários em seu último mês de vida. Apenas 20% consultam um profissional de saúde mental.

Aqui estão alguns dos avanços tecnológicos que estão em desenvolvimento ou que já estão acontecendo.

Dicas de sua voz

Pesquisadores do Worcester Polytechnic Institute em Worcester, MA, estão construindo um programa baseado em IA chamado EMU (Early Mental Health Uncovering) que extrai dados de um smartphone para avaliar o risco de suicídio do usuário do telefone.

Esta tecnologia ainda está em desenvolvimento. Ela pode ter o potencial de se tornar parte de um aplicativo de saúde que você poderia baixar para o seu telefone - talvez por sugestão de seu provedor de serviços de saúde.

Depois que você conceder todas as permissões necessárias, o aplicativo implantaria IA para monitorar seu risco de suicídio através de seu telefone. Entre os recursos incluídos está a opção de falar no analisador de voz do aplicativo, usando um script fornecido ou autorizando o aplicativo a gravar segmentos de chamadas telefônicas. O aplicativo pode detectar recursos sutis na voz que podem indicar depressão ou pensamentos suicidas.

"Existem características conhecidas da voz que os seres humanos não podem detectar, mas que a IA pode detectar porque foi treinada para fazê-lo em grandes conjuntos de dados", diz o psicólogo Edwin Boudreaux, PhD. Ele é o vice-presidente de pesquisa do Departamento de Medicina de Emergência da UMass Chan Medical School.

"Ele pode pegar a voz e todas essas outras fontes de dados e combiná-las para fazer uma previsão robusta sobre se seu humor está deprimido e se você teve ideações suicidas", diz Boudreaux, que não tem nenhuma participação financeira na empresa que faz este aplicativo. "É como uma biópsia telefônica".

Dados de smartphones, com a permissão do usuário, poderiam ser usados para enviar alertas aos próprios usuários do telefone. Isto poderia levá-los a buscar ajuda ou rever seu plano de segurança. Ou talvez pudesse alertar o provedor de serviços de saúde da pessoa.

Os aplicativos atualmente não requerem aprovação do governo para apoiar suas reivindicações, portanto, se você estiver usando qualquer aplicativo relacionado à prevenção do suicídio, converse com seu terapeuta, psiquiatra ou médico.

Compartilhar conhecimentos especializados

O Google trabalha para oferecer às pessoas em risco de suicídio recursos como a National Suicide Prevention Lifeline. Também compartilhou sua experiência em IA com o The Trevor Project, uma linha direta para suicídios LGBTQ, para ajudar a organização a identificar as pessoas em maior risco e conseguir ajuda mais rapidamente.

Quando alguém em crise entra em contato com o Projeto Trevor por texto, bate-papo ou telefone, ele responde a três perguntas antes de ser conectado com o suporte de crise. O Projeto Trevor usa computadores para identificar palavras nas respostas às perguntas de entrada que estavam ligadas ao maior risco, o mais iminente.

Quando pessoas em crise usam algumas dessas palavras-chave para responder às perguntas de entrada do Projeto Trevor, sua chamada se desloca para a frente da fila para receber apoio.

Uma Cultura de Resistência

Você já deve saber que os suicídios são um risco particular entre os profissionais militares e policiais. E você sem dúvida já ouviu falar dos suicídios entre os profissionais de saúde durante a pandemia.

Mas há outro campo com um alto índice de suicídio: a construção civil.

De acordo com o CDC, os trabalhadores da construção civil têm duas vezes mais probabilidade de morrer por suicídio do que pessoas em outras profissões e cinco vezes mais probabilidade de morrer por suicídio do que por um ferimento relacionado ao trabalho. Altas taxas de lesões físicas, dor crônica, instabilidade no trabalho e isolamento social devido a viagens de longa distância para empregos, todos podem ter um papel importante.

A JobSiteCare, uma empresa de telesaúde projetada para trabalhadores da construção civil, está pilotando uma resposta de alta tecnologia ao suicídio na indústria. A empresa oferece atendimento de tele-saúde aos trabalhadores da construção civil feridos em canteiros de obras através de comprimidos armazenados em um armário no trailer médico no local. Agora está expandindo esse cuidado para incluir cuidados de saúde mental e resposta a crises.

Os trabalhadores podem obter ajuda em segundos através do comprimido no trailer. Eles também têm acesso a uma linha direta 24/7 e atendimento contínuo de saúde mental através da tele-saúde.

"A telesaúde tem sido uma das grandes histórias de sucesso na telemedicina", diz Dan Carlin, MD, fundador e CEO da JobSiteCare. "Na construção, onde seu trabalho está levando você de lugar em lugar, a telemedicina o seguirá para onde quer que você vá".

Aplicação do Plano de Segurança de Suicídios

O aplicativo Jaspr tem como objetivo ajudar as pessoas após uma tentativa de suicídio, começando quando elas ainda estão no hospital. É assim que funciona.

Um provedor de saúde começa a usar o aplicativo com o paciente no hospital. Juntos, eles elaboram um plano de segurança para ajudar a evitar uma futura tentativa de suicídio. O plano de segurança é um documento que um provedor de saúde desenvolve com um paciente para ajudá-los a lidar com uma futura crise de saúde mental - e os fatores de estresse que tipicamente desencadeiam seu pensamento suicida.

O paciente faz o download do aplicativo doméstico do Jaspr. Eles podem acessar seu plano de segurança, ferramentas para lidar com uma crise com base nas preferências delineadas em seu plano de segurança, recursos para ajuda durante uma crise e vídeos encorajadores de pessoas reais que sobreviveram a uma tentativa de suicídio ou perderam um ente querido para o suicídio.

E se a IA se enganar?

Há sempre uma chance de que a IA julgue erroneamente quem está em risco de suicídio. É apenas tão bom quanto os dados que alimentam seu algoritmo.

Um "falso positivo" significa que alguém é identificado como estando em risco - mas não está. Neste caso, isso significaria notar incorretamente que alguém está correndo risco de suicídio.

Com um "falso negativo", alguém que está em risco não é sinalizado.

O risco de dano tanto por falsos negativos quanto por falsos positivos é muito grande para usar a IA para identificar o risco de suicídio antes que os pesquisadores tenham certeza de que ela funciona, diz Boudreaux.

Ele observa que o Facebook usou a IA para identificar usuários que possam estar em risco iminente de suicídio.

Meta, a matriz do Facebook, não respondeu ao pedido do médico para comentar seu uso da IA para identificar e tratar o risco de suicídio entre seus usuários.

De acordo com seu site, o Facebook permite que os usuários informem sobre postagens, incluindo vídeos ao vivo no Facebook, que podem indicar que uma pessoa está em uma crise relacionada ao suicídio. A IA também escaneia as postagens e, quando considerado apropriado, torna a opção para os usuários denunciarem a postagem mais proeminente. Independentemente de os usuários denunciarem uma postagem, a IA também pode escanear e sinalizar postagens e vídeos ao vivo no Facebook. Os membros da equipe do Facebook analisam as postagens e vídeos sinalizados pelos usuários ou pela IA e decidem como lidar com eles.

Eles podem contatar a pessoa que criou a postagem com conselhos para alcançar um amigo ou uma linha de ajuda de crise, como a National Suicide Prevention Lifeline, que este mês lançou seu número 988 de três dígitos. Os usuários podem contatar as linhas de crise diretamente através do Facebook Messenger.

Em alguns casos, quando um post indica um risco urgente, o Facebook pode contatar o departamento de polícia próximo ao usuário do Facebook em potencial crise. Um policial é então despachado para a casa do usuário para uma verificação de bem-estar.

A plataforma de mídia social TikTok, cujos representantes também se recusaram a ser entrevistados para este artigo, mas forneceram informações de fundo via e-mail, segue protocolos similares. Estes incluem a conexão dos usuários com as linhas diretas de crise e a comunicação de cargos urgentes às autoridades policiais. A TikTok também fornece números de linhas diretas e outros recursos de crise em resposta a buscas relacionadas a suicídios na plataforma.

Preocupações de privacidade

A possibilidade de plataformas de mídia social entrarem em contato com a polícia atraiu críticas de especialistas em privacidade, bem como de especialistas em saúde mental como Boudreaux.

"Esta é uma idéia terrível", diz ele. "O Facebook a implantou sem que os usuários soubessem que a IA estava operando em segundo plano e quais seriam as conseqüências se a IA identificasse algo". Enviar um policial só pode agravar a situação, particularmente se você for uma minoria". Além de ser embaraçoso ou potencialmente traumatizante, desencoraja as pessoas de compartilhar porque coisas ruins acontecem quando você compartilha".

A preocupação com a privacidade é o motivo pelo qual o algoritmo que poderia enviar mensagens do Facebook para as autoridades policiais é proibido na União Européia, de acordo com o Journal of Law and the Biosciences.

As consequências para as pessoas falsamente identificadas como de alto risco, explica Boudreaux, dependem de como a organização se envolve com a pessoa supostamente em situação de risco. Uma chamada potencialmente desnecessária de um profissional de saúde pode não fazer o mesmo mal que uma visita desnecessária da polícia poderia fazer.

Se você ou alguém que você conhece está pensando em suicídio, você pode entrar em contato com a National Suicide Prevention Lifeline. Nos Estados Unidos, você pode ligar, enviar uma mensagem de texto ou bater papo 988 para chegar à National Suicide Prevention Lifeline a partir de 16 de julho de 2022. Você também pode ligar para a Linha de Vida em seu número original, 800-273-8255. A ajuda está disponível 24 horas por dia, 7 dias por semana, em inglês e espanhol.

 

 

 

Hot