Os modelos de Inteligência Artificial podem ajudar a prever e prevenir doenças. Mas a investigação recente destaca os desafios que enfrentam ao fornecerem insights que funcionam para todos.
Medicina, IA, e Bias: Será que os maus dados prejudicam a boa técnica?
Por Natalie Sabin
18 de Maio de 2022 C Imagine entrar na Biblioteca do Congresso, com os seus milhões de livros, e ter o objectivo de os ler a todos. Impossível, certo? Mesmo que pudesse ler cada palavra de cada obra, não seria capaz de recordar ou compreender tudo, mesmo que passasse uma vida inteira a tentar.
Agora digamos que de alguma forma tinha um cérebro super-poderoso capaz de ler e compreender toda essa informação. Ainda teria um problema: não saberia o que não estava coberto naqueles livros C que perguntas não responderam, cujas experiências não foram tidas em conta.
Do mesmo modo, os investigadores de hoje têm uma quantidade assombrosa de dados a pesquisar. Todos os estudos revistos pelos pares do mundo contêm mais de 34 milhões de citações. Milhões de outros conjuntos de dados exploram como coisas como o trabalho de sangue, história médica e familiar, genética, e traços sociais e económicos afectam os resultados dos pacientes.
A inteligência artificial permite-nos utilizar mais deste material do que nunca. Os modelos emergentes podem organizar com rapidez e precisão enormes quantidades de dados, prevendo potenciais resultados dos pacientes e ajudando os médicos a fazer chamadas sobre tratamentos ou cuidados preventivos.
A matemática avançada é uma grande promessa. Alguns algoritmos de instruções C para resolver problemas C podem diagnosticar o cancro da mama com mais precisão do que os patologistas. Outras ferramentas de IA já estão em uso em ambientes médicos, permitindo aos médicos consultar mais rapidamente o historial médico de um paciente ou melhorar a sua capacidade de analisar imagens radiológicas.
Mas alguns especialistas na área da inteligência artificial na medicina sugerem que, embora os benefícios pareçam óbvios, os preconceitos menos notados podem minar estas tecnologias. De facto, advertem que os preconceitos podem levar a uma tomada de decisão ineficaz ou mesmo prejudicial nos cuidados aos doentes.
Novas ferramentas, os mesmos preconceitos?
Enquanto muitas pessoas associam preconceitos com preconceitos pessoais, étnicos ou raciais, amplamente definidos, o preconceito é uma tendência a inclinar-se numa determinada direcção, seja a favor ou contra uma coisa em particular.
Num sentido estatístico, o enviesamento ocorre quando os dados não representam completa ou precisamente a população que se pretende modelar. Isto pode acontecer por ter dados pobres no início, ou pode ocorrer quando dados de uma população são aplicados a outra por engano.
Ambos os tipos de enviesamento estatístico C e racial/étnico C existem na literatura médica. Algumas populações têm sido mais estudadas, enquanto outras estão subrepresentadas. Isto levanta a questão: Se construirmos modelos de IA a partir da informação existente, estaremos apenas a passar velhos problemas para novas tecnologias?
Bem, isso é definitivamente uma preocupação, diz David M. Kent, MD, director do Predictive Analytics and Comparative Effectiveness Center no Tufts Medical Center.
Num novo estudo, Kent e uma equipa de investigadores examinaram 104 modelos que prevêem modelos de doenças cardíacas C concebidos para ajudar os médicos a decidir como prevenir a doença. Os investigadores queriam saber se os modelos, que já tinham sido executados com precisão, fariam o mesmo quando testados num novo conjunto de pacientes.
As suas descobertas?
Os modelos fizeram pior do que as pessoas esperariam, diz Kent.
Nem sempre foram capazes de distinguir entre pacientes de alto risco e pacientes de baixo risco. Por vezes, as ferramentas sobrestimavam ou subestimavam o risco de doença dos pacientes. De forma alarmante, a maioria dos modelos tinha o potencial de causar danos se utilizados num contexto clínico real.
Por que razão havia tanta diferença no desempenho dos modelos em relação aos seus testes originais, em comparação com o presente? Viés estatístico.
Os modelos preditivos não generalizam, assim como as pessoas pensam que generalizam, diz Kent.
Quando se move um modelo de uma base de dados para outra, ou quando as coisas mudam com o tempo (de uma década para outra) ou espaço (de uma cidade para outra), o modelo não consegue captar essas diferenças.
Isso cria um enviesamento estatístico. Como resultado, o modelo já não representa a nova população de pacientes, e pode não funcionar tão bem.
Isto não significa que a IA não deva ser utilizada nos cuidados de saúde, diz Kent. Mas mostra porque é que a supervisão humana é tão importante.
O estudo não mostra que estes modelos são especialmente maus, diz ele. Realça uma vulnerabilidade geral dos modelos que tentam prever o risco absoluto. Mostra que é necessária uma melhor auditoria e actualização dos modelos.
Mas mesmo a supervisão humana tem os seus limites, como os investigadores advertem num novo documento, argumentando a favor de um processo padronizado. Sem um tal enquadramento, só podemos encontrar o preconceito que pensamos procurar, o que eles notam. Mais uma vez, não sabemos o que não sabemos.
Viés na Caixa Negra
A raça é uma mistura de atributos físicos, comportamentais e culturais. É uma variável essencial nos cuidados de saúde. Mas a raça é um conceito complicado, e podem surgir problemas quando se utiliza a raça em algoritmos preditivos. Embora existam diferenças de saúde entre grupos raciais, não se pode assumir que todas as pessoas de um grupo terão o mesmo resultado de saúde.
David S. Jones, MD, PhD, professor de cultura e medicina na Universidade de Harvard, e co-autor de Hidden in Plain Sight C Reconsiderering the Use of Race Correction in Algorithms, diz que muitas destas ferramentas [algoritmos analógicos] parecem estar a dirigir os recursos dos cuidados de saúde para os brancos.
Mais ou menos na mesma altura, os investigadores Ziad Obermeyer, MD, e Eric Topol, MD, estavam a identificar preconceitos semelhantes nas ferramentas de IA.
A falta de diversidade nos estudos clínicos que influenciam os cuidados aos doentes há muito que é uma preocupação. Uma preocupação agora, diz Jones, é que a utilização destes estudos para construir modelos de previsão não só transmite esses preconceitos, como também os torna mais obscuros e mais difíceis de detectar.
Antes do alvorecer da IA, os algoritmos analógicos eram a única opção clínica. Estes tipos de modelos preditivos são calculados à mão em vez de automáticos.
Ao utilizar um modelo analógico, diz Jones, uma pessoa pode facilmente olhar para a informação e saber exactamente que informação do paciente, como raça, foi incluída ou não incluída.
Agora, com as ferramentas de aprendizagem da máquina, o algoritmo pode ser proprietário C, o que significa que os dados são escondidos do utilizador e não podem ser alterados. É uma caixa negra. Isto é um problema porque o utilizador, um prestador de cuidados de saúde, pode não saber que informação do paciente foi incluída, ou como essa informação pode afectar as recomendações de IAs.
Se estamos a utilizar a raça na medicina, ela precisa de ser totalmente transparente para que possamos compreender e fazer juízos fundamentados sobre se a utilização é apropriada, diz Jones. As questões que precisam de ser respondidas são: Como, e onde, usar rótulos de raça para que façam o bem sem fazer mal.
Deve estar preocupado com a IA nos cuidados clínicos?
Apesar da inundação da investigação da IA, a maioria dos modelos clínicos ainda tem de ser adoptada nos cuidados da vida real. Mas se estiver preocupado com o uso de tecnologia ou raça por parte dos seus fornecedores, Jones sugere ser proactivo. Pode perguntar ao seu fornecedor: Existem formas de o seu tratamento para comigo se basear na sua compreensão da minha raça ou etnia? Isto pode abrir o diálogo sobre o prestador de cuidados toma decisões.
Entretanto, o consenso entre os especialistas é que os problemas relacionados com o preconceito estatístico e racial dentro da inteligência artificial na medicina existem e precisam de ser abordados antes de as ferramentas serem amplamente utilizadas.
O verdadeiro perigo é ter toneladas de dinheiro a ser injectado em novas empresas que estão a criar modelos de previsão que estão sob pressão para um bom [retorno do investimento], diz Kent. Isto poderia criar conflitos para divulgar modelos que podem não estar prontos ou suficientemente testados, o que pode piorar a qualidade dos cuidados em vez de melhorar.