Os sistemas de IA podem estar errados e não o admitir

Para construir um sistema de inteligência artificial em que os humanos possam confiar responsabilidades de vida ou de morte, as máquinas terão de desenvolver uma característica muito humana: Admitindo os seus erros.

Os sistemas de IA podem estar errados e não o admitir

Por Tara Haelle

5 de Abril de 2022 C Sistemas de inteligência artificial estão a ser construídos para ajudar a diagnosticar doenças, mas antes de podermos confiar-lhes responsabilidades de vida ou morte, a IA terá de desenvolver uma característica muito humana: Admitir erros.

E a verdade é: eles ainda não o podem fazer.

Hoje em dia, a IA pode mais frequentemente dar a resposta correcta a um problema do que perceber que cometeu um erro, segundo investigadores da Universidade de Cambridge e da Universidade de Oslo.

Esta falha fundamental, relatam eles, está enraizada num problema de matemática.

Algumas afirmações matemáticas não podem ser provadas como verdadeiras ou falsas. Por exemplo, a mesma matemática que a maioria de nós aprendeu na escola para encontrar respostas a perguntas simples e complicadas não pode então ser utilizada para provar a nossa consistência na sua aplicação.

Talvez tenhamos dado a resposta certa e talvez não o tenhamos feito, mas precisávamos de verificar o nosso trabalho. Isto é algo que os algoritmos informáticos, na sua maioria, não podem fazer, ainda assim.

É um paradoxo matemático identificado pela primeira vez pelos matemáticos Alan Turing e Kurt G?del, no início do século XX, que assinala alguns problemas matemáticos que não podem ser provados.

O matemático Stephen Smale enumerou esta falha fundamental de IA entre os 18 problemas matemáticos não resolvidos do mundo.

Com base no paradoxo matemático, os investigadores, liderados por Matthew Colbrook, PhD, do Departamento de Matemática Aplicada e Física Teórica da Universidade de Cambridge, propuseram uma nova forma de categorizar as áreas problemáticas da IA.

Nos Anais da Academia Nacional de Ciências, os investigadores mapeiam situações em que as redes neurais C da IA modeladas após a rede de neurónios C do cérebro humano podem realmente ser treinadas para produzir resultados mais fiáveis.

É importante um trabalho precoce necessário para tornar os sistemas de IA mais inteligentes e seguros.

Hot