Inteligência Artificial, Questão Real
Smart Box ou Real Boy?
Por Neil Osterweil Do Arquivo Médico
24 de setembro de 2001 -- Se você criar uma máquina capaz de raciocinar independentemente, você já criou vida? Você tem uma responsabilidade para com essa vida ou você simplesmente montou outra peça de hardware inteligente que será tornada obsoleta pela próxima coisa nova?
No filme de Steven Spielberg-Stanley Kubrick AI (como na inteligência artificial), um fabricante de robôs cria David, um garoto sintético que está programado para amar. Seu dono humano inicia um programa que fixa irreversivelmente os afetos do cyberkid em seu dono.
Mas ao projetar e construir David, o fabricante de robôs criou outro monstro de Frankenstein. O aparentemente autoconsciente "mecha" (abreviação de "mecânico"), dói por amor de sua "mãe" humana e anseia, como Pinóquio, ser feito um menino "real".
O filme levanta questões filosóficas intrigantes e preocupantes sobre o que significa ser humano, ter um senso de si mesmo, e ser um ser único, independente, digno de respeito e direitos perante a lei.
Quando David, agindo para se salvar das provocações e ameaças dos meninos de carne e osso, acidentalmente fere o filho de seus proprietários, ele é abandonado no bosque e deixado para se defender. Ele se vê na companhia de robôs malucos, quebrados e meio formados, que permanecem "vivos" ao procurarem peças de reposição em uma lixeira.
Mas só porque David chora e implora para ficar com a mulher que ele chama de mamãe, e foge quando é perseguido por caçadores de recompensas, seus instintos de terror e autopreservação são genuínos, ou são meramente uma brilhante simulação mecânica e eletrônica de como um menino de verdade responderia? Será que isso importa?
Acho, portanto, que estou?
Nick Bostrom, PhD, professor de filosofia na Universidade de Yale em New Haven, Conn., diz que isso é importante.
"Acho que assim que uma entidade se torna senciente - capaz de experimentar dor ou prazer - ela recebe algum tipo de status moral, apenas por ser capaz de sofrer", diz Bostrom ao médico. "Mesmo que os animais não tenham direitos humanos - e a maioria de nós pensa que é aceitável usá-los para pesquisas médicas - ainda há limites. Não permitimos que as pessoas torturem os animais sem motivo algum".
Frank Sudia, JD, tem critérios ligeiramente diferentes. Ele diz que a capacidade de fazer e agir sobre uma ou mais escolhas entre várias opções, e a capacidade de decidir qual das milhares de possibilidades é a melhor para usar em uma situação imprevista, pode ser uma definição básica e funcional do que significa "ser".
"Se a máquina tem o poder da autoprodução - se ela pode buscar seus próprios objetivos ou mesmo escolher seus próprios objetivos a partir de alguma lista de objetivos que lê no jornal [e decide], 'Oh, eu quero me parecer com a Madonna',' - eu acho que esta capacidade de escolher, guiada por mais que seja, é indistinguível do que nós consideramos ser nosso senso de identidade", diz ele ao médico.
Sudia é uma consultora de segurança de comércio eletrônico baseada em São Francisco e autodescrita ética, cientista e pensadora sobre sistemas inteligentes. Ele gosta do papel do projetista de sistemas de inteligência artificial ou do fabricante de robôs, ao do pai de um adolescente.
"O adolescente começa a ter uma boa variedade de respostas [mas] não um sistema de restrição realmente grande", diz ele. "Você está tentando formar o caráter deles de tal forma que eles farão escolhas razoáveis que serão socialmente benéficas para eles". Assim, você brinca de Deus em grande medida com seus filhos". Esqueça de formá-los em Mozart - você tenta formá-los em algo que possa sobreviver fazendo com que eles tenham um eu".
Eu faço escolhas, portanto eu sou...
A capacidade de fazer escolhas sozinha não sugere autonomia, aponta Bostrom. O grande mestre de xadrez Gary Kasparov foi derrotado pelo computador Deep Blue. Ele pode escolher entre milhões de possíveis jogadas de xadrez em uma determinada situação, mas basta tentar mandá-lo para o outro lado da rua para comprar um litro de leite.
"Para conceder autonomia a um humano, necessitamos de uma grande quantidade deles", diz Bostrom. "As crianças não têm a autonomia total, embora possam fazer mais do que escolher jogadas de xadrez ou fazer escolhas simples como essa. Isso requer uma concepção de seu bem-estar e um plano de vida e esse tipo de coisa. Não creio que qualquer máquina que exista hoje na Terra tenha nem sentimento nem autonomia".
Para podermos dizer que uma máquina é consciente de si mesma e, portanto, é um ser consciente, precisamos primeiro saber o que é estar consciente. Pelo menos uma mente humana afirma que quando se trata da natureza da consciência, não temos a menor idéia.
Margaret Boden, PhD, professora de filosofia e psicologia na Universidade de Sussex, Inglaterra, diz ao médico que pode muito bem ser possível criar um robô que parece ser um ser autônomo e consciente de si mesmo.
"Em princípio, poderia haver uma simulação computadorizada de tal criatura, porque tudo que a mente humana faz depende do cérebro humano", diz ela. "Mas se você me pergunta se aquele robô estaria consciente, eu diria que nem sabemos o que é dizer que estamos conscientes".
Mesmo que suponhamos, como Spielberg e Kubrick, que é possível criar um robô capaz de agir no seu próprio interesse e de sentir dor, perda e solidão, será que vamos tratá-lo como um de nós, ou apenas como mais uma torradeira inteligente?
Eu compro mercearias, portanto eu sou...
Se pudermos ser manipulados emocionalmente por um filme - outra forma de vida simulada - ou se gostarmos da versão de Las Vegas de Paris, então certamente poderemos ser afetados pelo choro de um bebê robô ou pelas súplicas de um menino artificial como David em AI. E é essa interface -- a caixa que contém o hardware (um cérebro robótico) e a forma como o software interage com o usuário que pode fazer toda a diferença.
"Se uma IA tivesse que parecer um cão, talvez tivesse os direitos de um cão. ... Se tivesse que se parecer com Einstein, talvez tivesse os direitos de um Einstein", diz Sudia.
É certamente possível projetar um sistema inteligente que poderia, digamos, fazer as compras de mercearia e pagar no registro para nós. Para isso, não precisa parecer um humano, diz Ian Horswill, PhD, professor assistente de ciência da computação na Northwestern University em Evanston, Illinois.
"Você pode ter sistemas que para todos os efeitos são inteligentes - pelo menos muito mais inteligentes que lápis ou processadores de texto - mas não têm as ... características da existência humana", diz Horswill ao médico.
Não há nenhuma razão, por exemplo, para que um robô de compras tenha que se parecer com seu tio Chuck. Poderia ser uma caixa registradora rolante -- uma simples caixa com tela, braços de pegar para tirar caixas de flocos de milho da prateleira, e uma gaveta para segurar o troco. Mas ainda seria um "ele" e não um "ele" ou "ela", sustenta Horswill.
"Você poderia construir uma máquina com um corpo parecido com o do comandante Data e dar-lhe emoções, e então remover seu cérebro e colocá-lo em um robô de lata de lixo com uma gaveta de dinheiro e só permitir que ele se comunique em código Morse", diz ele, "Meu palpite é que a maioria das pessoas estaria muito mais disposta a desligar o robô de lata de lixo do que o comandante Data".