A INTELIGÊNCIA ARTICICIAL


Os seres humanos podem transferir algumas de suas características para a IA, mas ela não pode gerá-las sem ajuda

Quatro qualidades humanas que a inteligência artificial não consegue copiar

A inteligência artificial pode fazer muitas coisas melhor do que nós, mas não consegue copiar certas características humanas

Há centenas de anos, o ser humano vem estudando e tentando elucidar o que o distingue dos animais. A Biologia, a Sociologia, a Antropologia e até a Filosofia se alimentam desta questão existencial. O próprio Direito já estabeleceu que certos grupos de animais, em certas circunstâncias, podem ser considerados “pessoas jurídicas”.

E a inteligência artificial? Terá ela direitos? Terá direito... à vida?

O desenvolvimento hipersônico da inteligência artificial fez surgir um novo elemento — talvez O Quinto Elementocomo no filme de 1997 — que não é feito nem de terra, nem de fogo, nem de ar e nem de água. Trata-se da antivida — a inteligência artificial que obriga a humanidade a confrontar-se com um superpoder criado por ela própria.

A inteligência artificial supera sem pestanejar o teste de Turing, a clássica ferramenta de avaliação da capacidade das máquinas de exibir comportamento inteligente.

Quase sempre, a emoção era o fator humano que fazia com que os robôs e as máquinas caíssem na armadilha e se revelassem, embora as lágrimas na chuva do androide replicante Roy Batty sejam as mais emocionantes da história da ficção científica no cinema.

Mas o que irá acontecer a partir de agora? O que será humano quando a inteligência artificial ocupar tudo? Que teste iremos inventar para detectá-la?

1. A geração espontânea

Um dos aspectos notáveis que separam os seres manos da inteligência artificial é a geração espontânea de ações e conhecimento – o impulso.

O ser humano é um criador espontâneo do todo. Uma pessoa pode acordar algum dia e imaginar uma ideia, uma história ou um poema, um pensamento criativo.

A partir da sua história pessoal, o ser humano cria novos conhecimentos, novas histórias e novas experiências. E não existe Inteligência artificial que gere conhecimento ou realize ações espontaneamente.

Em um artigo publicado na revista Nature, os cientistas Miguel Aguilera e Manuel Bedia, da Universidade de Zaragoza, na Espanha, concluíram que é possível chegar a uma inteligência que gere mecanismos para adaptar-se às circunstâncias.

2. A regra da ética

O que nos leva à segunda grande diferença: a ética.

A inteligência artificial e as máquinas, intrinsecamente, não têm ética. É preciso incuti-la. Elas seguem apenas parâmetros pré-estabelecidos, regras claras e precisas do que precisa ser feito.

O ser humano dispõe de um regulamento (constituição, leis, religião etc.) sobre o que deve fazer e também tem claro o que não deve fazer. Mas a ética é mais do que um regulamento; ela vai além da simples orientação.

A ética é, nada mais, nada menos, o discernimento entre o bem e o mal. Ela é tão importante na nossa espécie que já se descobriu que bebês de cinco meses fazem julgamentos morais e agem de acordo com eles.

Quem tem ética são as pessoas que programam as máquinas e a inteligência artificial.

Uma máquina não é boa, nem ruim. Ela é eficaz. Ela faz o que a mandam fazer e para o que foi programada.

É claro que é possível programar ética. O físico espanhol José Ignacio Lattore explica esta questão no seu livro Ética para Máquinas. Para ele, “a inteligência artificial irá se sentar no Conselho de Ministros”.

Atualmente, o ChatGPT está programado para não difundir conteúdo sensível e não oferece acesso à deep web. Por isso, é possível programar com base nas ideias de ser e do que deve ser. No entanto, à medida que o tempo passa e os parâmetros éticos se modificam, eles devem ser corrigidos para que a base normativa da inteligência artificial vá ao encontro à do ser humano.

Além dos sentimentos, a intenção e a espontaneidade são outras características humanas que a IA aparentemente não conseguirá copiar, segundo os especialistas



3. A intenção só pode ser humana

Outro aspecto importante é a intenção, e a intenção das ações humanas está intrinsecamente relacionada com a moralidade.

No seu livro Intenção, a filósofa britânica Elizabeth Anscombe (1919-2001) defende que a intenção não pode se restringir a meros desejos ou estados psicológicos internos.

Para ela, a intenção é uma característica essencial da ação e está intrinsecamente relacionada com a responsabilidade moral. Por isso, não é possível separar a intenção da ação propriamente dita, determinando se um ato é moralmente correto ou incorreto.

Elizabeth Anscombe critica as teorias éticas centralizadas apenas nas consequências das ações, sem considerar a intenção que as antecipa.

Por não possuir ética e moral, a inteligência artificial não possui intenção. A intenção continua sendo restrita ao programador.

Mas cada um dos três aspectos listados até aqui exige páginas e mais páginas para esclarecimento.

Isso poderia ser similar à ação espontânea, mas está distante de ser um ato produzido pela vontade. Toda ação realizada pela inteligência artificial é projetada e programada por uma pessoa.

Por isso, improvisar em uma banda de jazz continuará sendo privilégio dos seres humanos.

4. Sem remoer-se e sem problemas psicológicos

É quase provocador perguntar quais são as diferenças e não as similaridades.

As diferenças são claras. A IA não tem experiências, nem história. Não tem psicologia, nem problemas psicológicos. Não fica remoendo suas ações, o que é um aspecto fundamental da sua separação da ética e da moral.

A IA não ama, nem é amada. Não sofre, nem sente dor. Não tem opinião própria, porque nada é próprio dela.

Se o ChatGPT sair de moda (o que duvido) e não for mais consultado, sua existência é inútil. Ele só existe se for útil para o ser humano. Não tem identidade – sua identidade é uma construção humana.

A IA também pode ser destrutiva. Ela pode não só eliminar milhões de empregos em todo o mundo, mas também causar uma posição reduzida no mundo produtivo, sem falar nas especulações apocalípticas da ficção científica.

Por fim, tudo depende do próprio ser humano. A decisão de utilizar a inteligência artificial como ferramenta construtiva ou destrutiva está em nossas mãos.

Mas, se alguém, no futuro próximo, duvidar da sua natureza, vamos incluir na sua alma sintética uma armadilha – um piscar de olhos que nos recorde, em caso de necessidade, que estamos tratando com um elemento não humano: um quinto elemento.

* Agustín Joel Fernandes Cabal é pesquisador em pós-doutorado em filosofia da Universidade de Santiago de Compostela, na Espanha.

Este artigo foi publicado originalmente no site de notícias acadêmicas The Conversation e republicado sob licença Creative Commons. Leia aqui a versão original em espanhol.



Comentários

  1. A IA pode superar a inteligência humana e se tornar consciente?

    Quase todos os sistemas de IA excedem nossa inteligência, mas isso acontece apenas em um determinado campo.

    A maioria das IAs que temos são de nicho estreito: capazes de ter um nível muito alto de inteligência em um campo muito específico. Por exemplo, a máquina AlphaGo (que aprendeu a jogar Go, um jogo de tabuleiro) pode vencer o campeão mundial de Go, mas precisa ser ensinada a jogar outros jogos, como o xadrez, para poder vencer uma partida.

    Elas podem ser ótimas para diagnosticar um tipo de câncer, mas não funcionam como clínicos gerais, porque o conhecimento necessário é mais amplo.

    E sobre a consciência... É possível, entre aspas, modelá-la.

    Existem robôs que podem modelar sentimentos e podem parecer ter consciência real, mas sequer sabemos como certos processos de consciência acontecem nos humanos, então é algo muito complexo e vasto.

    Embora existam ferramentas como os chats, que parecem mais transversais por serem baseadas na linguagem, na realidade o que essas máquinas fazem é prever a próxima palavra de um texto. São buscadores muito sofisticado, mas que não são capazes de raciocinar profundamente porque não têm consciência. É como um papagaio treinado e muito inteligente.

    ResponderExcluir
  2. A IA pode ser regulada ou é como enxugar gelo? Já vimos o que aconteceu com a internet e a 'deep web', por exemplo.

    Há muito que a União Europeia se preocupa com isto. Estamos indo devagar, mas há uma proposta na mesa.

    As conversas sobre esse tópico começaram em 2018, quando foi criado um grupo de especialistas em inteligência artificial de alto nível que produziu diretrizes para uma inteligência artificial confiável. Naquele momento já se falava de uma supervisão humana da IA ​​e aspectos como sustentabilidade, ausência de viés ou segurança foram analisados.

    Por exemplo, a supervisão humana é um dos pontos básicos contemplados nas regulamentações europeias. Isso significa que qualquer sistema de inteligência artificial sempre deverá ter um supervisor humano durante todo o processo de iniciação da operação, coleta dos dados e nos setores por trás de sua aplicação.

    Fomos pioneiros na UE e agora vemos empresas de fora do bloco, dos Estados Unidos especialmente, insistindo na necessidade dessa regulamentação.

    É algo que deve ser feito mundialmente e estamos trabalhando nisso. O importante é dar o primeiro passo.

    Tudo pode ser regulado? A resposta é complexa porque a IA é complexa e é claro que não existe risco zero aqui ou em qualquer lugar. Por exemplo, nós regulamos e fazemos leis de trânsito, mas isso não evita acidentes.

    A regulamentação global seria desejável, mas é algo difícil de alcançar. É só olharmos o protocolo de Kyoto, por exemplo... Nem todos os países assinam e não há como forçá-los a fazê-lo. Para além da União Europeia não é fácil convencer os outros grandes centros de IA do mundo, como China e Estados Unidos, de que a regulamentação é necessária.

    ResponderExcluir
  3. Ultimamente vimos muitas manchetes e especialistas dizendo que a IA pode levar à extinção da humanidade... É isso mesmo?

    É difícil dizer até onde vai a inteligência artificial, mas é preciso ter sempre um jeito de interromper ou desligar as máquinas.

    Elas estão sendo projetadas por pessoas... Assim como as pessoas estão trabalhando com energia nuclear. Então acho importante detectar se há algum problema e definir padrões de segurança e aplicação.

    Mas na minha opinião, o que está acontecendo com a IA aconteceu também com os carros quando eles apareceram. A princípio pensava-se que seriam extremamente perigosos, que poderiam matar pessoas e que a velocidade que alcançavam poderia desnaturar as proteínas do nosso corpo. Hoje sabemos que não é assim e temos a tecnologia sob nosso controle, temos regulamentações e etc.

    ResponderExcluir

Postar um comentário