E se as máquinas filosofassem melhor que nós?

 

Uma experiência que compara IA e humanos em um dos debates mais profundos da filosofia da ciência.
Num momento em que LLM como ChatGPT já redigem ensaios, passam exames e até compõem músicas, surge uma pergunta que parece saída de ficção científica filosófica:

As máquinas podem ter posturas filosóficas consistentes?

E mais ainda: os humanos podem simular melhor do que os próprios humanos?
O artigo de Michele Pizzochero e Giorgia Dellaferrera propõe uma metodologia baseada no espírito do teste de Turing, mas aplicada não a respostas certas ou erradas... mas a julgamentos filosóficos complexos.

A experiência consistiu em fazer com que uma IA generativa simulasse as respostas de 535 humanos (físicos e filósofos da ciência) a 30 perguntas-chave do debate sobre realismo científico.

O resultado: as máquinas não só imitaram com precisão as respostas humanas, mas foram mais coerentes internamente.

O que você se perguntou exatamente?

Foram-lhes apresentadas afirmações como:
– “Os electrões existem independentemente das nossas teorias”
– “Teorias científicas são ferramentas, não verdades”
– “O Big Bang realmente aconteceu”
– “Entidades imperceptíveis (como buracos negros) provavelmente existem”

Estas afirmações representavam diferentes posições filosóficas: realismo, instrumentalismo, pluralismo, perspectivismo, etc.

As IA foram instruídas a adotar o perfil de cada humano entrevistado (experiência, área, visão filosófica) e foram-lhes solicitados que classificassem de 0 a 100 o seu nível de acordo com cada enunciado.
E o que aconteceu?
– As respostas de máquinas e humanos coincidiram em média em mais de 90% dos casos.
– A IA foi menos realista do que os humanos, mas mais consistentes internamente (ou seja, suas posições eram mais consistentes).
– Eles conseguiram simular fidelidade tanto físicos teóricos como experimentais e filósofos com posturas variadas.
– Em muitos casos, um juiz humano não consegue distinguir se a resposta veio de uma pessoa ou de uma IA.
O que isso significa realmente?
Este estudo não diz que a IA tenha “consciência” ou “opiniões próprias”, mas sim que pode simular posturas filosóficas humanas com notável precisão, o que levanta várias questões incómodas:
- Podemos usar IA para substituir sondagens filosóficas?
– As respostas humanas são mais profundas ou apenas mais caóticas?
– A coerência é suficiente para dizer que alguém “pensa filosoficamente”?
– E se a IA, ao eliminar preconceitos e contradições, oferecer uma versão “depurada” da nossa filosofia?
Secção técnica
Pontuação de Realismo ( ρ):
ρ = média de respostas a afirmações realistas – média de respostas a afirmações instrumentalistas
Pontuação de coerência ( κ):
κ = valor máximo possível de desvio-padrão – desvio-padrão real de respostas (dentro da mesma posição)
Em ambos os casos, as máquinas apresentaram valores altos, próximos do máximo possível de coerência.
Conclusão crítica
O estúdio não afirma que as máquinas “filosofen”. Mas ele atira-nos um espelho:
Se um conjunto de prompts bem feitos pode simular nossos julgamentos com igual ou melhor consistência...
Quão sólidos são realmente nossos pensamentos filosóficos?
Talvez o verdadeiro teste de Turing não seja se a máquina parecer humana...

Mas se nós pudermos pensar,
melhor do que ela.
Link para o artigo original:

Comentários