#001270 – 24 de Fevereiro de 2023
HAL, no filme de Kubrick, é a fonte do terror. Em 1968 a ideia de uma máquina ganhar consciência e de ter uma inteligência maligna era pioneira. O que os recentes avanços na massificação de modelos de linguagem sugerem é talvez mais desolador. Este fantasma digital tem menos de criatura de Frankenstein e mais de entropia e caos. Dar a uma “inteligência” artificial o controle de sistemas vitais pode gerar resultados aterradores. Elaine Herzberg foi atropelada mortalmente em 2018 por um carro de teste da Uber cujo software, entre outras coisas, não a reconheceu como um ser humano, porque atravessava a rua fora da passadeira. É fácil de extrapolar o perigo de atribuir a software a gestão de algo mais amplo e que interfere com a sobrevivência de pessoas, como uma nave espacial. 80% dos currículos recebidos pelas empresas americanas são primeiro filtrados por “inteligências” artificiais e só os escolhidos chegam a ser vistos por pessoas. As seguradoras usam algoritmos para decidir, com base em informação muitas vezes obtida sem consentimento, sobre as condições e o preço de seguros de saúde. Os bancos começaram a fazer o mesmo no que toca a empréstimos a particulares. Ao abdicarmos, nós humanos, mais ainda de tomar decisões sobre a nossa vida deixando nas mãos de software o nosso futuro, tudo ganha contornos distópicos. Mais desolador que qualquer thriller, dizia eu, é que na realidade não é preciso consciência, nem inteligência nem maldade, para que um software tenha consequências graves, até mortais, para as pessoas. Deus, dizia Einstein, não joga aos dados. Não porque não seja esse o seu desígnio. Mas porque não existe. Nós é que gostamos de dados. E da ideia de que não podemos decidir nada.