AI é ilusão, mas não como pensam

Muitas pessoas falam nas redes sociais e na mídia em geral sobre os "enganos" com IA. Que IA é um investimento bolha, que é enganação, que IA é um "autocomplete" ou "corretor" superestimado. O problema é que os entusiastas, o público e alguns especialistas tomam o conhecimento de IA errado.
Primeiro lugar é importante definir o que é um especialista.
Tome um paralelo em gastronomia. A pessoa que avalia e recomenda um restaurante, ou um tipo de comida, ou mesmo um nutricionista, não necessariamente entende o que a comida faz em termos de bioquímica. E por mais que alguns nutricionistas digam que entendem bioquímica, nutricionista por si só não aprende o suficiente para entender de bioquímica, porque se assim fosse, não precisaríamos dos dois profissionais.
Uma pessoa que tem e opera um restaurante pode não entender de como fazer ou como a comida age no corpo, apenas por experiência pode saber que pratos são mais buscados, pelo custo, pela demanda, quais são mais caros, e pode ter algum sentido de como a comida pode ser classificada em qualidade pelo cheiro e aparência. Segue não sendo especialista em cozinhar ou bioquímica.
O paralelo que busquei é para estabelecer um fato que muitos não apreciam quando não são os profissionais de uma área: Saber usar, saber fazer e entender como funciona são competências interligadas, mas distintas.
Um "empreendedor" de uma empresa que oferece IA pode ser completamente ignorante de como IA funciona e como IA é criada, e ainda assim ter um conhecimento profundo de como utilizar. Um cientista de dados pode não ter completa ideia de como IA funciona. Como um exemplo que gosto de propor porque é parte da minha trajetória: Uma pessoa que trabalha em um banco e não é contador ou economista, ela pode ter a experiência que for, falta-lhe o conhecimento básico para entender os produtos e serviços que o banco oferece, mesmo que saiba o que eles são.
MBA é um exemplo famoso disso. A pessoa que tem um MBA em algum assunto não é uma pessoa especialista naquele assunto, mas na mercadologia e administração daquela indústria. O meu MBA em Contabilidade Gerencial e Legislação Tributária por exemplo não é o que me concede o conhecimento suficiente em Contabilidade Gerencial ou Legislação Tributária para trabalhar como Contador, Auditor ou Controlador, apenas o conhecimento suficiente para entender como empregar esses conhecimentos na gestão de um negócio, que pode ou não ser um escritório de contabilidade ou um consultório do perícia. Da mesma forma, o meu MBA em IA para Gestão de Negócios não é o que me dá o conhecimento básico para entender como IA funciona, como criar uma IA, apenas como utilizar os recursos da IA para Gestão de Negócios.
O conhecimento que embasa o que escrevo aqui não é parte da minha trajetória acadêmica, mas um hobby que levo a sério. Quando comecei a desenvolver mods para jogos, IA para personagens nos jogos me intrigava, trazendo o interesse que sempre tive em bancos de dados e análise de dados. Economia, especialmente Econometria, é um campo pesado em Estatística, e grande parte do embasamento em Estatística necessário para adentrar esse mundo eu já possuía por ser economista. Mas foram anos tomando tempo livre para estudar e trabalhar com Python, Torch, Tensorflow, e "reinventar a roda", criando os tipos principais de modelos, e criando sistemas de experiência que trouxe o conhecimento em como IA funciona "por dentro".
Durante a juventude, eu operava um canal de chat, primeiro IRC e depois MSNChat. Eu construía bots baseados no que havia de IA naquele tempo, principalmente AIML. Profissionalmente eu desenvolvia o que na época era conhecido informalmente como "Websites para Telefone". Utilizando AIML, era possível criar uma forma de IA que servia como atendente para sistemas telefônicos, o que ainda exista, mas de uma forma diferente.
Acompanhar essa evolução e entender como fazer e como funciona IA foi o que me levou a fazer um MBA de IA para Gestão de Negócios, e ainda por isso eu entendo que tal MBA não é o suficiente para entender como IA funciona ou como criar um modelo para IA.
Para entender o primeiro "mito técnico" da IA, é preciso entender o que é "Machine Learning". Existe uma definição que flutua pela Internet, dizendo que Machine Learning, or aprendizado de máquina, é um processo, ou subprocesso, da IA que permite a ela aprender através de dados, identificar padrões e tomar decisões autônomas sem precisar ser programada para isso. Dessa definição, apenas uma coisa está correta. Já aqui, provavelmente teremos leitores que julgam-se especialistas desistindo, ou furiosos, mas é a realidade. Machine Learning unicamente identifica e marca, através da criação de coeficientes, padrões em séries temporais que o processo cria através da transformação de dados, que são chamados de tokens. Machine Learning não permite "aprendizado" ou "tomada de decisão", porque o processo em si, logo de entrada, remove a ligação que existe entre o sentido real e concreto dos dados e sua representação.
Pense nisso da seguinte forma. Se você não fala Russo, é possível que vc entenda que хорошо é falado raraxó. É possivel que você tenha consciência de que "Всё хорошо" é tudo bem, e que "Это хорошо" é isto é bom, ou isto está bem. Mas isso não significa que em por esse fato sozinho, você entenda que "очень хороший" significa "muito bom", e no sentido em que por exemplo "Он очень хороший человек" significa "Ele é uma pessoa muito boa". É um exemplo que apesar de ter uma tradução, ela não é literalmente correlata com as regras do português. O ponto já esta descrito, mas só para constar, хорошо é um advérbio, e Хороший é um adjetivo. Seu emprego pode ser numa frase que em essência descreve a mesma realidade de forma diferente, ou diferentes realidades. Por exemplo, bem saboroso e com bom sabor descrevem a mesma realidade, bem feito e feito com boa técnica não são a mesma realidade, mas informações adicionais uma da outra.
O exemplo é uma forma de entender que quando empregamos Machine Learning, estamos extirpando dos dados aquilo que em seres humanos é conhecido como racionalizar, ou pensamento crítico, e nivelando por baixo em uma simples correlação de que certas informações são usadas sempre para uma sequência, mas essa sequência é armazenada como um padrão, e não como uma célula de conhecimento precursor. A IA nunca aprende o pensamento crítico que a sequência encerra, mas apenas que a sequência é frequentemente usada em um certo padrão.
Seres humanos também fazem isso, mas é apenas parte da nossa "Inteligência". Muitas vezes falamos coisas que não sabemos o que significa, mas é o que "dizem" quando querem o que no momento queremos. A essência daquela piada que diz: Chato é a pessoa que quando você pergunta "como vai?" ela decide explicar.
Uma IA apresentada com uma base de dados que sempre usa "como vai?" e a resposta é sempre "bem obrigado", nunca vai entender que "como vai?" pode ser a resposta para "Ele vai viajar, mas não tem dinheiro.", por exemplo. Machine Learning por si só extirpa a relação que existe entre a sintaxe e a gramática subentendida para construir uma frase. Por mais que você insira regras gramaticais em forma de texto, a máquina não vai ter uma forma de entender a completa relação que existe entre regras gramaticais e sintáticas, e o sentido das coisas que ela diz.
Essa é a razão pela qual IA como ChatGPT e Gemini constantemente são precisos em descrever a gramática e a sintaxe da linguagem, e ao mesmo tempo cometem erros muito simples em entender muitos prompts que seriam facilmente entendidos se eles soubessem à que aquelas regras se prestam na comunicação.
E o mesmo acontece com as imagens e sons. A máquina pode aprender como um papagaio a repetir conversas, e também como o papagaio, a dizer a coisa específica para conseguir algo que deseja, mas em momento algum isso significa que o papagaio aprendeu a falar o idioma. Pixels são os mais fáceis de observar esse problema. Um teste interessante é o teste do trem. Pedir a uma inteligência artificial que desenhe um trem com pernas como as de um inseto cruzando o deserto vai em muito dos casos criar uma imagem de um trem com pernas andando sobre um trilho. A IA então é incapaz de entender o nexo causal que elimina a necessidade de trilhos se o trem tem pernas para andar. Algumas IA vão desenhar sem o trilho, se o prompt for estruturado para dar destaque maior aos detalhes das pernas. Mas ela não faz isso porque entende que um trem com pernas não precisa de trilho, mas porque abandona o trilho uma vez que o prompt começa a focar mais nos detalhes das pernas do que nos detalhes do trem.
Essa é a primeira parte: O mito do Machine Learning.
Em outro posto falarei sobre o resto dos problemas que enfrentamos com pessoas "especialistas" em utilizar IA tentando vender o que IA é e como ela é feita.