Muitas pessoas falam nas redes sociais e na mídia em geral sobre os
"enganos" com IA. Que IA é um investimento bolha, que é enganação, que
IA é um "autocomplete" ou "corretor" superestimado. O problema é que os
entusiastas, o público e alguns especialistas tomam o conhecimento de IA
errado.
Primeiro lugar é importante definir o que é um especialista.
Tome
um paralelo em gastronomia. A pessoa que avalia e recomenda um
restaurante, ou um tipo de comida, ou mesmo um nutricionista, não
necessariamente entende o que a comida faz em termos de bioquímica. E
por mais que alguns nutricionistas digam que entendem bioquímica,
nutricionista por si só não aprende o suficiente para entender de
bioquímica, porque se assim fosse, não precisaríamos dos dois
profissionais.
Uma pessoa que tem e opera um restaurante pode
não entender de como fazer ou como a comida age no corpo, apenas por
experiência pode saber que pratos são mais buscados, pelo custo, pela
demanda, quais são mais caros, e pode ter algum sentido de como a comida
pode ser classificada em qualidade pelo cheiro e aparência. Segue não
sendo especialista em cozinhar ou bioquímica.
O paralelo que
busquei é para estabelecer um fato que muitos não apreciam quando não
são os profissionais de uma área: Saber usar, saber fazer e entender
como funciona são competências interligadas, mas distintas.
Um
"empreendedor" de uma empresa que oferece IA pode ser completamente
ignorante de como IA funciona e como IA é criada, e ainda assim ter um
conhecimento profundo de como utilizar. Um cientista de dados pode não
ter completa ideia de como IA funciona. Como um exemplo que gosto de
propor porque é parte da minha trajetória: Uma pessoa que trabalha em um
banco e não é contador ou economista, ela pode ter a experiência que
for, falta-lhe o conhecimento básico para entender os produtos e
serviços que o banco oferece, mesmo que saiba o que eles são.
MBA
é um exemplo famoso disso. A pessoa que tem um MBA em algum assunto não
é uma pessoa especialista naquele assunto, mas na mercadologia e
administração daquela indústria. O meu MBA em Contabilidade Gerencial e
Legislação Tributária por exemplo não é o que me concede o conhecimento
suficiente em Contabilidade Gerencial ou Legislação Tributária para
trabalhar como Contador, Auditor ou Controlador, apenas o conhecimento
suficiente para entender como empregar esses conhecimentos na gestão de
um negócio, que pode ou não ser um escritório de contabilidade ou um
consultório do perícia. Da mesma forma, o meu MBA em IA para Gestão de
Negócios não é o que me dá o conhecimento básico para entender como IA
funciona, como criar uma IA, apenas como utilizar os recursos da IA para
Gestão de Negócios.
O conhecimento que embasa o que escrevo
aqui não é parte da minha trajetória acadêmica, mas um hobby que levo a
sério. Quando comecei a desenvolver mods para jogos, IA para personagens
nos jogos me intrigava, trazendo o interesse que sempre tive em bancos
de dados e análise de dados. Economia, especialmente Econometria, é um
campo pesado em Estatística, e grande parte do embasamento em
Estatística necessário para adentrar esse mundo eu já possuía por ser
economista. Mas foram anos tomando tempo livre para estudar e trabalhar
com Python, Torch, Tensorflow, e "reinventar a roda", criando os tipos
principais de modelos, e criando sistemas de experiência que trouxe o
conhecimento em como IA funciona "por dentro".
Durante a
juventude, eu operava um canal de chat, primeiro IRC e depois MSNChat.
Eu construía bots baseados no que havia de IA naquele tempo,
principalmente AIML. Profissionalmente eu desenvolvia o que na época era
conhecido informalmente como "Websites para Telefone". Utilizando AIML,
era possível criar uma forma de IA que servia como atendente para
sistemas telefônicos, o que ainda exista, mas de uma forma diferente.
Acompanhar
essa evolução e entender como fazer e como funciona IA foi o que me
levou a fazer um MBA de IA para Gestão de Negócios, e ainda por isso eu
entendo que tal MBA não é o suficiente para entender como IA funciona ou
como criar um modelo para IA.
Para entender o primeiro "mito
técnico" da IA, é preciso entender o que é "Machine Learning". Existe
uma definição que flutua pela Internet, dizendo que Machine Learning, or
aprendizado de máquina, é um processo, ou subprocesso, da IA que
permite a ela aprender através de dados, identificar padrões e tomar
decisões autônomas sem precisar ser programada para isso. Dessa
definição, apenas uma coisa está correta. Já aqui, provavelmente teremos
leitores que julgam-se especialistas desistindo, ou furiosos, mas é a
realidade. Machine Learning unicamente identifica e marca, através da
criação de coeficientes, padrões em séries temporais que o processo cria
através da transformação de dados, que são chamados de tokens. Machine
Learning não permite "aprendizado" ou "tomada de decisão", porque o
processo em si, logo de entrada, remove a ligação que existe entre o
sentido real e concreto dos dados e sua representação.
Pense
nisso da seguinte forma. Se você não fala Russo, é possível que vc
entenda que хорошо é falado raraxó. É possivel que você tenha
consciência de que "Всё хорошо" é tudo bem, e que "Это хорошо" é isto é
bom, ou isto está bem. Mas isso não significa que em por esse fato
sozinho, você entenda que "очень хороший" significa "muito bom", e no
sentido em que por exemplo "Он очень хороший человек" significa "Ele é
uma pessoa muito boa". É um exemplo que apesar de ter uma tradução, ela
não é literalmente correlata com as regras do português. O ponto já esta
descrito, mas só para constar, хорошо é um advérbio, e Хороший é um
adjetivo. Seu emprego pode ser numa frase que em essência descreve a
mesma realidade de forma diferente, ou diferentes realidades. Por
exemplo, bem saboroso e com bom sabor descrevem a mesma realidade, bem
feito e feito com boa técnica não são a mesma realidade, mas informações
adicionais uma da outra.
O exemplo é uma forma de entender
que quando empregamos Machine Learning, estamos extirpando dos dados
aquilo que em seres humanos é conhecido como racionalizar, ou pensamento
crítico, e nivelando por baixo em uma simples correlação de que certas
informações são usadas sempre para uma sequência, mas essa sequência é
armazenada como um padrão, e não como uma célula de conhecimento
precursor. A IA nunca aprende o pensamento crítico que a sequência
encerra, mas apenas que a sequência é frequentemente usada em um certo
padrão.
Seres humanos também fazem isso, mas é apenas parte da
nossa "Inteligência". Muitas vezes falamos coisas que não sabemos o que
significa, mas é o que "dizem" quando querem o que no momento queremos.
A essência daquela piada que diz: Chato é a pessoa que quando você
pergunta "como vai?" ela decide explicar.
Uma IA apresentada
com uma base de dados que sempre usa "como vai?" e a resposta é sempre
"bem obrigado", nunca vai entender que "como vai?" pode ser a resposta
para "Ele vai viajar, mas não tem dinheiro.", por exemplo. Machine
Learning por si só extirpa a relação que existe entre a sintaxe e a
gramática subentendida para construir uma frase. Por mais que você
insira regras gramaticais em forma de texto, a máquina não vai ter uma
forma de entender a completa relação que existe entre regras gramaticais
e sintáticas, e o sentido das coisas que ela diz.
Essa é a
razão pela qual IA como ChatGPT e Gemini constantemente são precisos em
descrever a gramática e a sintaxe da linguagem, e ao mesmo tempo cometem
erros muito simples em entender muitos prompts que seriam facilmente
entendidos se eles soubessem à que aquelas regras se prestam na
comunicação.
E o mesmo acontece com as imagens e sons. A
máquina pode aprender como um papagaio a repetir conversas, e também
como o papagaio, a dizer a coisa específica para conseguir algo que
deseja, mas em momento algum isso significa que o papagaio aprendeu a
falar o idioma. Pixels são os mais fáceis de observar esse problema. Um
teste interessante é o teste do trem. Pedir a uma inteligência
artificial que desenhe um trem com pernas como as de um inseto cruzando o
deserto vai em muito dos casos criar uma imagem de um trem com pernas
andando sobre um trilho. A IA então é incapaz de entender o nexo causal
que elimina a necessidade de trilhos se o trem tem pernas para andar.
Algumas IA vão desenhar sem o trilho, se o prompt for estruturado para
dar destaque maior aos detalhes das pernas. Mas ela não faz isso porque
entende que um trem com pernas não precisa de trilho, mas porque
abandona o trilho uma vez que o prompt começa a focar mais nos detalhes
das pernas do que nos detalhes do trem.
Essa é a primeira parte: O mito do Machine Learning.
Em
outro posto falarei sobre o resto dos problemas que enfrentamos com
pessoas "especialistas" em utilizar IA tentando vender o que IA é e como
ela é feita.