Glossário de IA: o significado dos termos mais comuns
Desde o lançamento do ChatGPT, no final de 2022, há a sensação de que é quase impossível falar de algum assunto e não esbarrar em Inteligência Artificial.
Isso porque, esse conceito, essa tecnologia, ou esse campo da ciência da computação, se preferir, está cada vez mais presente nas mais diversas áreas e certamente é um caminho sem volta.
Mas você está devidamente a par de tudo – ou ao menos o principal – o que esse tema envolve?
Se a resposta for não, é compreensível, afinal, há uma infinidade de termos relacionados, que tornam a tarefa de entender adequadamente o assunto, algo aparentemente impossível, não é mesmo?
Foi pensando nisso, que nós elaboramos um glossário, a fim de ajudá-lo com definições rápidas e tão simples quanto possível, dos termos mais comumente presentes quando o assunto é inteligência artificial.
Glossário de inteligência artificial
Antes de “passear” pelo nosso glossário, convém atentar aos fatores que utilizamos para elaborá-lo:
-
Como costuma ser, nosso glossário está organizado em ordem alfabética, sendo que optamos por utilizar como termo de consulta, o que é mais comum encontrarmos em um texto, a fim de facilitar a pesquisa;
-
Nas situações nas quais, o emprego mais comum é uma sigla, é o que aparecerá como vocábulo, em vez do conjunto de palavras que a sigla representa;
-
Priorizamos os termos em língua portuguesa, quando existirem e se o seu uso for o mais comum;
-
A lista contém vários termos que não são necessariamente usados apenas no contexto da inteligência artificial, mas que podem ser importantes no entendimento do seu funcionamento.
Por fim, mas não menos importante, algumas das definições são bem mais extensas do que você encontrará em outros glossários do gênero, especialmente nos casos que envolver um conceito mais complexo, mais amplo, como é o caso do primeiro termo.
Agente de IA
Um agente de IA, pode ser definido como uma “entidade” (software ou um robô físico, por exemplo) inteligente, que atua em um ambiente com um propósito específico e que pode ser:
-
Monitoramento – por meio de sensores, o agente pode coletar uma variedade de dados sobre o estado atual do ambiente e exercer monitoramento, armazenando as informações obtidas;
-
Processar informações – por meio de algoritmos, o agente analisa os dados provenientes dos sensores para interpretar o ambiente e determinar a sua situação;
-
Tomada de decisões – a partir dos dados coletados e do processamento das informações e baseado no seu propósito, o agente pode decidir por ações específicas, como por exemplo, conceder acesso a uma pessoa, a uma área de acesso restrito;
-
Atuação – por meio de mecanismos – chamados de atuadores – como motores de passo, braços robóticos, comandos de software, por exemplo, o agente aplica a decisão, modificando o ambiente.
Ou seja, o propósito do agente de IA é atuar de modo autônomo e inteligente, tendo competência para realizar uma ação tão complexa quanto um humano seria capaz de executar, como por exemplo, atuar no mercado financeiro, negociando ações.
AIoT
AIoT é a sigla para a inteligência artificial das coisas e que é resultante da junção de AI (Artificial Intelligence ou Inteligência Artificial, em português) e IoT (Internet of Things ou Internet das Coisas, também em português).
Ao integrar ambos conceitos, podemos usufruir de uma série de benefícios, como:
-
Processos mais eficientes, com ajustes dinâmicos e em tempo real;
-
Dispositivos / coisas realmente smart (inteligentes);
-
Automatiza e melhora a tomada de decisões;
-
Maior grau de personalização e otimização da produção;
-
Redução de custos, decorrente de ganho de produtividade e de menor uso de mão de obra;
-
Diminuição no índice de erros humanos e de retrabalho;
-
Maior especialização dos modelos de IA a partir de mais dados e também mais confiáveis.
-
Melhoria preditiva, permitindo a identificação precoce de falhas em equipamentos industriais e a redução de paradas não planejadas.
Algoritmo
Algoritmo é o conjunto finito de instruções precisas que devem ser aplicadas sobre dados de entrada, para produzir uma saída, ou se preferir, consiste do conjunto de instruções ou de passos que temos que seguir para executar uma tarefa, como fazer um bolo, montar um móvel ou percorrer um trajeto de carro.
No escopo da IA, há muitos algoritmos na Internet, como por exemplo, os usados pelo Google para indexar o conteúdo existente na Web – tarefa do Googlebot – e entregar aos usuários, quais são os mais relevantes, sempre que uma pesquisa é feita.
Alucinação de IA
Todos os modelos de inteligência artificial precisam passar por etapas de treinamento – no processo conhecido como aprendizado de máquina (machine learning) – para aprenderem e serem capazes de reconhecer semelhanças com o que sabem, identificar padrões e dar respostas corretas e precisas.
Porém, quando não há precisão, não há correção nesses dados, ou ainda, quando eles estiverem incompletos, enviesados ou não estiverem íntegros, o modelo de IA consequentemente aprenderá “errado”, produzindo resultados incorretos ou enganosos, dando informações erradas e até decisões inadequadas, as chamadas alucinações de IA.
Análise preditiva
Chama-se de análise preditiva, a abordagem que tem por objetivo antever resultados, estabelecer tendências e estimar possibilidades futuras, usando para tanto, um bom e confiável universo de dados históricos, de estatísticas e aplicação de algoritmos avançados.
O seu uso vem crescendo e encontra utilidade nas mais diversas áreas, como nos negócios, na medicina, na segurança e até nos esportes, ajudando a tomar decisões mais precisas e confiáveis.
Análise semântica
A análise semântica desempenha função fundamental em todo modelo de IA que interage com humanos, uma vez que consiste do mecanismo responsável pela interpretação do significado das palavras, das frases e dos textos dentro de cada contexto.
Portanto, é graças à análise semântica que um sistema computacional é capaz de compreender a linguagem humana e as intenções por trás de cada interação. O Google usa análise semântica extensivamente na sua ferramenta de busca e em particular a partir do update conhecido como BERT.
Assistente virtual inteligente
Um assistente virtual inteligente – também chamado apenas assistente virtual ou AVI – é em sua forma mais simples, uma aplicação capaz de compreender uma variedade de comandos e executar ações correspondentes a esses comandos.
Porém, há representantes mais “famosos” dos assistentes virtuais inteligentes, como a Alexa, a Siri e o Google Assistant (Assistente do Google) e que são capazes de realizar uma boa variedade de tarefas, mas que antes exigiam ação humana.
Os AVIs estão bastante difundidos atualmente, dando suporte aos clientes nas centrais de atendimento, controlando e acionando vários dispositivos IoT (Internet das Coisas), efetuando pesquisas e fornecendo informações diversas, entre outras possibilidades.
Big Data
Big Data se refere a enormes coleções de dados que são gerados continuamente e que podem ser provenientes de redes sociais, de dispositivos móveis, de uma variedade de tipos de sites, de serviços e de aplicações e que acima de tudo, atendam aos seguintes requisitos:
-
Armazenabilidade – assegurar o armazenamento íntegro dos dados coletados, por meio de uma infraestrutura robusta para armazenar e processar tantas informações;
-
Volume – deve suportar o contínuo crescimento do volume total de dados;
-
Velocidade – capacidade de suportar a velocidade com que cresce o volume dos dados;
-
Diversidade – garantir a coleta e armazenamento de natureza e/ou diversidade dos dados e como ela pode ser categorizada;
-
Confiabilidade – autenticidade da informação ou o quão segura ela é em termos de confiabilidade;
-
Segurança – instituir mecanismos para atestar a segurança e privacidade dos dados coletados;
-
Usabilidade – relaciona-se com o uso dos dados para tirar conclusões e tomar decisões, bem como a relevância que ela tem para produzir alternação de cenários.
Empresas usam big data para melhorar decisões estratégicas, entender os comportamentos dos clientes, personalizar serviços e até prever falhas em equipamentos. Mas há uma variedade de áreas nas quais também seu uso e importância tem crescido, como na saúde, onde contribui na análise de grandes conjuntos de dados médicos para realizar diagnósticos mais precisos e aplicar tratamentos mais eficientes.
Chatbot
Um chatbot nada mais é do que um programa de computador que é concebido para atuar como se fosse uma pessoa interagindo como outra em um sistema de chat, geralmente com o objetivo de prestar atendimento a clientes e que visto de outra forma, é uma aplicação / sistema que substitui os atendentes humanos em chats de atendimento, em uma variedade de situações quotidianas.
Com a sofisticação possível a partir da IA, os chatbots têm uma melhor compreensão das solicitações do usuário, as quais podem ser mais complexas e consequentemente, eles se tornam capazes de fornecer respostas melhores, mais variadas, completas e personalizadas, de acordo com cada contexto de atendimento.
Comportamento emergente
O comportamento emergente é um efeito inesperado em modelos de IA e se refere aos padrões ou comportamentos que surgem em sistemas, sem que tenham sido intencionalmente programados para tal.
Normalmente presentes apenas em modelos mais complexos, uma vez que costumam ocorrer em processo de treinamento / aprendizado mais complexos e a partir de uma ampla variedade de dados.
Os comportamentos emergentes tornam o modelo onde ele ocorre, ainda mais poderoso e eficiente, refletindo um processo de aprendizado mais dinâmico e adaptativo.
Dados Sintéticos
Dados sintéticos correspondem ao conjunto de dados para treinamento, que são gerados artificialmente por algoritmos, em vez de serem coletadas diretamente do mundo real, geralmente quando há limitações no acesso / disponibilidade de dados reais ou algum outro fator restritivo, como a segurança e a privacidade dos dados.
Esses dados podem ser criados por meio de técnicas como modelos estatísticos, redes neurais ou simulações. Um exemplo prático, é a criação de imagens sintéticas para treinar sistemas de reconhecimento facial sem precisar recorrer ao uso de fotos reais de pessoas.
Data mining
Data mining é o processo de analisar grandes conjuntos de dados para extrair padrões, tendências e uma variedade de informações úteis.
Para tanto, faz-se uso de estatística, inteligência artificial e aprendizado de máquina, transformando dados brutos em informações utilizáveis.
Empresas usam data mining para prever comportamentos de clientes, detectar fraudes e otimizar processos, sendo bastante útil na tomada de decisões estratégicas baseadas em dados, tornando-as mais precisas e fidedignas.
Deepfake
O deepfake se tornou comum com o avanço e acesso a modelos mais poderosos de inteligência artificial, já que a tecnologia a utiliza aliada às redes neurais, para criar vídeos, áudios ou imagens altamente realistas, porém irreais e daí vem o seu nome, que em tradução direta, é algo como “profundamente falso”.
Também costuma fazer uso de aprendizado profundo (deep learning), permitindo que rostos, vozes e movimentos sejam trocados ou alterados em vídeos de forma a parecerem reais.
Apesar de haver aplicações legítimas e importantes, como criação de efeitos especiais no cinema, tem sido amplamente usado para produzir desinformação, fake news e uma variedade de fraudes, o que tem motivado preocupações quanto à segurança digital, entre outras consequências negativas.
Deep learning (Aprendizagem profunda)
Deep Learning está intimamente relacionado com aprendizado de máquina (machine learning), que é o processo de dotar um sistema computacional de capacidade de aprender por conta própria e usar tal aprendizado na realização de tarefas de modo semelhante aos humanos, mas que no caso da aprendizagem profunda, ocorre de forma ainda mais avançada.
O deep learning é voltado ao desenvolvimento de algoritmos que simulam a estrutura e funcionamento do cérebro humano, as chamadas redes neurais artificiais, que tentam simular o funcionamento dos neurônios do nosso cérebro, com a finalidade de que o sistema aprenda a reconhecer padrões complexos em um conjunto de dados.
O deep learning é especialmente útil para tarefas como reconhecimento de imagens, processamento de linguagem natural, análise preditiva, entre uma variedade de aplicações para as mais diversas áreas e tem permitido que os sistemas de IA aprendam e melhorem com a experiência, sem a necessidade de intervenção direta.
Edge computing
Edge Computing é um modelo de computação distribuída – que descentraliza o processamento dos dados – que usa o poder computacional existente nas proximidades de onde ele é necessário, em vez de enviá-los para servidores remotos ou para a nuvem (cloud computing).
Traduzindo-se literalmente o termo, temos “computação na extremidade” ou “computação na borda”, já que a solução consiste em tirar a concentração de dados armazenados e processados na nuvem e levar para as extremidades, margens ou borda da rede.
Com isso, reduz-se a latência, consome-se menos banda e armazenamento, melhora a eficiência e permite tomadas de decisão mais rápidas. É usado em dispositivos IoT, carros autônomos, cidades inteligentes e outras aplicações que exigem processamento ágil ou em tempo real.
Geração de linguagem natural
A geração de linguagem natural – também conhecida pela sigla NLG (Natural Language Generation) – consiste em ensinar sistemas computacionais a produzir texto em linguagem humana de forma coerente, fluente e com o estilo apropriado para os mais variados contextos e destinações (relatórios, artigos, poesia, etc), ou seja, conteúdos textuais como os que qualquer pessoa seria capaz de criar.
Sendo assim, a NLG utiliza uma variedade de dados estruturados (ex: banco de dados, planilhas) para produzir um relatório automatizado ou talvez uma resposta personalizada a um cliente.
Os chatbots e assistentes virtuais, são bons exemplo do uso prático dessa tecnologia.
GPT
GPT é a sigla para Generative Pretrained Transformer (transformador generativo treinado, em português) e que compreende uma grande família de modelos de IA, que possui uma arquitetura baseada em redes neurais e possibilita gerar conteúdo a partir de comandos via chat, sendo que o representante mais ilustre, é o ChatGPT
GPU
GPU (Graphics Processing Unit ou Unidade de Processamento Gráfico, em português) é um tipo dedicado e especializado de processador, originalmente desenvolvido para acelerar e melhorar a qualidade da criação de imagens em um monitor.
No entanto, devido às suas características, como a enorme capacidade de cálculos matemáticos complexos, com o tempo, as GPUs passaram a ser usadas para treinar modelos de IA que exigem o processamento de enormes conjuntos de dados e a realização de inúmeras operações matemáticas, pois elas aceleram significativamente esse processo.
Além disso, quaisquer soluções que demandam cálculos matemáticos complexos, altas taxas de transferência de dados, núcleos em arquitetura paralela e memória de alta velocidade e largura de banda, como mineração de criptomoedas ou Realidade Virtual (VR) e Realidade Aumentada (AR), podem se beneficiar das GPUs.
Hiperparâmetros
Hiperparâmetros são parâmetros ajustáveis em um modelo de IA, os quais interferem e influenciam o processo de aprendizado.
Diferentemente dos parâmetros do modelo, que são aprendidos durante o treinamento, os hiperparâmetros são definidos antes do processo de treinamento e afetam o desempenho final do modelo.
IA Generativa
IA Generativa é a designação dada aos modelos de inteligência artificial que são destinados à criação / geração – daí o nome generativa – de conteúdo original, como textos, imagens, músicas e até vídeos.
As IAs generativas, usam modelos avançados de aprendizado de máquina e redes neurais, para gerar resultados que se baseiam em padrões existentes e nos dados de treinamento, para assim produzir novos conteúdos.
LlaMa
LlaMa corresponde à sigla (Large Language Model Meta AI) de uma série de grandes modelos de linguagem desenvolvidos pela Meta (Facebook, Instagram e WhatsApp) para tarefas de processamento de linguagem natural, como por exemplo, o Meta AI.
Os modelos da Meta foram criados para serem eficientes e escaláveis, permitindo o desenvolvimento de diversas aplicações avançadas de IA, dentro das suas plataformas.
LLM (Large Language Model)
Boa parte das IA generativas que você deve conhecer, é também um LLM, que é a sigla de Large Language Model (Grande Modelo de Linguagem, em português).
Um LLM é a inteligência artificial projetada para processar e gerar texto de forma natural e articulada, tal como os seres humanos fazem e para tanto, tem seu treinamento baseado em grandes volumes de dados. Esses modelos utilizam redes neurais profundas, especialmente as conhecidas como transformers (ex: ChatGPT), para entender e criar linguagem humana com contexto, fluidez e coerência lógica.
Os LLMs são treinados com bilhões de parâmetros e aprendem padrões linguísticos para responder perguntas, traduzir idiomas, gerar textos criativos e até escrever código. Exemplos incluem Meta AI, Gemini e Copilot.
Machine learning
Machine Learning ou Aprendizado de Máquina, em português, é a capacidade que uma máquina adquire de aprender tal como fazem os humanos, de modo autônomo, através da coleta de dados e informações, avaliação dos mesmos, para finalmente decidir.
O aprendizado de máquina é a parte da inteligência artificial, que permite aos computadores desenvolverem um comportamento similar à aprendizagem humana, de forma que quando recebem quantidades suficientes de dados, esses computadores são capazes de aprender e se desenvolverem de modo independente da interação humana ou de programação suplementar.
Modelos pré-treinados
Modelos pré-treinados são modelos de aprendizado de máquina, que já foram treinados utilizando grandes conjuntos de dados e podem ser adaptados para tarefas específicas, sem que haja a necessidade de muitos ajustes.
NPU
NPU é a sigla de Neural Processing Unit, ou Unidade de Processamento Neural e que já está presente em algumas famílias de processadores e que corresponde à porção do processador destinada as tarefas envolvendo inteligência artificial, machine learning (aprendizado de máquina), deep learning (aprendizado profundo) e redes neurais.
Com a adição da NPU aos processadores, os seus múltiplos núcleos (cores) de processamento assumem o trabalho que antes era da CPU, além de serem especializados e dedicados a cálculos matemáticos como multiplicações de matrizes, convoluções e outras operações de álgebra linear, com grande precisão e velocidade elevada, operações que são fundamentais para as redes neurais artificiais, que tentam simular o funcionamento dos neurônios do nosso cérebro.
Parâmetros
Parâmetros são os valores alteráveis dentro de um modelo de aprendizado de máquina e que são ajustados durante o processo de treinamento.
Se fizermos um paralelo entre um modelo de inteligência artificial e um cérebro humano, o qual se adapta e aprende a partir das novas informações que tem acesso, uma IA também precisa de mecanismos para "aprender", os quais estão em grande parte relacionados com esses parâmetros.
Resumidamente, os parâmetros são valores numéricos que a IA ajusta durante o processo de treinamento, para refinar o processo de aprendizagem. Ao alterar os valores dos parâmetros, a IA modifica a forma como ela processa as informações e, consequentemente, como ela realiza as tarefas para as quais foi treinada.
Pré-treinamento
O pré-treinamento é a fase inicial em que os modelos de IA aprendem os fundamentos da realização de uma tarefa específica, como aprender o alfabeto antes de começar a escrever frases completas.
Os modelos são expostos a grandes conjuntos de dados, o que os ajuda a entender idiomas e padrões. Isso prepara o cenário para o ajuste fino, em que eles treinam para se especializar em tarefas mais específicas
Processamento de linguagem natural (PLN)
O Processamento de Linguagem Natural resulta de uma combinação de tecnologias com o objetivo de possibilitar a um sistema captar, interpretar, compreender e manipular a linguagem humana.
O PLN está intimamente ligado à Inteligência Artificial (IA) para permitir que uma variedade de dispositivos reconheçam o que dizemos ou o que escrevemos e reajam ao que foi dito e que pode ser a simples execução de um comando, ou quem sabe a transcrição de um ditado, ou ainda a elaboração de um resumo de um livro.
Prompt
Prompt não é uma palavra nova, mas é pouco conhecida de quem não é de TI, área na qual ela é bastante comum.
O prompt é o meio pelo qual ocorre a interação entre uma pessoa e o modelo de IA e que consiste de elaborar instruções específicas, detalhadas e contextualizadas para um modelo de inteligência artificial generativa, como o DeepSeek ou as inteligências artificiais brasileiras (Sabiá-2 e Amazônia IA), com o objetivo de que o resultado entregue por ela, seja o mais próximo possível do que se precisa, quer e espera.
A esse método de “conversar” para obter bons resultados dessa interação, foi dado o nome de engenharia de prompt (ou prompt engineering, em inglês).
Redes Neurais
As redes neurais são modelos computacionais que simulam a estrutura e funcionamento do cérebro humano e cujo conceito vem sendo amplamente utilizado em inteligência artificial e aprendizado de máquina.
Elas consistem em “camadas de neurônios artificiais”, que processam informações de forma seletiva e adaptativa, reconhecendo padrões e realizando tarefas como classificação, previsão e geração de conteúdo.
Sentimento
Sentimento, no contexto de IA, refere-se à análise de emoções expressas em texto, como opiniões ou comentários.
A análise de sentimentos é uma técnica de PLN usada para identificar a polaridade (positiva, negativa ou neutra) e outras nuances emocionais em textos, sendo amplamente utilizada em redes sociais, atendimento ao cliente e análise de mercado.
Small language models (SLMs)
Diferentemente dos LLMs, os SLMs (Pequenos Modelos de Linguagem), são modelos menores de IA construídos para tarefas de linguagem específicas e, portanto, requerem menor poder computacional, mas conseguem eficiência adequada e desempenhos bastante eficientes dentro dos cenários em que são usados.
Ou seja, são soluções mais indicadas em situações mais específicas e que não exijam as habilidades mais abrangentes dos LLMs.
Temperatura
Temperatura é um parâmetro utilizado em modelos de linguagem, quando há a necessidade de controlar o nível de aleatoriedade ou imprevisibilidade nas respostas geradas.
Sendo assim, ao estipular uma temperatura mais elevada, o modelo de IA assume que deve produzir respostas mais variadas e criativas, enquanto um valor mais baixo, resulta em respostas mais previsíveis e conservadoras.
Esse conceito tem sido usado frequentemente nos modelos mais sofisticados e poderosos, como o Gemini e ChatGPT.
Token
Quando se fala em token, no contexto de IA, corresponde a menor unidade de texto processada por um modelo de linguagem, podendo ser apenas uma palavra, parte de uma palavra ou até mesmo um caractere.
Esse conceito é essencial para o treinamento e para o funcionamento dos principais modelos de IA generativa, pois há a necessidade de que processem grandes quantidades de texto. Para fazê-lo, realizam a sua divisão em unidades menores – os tokens – para então, ser possível uma análise precisa, bem como para a geração da linguagem.
TOPS
TOPS (Trillions of Operations Per Second ou Trilhões de Operações Por Segundo, em português) é uma métrica usada para medir a performance ou quantificar o desempenho de hardware especializado, como por exemplo, as GPUs e NPUs, que são utilizados em tarefas de IA.
É importante conhecer essa métrica, pois indica a capacidade um chip de processar dados e realizar os complexos cálculos matemáticos dos aplicativos de inteligência artificial, em tempo real.
Quanto mais elevado for o TOPS, mais rápido será o modelo.
Transferência de aprendizado
Transferência de aprendizado é a técnica pela qual um modelo de IA utiliza o treinamento / aprendizado em uma tarefa, para ganhar eficiência em outra. Em vez de começar do zero todas as vezes, eles se baseiam no que já foi aprendido anteriormente.
Ao adotar essa abordagem, os modelos se tornam mais inteligentes e mais eficientes, rapidamente, em uma variedade de tarefas.
Conclusão
Ter uma visão ampla e compreensão adequada do universo da inteligência artificial, requer conhecer os vários termos e tecnologias que estão relacionados.