Glossário de IA — 7min.ai
Termos e conceitos essenciais em inteligência artificial, aprendizado de máquina e a indústria de IA. Um glossário completo de IA por 7min.ai.
- Inteligência Artificial (IA)
- O amplo campo da ciência da computação focado em criar sistemas capazes de realizar tarefas que normalmente exigem inteligência humana, como compreender linguagem, reconhecer padrões e tomar decisões.
- Machine Learning (ML)
- Um subcampo da IA onde sistemas aprendem padrões a partir de dados, em vez de serem explicitamente programados. Inclui abordagens de aprendizado supervisionado, não supervisionado e por reforço.
- Deep Learning
- Um subcampo do machine learning que usa redes neurais com muitas camadas (daí 'deep') para aprender representações de dados. Impulsiona a maioria dos avanços modernos de IA em linguagem, visão e geração.
- Rede Neural
- Um sistema computacional inspirado em redes neurais biológicas, composto por nós interconectados (neurônios) organizados em camadas que processam informação e aprendem padrões a partir de dados.
- IA Generativa
- Sistemas de IA capazes de criar conteúdo novo — texto, imagens, áudio, vídeo ou código — a partir de padrões aprendidos de dados de treinamento. Inclui grandes modelos de linguagem e modelos de difusão.
- Large Language Model (LLM)
- Uma rede neural treinada em grandes volumes de texto para compreender e gerar linguagem humana. Exemplos incluem GPT-4, Claude, Gemini e Llama. Normalmente construídos com arquitetura transformer.
- Transformer
- Uma arquitetura de rede neural apresentada em 2017 que usa mecanismos de autoatenção para processar dados sequenciais. É a base de praticamente todos os LLMs modernos e muitos modelos de visão.
- Modelo de Difusão
- Um tipo de modelo generativo que aprende a criar dados ao reverter um processo gradual de adição de ruído. Usado em geradores de imagem como DALL-E, Midjourney e Stable Diffusion.
- Foundation Model
- Um grande modelo de IA treinado em dados amplos que pode ser adaptado para diversas tarefas. É a camada base que alimenta chatbots, assistentes de código, geradores de imagem e outras aplicações.
- Multimodal
- Modelos de IA capazes de processar e gerar múltiplos tipos de dados — texto, imagens, áudio, vídeo — dentro de um único sistema. Exemplos incluem GPT-4o e Gemini.
- Fine-tuning
- O processo de treinar ainda mais um modelo pré-treinado em um dataset específico para melhorar seu desempenho em uma tarefa ou domínio particular.
- RAG (Retrieval-Augmented Generation)
- Uma técnica que melhora respostas de LLM ao primeiro buscar documentos relevantes de uma base de conhecimento externa e então usá-los como contexto para geração. Reduz alucinações e mantém respostas baseadas em fontes.
- Mixture of Experts (MoE)
- Uma arquitetura de modelo onde múltiplas sub-redes especializadas (experts) processam diferentes partes da entrada, com um mecanismo de roteamento direcionando cada entrada aos experts mais relevantes. Permite modelos maiores com menos computação por inferência.
- Chain of Thought (CoT)
- Uma técnica de prompt onde o modelo é incentivado a mostrar seu raciocínio passo a passo antes de dar uma resposta final. Melhora o desempenho em matemática, lógica e tarefas de raciocínio complexo.
- Embedding
- Uma representação numérica de dados (texto, imagens, etc.) como um vetor em um espaço de alta dimensão. Itens similares têm embeddings similares, permitindo busca semântica e agrupamento.
- Inferência
- O processo de executar um modelo treinado para gerar previsões ou resultados a partir de novas entradas. Diferente do treinamento, a inferência é o que acontece quando você usa um modelo de IA.
- RLHF (Reinforcement Learning from Human Feedback)
- Uma técnica de treinamento onde preferências humanas são usadas para ajustar modelos de IA. Humanos classificam resultados do modelo, e um modelo de recompensa aprende dessas classificações para guiar treinamento futuro. Fundamental para tornar LLMs úteis e seguros.
- Prompt Engineering
- A prática de criar entradas (prompts) eficazes para obter resultados desejados de modelos de IA. Inclui técnicas como exemplos few-shot, prompts de sistema e instruções estruturadas.
- Janela de Contexto
- A quantidade máxima de texto (medida em tokens) que um modelo de linguagem pode processar em uma única interação. Janelas de contexto maiores permitem que o modelo considere mais informação de uma vez.
- Token
- A unidade básica de texto que modelos de linguagem processam. Equivale aproximadamente a 3/4 de uma palavra em inglês. Modelos têm limites de tokens que podem processar (janela de contexto) e gerar.
- Alinhamento
- O desafio de garantir que sistemas de IA se comportem de forma consistente com valores humanos, intenções e requisitos de segurança. Um foco importante da pesquisa em segurança de IA.
- AGI (Artificial General Intelligence)
- Um sistema de IA hipotético com habilidades cognitivas de nível humano em uma ampla gama de tarefas. Diferente da IA estreita atual, a AGI seria capaz de aprender e raciocinar sobre qualquer domínio. Não há consenso sobre seu prazo ou definição.
- Alucinação
- Quando um modelo de IA gera informação plausível mas factualmente incorreta ou inventada. Uma limitação conhecida de LLMs atuais que torna importante verificar resultados de IA.
- Benchmark
- Um teste padronizado usado para avaliar e comparar o desempenho de modelos de IA. Benchmarks comuns incluem MMLU (conhecimento), HumanEval (código) e GSM8K (raciocínio matemático).
- Dados Sintéticos
- Dados gerados por modelos de IA em vez de coletados de fontes do mundo real. Usados para aumentar datasets de treinamento, criar alternativas que preservam privacidade e iniciar treinamento de IA onde dados reais são escassos.
- LoRA (Low-Rank Adaptation)
- Uma técnica eficiente de fine-tuning que adiciona pequenas matrizes treináveis a um modelo pré-treinado congelado, reduzindo drasticamente a computação e memória necessárias para adaptação.
- Quantização
- Reduzir a precisão numérica dos pesos de um modelo (por exemplo, de 32 bits para 4 bits) para torná-lo menor e mais rápido, geralmente com perda mínima de qualidade. Permite executar modelos grandes em hardware de consumidor.
- Agente de IA
- Um sistema de IA capaz de planejar e executar autonomamente tarefas de múltiplas etapas, usar ferramentas, navegar na web, escrever código e interagir com sistemas externos para alcançar um objetivo.
- MCP (Model Context Protocol)
- Um protocolo aberto que padroniza como aplicações de IA se conectam a ferramentas e fontes de dados externas. Permite que agentes de IA interajam com APIs, bancos de dados e serviços por meio de uma interface unificada.
- IA Agêntica
- Sistemas de IA projetados para operar com um grau de autonomia — planejando ações, usando ferramentas e tomando decisões para realizar tarefas complexas com intervenção humana mínima.
- GPU (Graphics Processing Unit)
- Um processador originalmente projetado para renderização gráfica, agora essencial para treinamento e inferência de IA devido à sua capacidade de realizar muitas computações paralelas. A NVIDIA domina o mercado de GPUs para IA.
- TPU (Tensor Processing Unit)
- O chip acelerador de IA personalizado do Google, projetado especificamente para cargas de trabalho de machine learning. Usado para treinar e servir os próprios modelos de IA do Google, incluindo o Gemini.
- Rodada de Treinamento
- O processo de treinar um modelo de IA em dados, que pode levar semanas ou meses em milhares de GPUs e custar milhões de dólares para modelos de fronteira.
- Modelo de Código Aberto
- Um modelo de IA cujos pesos são lançados publicamente, permitindo que qualquer um baixe, execute, faça fine-tuning e modifique. Exemplos incluem Llama, Mistral e Qwen. Os termos de licenciamento variam.
- Aprendizado por Reforço
- Uma abordagem de machine learning onde um agente aprende ao interagir com um ambiente, recebendo recompensas ou penalidades por suas ações. Usado em IA para jogos, robótica e RLHF.
- Processamento de Linguagem Natural (NLP)
- O campo da IA focado em permitir que computadores compreendam, interpretem e gerem linguagem humana. LLMs são o mais recente avanço importante em NLP.
- Visão Computacional
- O campo da IA que permite que máquinas interpretem e compreendam informação visual de imagens e vídeos. Aplicações incluem detecção de objetos, geração de imagens e direção autônoma.
- Modelo de Raciocínio
- LLMs especificamente treinados para realizar raciocínio lógico passo a passo antes de responder. Exemplos incluem o1/o3 da OpenAI e R1 da DeepSeek. Usam chain-of-thought internamente para melhorar precisão em problemas complexos.
- Superinteligência
- Um sistema de IA hipotético que excede vastamente as habilidades cognitivas humanas em todos os domínios. Um tópico central em discussões sobre segurança de IA e risco existencial de longo prazo.
- Destilação
- Uma técnica onde um modelo 'estudante' menor é treinado para replicar o comportamento de um modelo 'professor' maior. Produz modelos compactos que retêm boa parte da capacidade do original a custo menor.
- Artificial Analysis
- Uma plataforma independente que avalia e compara modelos de IA em qualidade, velocidade e preço. Mantém rankings incluindo o AA-Omniscience Index para precisão factual. Amplamente referenciada para avaliações neutras e independentes de modelos.
- GPQA Diamond
- Um benchmark de ciência de nível avançado com perguntas escritas e validadas por especialistas. O subconjunto Diamond contém as perguntas mais difíceis, cobrindo física, química e biologia. Usado para testar se modelos de IA conseguem raciocinar sobre conceitos científicos avançados.
- LiveCodeBench
- Um benchmark de programação que usa problemas de competição continuamente atualizados, publicados após a data de corte do treinamento dos modelos. Previne contaminação de dados ao incluir apenas problemas novos, fornecendo uma medida mais honesta de capacidade de codificação.
- OmniDocBench
- Um benchmark para avaliar modelos de IA em tarefas de compreensão de documentos, incluindo OCR, extração de tabelas, análise de layout e recuperação de informações em diversos tipos de documentos como PDFs, imagens escaneadas e formulários.
- Codeforces
- Uma plataforma de programação competitiva com sistema de rating estilo Elo. Modelos de IA são avaliados resolvendo problemas do Codeforces e recebendo uma pontuação — scores acima de 2000 indicam capacidade de programação competitiva de nível expert.
- ICPC
- O International Collegiate Programming Contest, a mais antiga e prestigiada competição de programação competitiva. Modelos de IA com desempenho de 'medalha de ouro' resolvem problemas em nível comparável às melhores equipes universitárias do mundo.
- IMO
- A International Mathematical Olympiad, a competição de matemática pré-universitária mais prestigiada do mundo. Modelos de IA alcançando pontuações de nível IMO conseguem resolver problemas de múltiplas etapas baseados em provas que exigem raciocínio matemático profundo.
- BrowseComp
- Um benchmark da OpenAI que testa modelos de IA em navegação autônoma na web e recuperação de informações. As tarefas exigem navegar em múltiplos sites, seguir links e sintetizar informações para responder perguntas complexas.
- SWE-bench
- Um benchmark que avalia modelos de IA em tarefas reais de engenharia de software a partir de issues do GitHub. Os modelos precisam entender bases de código, localizar bugs e produzir patches funcionais. O SWE-bench Verified é um subconjunto validado por humanos com tarefas confirmadamente solucionáveis.
- OSWorld-Verified
- Um benchmark que testa agentes de IA em tarefas reais de sistema operacional desktop — gerenciamento de arquivos, navegação web, apps de escritório — dentro de máquinas virtuais completas. Mede se um agente consegue completar fluxos de trabalho de computador com múltiplas etapas.
- AndroidWorld
- Um benchmark que avalia agentes de IA em tarefas reais em dispositivos Android com múltiplos apps. Testa se um agente consegue navegar interfaces móveis, tocar botões, preencher formulários e completar fluxos de trabalho de múltiplas etapas em um celular.
- AIME 2025
- O American Invitational Mathematics Examination de 2025, uma competição matemática desafiadora amplamente usada como benchmark para raciocínio matemático de IA. As pontuações indicam quão bem um modelo lida com resolução de problemas em múltiplas etapas.
- MIT License
- Uma licença permissiva de código aberto que permite a qualquer pessoa usar, modificar e distribuir software (ou pesos de modelo) para qualquer finalidade, incluindo uso comercial, com restrições mínimas. Exige apenas a preservação do aviso de copyright.
- Apache 2.0
- Uma licença permissiva de código aberto semelhante à MIT, mas com uma concessão explícita de patentes — os usuários recebem licença sobre quaisquer patentes que os contribuidores detenham sobre o código. Amplamente usada para pesos de modelos de IA, incluindo Qwen e Llama.
- Open Weights
- Quando uma empresa de IA publica os parâmetros treinados de um modelo para que qualquer pessoa possa baixar e executar. Diferente de código aberto (open source), que se refere à liberação do código. Os termos de licença variam — alguns permitem uso comercial, outros o restringem.
Voltar para 7min.ai