| Agente inteligente... |
| ... aquele que é capaz de perceber seu ambiente através de sensores e age nele por meio de atuadores, pode ser reativo ou baseado em aprendizagem . |
| Meio (ambiente)... |
| ... o exterior onde o agente atua, pode ser determinístico (estável e controlado) ou estocástico (evolui no tempo aleatoriamente); o modelo do meio é como o agente vê este ambiente. |
| Política e função do agente... |
| ... a função é uma descrição matemática abstrata da lista de percepções e ações, a política (ou programa) é a implementação concreta executada no sistema físico. |
| Estado... |
| ... a relação atual do agente com o meio, localizando-o em um ponto de seu programa (um nó em um grafo); valor do estado é a utilidade de estar naquele estado rumo ao objetivo final. |
| IA simbólica... |
| ... abordagem clássica baseada em sistemas especialistas e regras "se-então". |
| Machine Learning (ML)... |
| ... estatística computacional aplicada na qual algoritmos (árvores de decisão) criam regras de generalização ou predição a partir de conjuntos de dados (datasets). |
| Deep Learning (DL)... |
| ... redes neurais com múltiplas camadas ocultas, níveis crescentes de abstração e representação de dados brutos sem decisão humana direta na extração de características. |
| IA conexionista... |
| ... abordagem inspirada na neurociência que modela o raciocínio através de conexões entre neurônios artificiais, o aprendizado é armazenado em pesos sinápticos que regulam a estimulação entre os neurônios. |
| IA fraca vs. IA forte... |
| ... a primeira foca em resolver problemas específicos (padrão atual), enquanto a segunda buscar semelhanças com o comportamento humano com autonomia em ambientes inusitados. |
| Aprendizagem por correção e erro... |
| ... método onde a saída é comparada com uma desejada e a diferença (erro) é usada para ajustar os parâmetros livres (pesos) do sistema, buscando minimizar esse erro. |
| Aprendizagem baseda em memória... |
| ... o sistema memoriza exemplos classificados de entrada e saída e, ao receber um novo dado, toma decições baseadas na proximidade dos exemplos armazenados. |
| Árvore de decisão... |
| ... algoritmo no qual um vetor de entrada passa por uma série de testes de hipóteses (nós da árvore) sobre atributos até chegar a uma conclusão. |
| Aprendizagem Hebbiana... |
| ... baseada na observação biológica de qua a ativação simultânea e repetida de neurônios vizinhos fortalece a conexão entre eles, majorando os pesos das sinapses envolvidas. |
| Treinamento supervisionado... |
| ... quando há um "professor" ou um dataset com pares de entradas e saídas corretas e conhecidas, permitindo o ajuste do algoritmo pela comparação entre a previsão e o dado real. |
| Treinamento não supervisionado... |
| ... também conhecido como auto-organizado, ocorre quando o algoritmo busca padrões, regularidades estatísticas ou agrupamentos naturais em dados não rotulados, sem um gabarito prévio. |
| Reinforcement Learning (RL)... |
| ... treinamento no qual o agente aprende interagindo com o meio através de tentativa e erro, recebendo feedbacks na forma de recompensas (ações positivas) ou punições (ações negativas. |
| Ambiente estocástico... |
| ... ambiente instável onde o futuro não é determinado apenas pela percepção atual, exigindo que o agente reavalies o meio a cada decisão. |
| Processo de decisão de Markov (MDP)... |
| ... modelo para ambientes onde o resultado de uma ação futura pode ser estimado estatisticamente a partir do estado atual, analisando a eficácia de uma sequência de decisões através da somatória de recompensas (utilidade). |