Compreenda facilmente o “porquê” por trás das previsões do modelo para criar modelos melhores e fornecer explicações sobre a saída do modelo em nível global (por meio de um conjunto de previsões) ou em nível local (para uma previsão individual).
Modelos de Caixa Branca
- Modelos Lineares Generalizados (GLM) GLMs são uma extensão dos modelos lineares tradicionais. São modelos altamente explicáveis com a flexibilidade da estrutura do modelo unificando os métodos típicos de regressão (como regressão linear e regressão logística para classificação binária).
- Modelos Aditivos Generalizados (GAM) Um GAM é um Modelo Linear Generalizado (GLM) no qual o preditor linear depende de variáveis preditoras e funções suaves de variáveis preditoras.
- Modelos aditivos generalizados com termos de interação bidirecional (GA2M) GA2M é uma extensão do GAM que seleciona as interações mais importantes entre os recursos e inclui funções desses pares de recursos no modelo.
- Redes neurais explicadas (XNN) Essas redes neurais consistem em várias sub-redes, cada uma das quais aprende uma função interpretável dos recursos originais.
- Ajuste de regra Esse algoritmo ajusta um conjunto de árvore aos dados, constrói um conjunto de regras percorrendo cada árvore, avalia as regras nos dados para construir um conjunto de recursos de regra e ajusta um modelo linear esparso (LASSO) ao conjunto de recursos de regra unido ao original conjunto de características. Disponível no Driverless AI por padrão.
- Regras do Skopes Este algoritmo aprende um conjunto simples de regras para realizar a classificação.
- Árvore de decisão e combinação de modelo linear Este modelo segmenta os dados usando uma árvore de decisão e então ajusta um GLM aos dados em cada nó.
Métodos de Interpretação
- Gráfico de Dependência Parcial (PDP) Gráfico que mostra como uma coluna afeta as previsões em nível global, com a capacidade de os usuários explorarem as colunas e como elas afetam as previsões.
- Importância do recurso Calcule quais recursos são importantes para a tomada de decisão do modelo, tanto puros quanto com feições transformadas.
- Códigos de razão Shapley Forneça explicabilidade do modelo em um nível de registro para modelos não lineares, para registros globais e individuais.
- Árvores de decisão substitutas Identifique os fatores determinantes das previsões de um modelo complexo de uma forma muito simples, visual e direta.
- Leave One Covariate Out (LOCO) Identifique os recursos que são importantes para as previsões da Surrogate Random Forest a partir de uma visualização agregada ou de nível de linha.
- Individual Conditional Expectation (ICE) Gráfico que mostra como uma coluna afeta as previsões em um nível individual, com a capacidade de detalhar qualquer linha de sua escolha e comparar/contrastar com a dependência parcial média.
- Códigos de motivo k-LIME Gere novos códigos de motivo em um nível de registro, subconjuntos do conjunto de dados ou em um nível agregado para todo o conjunto de dados.
Detecção de viés
- Análise de impacto díspar Identifique áreas em seus dados em que um modelo mostra viés em várias métricas com um painel que mostra a disparidade entre os grupos no conjunto de dados.
- Análise sensitiva Forneça explicação do modelo em um nível muito granular sem muita sobrecarga com uma ferramenta que permite pontuar um modelo treinado em uma única linha, várias linhas ou um conjunto de dados inteiro e comparar o novo resultado do modelo com o resultado previsto no conjunto de dados original.
Modelos de terceiros
- Explicações para modelos de séries temporais Modelos de séries temporais funcionam com vários explicadores de MLI, incluindo Análise de Sensibilidade, Análise de Impacto Díspare, Dependência Parcial/Expectativa Condicional Individual, Naïve e Kernel Shapley, Modelos Surrogate e todas as técnicas de importância de recursos.
- Explicações para modelos NLP Entenda como a importância do token varia entre as classes com suporte multinomial recém-adicionado. Entenda o impacto dos tokens nos resultados com LOCO (deixe uma covariável de fora) 2.0 e Vectorizer + Linear Model (VLM). Calcule o resultado médio de um modelo quando um token de texto é incluído versus não incluído com Dependência Parcial para Tokens de Texto. Selecione entre TF-IDF ou o recém-adicionado Vectorizer + Linear Model (VLM) quando se trata de gerar tokens para modelos substitutos.
- Explicações para modelos de visão computacional Entenda qual parte de uma imagem ou vídeo levou a uma previsão específica usando técnicas como Grad-CAM.
Interpretabilidade do modelo externo Obtenha informações sobre modelos que foram criados fora do H2O AI Cloud com explicadores independentes de modelo e cálculos de importância de recursos.
Traga suas próprias receitas O controle perfeito sobre todo o pipeline de explicabilidade é habilitado com acesso à API para personalizar todos os componentes de explicabilidade com Python.
Estrutura de desenvolvimento de aplicativos low code
Crie rapidamente protótipos e aplicativos de AI com uma estrutura low code (Python/R) que facilita a entrega de soluções inovadoras, integrando perfeitamente recursos Machine Learning de back-end e experiências de usuário de front-end.
- Desenvolvimento de aplicativos Reduza o tempo necessário para criar aplicativos com acesso as melhores práticas e uma biblioteca de protótipos abrangendo vários setores, além de simplificar o gerenciamento de soluções com a capacidade de ver as alterações na interface do usuário em tempo real à medida que você desenvolve.
- Criação de interface de usuário de low code (UI) Desenvolva facilmente aplicativos interativos voltados para o consumidor com uma estrutura Python/R que oferece suporte ao desenvolvimento integrado de UI e AI.
- Integração de Machine Learning O acesso da API aos melhores recursos de ciência de dados da categoria facilita a integração da funcionalidade de Machine Learning em soluções novas ou existentes.