Como se ha mencionado, el
aprendizaje de conceptos es un proceso que consiste en la inducción de una función
concepto a partir de ejemplos de entrenamiento positivos y negativos. Para el
aprendizaje de conceptos basado en grafos, se utiliza un conjunto de ejemplos
positivos y negativos en su representación con grafos para entrenar y encontrar
el concepto que describe el dominio. La meta es que el concepto encontrado
debe ser capaz de predecir si un nuevo ejemplo (uno que no fue utilizado
durante el entrenamiento) pertenece al concepto o no. Los grafos son una buena
representación para datos estructurales y capaces de representar FOPC.
El espacio de hipótesis consiste
de todos los sub-grafos que se pueden derivar a partir de los grafos de
ejemplos positivos; este espacio es exponencial con respecto al tamaño de los
grafos (número de vértices y arcos). El criterio de evaluación se basa en el
número de ejemplos positivos y negativos que describe la hipótesis a partir del
conjunto de entrenamiento.
Una buena hipótesis es aquella que describe a los ejemplos positivos pero no a los ejemplos negativos. El método de aprendizaje de conceptos SubdueCL sigue el paradigma set-covering. Esto implica que el concepto resultante puede consistir de un conjunto de subconceptos. El proceso de aprendizaje inicia con el conjunto de ejemplos positivos y negativos. Cuando se encuentra un sub-concepto, todos los ejemplos positivos cubiertos por él se quitan del conjunto de entrenamiento y se inicia una búsqueda de un nuevo sub-concepto. Este proceso se repite hasta que todos los ejemplos positivos se han descrito a través de cualquiera de los sub-conceptos encontrados. La hipótesis resultante es un conjunto de subconceptos en DNF (Disjunctive Normal Form). El concepto resultante se utiliza para clasificar nuevos ejemplos (no incluidos en el conjunto de entrenamiento). El ejemplo se prueba por el primer sub-concepto en la DNF. Si el ejemplo descrito por el sub-concepto, entonces el ejemplo se clasifica como positivo. Si el ejemplo no fue descrito por el primer sub-concepto, se prueba con el segundo sub-concepto. Si el segundo sub-concepto describe el ejemplo, entonces el ejemplo es positivo, y si no, se utiliza el siguiente sub-concepto para probar el nuevo ejemplo. Este proceso continua hasta que uno de los sub-conceptos en la DNF clasifica al ejemplo como positivo o todos los sub-conceptos se probaron sin ningún resultado positivo, lo cual significa que el ejemplo se clasifica como negativo.
Una buena hipótesis es aquella que describe a los ejemplos positivos pero no a los ejemplos negativos. El método de aprendizaje de conceptos SubdueCL sigue el paradigma set-covering. Esto implica que el concepto resultante puede consistir de un conjunto de subconceptos. El proceso de aprendizaje inicia con el conjunto de ejemplos positivos y negativos. Cuando se encuentra un sub-concepto, todos los ejemplos positivos cubiertos por él se quitan del conjunto de entrenamiento y se inicia una búsqueda de un nuevo sub-concepto. Este proceso se repite hasta que todos los ejemplos positivos se han descrito a través de cualquiera de los sub-conceptos encontrados. La hipótesis resultante es un conjunto de subconceptos en DNF (Disjunctive Normal Form). El concepto resultante se utiliza para clasificar nuevos ejemplos (no incluidos en el conjunto de entrenamiento). El ejemplo se prueba por el primer sub-concepto en la DNF. Si el ejemplo descrito por el sub-concepto, entonces el ejemplo se clasifica como positivo. Si el ejemplo no fue descrito por el primer sub-concepto, se prueba con el segundo sub-concepto. Si el segundo sub-concepto describe el ejemplo, entonces el ejemplo es positivo, y si no, se utiliza el siguiente sub-concepto para probar el nuevo ejemplo. Este proceso continua hasta que uno de los sub-conceptos en la DNF clasifica al ejemplo como positivo o todos los sub-conceptos se probaron sin ningún resultado positivo, lo cual significa que el ejemplo se clasifica como negativo.
No hay comentarios.:
Publicar un comentario