Como definir uma métrica de desempenho personalizada no Keras?

11

Tentei definir uma função métrica personalizada (F1-Score) em Keras (back-end do Tensorflow) de acordo com o seguinte:

def f1_score(tags, predicted):

    tags = set(tags)
    predicted = set(predicted)

    tp = len(tags & predicted)
    fp = len(predicted) - tp 
    fn = len(tags) - tp

    if tp>0:
        precision=float(tp)/(tp+fp)
        recall=float(tp)/(tp+fn)
        return 2*((precision*recall)/(precision+recall))
    else:
        return 0

Até agora, tudo bem, mas quando tento aplicá-lo na compilação do modelo:

model1.compile(loss="binary_crossentropy", optimizer=Adam(), metrics=[f1_score])

dá erro:

TypeError                                 Traceback (most recent call last)
<ipython-input-85-4eca4def003f> in <module>()
      5 model1.add(Dense(output_dim=10, activation="sigmoid"))
      6 
----> 7 model1.compile(loss="binary_crossentropy", optimizer=Adam(), metrics=[f1_score])
      8 
      9 h=model1.fit(X_train, Y_train, batch_size=500, nb_epoch=5, verbose=True, validation_split=0.1)

/home/buda/anaconda2/lib/python2.7/site-packages/keras/models.pyc in compile(self, optimizer, loss, metrics, sample_weight_mode, **kwargs)
    522                            metrics=metrics,
    523                            sample_weight_mode=sample_weight_mode,
--> 524                            **kwargs)
    525         self.optimizer = self.model.optimizer
    526         self.loss = self.model.loss

/home/buda/anaconda2/lib/python2.7/site-packages/keras/engine/training.pyc in compile(self, optimizer, loss, metrics, loss_weights, sample_weight_mode, **kwargs)
    664                 else:
    665                     metric_fn = metrics_module.get(metric)
--> 666                     self.metrics_tensors.append(metric_fn(y_true, y_pred))
    667                     if len(self.output_names) == 1:
    668                         self.metrics_names.append(metric_fn.__name__)

<ipython-input-84-b8a5752b6d55> in f1_score(tags, predicted)
      4     #tf.convert_to_tensor(img.eval())
      5 
----> 6     tags = set(tags)
      7     predicted = set(predicted)
      8 

/home/buda/anaconda2/lib/python2.7/site-packages/tensorflow/python/framework/ops.pyc in __iter__(self)
    493       TypeError: when invoked.
    494     """
--> 495     raise TypeError("'Tensor' object is not iterable.")
    496 
    497   def __bool__(self):

TypeError: 'Tensor' object is not iterable.

Qual é o problema aqui? O fato de minhas entradas de função f1_score não serem matrizes de Tensorflow? Em caso afirmativo, onde / como posso convertê-los corretamente?

Hendrik
fonte
Hmm, a mensagem de erro implica que você está recebendo objetos tensores. Talvez você precise da avaliação, afinal! Se assim for, o seu erro é provável que seja usando evalquando você quer dizereval()
Neil Slater

Respostas:

16

Você precisa usar as funções de back-end do Keras . Infelizmente, eles não suportam o &operador, de modo que você precisa criar uma solução alternativa: Geramos matrizes da dimensão batch_size x 3, onde (por exemplo, para positivo verdadeiro) a primeira coluna é o vetor de verdade fundamental, a segunda a previsão real e a terceira é tipo de coluna auxiliar de rótulo, que contém apenas os verdadeiros positivos. Depois, verificamos quais instâncias são positivas, são preditas como positivas e o auxiliar de etiqueta também é positivo. Esses são os verdadeiros positivos.

Podemos fazer esse análogo com falsos positivos, falsos negativos e verdadeiros negativos com alguns cálculos reversos dos rótulos.

Sua métrica F1 pode ter a seguinte aparência:

def f1_score(y_true, y_pred):
    """
    f1 score

    :param y_true:
    :param y_pred:
    :return:
    """
    tp_3d = K.concatenate(
        [
            K.cast(y_true, 'bool'),
            K.cast(K.round(y_pred), 'bool'),
            K.cast(K.ones_like(y_pred), 'bool')
        ], axis=1
    )

    fp_3d = K.concatenate(
        [
            K.cast(K.abs(y_true - K.ones_like(y_true)), 'bool'),
            K.cast(K.round(y_pred), 'bool'),
            K.cast(K.ones_like(y_pred), 'bool')
        ], axis=1
    )

    fn_3d = K.concatenate(
        [
            K.cast(y_true, 'bool'),
            K.cast(K.abs(K.round(y_pred) - K.ones_like(y_pred)), 'bool'),
            K.cast(K.ones_like(y_pred), 'bool')
        ], axis=1
    )

    tp = K.sum(K.cast(K.all(tp_3d, axis=1), 'int32'))
    fp = K.sum(K.cast(K.all(fp_3d, axis=1), 'int32'))
    fn = K.sum(K.cast(K.all(fn_3d, axis=1), 'int32'))

    precision = tp / (tp + fp)
    recall = tp / (tp + fn)
    return 2 * ((precision * recall) / (precision + recall))

Como a calculadora Keras-back-end retorna nan para divisão por zero, não precisamos da instrução if-else para a declaração de retorno.

Edit: Encontrei uma boa idéia para uma implementação exata. O problema com a nossa primeira abordagem é que ela é apenas "aproximada", pois é calculada em lotes e subsequentemente calculada a média. Também se poderia calcular isso após cada época com os keras.callbacks. Encontre a ideia aqui: https://github.com/fchollet/keras/issues/5794

Um exemplo de implementação seria:

import keras
import numpy as np
import sklearn.metrics as sklm


class Metrics(keras.callbacks.Callback):
    def on_train_begin(self, logs={}):
        self.confusion = []
        self.precision = []
        self.recall = []
        self.f1s = []
        self.kappa = []
        self.auc = []

    def on_epoch_end(self, epoch, logs={}):
        score = np.asarray(self.model.predict(self.validation_data[0]))
        predict = np.round(np.asarray(self.model.predict(self.validation_data[0])))
        targ = self.validation_data[1]

        self.auc.append(sklm.roc_auc_score(targ, score))
        self.confusion.append(sklm.confusion_matrix(targ, predict))
        self.precision.append(sklm.precision_score(targ, predict))
        self.recall.append(sklm.recall_score(targ, predict))
        self.f1s.append(sklm.f1_score(targ, predict))
        self.kappa.append(sklm.cohen_kappa_score(targ, predict))

        return

Para fazer a rede chamar essa função, basta adicioná-la a retornos de chamada como

metrics = Metrics()
model.fit(
    train_instances.x,
    train_instances.y,
    batch_size,
    epochs,
    verbose=2,
    callbacks=[metrics],
    validation_data=(valid_instances.x, valid_instances.y),
)

Então você pode simplesmente acessar os membros da metricsvariável.

pexmar
fonte
3
Obrigado, isso já foi realmente útil. Você sabe como incorporar as métricas personalizadas em um retorno de chamada do tensorboard para que possam ser monitoradas durante o treinamento?
N.Kaiser 06/06/19