Então, eu estou lendo "Introdução ao Machine Learning" 2ª edição, por Bishop, et. todos. Na página 27 eles discutem a dimensão Vapnik-Chervonenkis, que é,
"O número máximo de pontos que podem ser destruídos por H [a classe de hipóteses] é chamado de dimensão Vapnik-Chervonenkis (VC) de H, é designado VC (H) e mede a capacidade de H."
Enquanto "quebra" indica uma hipótese para um conjunto de N pontos de dados, de modo que separa os exemplos positivos dos negativos. Nesse exemplo, diz-se que "H quebra N pontos".
Até agora, acho que entendo isso. No entanto, os autores me perdem com o seguinte:
"Por exemplo, quatro pontos em uma linha não podem ser quebrados por retângulos."
Deve haver algum conceito aqui. Não estou entendendo completamente, porque não consigo entender por que esse é o caso. Alguém pode me explicar isso?
fonte
Respostas:
A definição de "um conjunto pode ser quebrado por retângulos" é que para cada subconjunto de , há um retângulo que contém precisamente esse subconjunto e exclui o resto da . Equivalentemente, cada marcação dos pontos como positivo e negativo é consistente com pelo menos uma hipótese em .P P P H
Agora considere quatro pontos ao longo de uma linha no plano. Como não há retângulo que contenha e mas exclua e , esses quatro pontos não podem ser quebrados por retângulos.p , q, R , s p r q s
fonte