O que aconteceu com a Fuzzy Logic?

10

A lógica difusa parecia uma área ativa de pesquisa em aprendizado de máquina e mineração de dados quando eu estava na faculdade (início dos anos 2000). Os sistemas de inferência difusa, c-meios difusos, versões difusas das várias redes neurais e arquiteturas de máquinas de vetores de suporte estavam todos sendo ensinados em cursos de graduação e discutidos em conferências.

Desde que comecei a prestar atenção ao ML novamente (~ 2013), a Fuzzy Logic parece ter saído completamente do mapa e sua ausência no atual cenário do ML é notória, considerando todo o entusiasmo da IA.

Esse foi um caso de um tópico simplesmente fora de moda ou houve uma limitação específica da lógica difusa e da inferência difusa que levou o tópico a ser abandonado pelos pesquisadores?


Para esclarecer, com base no comentário de jbowman: Houve algum evento ou descoberta que fez com que a FL saísse de moda, semelhante, por exemplo, às redes neurais nos anos 60, quando saíram de moda porque foi provado que eles não podiam resolver o XOR ? Ou os Sistemas Difusos foram superados por um paradigma competitivo?

Skander H.
fonte
Não é uma resposta, mas apenas uma especulação: parece tão perto da probabilidade que, talvez, eventualmente, os pesquisadores da CS decidiram fundir os dois conceitos?
Cliff AB
11
É certo que isso será baseado em opiniões e provavelmente fora de tópico, mas agora que você perguntou isso, estou curioso.
jbowman
11
@jbowmanEu não sei se é necessariamente baseado em opinião. Há uma resposta científica objetiva para o motivo pelo qual as NNets saíram de moda nos anos 60 (falha na solução do XOR) - estou me perguntando se algo semelhante aconteceu com a FL.
Skander H.
11
Ainda está praticamente vivo na parcela do cérebro e no mapeamento do cérebro em geral, é apenas que as pessoas não precisam muito da operação lógica, mas a atribuição difusa ainda está viva e emocionante.
Firebug
Relacionado: stats.stackexchange.com/questions/72117/…
Sycorax diz Reinstate Monica

Respostas:

3

Minha resposta é tecnicamente mais relevante para os conjuntos nebulosos do que para a lógica nebulosa, mas os dois conceitos são praticamente inseparáveis. Investiguei nos artigos de periódicos acadêmicos sobre lógica nebulosa há alguns anos para escrever uma série de tutoriais sobre a implementação de conjuntos nebulosos no SQL Server . Embora eu dificilmente possa ser considerado um especialista, estou bastante familiarizado com a literatura e uso as técnicas regularmente para resolver problemas práticos. A forte impressão que recolhi da pesquisa publicada é que o potencial prático dos conjuntos nebulosos ainda é inexplorado, principalmente devido a um dilúvio de pesquisas em dezenas de outras famílias de técnicas que podem resolver conjuntos complementares de perguntas.

O mercado lotado de idéias em ciência de dados / aprendizado de máquina etc.

Houve um progresso tão rápido em máquinas de vetores de suporte, redes neurais, florestas aleatórias etc. que é impossível para especialistas, analistas, cientistas de dados, programadores ou consumidores de seus produtos acompanharem tudo isso. Na minha série de posts, falo longamente sobre como o desenvolvimento de algoritmos para conjuntos nebulosos e lógicos geralmente está mais de 20 anos à frente do software disponível, mas o mesmo pode ser dito de muitos campos relacionados; Li intensamente sobre redes neurais e consigo pensar em dezenas de arquiteturas neurais que foram desenvolvidas décadas atrás, mas que nunca foram amplamente colocadas em prática, muito menos codificadas em softwares facilmente disponíveis. Dito isto, lógica e conjuntos nebulosos estão em uma desvantagem estranha nesse mercado movimentado de idéias, principalmente por causa de seu apelido, que era controverso quando Lofti A. Zadeh a cunhou. O objetivo das técnicas difusas é simplesmente aproximar certas classes de dados discretamente avaliados em escalas contínuas, mas termos como "lógica aproximada com valores contínuos" e "conjuntos graduados" não são exatamente atraentes. Zadeh admitiu que usava o termo "confuso" em parte porque chamava a atenção, mas, olhando para trás, pode ter sutilmente recebido o tipo errado de atenção.

Como o termo "distorcido" sai pela culatra

Para um cientista de dados, analista ou programador, é um termo que pode evocar uma vibe de "tecnologia legal"; para aqueles interessados ​​em IA / mineração de dados / etc. etc., apenas na medida em que possa resolver problemas de negócios, "confuso" soa como um aborrecimento impraticável. Para um gerente corporativo, médico envolvido em pesquisas médicas ou qualquer outro consumidor que não saiba, ele pode evocar imagens de bichos de pelúcia, shows de policiais dos anos 70 ou algo da geladeira de George Carlin. Sempre houve uma tensão na indústria entre os dois grupos, com os últimos restringindo o primeiro de escrever código e realizar pesquisas apenas por uma questão de curiosidade intelectual e não de lucro; a menos que o primeiro grupo possa explicar por que essas técnicas difusas são lucrativas, a cautela do primeiro impedirá sua adoção.

Gerenciamento de incertezas e a família de aplicativos de conjuntos difusos

O objetivo das técnicas de conjuntos difusos é removerdistorção que já é inerente aos dados, na forma de valores discretos imprecisos que podem ser modelados melhor em escalas contínuas aproximadas, ao contrário da percepção errônea generalizada de que "distorção" é algo que você adiciona, como uma cobertura especial em uma pizza. Essa distinção pode ser simples, mas abrange uma ampla variedade de aplicações em potencial, desde o processamento de linguagem natural até a Teoria da Decisão e o controle de sistemas não lineares. A probabilidade não absorveu a lógica nebulosa, como sugeriu Cliff AB, principalmente porque é apenas um pequeno subconjunto das interpretações que pode ser anexado aos valores nebulosos. As funções de associação difusa são bastante simples, pois apenas avaliam quanto um registro pertence a um conjunto específico, atribuindo um ou mais valores contínuos, geralmente em uma escala de 0 a 1 (embora para alguns aplicativos eu ' descobrimos que -1 a 1 pode ser mais útil). O significado que atribuímos a esses números depende de nós, porque eles podem significar o que quisermos, como graus de crença bayesiana, confiança em uma decisão específica, distribuições de possibilidades, ativações da rede neural, variância escalonada, correlação etc. etc., não apenas valores PDF, EDF ou CDF. Entro em muitos detalhes na minha série de blogs e emesse post de currículo , em grande parte derivado do trabalho com meu recurso difuso favorito, George J. Klir, e Fuzzy Sets de Bo Yuan e Fuzzy Logic: Theory and Applications (1995). Eles detalham muito mais detalhadamente como derivar programas inteiros de "Gerenciamento da Incerteza" a partir de conjuntos difusos.

Se a lógica e os conjuntos nebulosos fossem um produto de consumo, poderíamos dizer que ele falhou até hoje devido à falta de marketing e evangelização do produto, além de uma escolha paradoxal de um nome de marca. Ao pesquisar isso, não me lembro de ter encontrado um único artigo de periódico acadêmico que tentou desmascarar qualquer um desses aplicativos de maneira semelhante ao infame artigo de Minksy e Papert sobre perceptrons. Atualmente, existe muita concorrência no mercado de idéias hoje em dia pela atenção de desenvolvedores, teóricos, cientistas de dados e similares para produtos aplicáveis ​​a conjuntos de problemas semelhantes, o que é um efeito colateral positivo do rápido progresso técnico. A desvantagem é que há muitas frutas pendentes aqui que não são escolhidas, especialmente no campo da modelagem de dados onde elas são mais aplicáveis.

SQLServerSteve
fonte
2

A razão pela qual as idéias lógicas difusas saíram de moda (no ML) não é clara para mim. Pode haver muitas razões, técnicas, sociológicas, etc. Uma coisa é certa: a matemática da ML nos últimos anos foi dominada pela probabilidade / estatística e otimização, dois campos nos quais a lógica nebulosa (ou idéias publicadas na literatura difusa) podem ser preenchidas, mas nas quais geralmente trazem mais respostas do que perguntas. Uma outra vantagem das probabilidades e da otimização é que, embora possa haver diferentes tendências / interpretações dentro delas (por exemplo, Bayesiana x frequentistas), a estrutura formal / matemática básica é bastante estável para elas (é menos claro, na minha opinião, para lógica difusa compreendido em sentido amplo).

  • Hüllermeier, E. (2015). O aprendizado de máquina precisa de lógica difusa ?. Fuzzy Sets and Systems, 281, 292-299.

Penso que uma das idéias básicas da lógica difusa, que é modelar conceitos graduais e fornecer ferramentas de raciocínio (principalmente estendendo a lógica, mas não apenas) associadas a ela, ainda está presente em algumas idéias de ML, incluindo as mais recentes. Você só precisa procurar com cuidado, pois é bastante raro. Dois exemplos incluem:

  • Farnadi, G., Bach, SH, Moens, MF, Getoor, L., & De Cock, M. (2017). Quantificação suave na aprendizagem relacional estatística. Machine Learning, 106 (12), 1971-1991. (onde as referências incluem as lógicas difusas, incluindo o artigo seminal de Zadeh)
  • Cheng, W., Rademaker, M., De Baets, B., & Hüllermeier, E. (2010, setembro). Previsão de ordens parciais: classificação com abstenção. Na conferência européia conjunta sobre aprendizado de máquina e descoberta de conhecimento em bancos de dados (pp. 215-230). Springer, Berlim, Heidelberg.

No geral, para responder sua pergunta de forma mais pessoal, meu sentimento é de que não há uma percepção clara do que a lógica nebulosa poderia realizar (em visões recentes de ML) que as probabilidades não poderiam, e uma vez que a última é muito mais antiga e claramente se encaixa melhor com a estrutura de ML de ver dados emitidos por uma população probabilística, era mais natural concordar com probabilidade e estatística do que com lógica difusa. Isso também significa que, se você deseja usar a lógica difusa no ML, deve apresentar um bom motivo convincente para fazê-lo (por exemplo, usando o fato de que eles estendem a lógica fornecendo funções diferenciáveis, para que você possa incluir regras lógicas no aprendizado profundo técnicas).

Seb Destercke
fonte