Estou no meu segundo ano em um mestrado que não se relaciona muito com o TCS, embora eu desejasse. É basicamente sobre teoria de controle, sinais e sistemas e participei de aulas em sistemas avançados (robusto, não linear, ideal, estocástico), processamento avançado de sinais e otimização convexa.
Estou tentando descobrir uma boa área para lidar com o meu trabalho de dissertação e fiquei pensando se posso, de alguma forma, me relacionar com algum assunto do TCS.
A única área em que consigo pensar em se relacionar é a otimização, mas não tenho nada em mente, o assunto todo é muito interessante.
Seria ótimo se você pudesse compartilhar qual tópico você acha que pertence aos dois mundos.
PS: Esta questão pode estar totalmente fora do escopo deste site de perguntas e respostas, então eu concordo totalmente se você acha que vale a pena fechar. Obrigado!
fonte
Respostas:
Como você mencionou o processamento do sinal, você deve examinar a área de "sensoriamento compressivo" . Aqui está uma excelente descrição não técnica das principais idéias envolvidas: http://terrytao.wordpress.com/2007/04/13/compressed-sensing-and-single-pixel-cameras/
fonte
Você pode querer verificar se há algum problema na verificação de sistemas híbridos (também conhecidos como sistemas ciberfísicos) que deseja resolver. A interação do controle discreto com sistemas contínuos é bastante fascinante e permite adicionar alguma lógica e teoria dos modelos para controlar a teoria, além de ter muitas aplicações úteis (ou seja, sempre que um computador interage com o mundo!).
A página inicial de Andre Platzer tem um resumo muito bom dessa área.
fonte
Outra conexão possível a explorar é o uso de técnicas de coindução e coalgebraica para raciocinar sobre sistemas teóricos de controle. Jan Rutten fez alguns trabalhos nesse sentido alguns anos atrás, a saber:
A tecnologia coalgebraic avançou nos últimos 10 anos, embora eu não saiba se a conexão foi mais explorada. Editar Jan Komenda (e aqui ) parece estar acompanhando a conexão.
Outras abordagens possíveis podem envolver o uso de álgebra de processo, autômatos de E / S, autômatos de interface e variantes híbridas dessas coisas. Os autômatos de interface têm um forte sentimento teórico do jogo, o que corresponde muito a algo feito na teoria de controle, a saber, a distinção entre ações controláveis e incontroláveis pode ser considerada como sendo ações executadas por dois jogadores diferentes. Não tenho certeza se alguma coisa foi feita nessa área. A conexão parece bastante óbvia.
Uma conexão final que vale a pena explorar é entre a teoria do controle e a lógica epistêmica. A conexão pode ser vista através da analogia dos jogos. O que cada parte sabe? Como eles podem usar isso para obter um resultado adequado no sistema que está sendo controlado?
fonte
A robótica (ou como costuma ser chamada atualmente de "sistemas ciberfísicos") é uma boa fonte de problemas que exigem teoria de controle e algoritmos. Veja os algoritmos de planejamento de Steve Lavalle para obter uma boa introdução.
fonte
A escolha social parece ser uma área agradável na encruzilhada de muitos campos: teoria do controle, complexidade etc. Além disso, é sempre uma surpresa (quero dizer para mim) ver que os problemas dos caras do departamento de economia são quase o mesmo que estamos tentando resolver ... Acredite, vale a pena tomar um café com eles (e deixá-los pagar, eles não vão se importar;)).
fonte
Uma boa área a explorar poderia ser a teoria do controle ótimo (isto é, controlar um sistema enquanto minimiza alguma função de custo), desenvolvida principalmente por Richard Bellman, juntamente com o paradigma de programação dinâmica, que é onipresente na ciência da computação.
Uma aplicação muito útil do controle ideal é encontrada, por exemplo, nos processos de decisão de Markov: um sistema dinâmico é modelado por uma cadeia de Markov que pode ser alterada usando algumas políticas admissíveis. Os custos são fornecidos para transições e / ou controles e geralmente se interessa em encontrar uma política que minimize o custo total / médio / descontado de um horizonte temporal finito / infinito. Isso pode ser conseguido, por exemplo, formulando uma equação de Hamilton-Jacobi-Bellman adequada para o sistema e resolvendo-a por meio de programação dinâmica (muitos outros métodos existem dependendo dos sistemas).
Portanto, uma aplicação natural está em configurações de otimização estocástica, nas quais o sistema dinâmico pode ser modelado como Markoviano. Uma referência padrão para o controle ideal é:
fonte
Que tal usar algoritmos de otimização (como Simulated Annealing ou Genetic) para ajustar os parâmetros de sua escolha do algoritmo de loop de controle?
fonte