A questão está relacionada a este tópico . Gostaria de obter um estado estável único para um problema de controle ideal.
Considere o seguinte programa onde indica preferência de tempo, é o valor e uma função objetiva. é a variável de estado e o controle. O estado é governado por . A equação de Hamilton-Jacobi-Bellman lê
Agora suponha que o controle de feedback seja dado por
Suponha que exista um ponto fixo em e possamos derivar uma representação alternativa para o controle ideal no ponto fixo com
Suponha que adicionalmente o HJB no ponto fixo seja dado por
Se aproxima de zero, devemos ter . Por outro lado, se aproxima do infinito, devemos ter pela definição da função de valor e, assim, novamente . Resumindo, temos as seguintes propriedades em equilíbrio:
Bem, isso está em desacordo com
sendo uma função crescente estritamente monóton, contradizendo nosso resultado anterior. Observe, no entanto, que podemos resolver o problema observando
Então, podemos finalmente conjeturar que devemos ter no ponto fixo tal modo que
Respostas:
Atualizando uma troca de comentários, um ponto crítico na pergunta é a expressão
o que está errado, porque de
nós obtemos
O OP observa que o sinal de é indeterinado e, portanto, não pode ser considerado monotonicamente crescente, e foi isso que dirigiu a fixação do estado estacionário.∂u′(x~)/∂ρ ∂u(x~)/∂ρ
fonte