Dans le processus de résolution des problèmes d’optimisation sous contraintes, la méthode lagrangienne améliorée est devenue un sujet de recherche attrayant. Ces méthodes sont privilégiées pour leur capacité à transformer des problèmes contraints en une série de problèmes non contraints, et jouent en outre un rôle important dans le domaine de la théorie et de l'application de l'optimisation. La méthode lagrangienne améliorée a été proposée pour la première fois par Hesterness et Powell en 1969, et leurs recherches ont conduit à une attention généralisée et à une exploration approfondie de cette méthode.
La principale caractéristique de la méthode lagrangienne améliorée est qu’elle combine les concepts de termes de pénalité et de multiplicateurs lagrangiens, la rendant plus stable et plus efficace lorsqu’il s’agit de traiter des problèmes de contraintes.
La méthode lagrangienne augmentée n'est pas seulement une extension de la méthode de pénalité, mais inclut également un terme supplémentaire pour modéliser le multiplicateur lagrangien. Cela rend la méthode efficace pour résoudre de nombreux problèmes d’ingénierie complexes, en particulier dans des applications telles que l’optimisation structurelle et l’apprentissage automatique. Au fur et à mesure que la recherche s’est approfondie, la méthode lagrangienne améliorée a progressivement évolué et introduit une variété d’extensions et d’améliorations, y compris l’application de fonctions de régularisation non quadratiques.
Ces approches ont été davantage explorées dans les années 1970 et 1980. R. Tyrrell Rockafellar a apporté des contributions extrêmement importantes dans ce domaine. En étudiant la dualité de Fenchel et son application à l'optimisation structurelle, il a favorisé le développement de méthodes lagrangiennes améliorées. En particulier, il a exploré les opérateurs monotones maximaux pertinents et leur place dans les problèmes d'optimisation modernes, combinant ces concepts avec des applications pratiques pour donner à la méthode lagrangienne augmentée une base théorique plus solide.
En fait, l’avantage de la méthode lagrangienne améliorée est qu’elle ne nécessite pas que le facteur de pénalité soit poussé à l’infini pour résoudre le problème de contrainte d’origine, évitant ainsi l’instabilité numérique et améliorant la qualité et la précision de la solution.
De plus, avec l’amélioration de la puissance de calcul, la technique lagrangienne améliorée a été progressivement introduite dans une gamme plus large d’applications, en particulier dans le contexte du développement rapide de la technologie des matrices clairsemées. Par exemple, les systèmes d'optimisation tels que LANCELOT, ALGENCAN et AMPL permettent l'utilisation de techniques de matrices clairsemées sur des problèmes apparemment denses mais « partiellement séparables », améliorant ainsi l'efficacité des méthodes lagrangiennes augmentées.
Récemment, cette méthode a également été utilisée dans les techniques modernes de traitement d’images telles que la réduction du bruit à variation totale et la détection compressée. En particulier, l’émergence de la méthode des multiplicateurs à directions alternées (ADMM) a injecté une nouvelle vitalité dans la méthode lagrangienne améliorée, permettant à cette technologie de calcul de gérer plus efficacement les problèmes d’optimisation à haute dimension.
La combinaison de la méthode lagrangienne améliorée avec la méthode du multiplicateur de direction alternée constitue un développement révolutionnaire dans le domaine de l'optimisation actuel, car elle peut résoudre efficacement le problème de mise à jour partielle des multiplicateurs dans les applications pratiques.
Au cours des années suivantes, la méthode lagrangienne améliorée a non seulement donné de bons résultats en analyse numérique, mais sa base théorique et ses performances dans diverses applications pratiques en ont fait progressivement une autre méthode pour résoudre les problèmes d'optimisation stochastique de grande dimension. Une stratégie importante. Surtout dans le scénario d'optimisation aléatoire à haute dimension, cette méthode peut surmonter efficacement le problème mal posé et fournir la meilleure solution pour la parcimonie et le rang bas.
De plus, de nombreux progiciels modernes tels que YALL1, SpaRSA et SALSA ont appliqué ADMM à la poursuite de base avancée et à ses variantes et ont montré des performances supérieures. Aujourd'hui, tant en tant que logiciel open source qu'en tant qu'implémentations commerciales, la méthode lagrangienne augmentée reste un outil important dans le domaine de l'optimisation et continue d'être étudiée et développée.
Dans l'ensemble, la contribution de Hesterness et Powell à la méthode lagrangienne améliorée a sans aucun doute jeté les bases de l'étude de l'optimisation sous contrainte, mais nous devons réfléchir à la direction que prendront les recherches futures sur l'optimisation mathématique. Développement ?