optimizãvimo metòdai, matematinio programavimo uždavinių optimaliojo sprendimo nustatymo būdai. Optimizavimo metodai visada yra kiekybiniai, konkretaus metodo pasirinkimas priklauso nuo optimalumo kriterijų reiškiančios funkcijos f(x) ir visų galimų sprendimų aibės Ω savybių. Kai funkcija f(x) yra diferencijuojama ir jos apibrėžimo sritis Ω neturi apribojimų, uždavinys išsprendžiamas klasikiniu diferencialinio skaičiavimo metodu. Tiesinio programavimo uždavinių optimalusis sprendimas, kai funkcija f(x) ir jos apribojimai yra tiesinės funkcijos, dažniausiai randamas taikant simplekso metodą, sukurtą G. Dantzigo (dar anksčiau nagrinėtą L. Kantorovičiaus), arba uždavinio specifiką atitinkančias simplekso metodo modifikacijas. Netiesinio programavimo atveju universalaus sprendimo algoritmo nėra. Nors daugumai uždavinių taikant Lagrange’o daugiklių metodą galima užrašyti būtinas (kai kuriais atvejais ir pakankamas) optimalumo sąlygas (jas nusako Kuhno ir Tuckerio teorema), tiesiogiai iš jų optimalusis sprendimas randamas ne visada. Šiuo atveju dažniausiai taikomi iteraciniai (daugiažingsniai) optimiazvimo metodai, kai kiekvienoje iteracijoje pasirenkama kryptis, kuria siekiama artėti optimaliojo sprendimo link, ir šia kryptimi padaromas atitinkamas žingsnis. Skiriami negradientiniai, arba paieškos (nenaudojantys išvestinių), gradientinio nuolydžio (naudojantys pirmos eilės išvestines), t. p. naudojantys aukštesnių eilių išvestines optimizavimo metodai. Uždaviniuose su apribojimais naudojami įvairūs būdai šiems apribojimams įvertinti. Baudos ir barjerinių funkcijų (arba vidaus taško) optimizavimo metodai papildo tikslo funkciją f(x) vadinama bauda už apribojimų peržengimą ar artėjimą prie jų. Gradiento projekcijos optimizavimo metodai projektuoja kiekvienos iteracijos rezultatą į leidžiamąją aibę Ω. Leistinų krypčių optimizavimo metodai nustato iteracijos kryptį atsižvelgiant ne tik į greičiausio nuolydžio kryptį, bet ir į apribojimus. Kadangi iteracijų skaičius gali būti begalinis, visi optimizavimo metodai turi numatyti vadinamąsias sustojimo taisykles, pagal kurias galima nustatyti, kad prie optimaliojo sprendimo priartėta pakankamai. Neiškiliojo programavimo uždaviniuose optimizavimo metodai gali konverguoti į lokaliuosius ekstremumus, t. y. sprendimus, kurie yra optimalūs jų pačių aplinkoje, bet ne viso uždavinio mastu. Norint rasti geriausią iš lokaliųjų ekstremumų taikomi globaliojo optimizavimo metodai – perėjimas nuo vieno lokaliojo ekstremumo prie kito, atsitiktinė paieška, padengimo ir kiti optimizavimo metodai. Kai kuriems netiesinio programavimo uždaviniams dėl jų specifikos pavyksta sukurti specialiuosius, prie jų ypatybių pritaikytus optimizavimo metodus, pvz., kvadratinio programavimo, separabelinio, geometrinio programavimo ir kiti metodai. Dinaminio programavimo ir optimaliojo valdymo teorijos uždaviniams spręsti pritaikomas R. Bellmano sukurtas dinaminio programavimo metodas. Stochastinio programavimo uždaviniams t. p. taikomi specialieji optimizavimo metodai.

Optimizavimo metodus aktyviai plėtojo matematikai J. L. de Lagrange’as (Prancūzija), G. Dantzigas, L. Khachiyanas, H. W. Kuhnas, J. von Neumannas, A. W. Tuckeris (Jungtinės Amerikos Valstijos), J. Golšteinas, L. Kantorovičius, J. Nesterovas, L. Pontriaginas, N. Šoras (SSRS), N. K. Karmarkaras (Indija).

LIETUVOJE svarbių darbų optimizavimo metodų tematika paskelbė A. Apynis, A. Čyras, G. Dzemyda, J. Mockus (sukūręs inžinerinių globaliojo optimizavimo metodų, pagrindęs juos matematiškai, sukūręs skaitmeninių optimizavimo algoritmų ir programinių priemonių, sprendęs elektros tinklų optimizavimo problemas), E. Vilkas, E. K. Zavadskas, A. Žilinskas.

696