Zarządzanie zapewnia optymalną sterowność systemu. Optymalne systemy automatycznego sterowania. Zobacz, co oznacza „Optymalna kontrola” w innych słownikach

Ogólnie rzecz biorąc, system automatyki składa się z obiektu sterującego i zestawu urządzeń zapewniających sterowanie tym obiektem. Z reguły ten zestaw urządzeń obejmuje urządzenia pomiarowe, urządzenia wzmacniające i przetwarzające, a także elementy wykonawcze. Jeżeli połączymy te urządzenia w jedno łącze (urządzenie sterujące) wówczas schemat blokowy układu będzie wyglądał następująco:

W układ automatyczny informacja o stanie kontrolowanego obiektu podawana jest na wejście urządzenia sterującego poprzez urządzenie pomiarowe. Takie systemy nazywane są systemami sprzężenia zwrotnego lub systemami zamkniętymi. Brak tej informacji w algorytmie sterowania oznacza, że ​​system jest otwarty. W każdej chwili opiszemy stan obiektu kontrolnego zmienne
, które nazywane są współrzędnymi systemowymi lub zmiennymi stanu. Wygodnie jest traktować je jako współrzędne - wektor wymiarowy stanu.

Urządzenie pomiarowe dostarcza informacji o stanie obiektu. Jeśli opiera się na pomiarze wektorowym
można znaleźć wartości wszystkich współrzędnych
wektor stanu
, to mówimy, że układ jest całkowicie obserwowalny.

Urządzenie sterujące generuje działanie sterujące
. Może istnieć kilka takich działań kontrolnych; - wektor kontroli wymiarowej.

Wejście urządzenia sterującego otrzymuje wejście odniesienia
. Ta akcja wejściowa niesie informację o tym, jaki powinien być stan obiektu. Obiekt kontrolny może podlegać zakłócającemu wpływowi
, co oznacza obciążenie lub zakłócenie. Pomiar współrzędnych obiektu zwykle odbywa się z pewnymi błędami
, które również są losowe.

Zadaniem urządzenia sterującego jest opracowanie takiego działania sterującego
tak, aby jakość funkcjonowania automatyki jako całości była w pewnym sensie najlepsza.

Rozważymy obiekty kontrolne, którymi można zarządzać. Oznacza to, że wektor stanu można zmieniać w razie potrzeby poprzez odpowiednią zmianę wektora sterującego. Zakładamy, że obiekt jest całkowicie obserwowalny.

Na przykład położenie samolotu charakteryzuje się sześcioma współrzędnymi stanu. Ten
- współrzędne środka masy,
- Kąty Eulera, które określają orientację samolotu względem środka masy. Położenie samolotu można zmienić za pomocą sterów wysokości, kursu, lotek i wektorowania ciągu. Zatem wektor sterujący definiuje się w następujący sposób:

- kąt wychylenia windy

- Dobrze

- lotka

- przyczepność

Wektor stanu
w tym przypadku definiuje się to następująco:

Można postawić problem wyboru sterowania za pomocą którego statek powietrzny przechodzi z zadanego stanu początkowego
do danego stanu końcowego
Z minimalne koszty paliwa lub w minimalnym czasie.

Dodatkowa złożoność w rozwiązywaniu problemów technicznych wynika z faktu, że z reguły na działanie sterujące i współrzędne stanu obiektu sterującego nakładane są różne ograniczenia.

Istnieją ograniczenia dotyczące dowolnego kąta sterów wysokości, odchylenia i lotek:



- Sama przyczepność jest ograniczona.

Współrzędne stanu obiektu sterującego i ich pochodne również podlegają ograniczeniom związanym z dopuszczalnymi przeciążeniami.

Rozważymy obiekty sterujące opisane równaniem różniczkowym:


(1)

Lub w formie wektorowej:

--wymiarowy wektor stanu obiektu

--wymiarowy wektor działań kontrolnych

- funkcja prawej strony równania (1)

Do wektora sterującego
nałożone jest ograniczenie, założymy, że jego wartości należą do jakiegoś zamkniętego obszaru Niektóre -przestrzeń wymiarowa. Oznacza to, że pełni funkcję wykonawczą
należy do regionu w dowolnym momencie (
).

Zatem przykładowo, jeśli współrzędne funkcji sterującej spełniają nierówności:


potem okolica Jest -wymiarowa kostka.

Nazwijmy dowolną funkcję odcinkowo ciągłą kontrolą dopuszczalną
, którego wartości w każdym momencie czasu należy do regionu i które mogą posiadać nieciągłości pierwszego rodzaju. Okazuje się, że nawet w przypadku niektórych optymalnych problemów sterowania rozwiązanie można uzyskać w klasie sterowania odcinkowego ciągłego. Aby wybrać sterowanie
w funkcji czasu i stanu początkowego układu
, który jednoznacznie wyznacza ruch obiektu sterującego, wymagane jest, aby układ równań (1) spełniał warunki twierdzenia o istnieniu i jednoznaczności rozwiązania w obszarze
. Obszar ten zawiera możliwe trajektorie ruchu obiektu i możliwe funkcje sterujące.
. Jeżeli dziedzina zmienności zmiennych jest wypukła, to dla istnienia i jednoznaczności rozwiązania wystarczy, że funkcja

. były ciągłe we wszystkich argumentach i miały ciągłe pochodne cząstkowe względem zmiennych

.

Jako kryterium charakteryzujące jakość działania systemu wybiera się funkcjonał postaci:

(2)

Jako funkcja
założymy, że jest ciągły we wszystkich swoich argumentach i ma ciągłe pochodne cząstkowe względem

.

Aby zaprojektować optymalny system automatycznego sterowania, wymagane są pełne informacje o wzmacniaczu operacyjnym, wpływach zakłócających i głównych, a także o stanie początkowym i końcowym wzmacniacza operacyjnego. Następnie musisz wybrać kryterium optymalności. Jako takie kryterium można zastosować jeden ze wskaźników jakości systemu. Jednak wymagania dotyczące poszczególnych wskaźników jakości są zwykle sprzeczne (na przykład zwiększenie dokładności systemu osiąga się poprzez zmniejszenie marginesu stabilności). Ponadto optymalny system powinien mieć minimum możliwy błąd nie tylko podczas opracowywania konkretnego działania sterującego, ale przez cały czas pracy systemu. Należy również wziąć pod uwagę, że rozwiązanie optymalnego problemu sterowania zależy nie tylko od struktury systemu, ale także od parametrów jego elementów składowych.

Osiągnięcie optymalnego funkcjonowania ACS w dużej mierze zależy od tego, jak prowadzona jest kontrola w czasie, jaki jest program lub algorytm sterowania. W tym zakresie do oceny optymalności systemów stosuje się kryteria integralne, obliczane jako suma wartości interesującego projektantów wartości parametru jakości systemu dla całego czasu procesu kontroli.

W zależności od przyjętego kryterium optymalności rozważamy następujące typy optymalne systemy.

1. Systemy, optymalne pod względem wydajności, które zapewniają minimalny czas przeniesienia wzmacniacza operacyjnego z jednego stanu do drugiego. W tym przypadku kryterium optymalności wygląda następująco:

gdzie / n i / k to momenty początku i końca procesu sterowania.

W takich systemach czas trwania procesu sterowania jest minimalny. Najprostszym przykładem jest układ sterowania silnikiem, który zapewnia minimalny czas przyspieszania do danej prędkości, biorąc pod uwagę wszystkie istniejące ograniczenia.

2. Systemy, optymalne pod względem zużycia zasobów, które gwarantują kryterium minimalne

Gdzie Do- współczynnik proporcjonalności; U(t)- działanie kontrolne.

Taki system zarządzania silnikiem zapewnia np. minimalne zużycie paliwa przez cały okres kontrolny.

3. Systemy, optymalne pod względem strat sterowania(lub dokładność), które zapewniają minimalne błędy sterowania w oparciu o kryterium, gdzie e(f) jest błędem dynamicznym.

W zasadzie problem zaprojektowania optymalnego układu automatyki można rozwiązać najprostszą metodą wyliczenia wszystkich możliwe opcje. Oczywiście ta metoda wymaga Wysokie koszty czas, ale nowoczesne komputery umożliwiają jego wykorzystanie w niektórych przypadkach. Do rozwiązywania problemów optymalizacyjnych opracowano specjalne metody rachunku wariacyjnego (metoda maksymalna, metoda programowania dynamicznego itp.), które pozwalają uwzględnić wszystkie ograniczenia systemów rzeczywistych.

Jako przykład rozważmy, jaka powinna być optymalna kontrola prędkości silnika elektrycznego prądu stałego, jeśli dostarczane do niego napięcie jest ograniczone przez wartość graniczną (/lr, a sam silnik można przedstawić jako łącze aperiodyczne drugiego rzędu (ryc. 13,9, A).

Metoda maksimum pozwala obliczyć prawo zmian ty (d), zapewnienie minimalnego czasu rozpędzania silnika do prędkości obrotowej (rys. 13.9, B). Proces sterowania tym silnikiem musi składać się z dwóch przedziałów, w każdym z nich napięcie ty (t) przyjmuje swoją maksymalną dopuszczalną wartość (w przedziale 0 - /,: ty (t)= +?/ np. w przedziale /| - / 2: ty (t)= -?/ pr)* Aby zapewnić taką kontrolę, w systemie musi znajdować się element przekaźnikowy.

Podobnie jak systemy konwencjonalne, optymalne są systemy z pętlą otwartą, zamkniętą i łączone. Jeżeli optymalne sterowanie, które przenosi wzmacniacz operacyjny ze stanu początkowego do stanu końcowego i jest niezależne lub słabo zależne od wpływów zakłócających, można określić w funkcji czasu U= (/(/), następnie budujemy system z otwartą pętlą sterowanie programowe (ryc. 13.10, A).

Optymalny program P, mający na celu osiągnięcie ekstremum przyjętego kryterium optymalności, jest osadzony w urządzeniu programowym PU. Zgodnie z tym schematem odbywa się zarządzanie


Ryż. 13.9.

A- ze wspólnym urządzeniem sterującym; B - z dwupoziomowym regulatorem

urządzenie

Ryż. 13.10. Schematy układów optymalnych: A- otwarty; B- połączone

wykorzystanie maszyn sterowanych numerycznie i prostych robotów, wystrzeliwanie rakiet na orbitę itp.

Najbardziej zaawansowane, choć także najbardziej złożone, są połączone optymalne systemy(ryc. 13.10, B). W takich układach pętla otwarta realizuje optymalne sterowanie według zadanego programu, a pętla zamknięta, zoptymalizowana pod kątem minimalizacji błędów, przetwarza odchylenie parametrów wyjściowych. Stosując linę pomiarową zaburzeń /*, układ staje się niezmienniczy w odniesieniu do całego zestawu wpływów napędzających i zakłócających.

Aby wdrożyć tak doskonały system sterowania, należy dokładnie i szybko zmierzyć wszystkie zakłócające wpływy. Jednak taka możliwość nie zawsze jest dostępna. Znacznie częściej znane są jedynie uśrednione dane statystyczne dotyczące zakłócających wpływów. W wielu przypadkach, zwłaszcza w systemach telekontroli, nawet siła napędowa przedostaje się do systemu wraz z hałasem. A ponieważ interferencja jest na ogół procesem losowym, możliwa jest jedynie synteza statystycznie optymalny system. Taki system nie będzie optymalny dla każdy specyficznej realizacji procesu kontroli, ale średnio będzie ona najlepsza dla całego zestawu jego wdrożeń.

W przypadku systemów statystycznie optymalnych jako kryteria optymalności stosuje się uśrednione szacunki probabilistyczne. Na przykład w przypadku systemu śledzenia zoptymalizowanego pod kątem minimalnego błędu jako statystyczne kryterium optymalności stosuje się matematyczne oczekiwanie kwadratu odchylenia efektu wyjściowego od określonej wartości. zmienność:

Stosowane są również inne kryteria probabilistyczne. Na przykład w systemie wykrywania celu, gdzie ważna jest tylko obecność lub brak celu, jako kryterium optymalności stosuje się prawdopodobieństwo błędnej decyzji Rosz:

Gdzie R str ts to prawdopodobieństwo nieosiągnięcia celu; R LO- prawdopodobieństwo fałszywego wykrycia.

W wielu przypadkach obliczone optymalne układy automatyki okazują się praktycznie niemożliwe do wdrożenia ze względu na ich złożoność. Z reguły wymagane jest uzyskanie dokładnych wartości pochodnych wyższego rzędu na podstawie wpływów wejściowych, co jest technicznie bardzo trudne do osiągnięcia. Często nawet teoretyczna dokładna synteza optymalnego układu okazuje się niemożliwa. Optymalne metody projektowania umożliwiają jednak budowę układów quasi-optymalnych, choć w pewnym stopniu uproszczonych, to jednak pozwalających na osiągnięcie wartości przyjętych kryteriów optymalności bliskich ekstremalnych.

Definicja i konieczność budowy optymalnych układów automatyki

Automatyczne systemy sterowania są zwykle projektowane w oparciu o wymagania mające na celu zapewnienie określonych wskaźników jakości. W wielu przypadkach niezbędny wzrost dokładności dynamicznej i usprawnienie procesów przejściowych automatycznych układów sterowania osiąga się za pomocą urządzeń korekcyjnych.

Zwłaszcza szerokie możliwości Poprawę wskaźników jakości osiąga się poprzez wprowadzenie do ACS kanałów kompensacyjnych w otwartej pętli i połączeń różnicowych, syntetyzowanych z tego lub innego warunku niezmienności błędu w odniesieniu do wpływów głównych lub zakłócających. Jednakże wpływ urządzeń korekcyjnych, otwartych kanałów kompensacyjnych i równoważnych połączeń różnicowych na wskaźniki jakości ACS zależy od poziomu ograniczenia sygnału przez nieliniowe elementy systemu. Sygnały wyjściowe urządzeń różnicujących, zwykle krótkotrwałe i o znacznej amplitudzie, ograniczają się do elementów systemu i nie prowadzą do poprawy wskaźników jakości systemu, w szczególności jego prędkości. najwyższe wyniki Tak zwane sterowanie optymalne stanowi rozwiązanie problemu zwiększania wskaźników jakości automatycznego systemu sterowania w obecności ograniczeń sygnału.

Problem syntezy układów optymalnych został ściśle sformułowany stosunkowo niedawno, kiedy zdefiniowano pojęcie kryterium optymalności. W zależności od celu zarządzania, różne techniczne lub wskaźniki ekonomiczne kontrolowany proces. W optymalnych systemach zapewniony jest nie tylko niewielki wzrost tego czy innego wskaźnika jakości technicznej i ekonomicznej, ale osiągnięcie jego minimalnej lub maksymalnej możliwej wartości.

Jeżeli kryterium optymalności wyraża straty techniczne i ekonomiczne (błędy systemu, czas procesu przejścia, zużycie energii, fundusze, koszty itp.), to optymalną kontrolą będzie ta, która zapewnia kryterium minimalnej optymalności. Jeśli wyraża rentowność (efektywność, produktywność, zysk, zasięg rakiety itp.), wówczas optymalna kontrola powinna zapewniać kryterium maksymalnej optymalności.

Problem wyznaczenia optymalnego układu automatyki, w szczególności syntezy optymalnych parametrów układu po przyjęciu na jego wejście wzorca

wpływ i zakłócenia, które są stacjonarnymi sygnałami losowymi, zostały omówione w rozdz. 7. Przypomnijmy, że w w tym przypadku Za kryterium optymalności przyjmuje się pierwiastek błędu średniokwadratowego (RMSE). Warunki zwiększenia dokładności odtwarzania sygnału użytecznego (określenia wpływu) i tłumienia zakłóceń są sprzeczne, dlatego pojawia się zadanie dobrania takich (optymalnych) parametrów układu, przy których odchylenie standardowe przyjmuje najmniejszą wartość.

Synteza układu optymalnego przy zastosowaniu średniokwadratowego kryterium optymalności problem prywatny. Metody ogólne Synteza układów optymalnych opiera się na rachunku wariacyjnym. Jednak klasyczne metody rachunku wariacyjnego do rozwiązywania współczesnych problemów praktycznych, wymagających uwzględnienia ograniczeń, w wielu przypadkach okazują się nieodpowiednie. Najwygodniejszymi metodami syntezy optymalnych układów automatycznego sterowania są metoda programowania dynamicznego Bellmana i zasada maksimum Pontryagina.

Zatem wraz z problemem doskonalenia różnych wskaźników jakości systemów automatycznego sterowania pojawia się problem budowy optymalnych systemów, w których osiągnięta zostanie ekstremalna wartość tego lub innego wskaźnika jakości technicznej i ekonomicznej.

Opracowanie i wdrożenie optymalnych systemów automatycznego sterowania pomaga zwiększyć efektywność wykorzystania jednostek produkcyjnych, zwiększyć wydajność pracy, poprawić jakość produktów, oszczędzać energię, paliwo, surowce itp.

Pojęcia dotyczące stanu fazowego i trajektorii fazowej obiektu

W technologii często pojawia się zadanie przeniesienia kontrolowanego obiektu (procesu) z jednego stanu do drugiego. Na przykład do celowania potrzebna jest antena stacja radarowa obrócić z pozycji początkowej z azymutem początkowym do określonej pozycji z azymutem. W tym celu napięcie sterujące jest dostarczane do silnika elektrycznego podłączonego do anteny za pośrednictwem przekładni. W każdym momencie stan anteny charakteryzuje się aktualną wartością kąta obrotu i prędkości kątowej. Te dwie wielkości zmieniają się w zależności od napięcia sterującego i. Zatem istnieją trzy powiązane ze sobą parametry i (ryc. 11.1).

Wielkości charakteryzujące stan anteny nazywane są współrzędnymi fazowymi i - działaniem sterującym. Przy wyznaczaniu celu jako radar, np. stanowisko naprowadzania działa, pojawia się zadanie obracania anteny w azymucie i elewacji. W tym przypadku będziemy mieli cztery współrzędne fazowe obiektu i dwie akcje sterujące. Dla latającego statku powietrznego możemy uwzględnić sześć współrzędnych fazowych (trzy współrzędne przestrzenne i trzy składowe prędkości) oraz kilka działań sterujących (ciąg silnika, wielkości charakteryzujące położenie sterów

Ryż. 11.1. Schemat obiektu z jednym działaniem sterującym i dwoma współrzędnymi fazowymi.

Ryż. 11.2. Schemat obiektu z działaniami sterującymi i współrzędnymi fazowymi.

Ryż. 11.3. Schemat obiektu z obrazem wektorowym działania sterującego i stanem fazowym obiektu

wysokość i kierunek, lotki). W ogólnym przypadku w każdym momencie stan obiektu charakteryzuje się współrzędnymi fazowymi, a do obiektu można zastosować działania sterujące (ryc. 11.2).

Przez przeniesienie kontrolowanego obiektu (procesu) z jednego stanu do drugiego należy rozumieć nie tylko ruch mechaniczny (np. anteny radarowej, statku powietrznego), ale także wymaganą zmianę różnych wielkości fizyczne: temperatura, ciśnienie, wilgotność w kabinie, skład chemiczny tego czy innego surowca z odpowiednio kontrolowanym procesem technologicznym.

Wygodnie jest traktować działania sterujące jako współrzędne pewnego wektora zwanego wektorem działań kontrolnych. Współrzędne fazowe (zmienne stanu) obiektu można również uznać za współrzędne pewnego wektora lub punktu w przestrzeni wymiarowej ze współrzędnymi. Punkt ten nazywany jest stanem fazowym (wektorem stanu) obiektu i przestrzenią wymiarową w której stany fazowe są przedstawiane jako punkty, nazywa się przestrzenią fazową (przestrzenią stanów) rozważanego obiektu. W przypadku wykorzystania obrazów wektorowych kontrolowany obiekt można przedstawić w sposób pokazany na ryc. 11.3, gdzie i jest wektorem działania sterującego i reprezentuje punkt w przestrzeni fazowej, który charakteryzuje stan fazowy obiektu. Pod wpływem działania sterującego punkt fazowy przesuwa się, wyznaczając pewną linię w przestrzeni fazowej, zwaną trajektorią fazową ruchu rozpatrywanego obiektu.

Problemy sterowania optymalnego dotyczą teorii problemów ekstremalnych, czyli problemów wyznaczania wartości maksymalnych i minimalnych. Już sam fakt znalezienia w tym wyrażeniu kilku łacińskich słów (maximum – największy, minimum – najmniejszy, extremum – ekstremum, optimus – optymalny) wskazuje, że teoria problemów ekstremalnych jest przedmiotem badań już od czasów starożytnych. O niektórych z tych problemów pisali Arystoteles (384-322 p.n.e.), Euklides (III wiek p.n.e.) i Archimedes (287-212 p.n.e.). Legenda wiąże założenie miasta Kartagina (825 r. p.n.e.) ze starożytnym problemem wyznaczania zamkniętej krzywej płaskiej obejmującej figurę o maksymalnej możliwej powierzchni. Takie problemy nazywane są izoperymetrycznymi.

Cechą charakterystyczną problemów skrajnych jest to, że ich sformułowanie zostało wygenerowane przez aktualne żądania rozwoju społeczeństwa. Co więcej, począwszy od XVII wieku dominowała koncepcja, że ​​prawa otaczającego nas świata są konsekwencją pewnych zasad wariacyjnych. Pierwszą z nich była zasada P. Fermata (1660), według której trajektoria światła rozchodzącego się z jednego punktu do drugiego powinna być taka, aby czas przejścia światła tą trajektorią był jak najkrótszy. Następnie zaproponowano różne zasady wariacyjne szeroko stosowane w naukach przyrodniczych, na przykład: zasadę stacjonarnego działania U.R. Hamiltona (1834), zasadę ruchów wirtualnych, zasadę najmniejszego przymusu itp. Jednocześnie opracowano metody rozwiązywania problemów ekstremalnych. Około 1630 roku Fermat sformułował metodę badania ekstremum wielomianów, która polega na tym, że w punkcie ekstremum pochodna jest równa zeru. Dla ogólnego przypadku metodę tę uzyskali I. Newton (1671) i G.V. Leibniza (1684), którego dzieła wyznaczają narodziny Analiza matematyczna. Początki rozwoju klasycznego rachunku wariacyjnego datuje się na pojawienie się w 1696 roku artykułu I. Bernoulliego (ucznia Leibniza), w którym sformułowano zagadnienie krzywej łączącej dwa punkty A i B, poruszającej się wzdłuż który z punktu A do B pod wpływem grawitacji punkt materialny dotrze do B w możliwie najkrótszym czasie.

W ramach klasycznego rachunku wariacyjnego XVIII-XIX w. ustalono warunki konieczne dla ekstremum pierwszego rzędu (L. Euler, J.L. Lagrange), a później opracowano warunki konieczne i wystarczające drugiego rzędu ( K.T.V. Weierstrass, A.M. Legendre, K.G.Ya), skonstruowano teorię Hamiltona-Jacobiego i teorię pola (D. Gilbert, A. Kneser). Dalszy rozwój teoria problemów ekstremalnych doprowadziła w XX wieku do powstania programowania liniowego, analizy wypukłej, programowania matematycznego, teorii minimaksów i kilku innych dziedzin, z których jedną jest teoria sterowania optymalnego.

Teoria ta, podobnie jak inne obszary teorii problemów ekstremalnych, powstała w związku z aktualnymi problemami automatycznego sterowania pod koniec lat 40-tych (sterowanie windą w kopalni w celu jej jak najszybszego zatrzymania, sterowanie ruchem rakiet, stabilizacja mocy elektrowni wodnych itp.). Należy zauważyć, że stwierdzenia dotyczące poszczególnych problemów, które można zinterpretować jako problemy optymalnego sterowania, zetknęły się już wcześniej, np. w „Mathematical Principles of Natural Philosophy” I. Newtona (1687). Obejmuje to także problem R. Goddarda (1919) podniesienia rakiety na zadaną wysokość przy minimalnym zużyciu paliwa oraz jego podwójny problem podniesienia rakiety na zadaną wysokość maksymalna wysokość za daną ilość paliwa. W ostatnim czasie ustalono podstawowe zasady teorii sterowania optymalnego: zasadę maksimum i metodę programowania dynamicznego.

Zasady te stanowią rozwinięcie klasycznego rachunku wariacyjnego do badania problemów zawierających złożone ograniczenia sterowania.

Teraz teoria optymalnej kontroli przechodzi okres szybki rozwój zarówno ze względu na obecność trudnych i ciekawych problemów matematycznych, jak i ze względu na bogactwo zastosowań, m.in. w takich dziedzinach jak ekonomia, biologia, medycyna, energia nuklearna itd.

Wszystkie optymalne problemy sterowania można uznać za problemy programowania matematycznego i w tej postaci można je rozwiązać metodami numerycznymi.

Z optymalną kontrolą hierarchicznych systemów wielopoziomowych, np. dużych produkcja chemiczna, metalurgiczny i kompleksy energetyczne stosowane są wielozadaniowe i wielopoziomowe hierarchiczne optymalne systemy sterowania. Do modelu matematycznego wprowadzane są kryteria jakości zarządzania dla każdego poziomu zarządzania oraz dla całego systemu, a także koordynacja działań pomiędzy poziomami zarządzania.

Jeżeli kontrolowany obiekt lub proces jest deterministyczny, wówczas do jego opisu stosuje się równania różniczkowe. Najczęściej stosowane są równania różniczkowe zwyczajne w postaci. W bardziej złożonych modelach matematycznych (dla układów o parametrach rozłożonych) do opisu obiektu stosuje się równania różniczkowe cząstkowe. Jeżeli kontrolowany obiekt jest stochastyczny, to do jego opisu stosuje się stochastyczne równania różniczkowe.

Jeżeli rozwiązanie danego problemu sterowania optymalnego nie jest w sposób ciągły zależne od danych początkowych (problem źle postawiony), to problem taki rozwiązuje się specjalnymi metodami numerycznymi.

Optymalny system sterowania, który jest w stanie gromadzić doświadczenia i na tej podstawie usprawniać swoją pracę, nazywa się uczącym się optymalnym systemem sterowania.

Rzeczywiste zachowanie obiektu lub systemu zawsze różni się od programowego ze względu na niedokładność warunków początkowych, niepełną informację o zewnętrznych zakłóceniach działających na obiekt, niedokładność w realizacji sterowania programowego itp. Dlatego, aby zminimalizować odchylenie zachowania obiektu od optymalnego, zwykle stosuje się automatyczny system sterowania.

Czasami (np. przy zarządzaniu złożonymi obiektami, np. wielkim piecu w hutnictwie lub przy analizie informacji ekonomicznych) dane wyjściowe i wiedza o kontrolowanym obiekcie przy ustalaniu optymalnego problemu sterowania zawierają informacje niepewne lub niejasne, których nie da się przetworzyć tradycyjnymi metodami. metody ilościowe. W takich przypadkach można zastosować optymalne algorytmy sterowania oparte na matematycznej teorii zbiorów rozmytych (sterowanie rozmyte). Wykorzystane koncepcje i wiedza są przekształcane w formę rozmytą, ustalane są rozmyte reguły wyprowadzania decyzji, a następnie rozmyte decyzje są przekształcane z powrotem w fizyczne zmienne sterujące.

Optymalna kontrola procesu (wykład)

PLAN WYKŁADU

1. Podstawowe pojęcia dotyczące znajdowania ekstremum funkcji

2. Klasyfikacja optymalnych metod sterowania

1. Podstawowe pojęcia dotyczące znajdowania ekstremum funkcji

Każde matematyczne sformułowanie problemu optymalnego jest często równoznaczne lub równoważne z problemem znalezienia ekstremum funkcji jednej lub wielu zmiennych niezależnych. Dlatego do rozwiązania takich optymalnych problemów można zastosować różne metody poszukiwanie ekstremum.

Ogólnie problem optymalizacji formułuje się następująco:

Znajdź ekstrakt funkcji R (x), gdzie XX

R(x) – nazywana funkcją celu lub funkcją albo kryterium optymalizacji albo funkcją zoptymalizowaną

X jest zmienną niezależną.

Jak wiadomo, warunki konieczne na istnienie ekstremum funkcji ciągłej R(x) można otrzymać z analizy pierwszej pochodnej. W tym przypadku funkcja R(x) może mieć wartości ekstremalne dla takich wartości zmiennej niezależnej X, gdzie pierwsza pochodna jest równa 0, tj. =0. Graficznie, jeśli pochodna wynosi zero, oznacza to, że styczna do krzywej R(x) w tym punkcie jest równoległa do odciętej.

Pochodna =0 jest równa warunek konieczny ekstremum.

Jednakże równość pochodnej do zera nie oznacza, że ​​w tym punkcie istnieje ekstremum. Aby ostatecznie upewnić się, że w tym momencie rzeczywiście istnieje ekstremum, należy przeprowadzić dodatkowe badania, na które składają się następujące metody:

1. Metoda porównywania wartości funkcji

Wartość funkcji R (x) w „podejrzewanym” ekstremum X K porównuje się z dwoma sąsiednimi wartościami funkcji R (x) w punktach X K-ε i X K+ε, gdzie ε jest małą wartość dodatnia. (ryc. 2)

Jeżeli obie obliczone wartości R (X K+ε) i R (X K-ε) okażą się mniejsze lub większe od R (X K), to w punkcie X K występuje maksimum lub minimum funkcji R (X).

Jeżeli R (X K) ma wartość pośrednią pomiędzy R (X K-ε) a R (X K+ε), to funkcja R (x) nie ma ani maksimum, ani minimum.

2. Metoda porównywania znaków pochodnych

Rozważmy jeszcze raz funkcję R (X K) w sąsiedztwie punktu X K, tj. X K+ε i X K-ε. Metodą tą uwzględnia się znak pochodnej w sąsiedztwie punktu X K. Jeżeli znaki pochodnej w punktach X K-ε i X K + ε są różne, to w punkcie X K występuje ekstremum. W tym przypadku typ ekstremum (min lub max) można znaleźć zmieniając znak pochodnej przy przejściu od punktu X K-ε do punktu X K+ε.

Jeśli znak zmienia się z „+” na „-”, to w punkcie X K występuje maksimum (ryc. 3b), jeśli odwrotnie z „-” na „+”, to jest minimum. (ryc. 3a)

3. Metoda badania znaków wyższych pochodnych.

Metodę tę stosuje się w przypadkach, gdy w „podejrzanym” punkcie ekstremum znajdują się pochodne wyższych rzędów, tj. funkcja R (X K) jest nie tylko sama ciągła, ale ma także ciągłe pochodne i .

Metoda sprowadza się do:

W punkcie X K„podejrzany” do skrajności, co jest prawdą

obliczana jest wartość drugiej pochodnej.

Jeśli jednocześnie , to w punkcie X K jest maksimum,

Jeśli , to w punkcie X K jest minimum.

Rozwiązując praktyczne problemy optymalizacyjne, należy znaleźć nie jakąś minimalną lub maksymalną wartość funkcji R (X K), ale największą lub najmniejszą wartość tej funkcji, co nazywa się ekstremum globalnym. (ryc. 4)


W ogólnym przypadku problem optymalizacji polega na znalezieniu ekstremum funkcji R(X), przy spełnieniu pewnych ograniczeń w równaniach modelu matematycznego.

Jeśli R(X) jest liniowy, a obszar dopuszczalnych rozwiązań jest określony przez liniowe równości i nierówności, to problem znalezienia ekstremów funkcji należy do klasy problemów programowania liniowego.

Często zbiór X definiuje się jako system funkcji

Wtedy matematyczne sformułowanie problemu programowania liniowego wygląda następująco:

Jeżeli albo funkcja celu R(X), albo którekolwiek z ograniczeń nie jest funkcją liniową, to zadanie znalezienia ekstremum funkcji R(X) należy do klasy problemów programowania nieliniowego.

Jeżeli na zmienną X nie nałożono żadnych ograniczeń, wówczas taki problem nazywa się problemem ekstremum bezwarunkowego.

Przykład typowe zadanie optymalizacja

Problem z pudełkiem o maksymalnej objętości.

Z tego wykroju należy wyciąć w rogach cztery równe kwadraty, a powstałą figurę (ryc. 5 b) wygiąć tak, aby powstało pudełko bez górnej pokrywy (ryc. 6.5 c). w takim przypadku konieczne jest wybranie rozmiaru wyciętych kwadratów, aby uzyskać pudełko o maksymalnej objętości.

Na przykładzie tego problemu możemy zilustrować wszystkie elementy stawianych problemów optymalizacyjnych.

Ryż. 5. Schemat wykonania pudełka z prostokątnego półwyrobu o ustalonym rozmiarze

Funkcją oceny w tym zadaniu jest objętość wyprodukowanego pudełka. Problemem jest wybór wielkości kwadratów do wycięcia. Rzeczywiście, jeśli rozmiar wyciętych kwadratów jest zbyt mały, wówczas zostanie uzyskane szerokie pudełko o małej wysokości, co oznacza, że ​​​​objętość będzie mała. Z drugiej strony, jeśli rozmiar wyciętych kwadratów będzie zbyt duży, otrzymasz wąskie pudełko wysoki pułap, co oznacza, że ​​jego objętość również będzie niewielka.

Jednocześnie na wybór wielkości wycinanych kwadratów wpływa ograniczenie wielkości pierwotnego przedmiotu obrabianego. Rzeczywiście, jeśli wytniesz kwadraty o boku równym połowie boku pierwotnego przedmiotu, zadanie stanie się bez znaczenia. Bok wyciętych kwadratów nie może również przekraczać połowy boków pierwotnego przedmiotu, ponieważ jest to niemożliwe ze względów praktycznych. Wynika z tego, że sformułowanie tego problemu musi zawierać pewne ograniczenia.

Matematyczne sformułowanie problemu pudełka o maksymalnej objętości. Aby sformułować to zadanie matematycznie, należy uwzględnić pewne parametry charakteryzujące wymiary geometryczne pudełka. W tym celu merytoryczne sformułowanie problemu uzupełnimy o odpowiednie parametry. W tym celu rozważymy kwadratowy półfabrykat wykonany z jakiegoś elastycznego materiału, który ma bok o długości L (ryc. 6). Z tego półfabrykatu należy wyciąć cztery równe kwadraty z bokiem w rogach i wygiąć powstałą figurę, aby otrzymać pudełko bez górnej pokrywy. Zadanie polega na dobraniu wielkości wyciętych kwadratów tak, aby w rezultacie powstało pudełko o maksymalnej objętości.

Ryż. 6. Schemat produkcji z prostokątnego półfabrykatu wskazujący jego wymiary

Aby sformułować ten problem matematycznie, należy wyznaczyć zmienne odpowiadającego mu problemu optymalizacyjnego, wyznaczyć funkcję celu i określić ograniczenia. Jako zmienną należy przyjąć długość boku wyciętego kwadratu r, która w ogólnym przypadku, na podstawie sensownego sformułowania problemu, przyjmuje ciągłe wartości rzeczywiste. Funkcja celu to objętość powstałego pudełka. Ponieważ długość boku podstawy pudełka jest równa: L - 2r, a wysokość pudełka jest równa r, wówczas jego objętość oblicza się ze wzoru: V (r) = (L -2r) 2 r. Ze względów fizycznych wartości zmiennej r nie mogą być ujemne i przekraczać połowy rozmiaru pierwotnego przedmiotu L, tj. 0,5 l.

Dla wartości r = 0 i r = 0,5 L wyrażone są odpowiednie rozwiązania problemu pudełkowego. Rzeczywiście, w pierwszym przypadku przedmiot obrabiany pozostaje niezmieniony, ale w drugim przypadku jest cięty na 4 identyczne części. Ponieważ rozwiązania te mają interpretację fizyczną, problem pudełkowy, dla wygody jego formułowania i analizy, można uznać za optymalizację z ograniczeniami, takimi jak nieścisłe nierówności.

W celu ujednolicenia zmienną oznaczamy przez x = r, co nie ma wpływu na charakter rozwiązywanego problemu optymalizacyjnego. Wówczas matematyczne sformułowanie problemu pudełka o maksymalnej objętości można zapisać w postaci:

gdzie (1)

Funkcja celu tego problemu jest nieliniowa, więc jest to problem pudełkowy największy rozmiar należy do klasy problemów programowania nieliniowego lub optymalizacji nieliniowej.

2. Klasyfikacja optymalnych metod sterowania

Optymalizacja procesu polega na znalezieniu maksimum danej funkcji lub optymalne warunki przeprowadzanie tego procesu.

Aby ocenić optymalność, należy przede wszystkim wybrać kryterium optymalizacji. Zwykle kryterium optymalizacji wybiera się na podstawie określonych warunków. To może być kryterium technologiczne(np. zawartość Cu w żużlu składowym) lub kryterium ekonomiczne (minimalny koszt produktu przy danej wydajności pracy) itp. Na podstawie wybranego kryterium optymalizacji obliczana jest funkcja celu, która reprezentuje zależność kryterium optymalizacji od parametrów wpływających na jego wartość. Problem optymalizacji sprowadza się do znalezienia ekstremum funkcja celu. W zależności od charakteru rozpatrywanych modeli matematycznych przyjmuje się różne metody optymalizacji matematycznej.

Ogólne sformułowanie problemu optymalizacji jest następujące:

1. Wybierz kryterium

2. Utworzono równanie modelu

3. Wprowadza się system ograniczeń

4. Rozwiązanie

model - liniowy lub nieliniowy

Ograniczenia

W zależności od struktury modelu stosuje się różne metody optymalizacji. Obejmują one:

1. Metody optymalizacji analitycznej (analityczne poszukiwanie ekstremum, metoda mnożnika Lagrange'a, metody wariacyjne)

2. Programowanie matematyczne (programowanie liniowe, programowanie dynamiczne)

3. Metody gradientowe.

4. Metody statystyczne (analiza regresji)

Programowanie liniowe. W problemach programowania liniowego kryterium optymalności przedstawia się jako:

gdzie podaje się stałe współczynniki;

Zmienne zadania.

Równania modelu są równaniami liniowymi (wielomianami) postaci które podlegają ograniczeniom w postaci równości lub nierówności, tj. (2)

W zagadnieniach programowania liniowego zwykle przyjmuje się, że wszystkie zmienne niezależne X j są nieujemne, tj.

Optymalnym rozwiązaniem problemu programowania liniowego jest taki zbiór nieujemnych wartości zmiennych niezależnych

Który spełnia warunki (2) i podaje, w zależności od sformułowania problemu, maksymalną lub minimalną wartość kryterium.

Interpretacja geometryczna to: - kryterium w obecności ograniczeń zmiennych X 1 i X 2 typu równości i nierówności

R ma stałą wartość wzdłuż linii l. Optymalne rozwiązanie będzie w punkcie S, ponieważ w tym momencie kryterium będzie max. Jedną z metod rozwiązania problemu optymalizacyjnego programowania liniowego jest metoda simplex.

Programowanie nieliniowe. Matematyczne sformułowanie problemu programowania nieliniowego jest następujące: Znajdź ekstremum funkcji celu , która ma postać nieliniowości.

Na zmienne niezależne nakładane są różne ograniczenia, takie jak równości lub nierówności

Obecnie do rozwiązywania problemów programowania nieliniowego wykorzystuje się dość dużą liczbę metod.

Należą do nich: 1) Metody gradientowe (metoda gradientowa, metoda najbardziej stromego zniżania, metoda obrazowa, metoda Rosenbrocka itp.)

2) Metody bezgradientowe (metoda Gaussa-Seidela, metoda skaningowa).

Metody optymalizacji gradientowej

Metody te należą do metod numerycznych typu szukaj. Istotą tych metod jest wyznaczenie wartości zmiennych niezależnych, które dają największą (najmniejszą) zmianę funkcji celu. Zwykle osiąga się to poprzez poruszanie się po nachyleniu prostopadłym do powierzchni konturu w danym punkcie.

Rozważmy metodę gradientową. Metoda ta wykorzystuje gradient funkcji celu. W metodzie gradientowej podejmowane są kroki w kierunku jak najszybszego spadku funkcji celu.

Ryż. 8. Znajdowanie minimum metodą gradientową

Poszukiwanie optymalnego przebiega w dwóch etapach:

Etap 1: - znajdź wartości pochodnych cząstkowych dla wszystkich zmiennych niezależnych wyznaczających kierunek gradientu w danym punkcie.

Etap 2: - wykonywany jest krok w kierunku przeciwnym do kierunku nachylenia, tj. w kierunku najszybszego spadku funkcji celu.

Algorytm metody gradientowej można zapisać w następujący sposób:

(3)

Charakter dojścia do optymalu metodą najbardziej stromego opadania jest następujący (rys. 6.9), po znalezieniu gradientu optymalizowanej funkcji w punkcie początkowym i wyznaczeniu kierunku jej najszybszego spadku w określonym punkcie, w tym kierunku wykonywany jest krok schodzenia. Jeżeli w wyniku tego kroku wartość funkcji maleje, to wykonywany jest kolejny krok w tym samym kierunku i tak dalej, aż do znalezienia minimum w tym kierunku, po czym ponownie obliczany jest gradient i nowy kierunek najszybszego wyznacza się spadek funkcji celu.

Bezgradientowe metody poszukiwania ekstremum. Metody te, w przeciwieństwie do metod gradientowych, wykorzystują w procesie wyszukiwania informacje uzyskane nie z analizy instrumentów pochodnych, ale z ocena porównawcza wartość kryterium optymalności w wyniku wykonania kolejnego kroku.

Bezgradientowe metody wyszukiwania ekstremów obejmują:

1. Metoda złotego podziału

2. metoda wykorzystująca liczby Fibonium

3. Metoda Gausa-Seidela (metoda uzyskiwania zmiany zmiennej)

4. metoda skanowania itp.