Sistemi di controllo automatico ottimale. Definizione, caratteristiche e caratteristiche generali dei sistemi ottimi

Vengono chiamati sistemi automatici che forniscono i migliori indicatori di qualità tecnica o tecnica ed economica in determinate condizioni e restrizioni operative reali sistemi ottimali.
I sistemi ottimali si dividono in due classi:
- sistemi ad assetto “hard”, in cui l'incompletezza delle informazioni non interferisce con il raggiungimento dell'obiettivo di controllo;
- sistemi adattativi, in cui l'incompletezza delle informazioni non consente di raggiungere l'obiettivo del controllo senza un aggiustamento automatico del sistema in condizioni di incertezza.
L'obiettivo dell'ottimizzazione è matematicamente espresso come il requisito di garantire il minimo o il massimo di un determinato indicatore di qualità, chiamato criterio di ottimalità o funzione obiettivo. I principali criteri per la qualità dei sistemi automatici sono: il costo di sviluppo, produzione e funzionamento del sistema; qualità del funzionamento (precisione e velocità); affidabilità; energia consumata; peso; volume, ecc.

La qualità del funzionamento è descritta da dipendenze funzionali della forma:

dove u - coordinate di controllo; x - coordinate di fase; f in - disturbi; t about et to - l'inizio e la fine del processo.
Quando si sviluppa un ACS ottimale, è necessario tenere conto delle restrizioni imposte al sistema, che sono di due tipi:
- naturale, a causa del principio di funzionamento dell'oggetto, ad esempio, la velocità del servomotore idraulico non può essere superiore a quella con le serrande completamente aperte, la velocità della pressione sanguigna non può essere superiore a quella sincrona, ecc.;
- artificiali (condizionali), che vengono deliberatamente introdotti, ad esempio, limiti di corrente nel DCT per la normale commutazione, riscaldamento, accelerazione per il normale benessere in un ascensore, ecc.
I criteri di ottimalità possono essere scalari se sono rappresentati da un solo criterio particolare, e vettoriali (multicriteri) se sono rappresentati da un numero di criteri particolari.
Il tempo del processo di transizione può essere preso come criterio di ottimalità quelli. ACS è ottimale in termini di velocità se viene fornito il minimo di questo integrale, tenendo conto delle restrizioni. Sono accettate anche le stime integrali della qualità del processo transitorio, note in TAU, ad esempio quadratiche. Come criterio per l'ottimalità dei sistemi sotto influenze casuali, viene utilizzato il valore medio dell'errore quadrato del sistema Quando controllato da fonti con potenza limitata, viene adottato un funzionale che caratterizza il consumo di energia per il controllo dove u(t) e i(t) sono la tensione e la corrente del circuito di controllo. A volte, come criterio per l'ottimalità dell'ACS complesso, viene preso il massimo profitto del processo tecnologico I = g i P i - S, dove g i è il prezzo del prodotto; Pi - prestazione; S - costi.
Rispetto ai metodi meno rigorosi per la progettazione di sistemi di controllo a circuito chiuso, i vantaggi della teoria dell’ottimizzazione sono i seguenti:
1). la procedura di progettazione è più chiara, perché racchiude in un unico indicatore progettuale tutti gli aspetti significativi della qualità;
2). ovviamente il progettista può aspettarsi di ottenere il miglior risultato in base al fattore di qualità assegnato. Pertanto, per il problema in esame, viene indicata l’area delle restrizioni;
3). è possibile riscontrare incompatibilità di alcuni requisiti di qualità;
4). la procedura implica direttamente la previsione, poiché la valutazione dell'indicatore di qualità si basa sui valori futuri del tempo di controllo;
5). il sistema di controllo risultante sarà adattivo se, nel corso del funzionamento, l'indicatore di progettazione viene riformulato e, lungo il percorso, i parametri del controller vengono ricalcolati;
6). la determinazione dei processi non stazionari ottimali non introduce alcuna difficoltà aggiuntiva;
7). vengono considerati direttamente anche gli oggetti non lineari, tuttavia ciò aumenta la complessità dei calcoli.



Le difficoltà inerenti alla teoria dell’ottimizzazione sono le seguenti:
1). la trasformazione di vari requisiti progettuali in un indicatore significativo di qualità nel linguaggio della matematica non è un compito facile; qui sono possibili tentativi ed errori;
2). gli algoritmi di controllo ottimo esistenti nel caso di sistemi non lineari richiedono programmi computazionali complessi e, in alcuni casi, una grande quantità di tempo del computer;
3). l'indicatore di qualità del sistema di controllo risultante è molto sensibile a vari tipi di ipotesi errate e ai cambiamenti nei parametri dell'oggetto di controllo.

Il problema di ottimizzazione viene risolto in tre fasi:
1). costruzione di modelli matematici del processo fisico, nonché requisiti di qualità. Il modello matematico dei requisiti di qualità è un indicatore della qualità del sistema;
2). calcolo delle azioni di controllo ottimali;
3). sintesi di un controller che genera segnali di controllo ottimali.

La Figura 10.1 mostra la classificazione dei sistemi ottimali.

Definizione e necessità di costruire sistemi di controllo automatico ottimali

I sistemi di controllo automatico sono generalmente progettati in base ai requisiti per garantire determinati indicatori di qualità. In molti casi, il necessario aumento della precisione dinamica e il miglioramento dei processi transitori dei sistemi di controllo automatico si ottengono con l'ausilio di dispositivi correttivi.

Opportunità particolarmente ampie per migliorare gli indicatori di qualità sono fornite dall'introduzione di canali di compensazione aperti e connessioni differenziali nell'ACS, sintetizzati dall'una o dall'altra condizione di invarianza dell'errore rispetto al master o influenze di disturbo. Tuttavia, l'effetto dell'influenza dei dispositivi correttivi, dei canali di compensazione aperti e delle connessioni differenziali equivalenti sugli indicatori di qualità del sistema di controllo automatico dipende dal livello di limitazione del segnale da parte degli elementi non lineari del sistema. I segnali di uscita dei dispositivi di differenziazione, solitamente di breve durata e di ampiezza significativa, sono limitati dagli elementi del sistema e non portano ad un miglioramento della qualità del sistema, in particolare della sua velocità. I migliori risultati nella risoluzione del problema del miglioramento degli indicatori di qualità dell'ACS in presenza di vincoli di segnale si ottengono con il cosiddetto controllo ottimale.

Il problema della sintesi dei sistemi ottimi è stato formulato in modo rigoroso in tempi relativamente recenti, quando è stato definito il concetto di criterio di ottimalità. A seconda dello scopo del controllo, come criterio di ottimalità possono essere selezionati diversi indicatori tecnici o economici del processo controllato. Nei sistemi ottimali, non è previsto solo un certo aumento dell'uno o dell'altro indicatore di qualità tecnica ed economica, ma il raggiungimento del suo valore minimo o massimo possibile.

Se il criterio di ottimalità esprime perdite tecniche ed economiche (errori di sistema, tempo del processo di transizione, consumo di energia, fondi, costi, ecc.), allora il controllo ottimale sarà tale da fornire un minimo del criterio di ottimalità. Se, tuttavia, esprime la redditività (efficienza, produttività, profitto, autonomia di volo del missile, ecc.), allora il controllo ottimale dovrebbe fornire il criterio di massima ottimalità.

Il problema di determinare l'ACS ottimale, in particolare, la sintesi dei parametri ottimali del sistema quando un master inserisce il suo input

l'impatto e l'interferenza, che sono segnali casuali stazionari, sono stati considerati nel cap. 7. Ricordiamo che in questo caso, il valore dell'errore quadratico medio (RMS) viene preso come criterio di ottimalità. Le condizioni per aumentare la precisione della riproduzione di un segnale utile (azione di impostazione) e sopprimere le interferenze sono contraddittorie, e quindi sorge il problema di scegliere parametri di sistema (ottimali) per i quali la deviazione standard assume il valore più piccolo.

La sintesi di un sistema ottimo con un criterio di ottimalità RMS è un problema particolare. I metodi generali per la sintesi di sistemi ottimi si basano sul calcolo delle variazioni. Tuttavia, i metodi classici del calcolo delle variazioni per risolvere i problemi pratici moderni che richiedono la presa in considerazione dei vincoli sono in molti casi inadatti. I metodi più convenienti per la sintesi di sistemi di controllo automatico ottimali sono il metodo di programmazione dinamica di Bellman e il principio del massimo di Pontryagin.

Pertanto, insieme al problema del miglioramento dei vari indicatori di qualità dell'ACS, sorge il problema della costruzione di sistemi ottimali in cui viene raggiunto il valore estremo dell'uno o dell'altro indicatore di qualità tecnica ed economica.

Lo sviluppo e l'implementazione di sistemi di controllo automatico ottimali aiutano ad aumentare l'efficienza dell'uso delle unità di produzione, aumentare la produttività del lavoro, migliorare la qualità del prodotto, risparmiare elettricità, carburante, materie prime, ecc.

Concetti di stato di fase e traiettoria di fase di un oggetto

In ingegneria, spesso si presenta il compito di trasferire un oggetto (processo) controllato da uno stato a un altro. Ad esempio, durante il puntamento è necessario ruotare l'antenna della stazione radar dalla posizione iniziale con l'azimut iniziale a una determinata posizione con l'azimut. Per fare ciò, viene applicata una tensione di controllo al motore elettrico collegato all'antenna tramite un cambio e. In ogni istante lo stato dell'antenna è caratterizzato dal valore attuale dell'angolo di rotazione e della velocità angolare, queste due grandezze cambiano a seconda della tensione di comando e. Pertanto, ci sono tre parametri interconnessi e (Fig. 11.1).

I valori che caratterizzano lo stato dell'antenna sono chiamati coordinate di fase e - l'azione di controllo. Quando si prende di mira un radar come una stazione di guida dei cannoni, sorge il problema della rotazione dell'antenna in azimut ed elevazione. In questo caso avremo quattro coordinate di fase dell'oggetto e due azioni di controllo. Per un aereo in volo si possono considerare sei coordinate di fase (tre coordinate spaziali e tre componenti di velocità) e diverse azioni di controllo (spinta del motore, grandezze che caratterizzano la posizione dei timoni

Riso. 11.1. Schema di un oggetto con un'azione di controllo e due coordinate di fase.

Riso. 11.2. Schema di oggetti con azioni di controllo e coordinate di fase.

Riso. 11.3. Schema dell'oggetto con immagine vettoriale dell'azione di controllo e dello stato di fase dell'oggetto

altitudine e direzione, alettoni). Nel caso generale, in ogni momento, lo stato dell'oggetto è caratterizzato da coordinate di fase e all'oggetto possono essere applicate azioni di controllo (Fig. 11.2).

Sotto il trasferimento di un oggetto (processo) controllato da uno stato a un altro, si dovrebbe comprendere non solo il movimento meccanico (ad esempio antenne radar, aerei), ma anche il cambiamento richiesto in varie quantità fisiche: temperatura, pressione, umidità della cabina, composizione chimica dell'una o dell'altra materia prima con appropriato processo tecnologico controllato.

È conveniente considerare le azioni di controllo come coordinate di un vettore chiamato vettore dell'azione di controllo. Le coordinate di fase (variabili di stato) di un oggetto possono anche essere considerate come le coordinate di un vettore o punto nello spazio a dimensione con coordinate. Questo punto è chiamato stato di fase (vettore di stato) dell'oggetto e lo spazio a dimensione in quali stati di fase sono rappresentati come punti è chiamato spazio delle fasi (spazio degli stati) dell'oggetto in esame. Quando si utilizzano immagini vettoriali, un oggetto gestito può essere rappresentato come mostrato in fig. 11.3, dove e è il vettore dell'azione di controllo ed è un punto nello spazio delle fasi che caratterizza lo stato di fase dell'oggetto. Sotto l'influenza dell'azione di controllo, anche il punto di fase si muove, descrivendo una certa linea nello spazio delle fasi, chiamata traiettoria di fase del movimento considerato dell'oggetto.

Nel caso generale, un sistema automatico è costituito da un oggetto di controllo e da un insieme di dispositivi che forniscono il controllo di questo oggetto. Di norma, questo insieme di dispositivi comprende dispositivi di misurazione, dispositivi di amplificazione e conversione, nonché dispositivi di attuazione. Se combini questi dispositivi in ​​un unico collegamento (dispositivo di controllo), lo schema a blocchi del sistema sarà simile al seguente:

In un sistema automatico, le informazioni sullo stato dell'oggetto controllato attraverso il dispositivo di misurazione vengono fornite all'ingresso del dispositivo di controllo. Tali sistemi sono chiamati sistemi di feedback o sistemi chiusi. L'assenza di questa informazione nell'algoritmo di controllo indica che il sistema è aperto. Verrà descritto lo stato dell'oggetto di controllo in qualsiasi momento variabili
, che sono chiamate coordinate di sistema o variabili di stato. È conveniente considerarli come coordinate - vettore di stato dimensionale.

Il dispositivo di misurazione fornisce informazioni sullo stato dell'oggetto. Se basato sulla misurazione vettoriale
è possibile trovare i valori di tutte le coordinate
vettore di stato
, allora il sistema si dice completamente osservabile.

Il dispositivo di controllo genera un'azione di controllo
. Possono esserci diverse azioni di controllo di questo tipo, si formano - vettore di controllo dimensionale.

L'ingresso del dispositivo di controllo riceve l'azione di ingresso dell'impostazione
. Questa azione di input trasporta informazioni su quale dovrebbe essere lo stato dell'oggetto. L'oggetto del controllo può essere influenzato da un effetto perturbante
, che rappresenta il carico o l'interferenza. La misurazione delle coordinate di un oggetto, di regola, viene eseguita con alcuni errori
, anch'essi casuali.

Il compito del dispositivo di controllo è quello di sviluppare tale azione di controllo
in modo che la qualità del funzionamento del sistema automatico nel suo insieme sarebbe in un certo senso la migliore.

Considereremo tali oggetti di controllo che sono controllabili. Cioè, il vettore di stato può essere modificato come desiderato modificando di conseguenza il vettore di controllo. Supponiamo che l'oggetto sia completamente osservabile.

Ad esempio, la posizione di un aereo è caratterizzata da sei coordinate di stato. Questo
- coordinate del centro di massa,
- Angoli di Eulero, che determinano l'orientamento dell'aereo rispetto al centro di massa. La posizione dell'aereo può essere modificata con l'aiuto di elevatori, rotta, alettoni e mediante l'evasione del vettore di spinta. Pertanto il vettore di controllo è definito come segue:

- angolo di deflessione degli ascensori

- BENE

- alettone

- spinta

Vettore di stato
in questo caso è definito come segue:

È possibile porre il problema della scelta del comando con l'aiuto del quale l'aereo viene trasferito da un dato stato iniziale
ad un dato stato finale
con un consumo minimo di carburante o in un tempo minimo.

Ulteriore complessità nella risoluzione dei problemi tecnici deriva dal fatto che, di norma, vengono imposte varie restrizioni all'azione di controllo e alle coordinate dello stato dell'oggetto di controllo.

Ci sono restrizioni su qualsiasi angolo degli elevatori, della rotta e degli alettoni:



- la trazione stessa è limitata.

Anche le coordinate dello stato dell'oggetto di controllo e le loro derivate sono soggette a restrizioni associate ai sovraccarichi consentiti.

Considereremo oggetti di controllo descritti da un'equazione differenziale:


(1)

Oppure in formato vettoriale:

-vettore di stato dell'oggetto bidimensionale

-vettore bidimensionale delle azioni di controllo

- funzione del membro destro dell'equazione (1)

Per vettore di controllo
viene imposto un vincolo, assumeremo che i suoi valori appartengano a qualche regione chiusa Alcuni spazio bidimensionale. Ciò significa che la funzione di controllo
appartiene alla regione in qualsiasi momento (
).

Quindi, ad esempio, se le coordinate della funzione di controllo soddisfano le disuguaglianze:


poi la zona È cubo bidimensionale.

Controllo ottimale

Controllo ottimale- questo è il compito di progettare un sistema che preveda per un dato oggetto o processo di controllo una legge di controllo o una sequenza di azioni di controllo che forniscano il massimo o il minimo di un dato insieme di criteri di qualità del sistema.

Per risolvere il problema del controllo ottimale, viene costruito un modello matematico di un oggetto o processo controllato che ne descrive il comportamento nel tempo sotto l'influenza delle azioni di controllo e del suo stesso stato attuale. Il modello matematico per il problema del controllo ottimo comprende: la formulazione dell'obiettivo del controllo, espresso attraverso il criterio della qualità del controllo; definizione di equazioni differenziali o alle differenze che descrivono possibili modi di movimento dell'oggetto di controllo; definizione di restrizioni sulle risorse utilizzate sotto forma di equazioni o diseguaglianze.

I seguenti metodi sono più ampiamente utilizzati nella progettazione di sistemi di controllo: calcolo delle variazioni, principio del massimo di Pontryagin e programmazione dinamica di Bellman.

A volte (ad esempio, quando si gestiscono oggetti complessi, come un altoforno nella metallurgia o quando si analizzano informazioni economiche), i dati iniziali e la conoscenza sull'oggetto controllato quando si imposta il problema di controllo ottimale contengono informazioni incerte o confuse che non possono essere elaborate dai metodi tradizionali. metodi quantitativi. In tali casi è possibile utilizzare algoritmi di controllo ottimo basati sulla teoria matematica degli insiemi fuzzy (Fuzzy Control). I concetti e la conoscenza utilizzati vengono convertiti in una forma fuzzy, vengono determinate le regole fuzzy per dedurre le decisioni e quindi viene eseguita la trasformazione inversa delle decisioni fuzzy in variabili di controllo fisico.

Problema di controllo ottimo

Formuliamo il problema di controllo ottimo:

qui - vettore di stato - controllo, - momenti iniziali e finali del tempo.

Il problema di controllo ottimo consiste nel trovare le funzioni di stato e di controllo per il tempo che minimizzino il funzionale.

Calcolo delle variazioni

Consideriamo questo problema di controllo ottimo come un problema di Lagrange del calcolo delle variazioni. Per trovare le condizioni necessarie per un estremo, applichiamo il teorema di Eulero-Lagrange. La funzione di Lagrange ha la forma: , dove sono le condizioni al contorno. La Lagrangiana ha la forma: , dove , , sono vettori n-dimensionali dei moltiplicatori di Lagrange .

Le condizioni necessarie per un estremo, secondo questo teorema, sono:

Le condizioni necessarie (3-5) costituiscono la base per determinare le traiettorie ottimali. Dopo aver scritto queste equazioni, otteniamo un problema al contorno a due punti, in cui parte delle condizioni al contorno è fissata nel momento iniziale e il resto nel momento finale. I metodi per risolvere tali problemi sono discussi in dettaglio nel libro.

Principio del massimo di Pontryagin

La necessità, in linea di principio, del massimo di Pontryagin sorge nel caso in cui è impossibile soddisfare la condizione necessaria (3) in qualsiasi punto dell'intervallo ammissibile della variabile di controllo, vale a dire .

In questo caso, la condizione (3) è sostituita dalla condizione (6):

(6)

In questo caso, secondo il principio del massimo di Pontryagin, il valore del controllo ottimale è uguale al valore del controllo ad uno degli estremi dell'intervallo ammissibile. Le equazioni di Pontryagin sono scritte utilizzando la funzione di Hamilton H, definita dalla relazione . Dalle equazioni risulta che la funzione di Hamilton H è correlata alla funzione di Lagrange L come segue: . Sostituendo L dell'ultima equazione nelle equazioni (3-5) otteniamo le condizioni necessarie espresse in termini della funzione di Hamilton:

Le condizioni necessarie scritte in questa forma sono chiamate equazioni di Pontryagin. Il principio del massimo di Pontryagin è discusso più dettagliatamente nel libro.

Ove applicabile

Il principio massimo è particolarmente importante nei sistemi di controllo con velocità massima e consumo minimo di energia, dove vengono utilizzati controlli di tipo relè che assumono valori estremi anziché intermedi nell'intervallo di controllo consentito.

Storia

Per lo sviluppo della teoria del controllo ottimo L.S. Pontryagin e il suo staff V.G. Boltyansky, R.V. Gamkrelidze e E.F. Mishchenko ricevette il Premio Lenin nel 1962.

Metodo di programmazione dinamica

Il metodo di programmazione dinamica si basa sul principio di ottimalità di Bellman, che è formulato come segue: la strategia di controllo ottimale ha la proprietà che qualunque sia lo stato iniziale e il controllo all'inizio del processo, i controlli successivi devono costituire la strategia di controllo ottimale rispetto allo stato ottenuto dopo la fase iniziale del processo. Per maggiori dettagli sul metodo di programmazione dinamica, consultare il libro

Appunti

Letteratura

  1. Rastrigin L.A. Principi moderni di gestione degli oggetti complessi. - M.: Sov. radio, 1980. - 232 p., BBK 32.815, poligono di tiro. 12000 copie
  2. Alekseev V.M., Tikhomirov V.M. , Fomin S.V. Controllo ottimale. - M.: Nauka, 1979, UDC 519.6, - 223 p., poligono di tiro. 24000 copie

Guarda anche


Fondazione Wikimedia. 2010 .

Scopri cos'è "Controllo ottimale" in altri dizionari:

    Controllo ottimale- Controllo OC, che fornisce il valore più favorevole di un certo criterio di ottimalità (OC), che caratterizza l'efficacia del controllo sotto determinati vincoli. Varie tecniche o economiche... ... Dizionario-libro di consultazione dei termini della documentazione normativa e tecnica

    controllo ottimale- Gestione, il cui scopo è garantire il valore estremo dell'indicatore della gestione della qualità. [Raccolta di termini consigliati. Numero 107. Teoria del controllo. Accademia delle Scienze dell'URSS. Comitato di terminologia scientifica e tecnica. 1984]… … Manuale del traduttore tecnico

    Controllo ottimale- 1. Il concetto di base della teoria matematica dei processi ottimi (appartenente all'omonima branca della matematica: "O.u."); significa la scelta di parametri di controllo che forniscano il meglio dal punto di... ... Dizionario economico e matematico

    Permette, in determinate condizioni (spesso contraddittorie), di raggiungere l'obiettivo nel migliore dei modi, ad esempio. nel più breve tempo, con il massimo effetto economico, con la massima precisione… Grande dizionario enciclopedico

    Da un aereo una sezione di dinamica di volo dedicata allo sviluppo e all'uso di metodi di ottimizzazione per determinare le leggi di controllo del movimento di un aereo e delle sue traiettorie che forniscono il massimo o il minimo del criterio selezionato ... ... Enciclopedia della tecnologia

    Branca della matematica che studia i problemi variazionali non classici. Gli oggetti di cui si occupa la tecnica sono solitamente dotati di "timoni" con il loro aiuto, una persona controlla il movimento. Matematicamente, il comportamento di un tale oggetto è descritto... ... Grande Enciclopedia Sovietica

    Permette, in determinate condizioni (spesso contraddittorie), di raggiungere l'obiettivo nel migliore dei modi, ad esempio, nel più breve tempo, con il massimo effetto economico, con la massima precisione. * * * CONTROLLO OTTIMALE CONTROLLO OTTIMALE … Dizionario enciclopedico

SISTEMI OTTIMALI E ADATTABILI

(lezioni frontali, facoltà di corrispondenza, 5° anno)

Lezione 1

Introduzione.

Nella teoria classica del controllo automatico (TAU), i problemi di ottimizzazione e adattamento si ponevano soprattutto in relazione al controllo “nel piccolo”. Ciò significa che il programma ottimale per modificare le modalità del processo tecnologico, espresso nelle azioni di impostazione dei regolatori, era considerato noto, determinato in fase di progettazione. Il compito della direzione era realizzare questo programma, per stabilizzare il movimento del programma. In questo caso erano consentite solo piccole deviazioni dal movimento dato e i processi transitori "nel piccolo" sono stati ottimizzati secondo determinati criteri.

Tra la fine degli anni '50 e l'inizio degli anni '60. XX secolo, le opere di L.S. Pontryagin (principio massimo), R. Bellman (programmazione dinamica), R. Kalman (filtraggio ottimale, controllabilità e osservabilità), che hanno gettato le basi della moderna teoria del controllo automatico, la cui definizione generalmente accettata non esiste ancora.

Più precisamente, la moderna teoria del controllo automatico può essere separata dalla TAU classica, tenendo conto delle esigenze del progresso scientifico e tecnologico e dell'automazione moderna e avanzata. Il più importante di questi requisiti è utilizzo ottimale tutte le risorse disponibili (energia, informazione, informatica) per raggiungere l'obiettivo finale generale generale, soggetto a restrizioni.

Innanzitutto, questa ottimizzazione richiede il pieno utilizzo delle informazioni a priori disponibili sotto forma di modello matematico di un processo o oggetto controllato. L'uso di tali modelli non solo in fase di progettazione, ma anche durante il funzionamento dei sistemi è uno dei tratti caratteristici della moderna teoria del controllo automatico.

Il controllo ottimale è possibile solo con un'elaborazione ottimale delle informazioni. Pertanto, la teoria della stima (filtraggio) ottimale (e subottimale) dei processi dinamici è parte integrante della moderna teoria del controllo automatico. Particolarmente importante è l'identificazione parametrica (stima di parametri e caratteristiche da dati sperimentali), eseguita in tempo reale nelle modalità operative del sistema operativo.

L'ottimizzazione genuina del controllo automatico in condizioni di informazioni a priori incomplete è possibile solo durante il funzionamento del sistema nella situazione attuale e nella situazione che si è venuta a creare. Pertanto, la moderna teoria del controllo automatico deve tenerne conto ottimale adattivo controllo (non ottimale) "in grande". Inoltre, la moderna teoria del controllo automatico dovrebbe considerare metodi di ridondanza e affidabilità strutturale (in particolare i principi di riconfigurazione automatica del sistema in caso di guasti).

Definizione, caratteristiche e caratteristiche generali dei sistemi ottimi.

Il sistema che è migliore in un certo senso tecnico ed economico è chiamato ottimale. La sua caratteristica principale è la presenza di due obiettivi di controllo che questi sistemi risolvono automaticamente.

L'obiettivo principale del controllo è mantenere il valore controllato a un determinato valore ed eliminare le deviazioni risultanti da questo valore.

L'obiettivo dell'ottimizzazione è garantire la migliore qualità del controllo, determinata dal raggiungimento di un estremo di un determinato indicatore tecnico ed economico, chiamato criterio di ottimalità (OC).

I sistemi ottimali sono divisi a seconda del tipo di CR in due classi: sistemi staticamente ottimali e sistemi dinamicamente ottimali.

Per i sistemi staticamente ottimali, CR è una funzione di parametri o azioni di controllo. Questo criterio ha un estremo nella modalità statica di funzionamento del sistema, e la caratteristica statica che esprime la dipendenza dell'EC dalle azioni di controllo dell'ottimizzazione può essere spostata inaspettatamente sotto l'influenza di disturbi. Il sistema ottimale deve trovare e mantenere questo estremo. Tali sistemi sono applicabili se le perturbazioni che spostano la caratteristica specificata cambiano in modo relativamente lento rispetto alla durata dei processi transitori nel sistema. Quindi il sistema avrà il tempo di tracciare l'estremo praticamente in modalità statica. Tali condizioni sono solitamente soddisfatte al gradino più alto della gerarchia gestionale.

I sistemi dinamicamente ottimali differiscono in quanto il loro criterio di ottimalità è funzionale, cioè una funzione delle funzioni temporali. Ciò significa che impostando le funzioni temporali da cui dipende questo funzionale, otteniamo il valore numerico del funzionale. Questi sistemi possono essere utilizzati in condizioni di influenze esterne che cambiano in modo relativamente rapido, che, tuttavia, non vanno oltre i limiti consentiti. Pertanto, vengono utilizzati ai livelli gestionali inferiori.

1.2. Criteri di ottimalità per sistemi dinamicamente ottimali

Di solito questi funzionali hanno la forma di integrali temporali definiti

Dove x(t), u(t)- vettori di stato e di controllo del sistema dato;

T è la durata del processo (in particolare può essere T = ).

A seconda dell'integrando F 0 questi criteri hanno i seguenti tipi principali.

1. Funzionali lineari per i quali F 0 - funzione lineare delle variabili:

Criterio di massima prestazione a F 0 1, cioè

che è uguale alla durata del processo, e i sistemi corrispondenti sono definiti ottimali in termini di velocità;

Stime integrali lineari

Criterio di prestazione massima

,

dove q(t) è la quantità di prodotti fabbricati.

2. Funzionali quadratici per i quali F 0 è una forma quadratica nelle sue variabili costitutive:

Stime integrali quadratiche della qualità del processo di transizione

;

Il criterio del consumo energetico per il controllo, che ha

,

Dove tu- azione di controllo, ee 2 - la potenza spesa per il controllo;

Un criterio quadratico generalizzato, pari alla somma dei due precedenti, preso con alcuni coefficienti di peso. Caratterizza la qualità del processo di transizione e i relativi costi energetici in un compromesso, vale a dire

,

Dove Q E R sono matrici quadrate definite positive. Funzionali che non contengono integrali:

Il criterio minimax, in fase di ottimizzazione con il quale è necessario garantire il valore minimo del modulo massimo (norma) del vettore di deviazione del processo controllato dalla sua legge di cambiamento di riferimento, vale a dire

, Dove X e è la legge di riferimento del cambiamento.

L'esempio più semplice di questo criterio per il caso scalare è il massimo superamento transitorio noto;

Funzione dallo stato finale

che è un funzionale perché lo stato finale dell'oggetto X(T) è una funzione dell'azione di controllo tu(T). Questo criterio di ottimalità può essere utilizzato in combinazione con uno dei criteri sopra considerati, che ha la forma di un integrale definito.

La scelta dell'uno o dell'altro criterio di ottimalità per un particolare oggetto o sistema viene effettuata sulla base di uno studio appropriato del funzionamento dell'oggetto e dei requisiti tecnici ed economici ad esso imposti. Questo problema non può essere risolto soltanto nel quadro della teoria del controllo automatico. A seconda del significato fisico del criterio di ottimalità, esso deve essere minimizzato o massimizzato. Nel primo caso esprime perdite, nel secondo caso vantaggi tecnici ed economici. Formalmente, cambiando il segno davanti al funzionale, il problema di massimizzazione può essere ridotto a un problema di minimizzazione.

Lezione 2

1.3. Condizioni al contorno e restrizioni
per sistemi dinamicamente ottimali

L'obiettivo principale del controllo in tali sistemi è solitamente formulato come il compito di trasferire il punto rappresentativo da uno stato iniziale x(O) a uno stato finale x(T). Lo stato iniziale è solitamente chiamato estremità sinistra della traiettoria ottimale, mentre lo stato finale è chiamato estremità destra. Presi insieme, questi dati costituiscono le condizioni al contorno. I problemi di controllo possono differire nel tipo di condizioni al contorno.

1. Problema con le estremità fisse della traiettoria avviene quando X(0) e X(T) punti fissi dello spazio.

2. Problema con lo spostamento delle estremità della traiettoria succede quando X(0) e X(T) appartengono ad alcune linee o superfici dello spazio conosciute.

3. Problema con le estremità libere della traiettoria si verifica quando i punti specificati occupano posizioni arbitrarie. In pratica, ci sono anche compiti misti, ad esempio X(0) è fisso e X(T) mobile. Tale compito avrà luogo se un oggetto da un dato stato fisso deve "recuperare" una certa traiettoria di riferimento (Fig. 1).

I vincoli sono chiamati condizioni aggiuntive che devono essere soddisfatte dalle azioni di controllo e dai valori controllati. Esistono due tipi di restrizioni.

1. Restrizioni incondizionate (naturali), che vengono eseguiti a causa delle leggi fisiche per i processi nell'oggetto di controllo (OC). Queste restrizioni mostrano che alcune quantità e le loro funzioni non possono andare oltre i confini definiti da uguaglianze o disuguaglianze. Ad esempio, l'equazione per un motore CC (motore CC):

,

limitazione sulla velocità di un motore a induzione, dove è la velocità sincrona.

2. Restrizioni condizionali (artificiali), esprimendo tali requisiti per quantità o funzioni da essi, secondo i quali non dovrebbero superare i confini definiti da uguaglianze o disuguaglianze nelle condizioni di funzionamento durevole e sicuro degli oggetti. Ad esempio, limitazione della tensione di alimentazione, restrizioni sulla velocità consentita, accelerazione, ecc.

Per garantire restrizioni condizionali è necessario adottare misure di natura circuitale o software durante l'implementazione del corrispondente dispositivo di controllo.

I vincoli, indipendentemente dalla loro forma, espressi dalle uguaglianze sono chiamati classici e dalle disuguaglianze - non classici.


Informazioni simili.