Algoritmo del simplesso

Disambiguazione – "Metodo del simplesso" rimanda qui. Se stai cercando l'omonimo metodo di ottimizzazione non lineare, vedi metodo di Nelder-Mead.

L'algoritmo del simplesso, ideato dall'americano George Dantzig nel 1947, è un metodo numerico per risolvere problemi di programmazione lineare. È citato dalla rivista statunitense Computing in Science and Engineering come uno dei dieci migliori algoritmi del secolo.[1]

Questo algoritmo fa uso del concetto di simplesso, cioè un politopo di vertici in dimensioni, ossia un segmento di retta in una dimensione, un triangolo in due dimensioni, un tetraedro in tre dimensioni.

La programmazione lineare[modifica | modifica wikitesto]

Lo stesso argomento in dettaglio: Programmazione lineare.

Un problema di programmazione lineare consiste nel massimizzare o minimizzare una funzione lineare definita sull'insieme delle soluzioni di un sistema di disequazioni lineari, dette vincoli.

Per esempio il problema:

è un problema di programmazione lineare.

I vincoli definiscono la regione ammissibile (cioè l'insieme dei punti che soddisfano tutti i vincoli del problema, in inglese "feasible region"). Nel caso della programmazione lineare la regione ammissibile è un poliedro che può essere vuoto, limitato o illimitato. La funzione che va minimizzata o massimizzata è la "funzione obiettivo": essa in pratica calcola il "costo" di ogni soluzione dei vincoli.

È quindi obiettivo della risoluzione di un tale problema trovare tra le soluzioni che soddisfino i vincoli, quella cui corrisponde il costo minimo (o massimo, se si tratta di un ricavo).

L'algoritmo[modifica | modifica wikitesto]

Un sistema di disequazioni lineari definisce come regione ammissibile un politopo. L'algoritmo del simplesso inizia da un vertice iniziale e si sposta lungo i lati del politopo fin quando non raggiunge il vertice della soluzione ottima.

L'algoritmo del simplesso è in grado di determinare di che tipo di poliedro si tratta e trova la soluzione ottima, che è, sotto opportune ipotesi, un vertice del poliedro, nel caso il problema abbia una soluzione ottimale finita.

L'algoritmo viene solitamente formulato su problemi posti nella cosiddetta forma standard dove si deve cioè massimizzare una funzione lineare sottoposta (in inglese "subject to" abbreviato s.t.) a vincoli di uguaglianza, e in cui le variabili siano positive o nulle:

Massimizzare s.t. e , dove è una matrice, sono vettori colonna, le sono le componenti di e la ad esponente è l'operatore di trasposizione.

A tale formulazione si perviene facilmente, sommando o sottraendo a seconda della necessità, una variabile chiamata "di slack" (se sommata) o "di surplus" (se sottratta) ad un problema formulato in forma canonica s.t. e . Riassumibile in un tableau del tipo L'algoritmo si articola nei seguenti passi applicati al tableau:

  1. Verifica di ottimalità. Condizione sufficiente perché la tabella sia ottima è che per ogni (se è un problema di massimo, e per ogni se di minimo).
  2. Se non si ha ancora una tabella ottima scelgo una colonna corrispondente al massimo fra i (costi ridotti positivi) (ve ne sarà almeno uno altrimenti ci saremmo fermati al punto 1).
  3. Verifica di illimitatezza. Condizione sufficiente perché il problema sia illimitato è che nella colonna individuata si abbiano solo valori negativi nella matrice, cioè . Dunque il problema è illimitato lungo questa direzione.
  4. Se non siamo in presenza di un problema illimitato, scelgo il pivot che genera il minimo rapporto tra il termine noto e il coefficiente della relativa variabile nella colonna della matrice , cioè e applico l'operazione di cardine.

L'operazione cardine è quella operazione che permette di spostarsi lungo una direzione ammissibile per un certo passo in modo che la nuova soluzione sia anch'essa ammissibile ma migliore di quella precedente di partenza.

Verifica di ottimalità / Criterio d'arresto[modifica | modifica wikitesto]

Dato il problema di programmazione lineare si considera la base ammissibile contenente colonne linearmente indipendenti di . Si può riscrivere la relazione come:

con matrice contenente le colonne di escluse dalla base ammissibile .

Ancora si può riscrivere la relazione precedente come:

e, andando a sostituire la relazione nella funzione obiettivo relativa al problema iniziale, si ha:

con valore costante e vettore dei costi ridotti.

Sotto tali condizioni se il vettore dei costi ridotti risulta non negativo, la soluzione base ammissibile associata ad risulta essere ottima. Ciò significa che il valore assunto dalla funzione obiettivo è il minimo globale per la funzione nel dominio considerato.

Prestazioni[modifica | modifica wikitesto]

In pratica l'algoritmo funziona molto bene[senza fonte], ma in teoria non è polinomiale e si possono costruire speciali esempi in cui l'algoritmo richiede di visitare un numero di vertici esponenziale rispetto alle dimensioni del problema. Reali competitori del metodo del simplesso per problemi di grandi dimensioni sono i metodi a punti interni.

Tipi di simplesso[modifica | modifica wikitesto]

La descrizione data in precedenza è quantomai generica: l'idea generale di Dantzig è stata poi applicata a molti problemi pratici di ricerca operativa, quindi alla fine questo ha prodotto una lunga serie di algoritmi del simplesso, ognuno per uno specifico problema.

Citiamo in seguito alcuni dei principali metodi del simplesso:

Note[modifica | modifica wikitesto]

  1. ^ Computing in Science and Engineering, volume 2, no. 1, 2000

Voci correlate[modifica | modifica wikitesto]

Altri progetti[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]

Controllo di autoritàLCCN (ENsh85122745 · GND (DE4181488-5 · J9U (ENHE987007546249105171
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica