Fourier-Motzkin-Elimination

Die Fourier-Motzkin-Elimination ist ein Verfahren, um einen durch ein lineares Ungleichungssystem gegebenen konvexen Polyeder P ( A , b ) := { x | A x b } {\displaystyle P(A,b):=\{x\;|\;Ax\leq b\}} auf eine Hyperebene der Form H := { x | x j = 0 } {\displaystyle H:=\{x\;|\;x_{j}=0\}} zu projizieren. Dabei ist A R m × n {\displaystyle A\in \mathbb {R} ^{m\times n}} eine Matrix und b R m {\displaystyle b\in \mathbb {R} ^{m}} eine passende rechte Seite.

Das Verfahren wurde von Joseph Fourier im Jahr 1827 erstmals beschrieben,[1] geriet jedoch in Vergessenheit und wurde schließlich 1936 in der Doktorarbeit von Theodore Motzkin erneut entdeckt.[2]

Beschreibung des Verfahrens

Der Algorithmus kombiniert die Zeilen A i   i M := { 1 m } {\displaystyle A_{i\cdot }\ i\in M:=\{1\ldots m\}} der Matrix A {\displaystyle A} und die Einträge der rechten Seite b {\displaystyle b} konisch zu neuen Ungleichungen. Dies geschieht in einer Weise, die sicherstellt, dass die resultierenden neuen Ungleichungen die Variable x j {\displaystyle x_{j}} nicht länger beinhalten.

Der Algorithmus wird durch folgenden Pseudocode beschrieben:

 function FourierMotzkin(A, b, j) is
     Eingabe: eine Matrix 
  
    
      
        A
      
    
    {\displaystyle A}
  
 der Dimension 
  
    
      
        (
        m
        ,
        n
        )
      
    
    {\displaystyle (m,n)}
  
, ein Vektor 
  
    
      
        b
      
    
    {\displaystyle b}
  
 der Dimension 
  
    
      
        m
      
    
    {\displaystyle m}
  

              und ein Index j 
  
    
      
        
        {
        1
        ,
        
        ,
        n
        }
      
    
    {\displaystyle \in \{1,\ldots ,n\}}
  

     Ausgabe: eine Matrix 
  
    
      
        D
      
    
    {\displaystyle D}
  
 der Dimension 
  
    
      
        (
        r
        ,
        n
        )
      
    
    {\displaystyle (r,n)}
  
, sodass 
  
    
      
        
          D
          
            i
            j
          
        
        =
        0
      
    
    {\displaystyle D_{ij}=0}
  
 für alle 
  
    
      
        i
        =
        1
        ,
        
        ,
        r
      
    
    {\displaystyle i=1,\ldots ,r}
  

              und ein Vektor 
  
    
      
        d
      
    
    {\displaystyle d}
  
 mit 
  
    
      
        r
      
    
    {\displaystyle r}
  
 Einträgen
     
  
    
      
        Z
        
        {
        i
        
        M
        
        
          |
        
        
        
          a
          
            i
            j
          
        
        =
        0
        }
      
    
    {\displaystyle Z\leftarrow \{i\in M\;|\;a_{ij}=0\}}
  

     
  
    
      
        N
        
        {
        i
        
        M
        
        
          |
        
        
        
          a
          
            i
            j
          
        
        <
        0
        }
      
    
    {\displaystyle N\leftarrow \{i\in M\;|\;a_{ij}<0\}}
  

     
  
    
      
        P
        
        {
        i
        
        M
        
        
          |
        
        
        
          a
          
            i
            j
          
        
        >
        0
        }
      
    
    {\displaystyle P\leftarrow \{i\in M\;|\;a_{ij}>0\}}
  

     
  
    
      
        R
        
        Z
        
        (
        N
        ×
        P
        )
      
    
    {\displaystyle R\leftarrow Z\cup (N\times P)}
  

     
  
    
      
        r
        
        
          |
        
        R
        
          |
        
      
    
    {\displaystyle r\leftarrow |R|}
  

     
  
    
      
        p
        
      
    
    {\displaystyle p\leftarrow }
  
 eine Indizierung der Elemente in 
  
    
      
        R
      
    
    {\displaystyle R}
  
, also eine Bijektion 
  
    
      
        p
        :
        {
        1
        ,
        
        ,
        r
        }
        
        R
      
    
    {\displaystyle p:\{1,\ldots ,r\}\rightarrow R}
  

     for 
  
    
      
        i
        =
        1
      
    
    {\displaystyle i=1}
  
 to 
  
    
      
        r
      
    
    {\displaystyle r}
  
 do
         if 
  
    
      
        p
        (
        i
        )
        
        Z
      
    
    {\displaystyle p(i)\in Z}
  
 then
             
  
    
      
        
          D
          
            i
            
          
        
        
        
          A
          
            p
            (
            i
            )
            
          
        
      
    
    {\displaystyle D_{i\cdot }\leftarrow A_{p(i)\cdot }}
  

             
  
    
      
        
          d
          
            i
          
        
         
        
        
          b
          
            p
            (
            i
            )
          
        
      
    
    {\displaystyle d_{i}\ \leftarrow b_{p(i)}}
  

         else if 
  
    
      
        p
        (
        i
        )
        =
        (
        s
        ,
        t
        )
        
        N
        ×
        P
      
    
    {\displaystyle p(i)=(s,t)\in N\times P}
  
 then
             
  
    
      
        
          D
          
            i
            
          
        
        
        
          a
          
            t
            j
          
        
        
          A
          
            s
            
          
        
        
        
          a
          
            s
            j
          
        
        
          A
          
            t
            
          
        
      
    
    {\displaystyle D_{i\cdot }\leftarrow a_{tj}A_{s\cdot }-a_{sj}A_{t\cdot }}
  

             
  
    
      
        
          d
          
            i
          
        
         
        
        
          a
          
            t
            j
          
        
        
          b
          
            s
          
        
        
        
          a
          
            s
            j
          
        
        
          b
          
            t
          
        
      
    
    {\displaystyle d_{i}\ \leftarrow a_{tj}b_{s}-a_{sj}b_{t}}
  

         endif
     endfor
     return 
  
    
      
        (
        D
        ,
        d
        )
      
    
    {\displaystyle (D,d)}
  

Der resultierende Polyeder P ( D , d ) {\displaystyle P(D,d)} beschreibt anschließend die gewünschte Projektion[A. 1].

Beispiel für die Fourier-Motzkin-Elimination

Die Projektion eines Polyeders auf verschiedene (lineare) Hyperebenen

Als Beispiel wählen wir den Polyeder P ( A , b ) {\displaystyle P(A,b)} , der durch das folgende Ungleichungssystem gegeben ist:

P ( A , b ) = { ( x , y ) R 2   |   x 1 ,   2 x + 4 y 14 ,   x 2 y 1 } {\displaystyle P(A,b)=\{(x,y)\in \mathbb {R} ^{2}\ |\ x\geq 1,\ 2x+4y\leq 14,\ x-2y\leq -1\}}

Die entsprechende Matrix und rechte Seite sind folglich

A = ( 1 0 2 4 1 2 ) ,   b = ( 1 14 1 ) {\displaystyle A=\left({\begin{array}{rr}-1&0\\2&4\\1&-2\\\end{array}}\right),\ b=\left({\begin{array}{r}-1\\14\\-1\\\end{array}}\right)}

Für die Projektion auf die Hyperebene x = 0 {\displaystyle x=0} , also für j = 1 {\displaystyle j=1} , erhalten wir die folgenden Mengen:

Z = {\displaystyle Z=\emptyset } , N = { 1 } {\displaystyle N=\{1\}} und P = { 2 , 3 } {\displaystyle P=\{2,3\}} .

Damit ist r = 2 {\displaystyle r=2} und R = { ( 1 , 2 ) ,   ( 1 , 3 ) } {\displaystyle R=\{(1,2),\ (1,3)\}} . Wir setzen p ( 1 ) = ( 1 , 2 ) ,   p ( 2 ) = ( 1 , 3 ) {\displaystyle p(1)=(1,2),\ p(2)=(1,3)} .

Für i = 1 {\displaystyle i=1} kombinieren wir die erste und zweite Ungleichung:

2 ( x ) ( 1 ) ( 2 x + 4 y ) 2 ( 1 ) ( 1 ) ( 14 ) 4 y 12 {\displaystyle 2\cdot (-x)-(-1)\cdot (2x+4y)\leq 2\cdot (-1)-(-1)\cdot (14)\;\Longrightarrow \;4y\leq 12}

Für i = 2 {\displaystyle i=2} erhalten wir durch die Kombination der ersten und dritten Ungleichung die folgende neue Ungleichung:

1 ( x ) ( 1 ) ( x 2 y ) 1 ( 1 ) ( 1 ) ( 1 ) 2 y 2 {\displaystyle 1\cdot (-x)-(-1)\cdot (x-2y)\leq 1\cdot (-1)-(-1)\cdot (-1)\;\Longrightarrow \;-2y\leq -2}

Das Bild der Projektion ist also gegeben durch { ( 0 , y ) R 2   |   1 y 3 } {\displaystyle \{(0,y)\in \mathbb {R} ^{2}\ |\ 1\leq y\leq 3\}} , während die resultierende Matrix D {\displaystyle D} bzw. die rechte Seite d {\displaystyle d} die folgende Gestalt haben:

D = ( 0 4 0 2 ) ,   d = ( 12 2 ) {\displaystyle D=\left({\begin{array}{rr}0&4\\0&-2\\\end{array}}\right),\ d=\left({\begin{array}{r}12\\-2\\\end{array}}\right)}

Die Fourier-Motzkin-Elimination aus Sicht der linearen Algebra

Die im Algorithmus angewandten Zeilenoperationen lassen sich durch die Multiplikation der Matrix A {\displaystyle A} bzw. der rechten Seite b {\displaystyle b} mit einer Matrix U R + r × m {\displaystyle U\in \mathbb {R} _{+}^{r\times m}} darstellen, deren i {\displaystyle i} -te Zeile gegeben ist durch

U i = { e k falls  p ( i ) = k Z a t j e s a s j e t falls  p ( i ) = ( s , t ) N × P {\displaystyle U_{i\cdot }={\begin{cases}e_{k}&{\text{falls }}p(i)=k\in Z\\a_{tj}e_{s}-a_{sj}e_{t}&{\text{falls }}p(i)=(s,t)\in N\times P\\\end{cases}}}

Da die Matrix U {\displaystyle U} eine konische Kombination der Zeilen von A {\displaystyle A} beschreibt, sind alle Einträge von U {\displaystyle U} nicht negativ. Im obigen Beispiel ist

U = ( 2 1 0 1 0 1 ) {\displaystyle U=\left({\begin{array}{rrr}2&1&0\\1&0&1\\\end{array}}\right)}

Anwendungen

Zulässigkeitsprobleme

Die Fourier-Motzkin-Elimination hat als Projektionsverfahren die Eigenschaft, dass das System A x b {\displaystyle Ax\leq b} eine Lösung besitzt genau dann wenn dies auch auf das System D x d {\displaystyle Dx\leq d} zutrifft.

Während es im Allgemeinen schwierig ist, zu entscheiden, ob ein konvexer Polyeder eine zulässige Lösung besitzt, lässt sich dies in einigen Spezialfällen recht leicht bewerkstelligen:

  • Verbleibt keine Variable in dem resultierenden System D x d {\displaystyle Dx\leq d} , ist also D {\displaystyle D} die Nullmatrix, so ist das System dann und nur dann lösbar, wenn die rechte Seite d {\displaystyle d} nicht negativ ist
  • Enthält nur eine einzige zu einer Variable x k {\displaystyle x_{k}} gehörige Spalte der Matrix D {\displaystyle D} von Null verschiedene Einträge, so entspricht die Projektion einem Intervall I {\displaystyle I} . Ist dieses nicht leer, so ist auch das System A x b {\displaystyle Ax\leq b} lösbar. Weiterhin sind die möglichen Werte der Variablen x k {\displaystyle x_{k}} in dem Polyeder P ( A , b ) {\displaystyle P(A,b)} gerade durch das Intervall I {\displaystyle I} gegeben

Diese Erkenntnis lässt sich nutzen, um zu überprüfen, ob ein beliebiges Polyeder P ( A , b ) {\displaystyle P(A,b)} eine zulässige Lösung hat oder nicht: Zunächst werden sämtliche Variablen nacheinander herausprojiziert:

P ( A , b )   FourierMotzkin ( A , b , 1 )   P ( D ( 1 ) , d ( 1 ) )   FourierMotzkin ( D ( 1 ) , d ( 1 ) , 2 )   P ( D ( 2 ) , d ( 2 ) )     P ( D ( n 1 ) , d ( n 1 ) )   FourierMotzkin ( D ( n 1 ) , d ( n 1 ) , n )   P ( D ( n ) , d ( n ) ) {\displaystyle P(A,b)\ {\xrightarrow {{\text{FourierMotzkin}}(A,b,1)}}\ P(D^{(1)},d^{(1)})\ {\xrightarrow {{\text{FourierMotzkin}}(D^{(1)},d^{(1)},2)}}\ P(D^{(2)},d^{(2)})\ \cdots \ P(D^{(n-1)},d^{(n-1)})\ {\xrightarrow {{\text{FourierMotzkin}}(D^{(n-1)},d^{(n-1)},n)}}\ P(D^{(n)},d^{(n)})}

Die resultierende Matrix D ( n ) {\displaystyle D^{(n)}} ist dann die Nullmatrix und man kann entscheiden, ob P ( A , b ) = {\displaystyle P(A,b)=\emptyset } , denn P ( A , b ) = {\displaystyle P(A,b)=\emptyset } gdw. P ( D ( n ) , d ( n ) ) = {\displaystyle P(D^{(n)},d^{(n)})=\emptyset } .

Insbesondere gilt P ( A , b ) {\displaystyle P(A,b)\neq \emptyset } gdw. d ( n ) 0 {\displaystyle d^{(n)}\geq 0} .

Da sich der j {\displaystyle j} -te Projektionsschritt durch eine Multiplikation mit einer nichtnegativen Matrix U ( j ) {\displaystyle U^{(j)}} ausführen lässt, gilt außerdem:

D ( n ) = U A ,   d ( n ) = U b , wobei U := U ( n ) U ( n 1 ) U ( 1 ) {\displaystyle D^{(n)}=U\cdot A,\ d^{(n)}=U\cdot b,\;{\text{wobei}}\;U:=U^{(n)}\cdot U^{(n-1)}\ldots U^{(1)}} .

Wenn der k {\displaystyle k} -te Eintrag von d ( n ) {\displaystyle d^{(n)}} negativ ist, so ist u A = 0 {\displaystyle u\cdot A=0} und u b < 0 {\displaystyle u\cdot b<0} , wobei u := e k U {\displaystyle u:=e_{k}\cdot U} . Diese Aussage entspricht dem Farkas’ Lemma. Da sich die Matrizen U ( j ) {\displaystyle U^{(j)}} während der Ausführung des Algorithmus aufstellen lassen, bietet die Fourier-Motzkin-Elimination damit die Möglichkeit, das Zertifikat für P ( A , b ) = {\displaystyle P(A,b)=\emptyset } explizit zu berechnen.

Zusätzlich impliziert die Fourier-Motzkin-Elimination, dass die Projektion eines Polyeders wieder ein Polyeder ist. Dieses Resultat kann benutzt werden, um die Äquivalenz der V {\displaystyle {\mathcal {V}}} - und H {\displaystyle {\mathcal {H}}} -Darstellung von Polyedern zu zeigen.

Beispiel zur Entscheidung der Zulässigkeit

Wir wollen entscheiden, ob der folgende konvexe Polyeder eine zulässige Lösung hat:

P ( A , b ) = { x R 2   |   x 1 + x 2 4 ,   x 1 1 ,   x 2 1 } {\displaystyle P(A,b)=\{x\in \mathbb {R} ^{2}\ |\ x_{1}+x_{2}\geq 4,\ x_{1}\leq 1,\ x_{2}\leq 1\}}

Dies entspricht in der Form A x b {\displaystyle Ax\leq b} dem System

[ x 1 x 2 4 x 1 1 x 2 1 ] {\displaystyle \left[{\begin{array}{rrr}-x_{1}&-x_{2}&\leq -4\\x_{1}&&\leq 1\\&x_{2}&\leq 1\\\end{array}}\right]\;\;}

Nach den einzelnen Projektionsschritten ergeben sich folgenden Systeme:

[ x 2 3 x 2 1 ] [ 0 2 ] {\displaystyle \left[{\begin{array}{rr}-x_{2}&\leq -3\\x_{2}&\leq 1\\\end{array}}\right]\;\;\left[{\begin{aligned}0&\leq -2\\\end{aligned}}\right]}

Es offenbart sich also ein Widerspruch, der Polyeder P ( A , b ) {\displaystyle P(A,b)} entspricht der leeren Menge. Die resultierenden Matrizen sind gegeben durch

U ( 1 ) = ( 1 1 0 0 0 1 ) , U ( 2 ) = ( 1 1 ) {\displaystyle U^{(1)}=\left({\begin{array}{rrr}1&1&0\\0&0&1\\\end{array}}\right),\;\;U^{(2)}=\left({\begin{array}{rr}1&1\\\end{array}}\right)}

Ein Zertifikat für die Nichtzulässigkeit ist also der Vektor e 1 U ( 2 ) U ( 1 ) = ( 1 , 1 , 1 ) {\displaystyle e_{1}U^{(2)}U^{(1)}=(1,1,1)} .

Lösung von linearen Programmen

Durch Ausnutzen der Dualität der linearen Optimierung lässt sich jedes lineare Programm auf ein Zulässigkeitsproblem reduzieren, welches sich dann durch die Anwendung der Fourier-Motzkin-Elimination lösen lässt. In diesem Fall benötigt man jedoch recht viele neue Variablen und Ungleichungen, was die Anwendung des Verfahrens verlangsamt. Alternativ kann man den folgenden Ansatz wählen: Um das Problem max { c T x | A x b } {\displaystyle \max\{c^{T}x\;|\;Ax\leq b\}} zu lösen, führt man eine zusätzliche Variable y R {\displaystyle y\in \mathbb {R} } ein, und fordert zusätzlich, dass y c T x {\displaystyle y\leq c^{T}x} . Der Wert der Variablen y {\displaystyle y} ist also durch die Optimallösung des Problems beschränkt. Man erhält dadurch einen Polyeder P ( A ~ , b ~ ) {\displaystyle P({\tilde {A}},{\tilde {b}})} mit

A ~ = ( A 0 c T 1 ) R m + 1 × n + 1 ,   b ~ = ( b 0 ) R m + 1 {\displaystyle {\tilde {A}}=\left({\begin{array}{rr}A&0\\-c^{T}&1\\\end{array}}\right)\in \mathbb {R} ^{m+1\times n+1},\ {\tilde {b}}=\left({\begin{array}{r}b\\0\\\end{array}}\right)\in \mathbb {R} ^{m+1}}

Man projiziert anschließend die ersten n {\displaystyle n} Einträge heraus, sodass man schließlich ein System der Form

D 1 , n + 1 ( n ) y d 1 ( n ) D l , n + 1 ( n ) y d l ( n ) {\displaystyle {\begin{aligned}D_{1,n+1}^{(n)}y&\leq d_{1}^{(n)}\\\vdots &\\D_{l,n+1}^{(n)}y&\leq d_{l}^{(n)}\\\end{aligned}}}

erhält. Das resultierende Intervall I {\displaystyle I} beschreibt die Menge der möglichen Werte für die Variable y {\displaystyle y} . Es treten folgende Fälle auf:

  1. Das Intervall ist leer. In diesem Fall besitzt das Optimierungsproblem keine zulässige Lösung.
  2. Das Intervall ist nicht nach oben beschränkt. Damit ist auch das Optimierungsproblem unbeschränkt.
  3. Das Intervall ist nicht leer und besitzt ein maximales Element γ {\displaystyle \gamma } . Damit ist der Zielfunktionswert der Optimallösung des Problems genau γ {\displaystyle \gamma } .

Um eine Lösung x {\displaystyle x^{*}} mit einem gegebenen Zielfunktionswert y := γ {\displaystyle y^{*}:=\gamma } zu erhalten, geht man wie folgt vor: Zunächst betrachtet man das System nach der n 1 {\displaystyle n-1} -ten Iteration: Es treten nur noch die Variablen y {\displaystyle y} und x n {\displaystyle x_{n}} auf, wobei der Wert von y {\displaystyle y} schon auf y {\displaystyle y^{*}} festgelegt ist:

D 1 , n n 1 x n + D 1 , n + 1 n 1 y d 1 n 1 D l , n n 1 x n + D l , n + 1 n 1 y d l n 1 {\displaystyle {\begin{aligned}D_{1,n}^{n-1}x_{n}+D_{1,n+1}^{n-1}y&\leq d_{1}^{n-1}\\\vdots &\\D_{l,n}^{n-1}x_{n}+D_{l,n+1}^{n-1}y&\leq d_{l}^{n-1}\\\end{aligned}}}

Man erhält somit ein (nicht leeres) Intervall von möglichen Lösungen für x n {\displaystyle x_{n}} , von denen man eine beliebige auswählt. Diesen Prozess iteriert man für x n 1 , , x 1 {\displaystyle x_{n-1},\ldots ,x_{1}} [A. 2].

Beispiel zur Lösung eines linearen Programms

Zur Illustration des Verfahrens wählen wir das Programm

max   x 1 so dass  x 1 + x 2 4 x 1 0 x 2 0 {\displaystyle {\begin{aligned}\max ~&x_{1}\\{\text{so dass }}&x_{1}+x_{2}\leq 4\\&x_{1}\geq 0\\&x_{2}\geq 0\\\end{aligned}}}

Um das Problem zu lösen, fügen wir die Variable y {\displaystyle y} zusammen mit der Ungleichung y x 1 {\displaystyle y\leq x_{1}} zu dem Problem hinzu. Die folgenden Systeme zeigen den Polyeder P ( A ~ , b ~ ) {\displaystyle P({\tilde {A}},{\tilde {b}})} , sowie die veränderten Systeme nach der Projektion auf { x 1 = 0 } {\displaystyle \{x_{1}=0\}} und { x 2 = 0 } {\displaystyle \{x_{2}=0\}} :

[ x 1 + x 2 4 x 1 0 x 2 0 x 1 + y 0 ] [ x 2 0 x 2 4 x 2 + y 4 ] [ 0 4 y 4 ] {\displaystyle \left[{\begin{array}{rrrr}x_{1}&+x_{2}&&\leq 4\\-x_{1}&&&\leq 0\\&-x_{2}&&\leq 0\\-x_{1}&&+y&\leq 0\\\end{array}}\right]\;\;\left[{\begin{array}{rr}-x_{2}&\leq 0\\x_{2}&\leq 4\\x_{2}+y&\leq 4\\\end{array}}\right]\;\;\left[{\begin{aligned}0&\leq 4\\y&\leq 4\\\end{aligned}}\right]}

Damit steht fest, dass die Optimallösung des Problems den Zielfunktionswert 4 hat. Um eine entsprechende Lösung zu erhalten, setzen wir y = 4 {\displaystyle y^{*}=4} und kehren zum vorletzten Schritt zurück. Es ergibt sich das System

x 2 0 x 2 4 x 2 0 {\displaystyle {\begin{aligned}-x_{2}&\leq 0\\x_{2}&\leq 4\\x_{2}&\leq 0\\\end{aligned}}}

Es bleibt also nichts anderes übrig, als x 2 = 0 {\displaystyle x_{2}^{*}=0} zu setzen. Der Wert von x 1 {\displaystyle x_{1}^{*}} ergibt sich schlussendlich aus dem System

x 1 4 x 1 0 x 1 4 {\displaystyle {\begin{aligned}x_{1}&\leq 4\\-x_{1}&\leq 0\\-x_{1}&\leq -4\\\end{aligned}}}

Damit ist die Optimallösung ( x 1 , x 2 ) = ( 4 , 0 ) {\displaystyle (x_{1}^{*},x_{2}^{*})=(4,0)} . Diese hat natürlich auch den erwarteten Zielfunktionswert von y = 4 {\displaystyle y^{*}=4} .

Laufzeit

Obwohl die Fourier-Motzkin-Elimination zur Lösung von linearen Programmen verwendet werden kann, gibt man in der Praxis anderen Algorithmen den Vorzug. Das Problem der Fourier-Motzkin-Elimination ist, dass im ungünstigsten Fall die Anzahl der Ungleichungen bzw. die Größe der Matrizen D ( j ) {\displaystyle D^{(j)}} in jeden Projektionsschritt von vorher m {\displaystyle m} auf ( m 2 ) 2 {\displaystyle \left({\frac {m}{2}}\right)^{2}} anwächst. In diesem Fall ist die Laufzeit des Algorithmus nicht mehr polynomiell. Im Allgemeinen sind außerdem die meisten der erzeugten Ungleichungen redundant. Da dies in der Regel allerdings nicht effizient erkannt werden kann, wird für die Fourier-Motzkin-Elimination weit mehr Speicher gebraucht als nötig wäre, um die Polyeder P ( D ( j ) , d ( j ) ) {\displaystyle P(D^{(j)},d^{(j)})} zu beschreiben.

Anmerkungen

  1. Da die Menge R {\displaystyle R} im Allgemeinen sehr groß werden kann, ist es ratsam, die Ungleichungen zunächst so zu skalieren, dass a i j { ± 1 , 0 } {\displaystyle a_{ij}\in \{\pm 1,0\}} für alle i { 1 , m } {\displaystyle i\in \{1,\ldots m\}} . Zur Bestimmung von D {\displaystyle D} und d {\displaystyle d} müssen die Spalten dann nur noch voneinander subtrahiert werden.
  2. Das hier vorgestellte Verfahren des Rückwärtseinsetzens lässt sich stets anwenden, um eine zulässige Lösung des Polyeders zu erhalten.

Einzelnachweise

  1. J.B.J. Fourier aus dem Journal: Analyse des travaux de l'Académie Royale des Sciences pendant l'année 1824, Partie mathématique, 1827.
  2. T.S. Motzkin: Beiträge zur Theorie der Linearen Ungleichungen.

Literatur

  • Alexander Schrijver: Theory of Linear and Integer Programming. John Wiley & sons, 1998, ISBN 0-471-98232-6, S. 155–156. 
  • H. P. Williams: Fourier's Method of Linear Programming and its Dual. In: American Mathematical Monthly. 93. Jahrgang, 1986, S. 681–695. 
  • Unger, Thomas; Dempe, Stefan: Lineare Optimierung, S. 19–23, Vieweg+Teubner 2010, ISBN 978-3-8351-0139-5
  • Ein Vorlesungsskript zur linearen Optimierung (PDF; 3,5 MB)