Basis Pursuit

Basis Pursuit (BP) ist ein in der Signalverarbeitung wichtiges mathematisches Optimierungsproblem der Form

min x x 1 mit y = A x {\displaystyle \min _{x}\|x\|_{1}\quad {\mbox{mit}}\quad y=Ax} ,

wobei x C n {\displaystyle x\in \mathbb {C} ^{n}} der Lösungsvektor, y C m {\displaystyle y\in \mathbb {C} ^{m}} der Beobachtungsvektor der Messung und A C m × n {\displaystyle A\in \mathbb {C} ^{m\times n}} eine Transformationsmatrix (oft auch Messmatrix genannt) ist. Hierbei gilt m < n {\displaystyle m<n} , wodurch das lineare Gleichungssystem y = A x {\displaystyle y=Ax} unterbestimmt ist.

Unter den Lösungen x {\displaystyle x} der Gleichung y = A x {\displaystyle y=Ax} wird also diejenige mit minimalem Wert der L 1 {\displaystyle L_{1}} -Norm (Summe der Koordinatenbeträge, siehe Manhattan-Metrik) gesucht.

Motivation

Ein klassisches Problem der Signalverarbeitung besteht darin, eine sparsame (d. h. aus wenigen Elementen gebildete) Zerlegung eines gegebenen Signals in einer umfangreichen Menge von Funktionen zu finden, die zum Beispiel trigonometrische Reihen und Wavelets enthält. Der Vektor b R m {\displaystyle b\in \mathbb {R} ^{m}} ist das zu zerlegende Signal, die Spalten der Matrix A {\displaystyle A} sind aus der gegebenen Funktionenmenge und die Komponenten von x R n {\displaystyle x\in \mathbb {R} ^{n}} sind die gesuchten Koeffizienten, durch die das Signal dargestellt werden soll. Es soll also

b = j = 1 n x j A j {\displaystyle b=\sum _{j=1}^{n}x_{j}A^{j}}

gelten, wobei A j {\displaystyle A^{j}} die j {\displaystyle j} -te Spalte von A {\displaystyle A} bezeichnet. Die Bedingung m < n {\displaystyle m<n} ergibt sich daraus, dass eine sehr umfangreiche Menge von Funktionen verwendet werden soll. Aus ihr folgt, dass die Zerlegung von x {\displaystyle x} nicht eindeutig ist. Weil man eine sparsame Zerlegung sucht, sollen möglichst wenige der Koeffizienten x j {\displaystyle x_{j}} von Null verschieden sein. Man sucht also die Lösung des Problems

min x x 0 mit y = A x {\displaystyle \min _{x}\|x\|_{0}\quad {\mbox{mit}}\quad y=Ax}

mit x 0 = { j : x j 0 } {\displaystyle \|x\|_{0}=\sharp \left\{j\colon x_{j}\not =0\right\}} . Diese sparsame Zerlegung ermöglicht eine kompakte Komprimierung des Signals.

Dieses Problem ist jedoch NP-schwer. Als handhabbare Annäherung betrachtet man deswegen das Problem

min x x 1 mit y = A x {\displaystyle \min _{x}\|x\|_{1}\quad {\mbox{mit}}\quad y=Ax} ,

dessen Lösung häufig nur wenige von Null verschiedene Komponenten hat, und das man mit Methoden der linearen Optimierung in polynomieller Zeit lösen kann.

Lösungen

Die Lösungsmenge ist konvex, was die Anwendung klassischer Optimierungsverfahren ermöglicht. Die Lösungsmenge ist nichtleer, wenn b {\displaystyle b} im Bild von A {\displaystyle A} liegt.

Für einen Vektor x R n {\displaystyle x\in \mathbb {R} ^{n}} bezeichnen wir I = { i : x i 0 } , I c = { i : x i = 0 } {\displaystyle I=\left\{i\colon x_{i}\not =0\right\},I^{c}=\left\{i\colon x_{i}=0\right\}} und mit A I , A I c {\displaystyle A_{I},A_{I^{c}}} die aus den entsprechenden Spalten von A {\displaystyle A} gebildete Matrix. Entsprechend bezeichnen wir mit x I {\displaystyle x_{I}} den aus den I {\displaystyle I} -Komponenten gebildeten Vektor und mit s i g n ( x I ) {\displaystyle sign(x_{I})} , dessen i {\displaystyle i} -Komponente ± 1 {\displaystyle \pm 1} je nach Vorzeichen von x i {\displaystyle x_{i}} ist.

Existenz von Lösungen: x R n {\displaystyle x\in \mathbb {R} ^{n}} ist genau dann eine Lösung, wenn es ein y R m {\displaystyle y\in \mathbb {R} ^{m}} gibt, so dass A I T y = s i g n ( x I ) {\displaystyle A_{I}^{T}y=sign(x_{I})} und A I c T y 1 {\displaystyle \Vert A_{I^{c}}^{T}y\Vert _{\infty }\leq 1} .

Eindeutigkeit von Lösungen: x R n {\displaystyle x\in \mathbb {R} ^{n}} ist genau dann die einzige Lösung, wenn zusätzlich A I {\displaystyle A_{I}} injektiv ist und sogar A I c T y < 1 {\displaystyle \Vert A_{I^{c}}^{T}y\Vert _{\infty }<1} gilt.

Literatur

  • Stephen Boyd, Lieven Vandenbergh: Convex Optimization, Cambridge University Press, 2004, ISBN 9780521833783, S. 337–337
  • Simon Foucart, Holger Rauhut: A Mathematical Introduction to Compressive Sensing. Springer, 2013, ISBN 9780817649487, S. 77–110
  • Shaobing Chen, David Donoho: Basis Pursuit
  • Terence Tao: Compressed Sensing. Mahler Lecture Series (Folien)
  • J. Ch. Gilbert: On the solution uniqueness characterization in the l1 norm and polyhedral gauge recovery, Journal of Optimization Theory and Applications, 2016 (online)