Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Branch-and-Bound

mathematische Methode im Bereich Operations Research

Branch-and-Bound (engl. für Verzweigung und Schranke oder Verzweigen und begrenzen) ist eine im Bereich Operations Research häufig verwendete mathematische Methode, deren Ziel darin besteht, für ein gegebenes ganzzahliges Optimierungsproblem eine beste Lösung zu finden. Branch-and-Bound führt auf einen Entscheidungsbaum, ist selbst aber kein spezielles Verfahren, sondern eine Behandlungsmethode, ein Meta-Verfahren. Für konkrete kombinatorische Optimierungsprobleme ergeben sich dementsprechend angepasste Branch-and-Bound-Algorithmen.

Das Prinzip

Bearbeiten

Im Optimierungsproblem   bei   sei der zulässige Bereich   eine diskrete Menge, eventuell sogar endlich. Alle zugelassenen Belegungen   durchzuprobieren, scheitert meist an inakzeptabel langen Rechenzeiten. Deshalb wird   nach und nach in mehrere Teilmengen aufgespalten (Branch). Mittels geeigneter Schranken (Bound) sollen viele suboptimale Belegungen frühzeitig erkannt und ausgesondert werden, so dass der zu durchsuchende Lösungsraum klein gehalten wird. Im ungünstigsten Fall werden alle Belegungen aufgezählt (vollständige Enumeration).

Branch, die Verzweigung

Bearbeiten

Der Aufteilungsschritt (Branch-Schritt) dient dazu, das vorliegende Problem in zwei oder mehr Teilprobleme aufzuteilen, die eine Vereinfachung des ursprünglichen Problems darstellen. Durch rekursives Ausführen des Aufteilungsschritts für die erhaltenen Teilprobleme entsteht eine Baumstruktur. Es gibt verschiedene Auswahlverfahren für die Wahl des nächsten zu bearbeitenden Knotens im Aufteilungsbaum, die unterschiedliche Zielsetzungen haben. Im Folgenden werden zwei häufig verwendete Verfahren beschrieben:

  • Tiefensuche: Von den noch nicht bearbeiteten Teilproblemen wird das gewählt, welches als letztes eingefügt wurde (Last In – First Out). Mit dieser Auswahlregel arbeitet sich das Verfahren im Baum möglichst schnell in die Tiefe, so dass im Allgemeinen sehr schnell eine zulässige Lösung erlangt wird, über deren Qualität jedoch nichts ausgesagt werden kann.
  • Breitensuche: Von den noch nicht bearbeiteten Teilproblemen wird das gewählt, welches als erstes in den Baum eingefügt wurde (First In – First Out). Bei Verwendung dieser Auswahlregel werden die Knoten im Baum pro Ebene abgearbeitet, bevor tiefer gelegene Knoten betrachtet werden. Eine zulässige Lösung wird in der Regel erst relativ spät erhalten, hat aber tendenziell einen guten Lösungswert. Diese Strategie führt auch tendenziell früh zu brauchbaren unteren Schranken.

Die Verfahren sind kombinierbar. Eine erste Lösung lässt sich zum Beispiel mit einer Tiefensuche bestimmen, um dann bei einer anschließenden Breitensuche bereits eine globale obere bzw. untere Schranke zu haben.

Bound, die Schranke

Bearbeiten

Der Bound-Schritt hat die Aufgabe, bestimmte Zweige des Baumes „abzuschneiden“, d. h. in der weiteren Berechnung nicht mehr zu betrachten, um so den Rechenaufwand zu begrenzen. Dies erreicht der Algorithmus durch Berechnung und Vergleich der oberen und unteren Schranke:

  • Obere Schranken (upper bound) ergeben sich aus jeder zulässigen Lösung. Dafür kann gegebenenfalls zuvor eine Heuristik benutzt werden.
  • Um gute untere Schranken (lower bound) zu finden, wird oft eine Relaxation zugrunde gelegt. Das ist eine auf einer Menge   definierte, leicht zu berechnende Funktion   mit   für alle  . Das relaxierte Problem   bei   sei leicht lösbar und besitze eine Optimallösung  . Dann gilt   für alle  . Bei   ist   auch Optimallösung des nicht relaxierten Problems.

Diese Überlegungen sind auch auf Teilprobleme anwendbar, wo also die Menge   bereits aufgespalten wurde. Kennt man bereits eine zulässige Lösung   und ist die untere Schranke für ein Teilproblem größer als  , dann braucht man jenes Teilproblem nicht weiter zu untersuchen, weil es keine Optimallösung ergibt.

Dominanz

Bearbeiten

Von Dominanz spricht man, wenn für jede Belegung   aus einer Teilmenge   eine nicht schlechtere zulässige Lösung   konstruiert werden kann. Werden nicht alle Optimallösungen gesucht, sondern nur eine, dann erübrigt sich die Suche in  , selbst wenn die Schranken alleine nicht ausreichen,   von der weiteren Durchmusterung auszuschließen. Dies steigert mitunter die Effizienz des Verfahrens erheblich, beispielsweise im mehrdimensionalen Zuschnittsproblem, obwohl Dominanztests nicht zur ursprünglichen Methode Branch-and-Bound gehören.

Beispiel:   bei   sei zu lösen. Eine untere Schranke ergibt sich sofort, indem alle Summanden nach unten abgeschätzt werden, also  . Branch-and-Bound ohne Dominanzüberlegungen anzuwenden, erweist sich hier als unnötig aufwändig. Wegen   ist   so klein wie möglich zu wählen, einerlei wie groß   ist, das heißt  . Für   wird  ; bei   ist   und damit nicht optimal. Die einzige Optimallösung lautet  .

Anwendung auf Probleme der ganzzahligen linearen Optimierung

Bearbeiten

Das allgemeine ganzzahlige lineare Optimierungsproblem hat die Gestalt

  • Maximiere  
  • unter der Nebenbedingung   und  
  • mit
    • A: m×n-Matrix
    • x: n-dimensionaler Vektor
    • a: n-dimensionaler Vektor
    • b: m-dimensionaler Vektor
    • a · x: skalares Produkt, lineare Funktion mit n Variablen, reeller Wert
    • Ax: m-dimensionaler Vektor, der als Matrix-Vektor-Produkt der Matrix A mit dem n-dimensionalen Vektor x entsteht.

Durch Vernachlässigung der Ganzzahligkeitsbedingungen erhält man die stetige Relaxation, die mit dem Simplex-Verfahren gelöst werden kann. Wegen der geforderten Ganzzahligkeit gehört das Ausgangsproblem aber nicht zu den linearen Optimierungsproblemen.

Lösungsweg

Bearbeiten

Das Problem kann man mit Hilfe des Branch-and-Bound-Verfahrens lösen. Zuerst wird als bisher bester Zielfunktionswert   gesetzt und die Ganzzahligkeitsbedingung weggelassen:

  • Maximiere  
  • unter den Nebenbedingungen   und  .

Das so entstandene Problem nennen wir P0. Dieses nun lineare Optimierungsproblem löst man mit dem Simplex-Verfahren. Im Allgemeinen wird die erhaltene Lösung nicht ganzzahlig sein, d. h.   sind nicht durchgängig ganzzahlig. Ohne Beschränkung der Allgemeinheit würde dies auch   betreffen.

Nun versucht man, Lösungen mit ganzzahligem   zu finden. Sei   die größte ganze Zahl kleiner als  . Dann formuliert man zwei neue lineare Optimierungsprobleme   und   derart, dass die vorher gefundene Lösung jeweils ausgeschlossen wird:

  •   – Maximiere  
  • unter den Nebenbedingungen
     
     
     
  •   – Maximiere  
  • unter den Nebenbedingungen
     
     
     

Eine solche Aufteilung in Unterprobleme nennt man branch (engl. Verzweigung).

Beide Teilprobleme werden mit dem dualen Simplexverfahren gelöst. Folgende Fälle können auftreten:

  1. Der zulässige Bereich wird leer.
  2. Man findet eine ganzzahlige Optimallösung für das Teilproblem.
  3.   wird ganzzahlig, dafür aber ein anderes   nicht, wobei es keine Rolle spielt, ob jenes   vorher ganzzahlig war oder nicht.

Im Fall (1) erledigt sich das Teilproblem. In den anderen Fällen gilt das auch, wenn   ist und nur eine Optimallösung gesucht wird oder   ist und alle Optimallösungen gesucht werden. Ansonsten speichert man im Fall (2) die gefundene Lösung als bisher beste und ersetzt   durch  , während im Fall (3) das Teilproblem weiter aufzuspalten ist.

Auf diese Weise wird der gesamte Lösungsraum durchsucht und eine Optimallösung gefunden, wenn es eine gibt und das Verfahren nicht vorzeitig abgebrochen wurde. Es ist durchaus möglich, dass man trotz erschöpfender Suche keine Lösung findet. Dann besitzt das Ausgangsproblem keine zulässigen Lösungen.

Beispiel

Bearbeiten

Anhand einer konkreten Aufgabenstellung wird das Verfahren demonstriert.

Das Ausgangsproblem lautet:

  • Maximiere  
  • mit den Nebenbedingungen
     
     
      ganzzahlig

Wir lassen die Ganzzahligkeitsbedingung weg und finden mit dem Simplex-Verfahren die optimale Lösung

  •  
  •  
  •  

Wir fahren fort mit dem Ziel, eine Lösung mit ganzzahligem   zu finden. Dazu bilden wir 2 weitere Optimierungsaufgaben, eine mit der zusätzlichen Nebenbedingung  , die andere mit  .

  •   – Maximiere  
  • mit den Nebenbedingungen
     
     
     
     
  •   – Maximiere  
  • mit den Nebenbedingungen
     
     
     
     

Das Problem   hat die Lösung

  •  
  •  
  •  

Da   und   ganzzahlig sind, ist dies eine zulässige Lösung des Ausgangsproblems. Wir wissen aber noch nicht, ob es eine bessere Lösung gibt.

Dazu lösen wir Problem   und erhalten:

  •  
  •  
  •  

Auch dies ist wegen der Ganzzahligkeit eine zulässige Lösung. Da sowohl für   als auch für   die Zielfunktion den Wert   annimmt, hat das Problem zwei optimale Lösungen.

Bewertung des Verfahrens

Bearbeiten

Beim Branch-and-Bound-Verfahren müssen mehrere – in ungünstigen Fällen sehr viele – Optimierungsprobleme gespeichert, verwaltet und mit Hilfe des Simplex-Verfahrens gelöst werden. Insbesondere bei großen Problemen, die mehrere hunderttausend Variablen und Nebenbedingungen haben können, führt dies zu hohem Rechen- und Speicheraufwand. Dafür vermeidet man den Nachteil des Schnittebenenverfahrens von Gomory, bei dem numerische Probleme durch mangelnde Genauigkeit der Zahlendarstellung im Computer die Lösungssuche erschweren. In der Praxis werden bei der Lösung ganzzahliger Optimierungsprobleme oft beide Verfahren zu Branch-and-Cut kombiniert. Dabei werden im Wurzelknoten und manchmal auch in weiteren Knoten des Branch-and-Bound-Baumes Schnittebenen separiert, um die lineare Relaxierung zu verschärfen.

Geschichte

Bearbeiten

Die Idee von Branch-and-Bound wurde erstmals 1960 von den Operations-Research-Wissenschaftlerinnen Ailsa Land und Alison Doig (später Alison Harcourt) im Bereich des Operations Research formuliert.[1] R. J. Dakin gab 1965 einen einfach zu implementierenden Algorithmus an.

Literatur

Bearbeiten
  • R. J. Dakin: A tree-search algorithm for mixed integer programming problems. In: The Computer Journal, Volume 8, 1965, S. 250–255 comjnl.oxfordjournals.org

Einzelnachweise

Bearbeiten
  1. A. H. Land and A. G. Doig. An automatic method of solving discrete programming problems. In: Econometrica, Jg. 28 (1960), Nr. 3, 497–520, doi:10.2307/1910129.