Im Bereich des Quantencomputings stellt Boson Sampling als wichtige Forschungsrichtung nicht nur ein neues Computermodell dar, sondern könnte auch die Grenzen des herkömmlichen Computings sprengen. Dieses Modell wurde erstmals von den Wissenschaftlern Scott Aaronson und Alex Arkhipov vorgeschlagen. Es basiert auf dem Streuverhalten homogener Wellen in einem optischen Interferometer und demonstriert dessen einzigartige Rechenleistung.
Boson Sampling ist ein eingeschränktes, nicht-universelles Quantencomputermodell, das auf der Abtastung der Wahrscheinlichkeitsverteilung der Wellenstreuung in einem linearen Interferometer basiert.
Der Kern des Modells besteht in seinem Sampling-Prozess, bei dem ein optischer Schaltkreis mit N Modi in M nicht unterscheidbare Photonen (N > M) eingespeist wird. Beim Durchgang dieser Photonen durch das Interferometer entsteht ein Ausgangssignal, bei dem die Messergebnisse den permanenten Werten einer komplexen Matrix entsprechen. Da die Berechnung des permanenten Werts eines der NP-schweren Probleme ist, ist Boson Sampling hinsichtlich der Komplexität eine große Herausforderung.
Zu den Schlüsselkomponenten für die Implementierung von Boson Sampling gehören effiziente Einzelphotonenquellen, lineare Interferometer und Detektoren. Die gebräuchlichsten Einzelphotonenquellen sind derzeit parametrische Down-Conversion-Kristalle, während Detektoren mithilfe von supraleitenden Nanodrähten hergestellt werden können, die mit elektrischem Strom vorgespannt werden. Im Vergleich zu allgemeinen Quantencomputermodi erfordert Boson Sampling keine zusätzlichen Quantenbits, adaptiven Messungen oder Verschränkungsoperationen, was es hinsichtlich physikalischer Ressourcen effizienter macht.
Obwohl Boson Sampling kein universelles Computermodell ist, kann es viele Aufgaben bewältigen, die mit klassischen Computern mit weniger physischen Ressourcen nicht so leicht zu bewältigen sind.
Bei der Boson-Sampling-Arbeit besteht der grundlegende Prozess darin, eine Reihe bekannter Einzelphotonen-Eingänge zu messen. Die Wahrscheinlichkeitsverteilung der Population korreliert stark mit dem Ausgangszustand nach der Streuung der Photonen. Indem wir die Wahrscheinlichkeit berechnen, mit der ein Photon erkannt wird, wenn es am Ausgang ankommt, führen wir tatsächlich die Berechnung eines permanenten Werts durch, was komplex und rechnerisch anspruchsvoll ist.
Einige Studien gehen davon aus, dass die Existenz von Boson Sampling erhebliche Auswirkungen auf die aktuellen theoretischen Grundlagen der Informatik haben könnte. Gemäß der Rechenkomplexitätsanalyse des aktuellen Modells bedeutet dies, dass die Rechenkomplexität nicht vereinfacht werden kann, wenn kein effizienter klassischer Algorithmus zur Simulation der Boson-Sampling-Methode vorhanden ist, was in der Informatik zu umfassenden Diskussionen geführt hat.
Wenn für die Simulation des Boson-Sampling ein effizienter klassischer Algorithmus gefunden werden könnte, würde dies den Zusammenbruch der Polynomhierarchie einläuten, was in der Informatik-Community als äußerst unwahrscheinlich gilt.
Darüber hinaus hat die Überprüfung des Boson Sampling auch das Interesse der Wissenschaft geweckt, da es sowohl gefährlich als auch durchführbar ist. Viele Wissenschaftler arbeiten hart an der Entwicklung präziserer Messinstrumente und Algorithmen und hoffen, dieses Modell in naher Zukunft tatsächlich realisieren zu können. Zu den Forschungsschwerpunkten skalierbarer Boson-Sampling-Geräte gehört die Erforschung ihres Anwendungspotenzials in der Quanteninformationsverarbeitung.
Welchen Einfluss wird Boson Sampling letztlich auf die Zukunft der Computertheorie haben? Können wir in naher Zukunft mit einer Anwendung und Entwicklung in der realen Welt rechnen?