Fast-Fourier-Transformation: Ein Algorithmus für den Weltfrieden

Das erste Problem besteht darin, dass die Aufzeichnung von Symptomen nicht kontinuierlich ist, sondern aus diskreten Daten besteht. Je größer der Abstand zwischen den Aufzeichnungen ist, desto unsicherer sind die hohen Noten Teil der Kurve. Das zweite Problem ist, dass die Aufbewahrung nicht langfristig, sondern meist nur von kurzer Dauer ist. Dadurch kann nicht festgestellt werden, welche der beiden eng beieinander liegenden Frequenzen im Signal enthalten sind – das Frequenzspektrum ist aufgrund der Ergebnisse unscharf. Die Mindestzeit fwenigstenswas sinnvoll gelöst werden kann ist diese Zeit lang L das ganze Signal. Die dieser Frequenz entsprechenden Kurven sind gegeben durch sin(2πx/L) und cos(2πx/L) bereitgestellt. Wenn Sie das sind N Wenn Sie dieselben Daten untersuchen möchten, beginnen Sie mit der niedrigsten Frequenz und arbeiten Sie sich bis zu den numerischen Werten vor. n das erste Mal: n·fwenigstens. Dies entspricht der Funktion sin(2 2πx/L), sin(3 2πx/L), sin(4 2πx/L), …, Sünde (N·2πx/L) (Gleiches gilt für Kosinus). Es ist nicht angebracht, Zeilen höher als zu verwenden N·fwenigstens zu analysieren, da der Zeitraum der geschätzten Arbeit kürzer ist als der Abstand zwischen den benachbarten Aufzeichnungen. Alles darüber hinaus sind wir mehr als in der Lage zu lösen.

© Wissenschaftskanal; Manon Bischoff (info)

Rekord | Die Länge der Datenbank und das Intervall zwischen den Datensätzen begrenzen die Anzahl der auswertbaren Häufigkeiten. Orangefarben zeigen die höchste Welle, rot die niedrigste.

Um also eine Fourier-Analyse mit bestimmten Messungen durchzuführen, multiplizieren Sie jede N Daten mit N Differenziere mit der Kosinusfunktion und bestimme damit die von der x-Achse eingeschlossene Fläche. Jetzt ist ein Computer ein Muss N2 geeignete Schritte einleiten. Das wirft bei großen Datenmengen ein Problem auf: Während ein aus acht Daten bestehender Code in kurzer Zeit in seine Teile zerlegt werden kann, wird es bei einer Million Daten schon schwieriger, weil dafür 10 benötigt werden.12 entsprechende Schritte sind erforderlich. Ein moderner Laptop mit 3,5 Gigahertz braucht unter Volllast etwa fünf Minuten. Für Computer in den 1960er Jahren war diese Aufgabe nicht zu lösen. Will man 100-mal mehr Daten durchsuchen, erhöht sich die Zahl der Rechenschritte auf den Faktor 10.000 – auch unsere Rechner sind überfordert.

Auch Lesen :  Artenkonferenz: Kein Handel mit Horn von Nashörnern | Freie Presse

Hier kommen Tukeys Fotos ins Spiel. Damals hatte er eine Idee, wie man die Fourier-Transformation schnell umsetzen könnte. Aus N2 Das Zielniveau ist seine einzige Methode N·Buchen2N. Obwohl es wie eine kleine Verbesserung aussieht, ist die Einsparung groß, wenn viele Daten vorhanden sind. ab 1012 Geschätzte Schritte für eine Million Datensätze nur konstant 20·106 übrig bleiben. Ein 3,5-Gigahertz-Rechner braucht dafür nur wenige Millisekunden. Der Mathematiker nannte seinen Algorithmus „Fast Fourier Transform“. Es gilt heute als eines der wichtigsten Programmiergesetze der Welt.

Auch Lesen :  "Das Schlimmste kommt noch": Firmen fürchten Wirtschaftseinbruch für 2023

Als der Arzt Richard Garwin herausfand, was Tukey mit seinen Papieren vorhatte, wollte er wissen, wann Tukey sie veröffentlichen würde. Garwin erkannte schnell das Potenzial der Methode. Tukey entgegnete, dass er mit einem Informatiker an der Umsetzung arbeite, das aber wohl noch ein paar Jahre dauern werde. Zu dieser Zeit hatten Computer sehr wenig Speicher, was es schwierig machte, den Algorithmus auf solchen Maschinen zu verwenden. Garwin kam es jedoch wie eine lange Zeit vor, also schlug er vor, selbst einen Informatiker zu finden, der das Problem schnell lösen könnte.

Also kontaktierte er den Informatiker Jim Cooley. „Garwin sagte mir, dass er ein wichtiges Problem im Zusammenhang mit der Zeit in einem 3-D-Helium-3-Kristall hatte. Erst später wurde mir klar, dass er die seismische Fernüberwachung verbessern wollte, um das Verbot von Atomwaffentests zu erleichtern“, sagte Cooley schrieb 1987. “Zu diesem Zeitpunkt hatte ich bereits das Helium-3-Experiment durchgeführt und war um den Übergang Fourier herum gewesen. .” , stimmte Garwin zu. Zunächst widmete Cooley dem neuen Forschungsprojekt nicht viel Aufmerksamkeit und konzentrierte sich auf seine eigene Arbeit. Garwins Beharren darauf, ihn und seinen Manager anzurufen, um sich nach dem Fortschritt zu erkundigen, bedeutete jedoch, dass Cooley dem Projekt Priorität einräumte. Es dauerte jedoch mehrere Monate, bis Cooley und Tukey den Algorithmus 1965 veröffentlichten – zwei Jahre nachdem die Sowjetunion und die Vereinigten Staaten vereinbart hatten, auf unterirdische Atomtests zu verzichten.

Auch Lesen :  Wissenschaft fischt bei SARS-CoV-2-Ursprung weiterhin im Trüben

Teile und herrsche!

Die Fast-Fourier-Transformation basiert auf dem alten Prinzip: Teile und herrsche. Die Sinus- und Kosinusfunktionen haben viele Funktionen, die manipulieren kann, indem man die Daten geschickt aufteilt. Angenommen, es gibt acht Punkte parallel zur x-Achse mit den Koordinaten 0, 1, 2, …, 7. Alle Kosinusfunktionen können für diese geschrieben werden (ein ähnliches Ergebnis für Funktionale): cos(0 2πx/8) = 1, cos(2πx/8), cos(4πx/8), …, cos(14πx/8.). Einige Muster sind erkennbar. Mitten in den Daten x = 4 haben beispielsweise alle Funktionen gleicher Ordnung denselben Wert: cos(0 2π 4/8) = 1, cos(2π) = 1, cos(4π) = 1, cos(6π) = 1 sogar anders Frequenzen ergeben das gleiche Ergebnis: cos(π) = −1, cos(3π) = −1, cos(5π) = −1, cos(7π) = − 1. Anstatt also die Mitte der Daten mit acht Funktionen zu multiplizieren, müssen Sie zwei Produkte nehmen. Ähnliche Beziehungen werden aus anderen Quellen abgeleitet. Auf diese Weise kann der ursprüngliche Plan 8 * 8 = 64 Vergleichsschritte auf 8 * log reduziert werden28 = 24 Sperren.

Source

Leave a Reply

Your email address will not be published.

In Verbindung stehende Artikel

Back to top button