* Neuronale Systeme - wer hat praktische Erfahrung?
Ich beschäftige mich als Private - Equity - Mensch erst seit kurzer Zeit intensiver mit Managed Futures und Handelssystemen und lese daher geradezu aufsaugend gewisse Postings in diesem Board, ohne freilich meinen ggf. unqualifizierten Senf dazuzugeben.
Als ehemaliger Physikstudent (dieses Studium ist das beste Garantiesystem für spätere Arbeitslosigkeit, weshalb ich meinen mitteldotierten Job aufgeben und einen eigenen Hedge Fund für high net worth customers gründen werde) fasziniert mich der theoretische Ansatz neuronaler Systeme.
Ich würde mich freuen, wenn wir zu diesem Thema etwas über praktische Erfahrungen hören würden. Ist das alles Backtesting bzw. reine Theorie oder wird erfolgreich getradet? Werden Trendfolgesysteme von Hedge Funds damit "ergänzt" und ggf. optimiert oder habe ich das falsch verstanden?
In einem anderen Thread dieses Forums hieß es mal: "Wenn man sich die Renditen der Anbieter neuronaler Systeme anschaut, kann man leicht ins Heulen kommen." Ich gebe zu, dass mich genau dieser Satz neugierig gemacht hat. Habe stundenlang Material studiert, muss sagen, im Dax Future z.B. 179 % bei maximum drawdown ca. 16 %, bei google wird mit 1605 % in 30 Monaten geworben.
Freue mich auf Resonanz
Boesky
@ ivan boesky
Ich hatte mal kurz bei http://de.moneybee.net/index.asp mitgemacht. Damals im Jahr 2000 waren die Seitenbetreiber bei Bloomberg und haben sehr kluge Dinge über Ihre Netze gesagt. Von der Theorie her waren sie sicher fest in der Materie verwurzelt. Man musste sich dort kostenlos anmelden und eine Software herunterladen, die als Bildschirmschoner Pakete für die NN berechnete. Nur wer regelmäßig Pakete ablieferte bekam einen Zugang zu den Ergebnissen.
Es hat mich damals mit aktuellen Ergebnissen nicht überzeugt, aber die Geldbienen haben sich seither bestimmt fleißig weiterentwickelt.
Wenn ich nur deren Rechenleistung anschaue, dann frage ich mich, wie das einer alleine einholen will.
-----
Kein Scherz: Backtesting für ALLE!
Abtauchen in die MoneyBee-Historie - Depots testen auf den MoneyBee-Prognosen der letzten drei Jahre? Kann jetzt jeder! Probieren Sie unseren umfangreichen Backtesting-Bereich unbegrenzt, mit zahlreichen neuen Features! Wir haben nur einen Haken drangeschraubt: Nur Premium-Mitglieder können mit den neuesten Daten arbeiten, alle anderen erhalten den Service 4 Wochen zeitverzögert. Aber Tests sind sonst unbegrenzt möglich! Wir freuen uns über Kommentare, Lob und Meldungen winzigkleiner Bugs.
Ihr MoneyBee-Team
-----
Gruss
trendling
@ ivan
Man schafft es auch ohne ein neuronales Netz eine gute Performance zu erzielen und gleichzeitig ein geringen Drawdown zu haben.
Es kommt wirklich nur auf die Strategie an, z.B. Diversifikation, SL's usw.
Grüße
Firebold
@ ivan boesky
Ich hatte früher in meinem Beruf viel mit neuronalen Netzen zu tun. Ich war spezialisiert auf Mustererkennung in der Bildanalyse sowie in der Spachverarbeitung. Meine Heimat war Spektralanalysen Transformationen sowie neuronale Netze. Aufbau und Funktionsweise kenne ich bis in die letzten Details.
Genau aus diesem Grund bin ich an der Börse sehr vorsichtig. Ein System auf neuronaler Basis zu entwickeln das 1605% in 30 Monaten schafft, wie bei Google beworben, ist absolut möglich, machbar und trozdem ein sagenhafter Quatsch. Es wird sicherlich glänzende Ergebnisse beim backtesting bringen! Und dabei bleibt es auch!
Bitte überleg einmal. Wenn das so funktionieren würde wie beschrieben würde sicherlich jeder Hedgefonds so ein Wunderding einsetzen und allen davonrennen! Aber als ehemaliger Physikstudent der Du vorgibst gewesen zu sein müßte Dir die Problematik eigentlich klar sein. Neuronale Netze sind erste Wahl beim assozieren von Mustern. Das Netz wird nicht programmiert wie Computer mit sequentiellen Anweisungen sondern ist eine Parallelstruktur welche durch Gewichtung der Neuronen lernt.
Das Netz lernt! Und den Chart lernt es auswenig, überspitzt gesagt. Overfitting! Laß ein Netz lernen z.B. von 2000 bis jetzt. Wenn man nicht gerade ein furchtbarer Stümper ist wird es eine traumhafte Kapitalkurve geben vom Jahr 2000 stetig aufwärts bis jetzt. So, nun setze dieses Netz bei demselben Markt ein, aber füttere es ab dem Jahr 1998. Ich garantiere dir mit absoluter Sicherheit daß von 1998 bis 2000 das Ergebnis mehr als erschreckend sein wird!
Ich will damit die Anwendung von neuronalen Netzen an den Märkten nicht verdammen, aber man muß wissen was in dieser black-box geschieht um sie dort einsetzen zu können wo es Vorteile bringen kann. Ansonsten wird man sehr schnell Schiffbruch damit erleiden.
Gruß OPTRADE
@ivan boesky
Ich arbeite seit März 2001 mit der Omega Trad. Station und kann nur alle warnen sich auf Backtesting zu verlassen.Es ist leider nichts wert nicht mal ansatzweise werden im realen Handel die Ergebnisse des Backt. erzielt.Das vorher errechnet Drowdown wird meistens schon im ersten Monat weit überschritten.
Backtesting ist nur etwas für Broker/Vermögensverwalter um Kapital kräftigen Kunden einen sehr lukrativen Handel vorzuzeigen wobei anschließend für sie an den Roundturns ohne Risiko gut verdient wird. Das Kapital des Kunden wird in den meisten Fällen verbrannt.
@gs1150
So negativ würde ich das Backtesting nicht sehen. Klar lassen sich die historisch erzielten Ergebnisse nicht 1:1 auf die Zukunft übertragen, aber als Werkzeug, um die grundsätzliche Eignung von Handelsansätzen zu überprüfen, ist das Backtesting sehr wertvoll.
Aber: Jeden Tag herrschen andere Bedingungen an der Börse. Beim Backtesting werden in der Regel aber nur Chart-Formationen überprüft, das heißt, die Rahmenbedingungen bleiben beim Test außen vor. Das ist etwa so, als würde ich die Wettervorhersage nur auf Grund von Temperaturangaben berechnen, beim Backtesten aber außer Acht lassen, daß es Jahreszeiten gibt. Habe ich dann ein System für den Sommer entwickelt, staune ich nicht schlecht, wenn ich damit Vorhersagen für den Winter machen will...
robby_b
Wenn Backtesting bei einem nicht funktioniert (oder der Tester nicht funktioniert), sollte man sowieso die Finger von der Börse lassen, denn die zukünftigen Kurse sind noch viel unerkennbarer.
Folge: kein Backtesting => kein "Vortesting" => Finger von der Börse!
Oder?
;-) HH
Und gleich was hinterher ...
Neuronale Systeme - was ist eigentlich deren Ziel?
Erstellen sie einem Handelssysteme oder optimieren sie einem nur Parameterwerte von Indikatoren?
Wenn sie nur letzteres tun, dann beschränkt sich der Lernvorgang doch nur auf die Reduktion von Zeit bei zukünftiger Suche. Wer also planlos nach Parameterwerten sucht, fährt mit neuronalen Netzen sicherlich sehr gut.
Wer selber plant, kann die Suche nach Parameterwerten so weit einschränken, dass er kein externes neuronales Netz mehr braucht, weil er ja sein eigenes inneres (Gehirn) verwenden kann. (bzw, dann unter wenigen Möglichkeiten suchen lassen kann.)
(Oh, Mann - bin ich heute wieder ketzerisch.)
Oder ?
;-)) HH
Lieber Ivan,
Ich selbst bin Physiker und KEINER meiner Kollegen ist arbeitslos, im Gegenteil der Arbeitsmarkt für Physiker sieht im Moment sogar relativ gut aus. Soviel dazu (übrigens arbeiten in den USA 10 % der Physiker für Banken und Hedgefonds).
Neuronale Netze (NN):
Neuronale Netze sind nichts anderes als ein nichtlieares Regressionsverfahren wie viele andere auch. Das heisst ein NN verbringt keine Wunder und die Gefahr des Curve Fittings ist noch sehr viel höher als bei "herkömmlichen" Handelssystemen (wegen der deutlich erhöhten Anzahl an Freiheitsgraden). Wie überall gilt auch bei Neuronalen Netzen: Garbage in, Garbage out, d.h. die Aufbereitung der Daten für das NN ist entscheidend. Brute Force hilft da nicht viel.
Was für Ergebnisse lassen sich erzielen: Gute NNs erzielen in etwa gleich gute Ergebnisse (bei mir) wie gute mechanische Handelssysteme. Beim Trader der Woche Wettbewert auf Aktienboard habe ich z.B. mit einem NN mitgemacht und letztes Jahr eine Performance von 78 % gehabt. Real hätte die Performance natürlich ganz anders ausgesehen, aber soviel dazu ob man damit profitabel handeln kann oder nicht.
Aber wie gesagt, mit NNs profitable HSse zu basteln ist nochmals deutlich schwieriger als "herkömmliche" Handelssysteme zu machen. Und das ist schon schwer genug (und 90 % schaffen es nie).
Ich wünsche noch viel Spass bei der Hedgefonds Gründung...
Grüsse
Bernhard
@Hungerturm
'Neuronale Netze sind nichts anderes als ein nichtlieares Regressionsverfahren wie viele andere auch.'
Aha. Vielleicht würde die Diskussion um neuronale Netze etwas lebendiger, wenn mal jemand in klaren, verständlichen Worten beschreiben kann, was ein neuronales Netz eigentlich macht, wie es sich von traditionellen Handelssystemen unterscheidet und wo die Grenzen sind.
Ich habe zwar schon einige Erklärungen gelesen, selbst aber noch nichts damit zu tun gehabt und wäre deshalb an einer verständlichen Erklärung - vielleicht sogar noch mit einem Beispiel - über den praktischen Einsatz sehr glücklich.
robby_b
Was machen NN in Börsenporgrammen?
Klassische Anwendung (und einzige?!):
Nehmen wir mal an du hast 4 Indikatoren, die jeweils 200 Parameterwerte haben können und du willst die beste Kombination aus allen diesen 4 Indikatoren.
Möglichkeiten also 200*200*200*200= 1.600.000.000 (!) wozu dein PC wahrscheinlich 3 Jahre brauchen würde (oder so).
Wie verkürzt man die Rechenzeit um ein gutes Kombinationsmuster zu finden ?- nur darum gehts bei NN in Börsenprogrammen.
Also muss irgendein Verfahren (=NN) her, dass die dafür benötigte Rechenzeit verkleinert. Lösung: es rechnet erst mal so durch (!!!) (je nach Verfahren) und findet womöglich (hoffentlich) besonders gute Parameterinseln, die es dann dir in >>Zukunft<< immer als erstes anbietet. Bis zum nächsten Training vielleicht usw. Oder bis zum nächsten Markt ...
;-) HH
Hallo HH,
ich kenne mich mit NN nicht aus, aber nur für die Verkürzung der Rechenzeit bräuchte ich eigentlich kein NN.
Für die 4 Indis mit je 200 Parametereinstellungen rechne ich dann nicht sofort in 1er Schritten, sondern in z.B. 10er Schritten, je nachdem, was mein PC noch in annehmbarer Zeit bewältigt. Dann sehe ich schon meine Inseln mit den besten Parametereinstellungen und rechne um die Inseln herum mit feinerer Auflösung.
Dafür mit NN zu werkeln ist mit Kanonen auf Spatzen zu schießen. Glaube daher eher, daß NN für ein wenig mehr da sein sollten, unabhängig davon ob man jetzt denkt, daß sie dafür taugen. Wenn es für die Steigerung der Rechengeschwindigkeit auch einfacher geht, müssen NN noch für was anderes gut sein, sonst würde man doch den einfacheren Weg gehen, oder?
Viele Grüße
Hallo gautama2,
mehr machen die NN aber auch nicht. Zumindest kenne ich kein Produkt, was was anderes machen würde. Eben - mit ein bißchen Grips in der Handelslogik/Überlegung kann man Geld und noch viel viel mehr Zeit sparen.
bye HH
(Will denn keiner pro argumentieren?)
@robby_b
Nichtlieares Regressionsverfahren ist ein Oberbegriff für Lösungsansätze die eben nicht liniar zu beschreiben sind.
@HappyHippo
"Wie verkürzt man die Rechenzeit um ein gutes Kombinationsmuster zu finden ?- nur darum gehts bei NN in Börsenprogrammen." Naja, darum geht es bei NN's ja auch nicht, bzw. sind die dazu gar nicht in der Lage.
Um "Kombinationsmuster" zu finden benötigst du "Beispiele". Diese müssen in irgendeine Art sinnvoll sein, um sinnvolle Aussagen treffen zu können. Wenn deine Beispiele (auch Trainingsdaten genannt) in keine Art sinnvoll sind, wird das nix.
Während des lernens verändert ein NN die "gewichtungen" der Verbindungen zwischen den einzelnen Neuronen. Sind die Inputdaten sinnvoll wird das Netzt je nach Lernalgorithmus früher oder später das optimum gefunden haben, wenn nicht, irrt es während der Lernphase und kann natürlich bei den live Daten keine sinnvolle Aussage liefern. Da es bei den NN's verschiedene Topologien, Lernregel, Aktivierungsfunktionen gibt, halte ich gar nichts von bereits fertigen NN's in den meisten Börsenprogrammen.. !
Wer interessiert ist, siehe http://www-ra.informatik.uni-tuebingen.de/SNNS/.
mfg
Juergen Jetmar
Hallo allvano,
das snns baue ich jetzt in meinen Taschenrechner ein ;-).
Bin nicht ganz d'accord mit deinem Posting. Sinn und Zweck eines heuristischen Verfahrens (egal welches) in einem Börsenprogramm ist(wäre) doch, für Indikatoren "beste" Werte oder Wertmengen auszugeben. Beste bpsw. in Hinblick auf die Performance (als Zielgröße) eines Handelssystems.
Wie das "technisch intern" umgesetzt wird, ist eigentlich Nebensache. Hauptsache ist, man erhält "gute" Ergebnisse (eben Paramenterwerte) in angemessener Zeit zu einem angemessenen Preis. Und zumindest das versprechen doch die Hersteller. Und Ergebnisse werden ja auch geliefert, insofern können diese Programme ja nicht das Gegenteil tun.
Dass es vielleicht gar nicht so viel Sinn macht (siehe gautama2), so vorzugehen, steht ja dann auf einem anderen Blatt.
Was mich nur wundert: Zitat
"Da es bei den NN's verschiedene Topologien, Lernregel, Aktivierungsfunktionen gibt, halte ich gar nichts von bereits fertigen NN's in den meisten Börsenprogrammen.. !
...hälst du ja auch vom Prinzip her nichts von diesen Verfahren in Börsenprogrammen.
Eine kurze Erläuterung hierzu würde, glaube ich, vielen stillen Lesern dienlich sein.
Danke und Gruß
HappyHippo
@allvano
Meiner Erfahrung nach kommt es bei NNs wesentlich weniger auf die Netzwerktopologie, Trainingsalg. usw. an, als auf eine vernünftige Aufbereitung von Inputs (jedenfalls bei der Art von Netzen, die ich handele bzw. gehandelt habe). NNs in Börsenprogramme haben den Vorteil, dass man sich auf das Wesentliche konzentrieren kann, man muss sich nicht jeden Scheiss selbst programmieren (so habe ich auch angefangen, bis es mir zu blöd wurde).
@HappyHippo
Ich weiss noch überhaupt nicht, was ich von Dir halten soll, ob Du einfach nur provozieren willst oder in deinem Leben noch kein Handelssystem geschrieben hast. Die Optimierungsfunktion ist übrigens praktisch die einzige Funktion, die ich bei der HS Entwicklung nicht benutze...
Hier mal noch ein Netz mit 57.000 !!! Out of Sample Trades mit einem NN...
http://www.handelssysteme-online.de/html/auswahl_aktien_fuer_nns.html
Ich weiss hoch, historisch schöne Kapitalkurven zu erzeugen ist einfach, aber 57.000 Out of Sample Trades sind schon etwas, finde ich. Soviel zum Curve Fitting...
Grüsse
Bernhard
Kennt ihr den schon?
Was ist 30 cm lang, 50 cm hoch und 70 cm tief?
Ein Draxl.
Wenn jetzt jemand wissen will, was ein Draxl ist: Ein Draxl ist 30 cm lang, 50 cm hoch und 70 cm tief. Jetzt alles klar?
So ähnlich geht es mir, wenn ich was über neuronale Netze lese (und ich denke, vielen geht es ähnlich.) Ich lese viel über Höhe und Breite, das es verschiedene Systeme gibt, die besser oder schlechter sind - aber mal einfach, möglichst auch noch plastisch zu erklären, was ein neuronales Netz IST, das habe ich bislang noch vermißt.
Das beste, was ich bisher an Erklärung gefunden habe, war der Hinweis auf fraktale Systeme. Ein Fraktal soll ein kleines Abbild etwas größeren sein - etwa eine einzelne Aktie, deren Kursverlauf den Kursverlauf des gesamten Index widerspiegelt. Demnach würde es genügen, die Kursverläufe einiger repräsentativer Aktien zu analysieren, um daraus auf die Verläufe des Gesamtmarktes schließen zu können. (Die Reduzierung der Rechenzeit wäre demnach eine natürliche Folge dieser Beschränkung.)
200*200*200*200= 1.600.000.000 (!) wozu dein PC wahrscheinlich 3 Jahre brauchen würde (oder so).
Mein Rechner taktet mit 2,66 GHz, sollte also pi mal Daumen irgendwas um 1 Millarde Rechenoperationen pro Sekunde bewältigen. Für 1,6 Milliarden Rechenoperationen wäre er demnach unendliche 1,6 Sekunden beschäftigt - ich glaube, damit könnte ich leben. (So was kommt leider dabei raus, wenn man nur über die Vorteile eines Draxl diskutiert, ohne jemals genau zu sagen, was um Himmels Willen ein Draxl überhaupt ist...)
robby_b, der sich schon für neuronale Netze interessieren würde, wenn er nur mal verstehen würde, was denn nun ganz genau damit gemeint ist...
@Robby
Ein Neuronales Netz ist zu seinem Namen gekommen, weil die Idee hinter einem Neuronale Netz war, das menschliche Gehirn mathematisch nachzubilden. Also sowohl wie es aufgebaut ist als auch wie es lernt. Es gibt also Neuronen (das sind einfach Gewichte in einer Funktion) und Synapsen (also Übergangsfunktionen) und diese werden trainiert. Als die NNs in den 70ern aufkamen, hatten sie einen riesen Hype ausgelöst und wie immer bei einer neuen Entwicklung hat man dann gedacht, man hätte die eierlegende Wollmilchsau erfunden. Dies wurde dann zurechtgestutzt. Im Prinzip ist also ein NN wirklich "nur" eine etwas andere Optimierungsmethode, bei der historisch bedingt eben z.B. nicht von optimieren, sondern trainieren gesprochen wird. Neuronale Netze funktionieren in manchen Bereichen sehr gut, in anderen weniger. Die Hype für die Börsenanwendungen hat sich inzwischen auch schon gelegt, es sind eben keine "Wunderproduzenten".
Die Anwendung ist auch jeden Fall höchst nichttrivial, wie übrigens die jeder anderen Optimierung auch, gerade bei Börsenanwendungen
mfg
Bernhard
Hallo,
hab gelesen, daß Neuronale Systeme auch Wirtschaftsdaten verwenden. Wieviele Eingangsparameter verwenden NN für Börsenanlysen beispielsweise?
(Kann sein, daß sich bei dieser Frage einigen NN-Spezialisten die Haare sträuben. Das täte mir dann leid.)
Grüße
Albert
Hallo Bernhard,
danke für die etwas tiefergehende Erläuterung. Könntest Du vielleicht ein Beispiel bringen bzw. beschreiben? Ich habe keine praktische Erfahrung mit neuronalen Netzen, habe aber mal eine Grafik gesehen, in der links der Input für die Neuronen dargestellt war - letztlich nur Eingabeparameter - rechts die Verknüpfungen (scheinbar die von Dir genannten Synapsen, die ich wohl am Besten mit Rechenregeln beschreiben könnte) - und ganz rechts dann der Output. Trifft das ungefähr zu?
Wenn ja, wie nutzt man dieses System für Analysen? Ich habe so ein bißchen den Verdacht, daß viele Anwender einfach wahllos Daten in eine Blackbox werfen, ohne zu wissen, was darin eigentlich passiert, und dann darauf hoffen, daß auf der anderen Seite 120% per Anno rauskommen.
robby_b
Hallo hungeturm,
tja - eine Webseite ohne Impressum mit grossartigen Behauptungen ist so viel Wert wie ein ausgefüllter Lottoschein nach der Ziehung.
0,1% Belastung durch Kosten und Slippage bei einem Zeitraum ab 1974!
Ist das realistisch? Sonst wäre wohl die Performance eingebrochen?
bye HH
@robby_b
Hallo,
ich bin mir nicht sicher ob Dein Beispiel mit den Rechenoperationen ironisch gemein war, auf jeden Fall kann man die Rechenoperationen NICHT mit Optimierungsversuchen gleichsetzen. Auf meinem 3GHz Rechner dauern z.B. 100 Optimierungsdurchläufe auf 5min Daten über 7 Jahre schon mindestens 3 Minuten (TradeStation). Mit diesen Rahmenbedingungen kannst Du dann gern einmal den Zeitbedarf für 200^4 Optimierung abläufen durchrechnen.
Ja, dürften wohl ein paar Jahre mehr sein ... ;-)
Lieber Happyhippo,
ich weiss nicht ob und was Du handelst, wenn Du US Aktien des SP500 zum Open ohne Stops mit einem vernünftigen Broker handeln würdest, dann wüsstest Du, ob es vernünftig wäre oder nicht. Mehr sage ich dazu nicht.
Hättest Du den Text gelesen, dann hättest Du auch gesehen, dass es bei dieser Untersuchung nicht primär um ein profitables HS ging (obwohl es das ist)...
Um ein Impressum ist nur bei einer gewerblichen Seite (bzw. mit redationellem Inhalt) notwendig. Da ich niemandem etwas verkaufen will...
An dieser Stelle beende ich die Diskussion, denn sie führt zu nichts.
mfG
Bernhard
Hallo Bernhard,
wieso so aggressiv ? Kann ich nicht verstehen. Außer du hast was mit dem Vetrieb solcher Programme zu tun ...
Aber: Ob es solche niedrigen Kostenbelastungen in den 70er und 80er Jahren gab, darf stark bezweifelt werden.
Und nachfragen wird man ja wohl noch dürfen, oder?
Zweitens - bleibt auf dieser Seite der behauptete Zusammenhang zwischen NN und profitablen HS gelinde gesagt, "äußerst nebulös". Eigentlich überhaupt nichts Greifbares in dieser Richtung.
HH
Lieber Hippo,
leider komme ich mit Deiner Art einer sachlichen Diskussion nicht zurecht. Da wird dann das fehlende Impressum bemängelt. Der erwartete Vorwurf, dass ich Börsensoftware verkaufen wolle kam natürlich dann auch gleich in der sachlichen Diskussion. Nur immer Andeutungen und nie eine Aussage. Ich habe einfach nicht den Eindruck, dass Du eine sachliche Diskussion führen willst, sondern einfach nur provozieren.
mfG
Bernhard
Hallo Bernhard,
Erstens - wo bitte habe ich denn dich persönlich provoziert? Bitte zitieren!
Zweitens Internetrecht - es haben sehr wohl auch Privatpersonen Impressumspflicht, wenn sie Seiten geschäftsmaßig betreiben (nicht verwechseln mit gewerbsmäßig). Mal aktuell informieren!
Und hier geht es um NN und eine "kritische" Besprechung dazu. Wenn du das nervlich nicht aushälst, einfach woanders surfen ... ;-) (gut gemeinter Rat)
bye HH
Hi,
mal eine grundsätzliche Frage. Bei uns auf Corfu ist es zwar auch schweinekalt, aber es scheint wenigstens die Sonne. Schlägt Euch das Wetter schon so auf´s Gemüt, daß ihr jetzt alle aufeinander losgeht? Bernhard, Du bist jetzt schon der Dritte, der das Handtuch werfen will. Und das, wo es gerade ein bißchen spannend wird.
@Prowler
Du hast natürlich recht mit Deiner Einschätzung. HappyHippo sprach aber nur von 1,6 Milliarden Rechenvorgängen, und die schafft ein 3 GHz locker in ein paar Sekunden. Die Zahl an sich hat also nichts zu sagen.
Anders sieht es aus, wenn ein Rechenvorgang sehr komplex ist - sieben Jahre eines Charts mit 5 Minuten Bars durchzuscannen, ist was anderes, als mal eben 1 und 1 zusammenzuzählen. Deshalb liegt es auf der Hand, nach anderen Lösungswegen zu suchen.
Ein Grundproblem mag aber auch darin bestehen, daß man heute gerne mit Rechenpower auf Probleme losgeht, bei denen man früher noch sein Köpfchen benutzt hat.
Beispiel. Ein Freund hat mir von einem begnadeten Mathematiker berichtet, der für Ölfirmen die Tankerauslastung plant. Alle Experten hatten Hunderte von Parametern festgelegt und waren dann davon ausgegangen, daß deren Berechnung mit Supercomputern sehr, sehr lange dauert - mithin nicht realistisch für eine Tankerplanung, die tagesaktuell sein muß. Der Mathematiker hat sich ein Modell ausgedacht, in dem er mit Fraktalen arbeitet - statt die Gesamtsumme auszurechnen, wählte er nur Beispiele, die aber mit einer weit über 90%igen Wahrscheinlichkeit die optimalen Resultate lieferten. Das war den Verantwortlichen genug, sie haben ihn auf der Stelle engagiert.
Wenn ich bei neuronalen Netzen den gleichen Ansatz sehe - mit viel Rechenpower blind drauflos zu rechnen - dann bin ich den Ergebnissen gegenüber eher skeptisch. Auch hierzu ein Beispiel. Nehmen wir mal einen Getränkevertieb, in dem anhand der Absatzzahlen der Bedarf für den nächsten Tag oder die nächste Woche ermittelt werden soll. Da kann man sicher tolle mathematische Modelle aufstellen, statistische Daten bis zurück zum Sankt Nimmerleinstag berechnen lassen und dürfte mit sehr großer Wahrscheinlichkeit doch mächtig daneben liegen.
Ich möchte wetten: Wenn ein Lehrling mit einem Kalender herkommt und die Fragen stellt: Wieviel haben wir im Sommer, wieviel im Winter, wieviel kurz vor Weihnachten, wieviel vor Ostern verkauft, bekommt er mit dem Taschenrechner bessere Prognoseergebnisse als mit jedem neuronalen Netz. Was nicht mal dem Netz anzulasten ist - es wurden einfach nur die falschen Fragen gestellt.
Ich schreibe viel über Datenbanken und da gibt es ein ähnliches Problem. Unternehmen haben heute sehr leistungsfähige Produktivsystem, die - ähnlich wie die Börse - einen permanenten Datenstrom liefern. Den zu analysieren ist ein Ding der Unmöglichkeit - was nicht an der fehlenden Rechenpower liegt, sondern daran, daß es nicht möglich ist, mit Standardmethoden die richtigen Fragen zu stellen. (Für jede Abfrage müßten sehr viele Tabellen miteinander verknüpft werden, jede Fragestellung mußte separat eingegeben bzw. programmiert werden und bei jeder Zusatzfrage begänne die Arbeit wieder von vorne - ist nicht bezahlbar.)
Die Lösung besteht in einer Technologie, die OLAP heißt. Ähnlich wie bei Pivot-Tabellen in Excel werden die Daten in einem mehrdimensionalen Würfel gesammelt, und bei jeder Abfrage werden die Dimensionen miteinander verbunden.
Einfaches Beispiel. Eine Basis-Liste zeigt alle Umsätze nach Monaten. (Entspräche den Aktienkursen nach Zeit.) Jetzt möchte jemand wissen, wie sich diese Umsätze auf die einzelnen Kunden verteilen - neue Dimension zuschalten, schon sind die Daten aufgesplittet. Und wie verteilen sich die Umsätze auf die Regionen? Neue Dimension. Unterteilt nach Produkten, nach Vertretern etc. Auf einmal werden die Daten transparent, weil nun die richtigen Fragen gestellt werden können.
Übertragen auf Aktien, könnte ich mir in etwa ein solches System vorstellen: Erst mal alle Aktienkurse nach Zeit. Wie verteilen sich die Aktien auf die einzelnen Börsen? Wie auf die Branchen? Wie verhalten sie sich im Vergleich zu den Zinsen? Wie auf Unternehmensgrößen? Auf die Anzahl der verfügbaren Aktien? Auf das Handelsvolumen?
Wenn ich ein Unternehmen mit einem Börsenwert von 10 Millionen habe, besteht eine Chance, daß sich daraus ein 100 Millionen Unternehmen entwickelt, die Aktie sich also verzehnfachen kann. Wenn ich ein Unternehmen mit einem Börsenwert von 100 Milliarden habe, besteht keine Chance zu einer Verzehnfachung - bislang ist bei 500 Milliarden noch Schluß. Was nützt es mir also, wenn ich Unternehmen aller Branchen und aller Größen in einen Topf werfe und dann versuche, aus diesem Mix was vernünftiges herauszulesen?
Über die Vorselektion habe ich bislang aber noch wenig gelesen - die Einteilung in Branchen ist bislang das Höchste der Gefühle, über das diskutiert wird.
Nun den Bogen zum neuronalen Netz zurück. Angenommen, ich habe 100 Aktien herausgesucht von jungen, dynamischen Unternehmen, von denen wahrscheinlich ein Dutzend groß rauskommen. Was müßte ich in einem neuronalen Netz eingeben, um mit einer relativ hohen Wahrscheinlichkeit die potentiellen Gewinner von den Loosern zu unterscheiden?
Und jetzt bitte keine Diskussionen mehr über Impressum oder nicht (ist kein Befehl, nur ein Wunsch meinerseits) und vielleicht statt dessen mehr Konzentration auf die Möglichkeiten, die in den neuronalen Netzen stecken. Vielleicht haben die meisten Anwender einfach noch nicht die richtigen Fragen gestellt?
robby_b
PS: Ich weiß immer noch nicht, was ein Draxl ist - das beschäftigt mich schon seit 20 Jahren. Bei neuronalen Netzen blicke ich hoffentlich ein bißchen früher durch…
Lieber HappyHippo,
einigen wir uns also darauf, dass NNs nicht funktionieren.
Grüsse
Bernhard
Hallo HappyHippo,
aus Deinen Beiträgen kenne ich Dich als kühlen, kompetenten Mitstreiter um gute Gewinne. Woher dieser plötzliche Drang zur Rechthaberei? Hoffentlich nur ein schlechter Tag bei Dir!
robby_b
Hallo robby_b,
ich bin mir nicht bewusst jemanden provoziert zu haben und lasse mir das auch nicht einfach von irgend jemandem unterstellen, nur weil ich meine Meinung sage. Anscheinend sind manche sehr sehr dünnhäutig und verwechseln das.
Aber zum Thema:
;-) ich sprach nicht von simplen Rechenvorgängen, sondern von echten 1,6*10^9 Parameter-Kombinationen (Indikatoren) (interne Rechenvorgänge dürften das irre viele sein). Insofern dürfte die Berechnung aller Kombinationen schon in die Jahre gehen - sprich völlig unwirtschaftlich sein.
Wer solche Rechenmarathons aber durchziehen möchte, kann natürlich gerne heuristische Verfahren einsetzen, also auch NNs' (!!). Ja, um die Rechenzeit abzukürzen.
Obwohl ich ja grundsätzlich dazu wie gautama2 der Meinung bin, dass dies überflüssig ist und der Ansatz, so HS zu entwickeln als verfehlt anzusehen ist.
Gruß,
HH