* Neuronale Systeme - wer hat praktische Erfahrung?
Ich beschäftige mich als Private - Equity - Mensch erst seit kurzer Zeit intensiver mit Managed Futures und Handelssystemen und lese daher geradezu aufsaugend gewisse Postings in diesem Board, ohne freilich meinen ggf. unqualifizierten Senf dazuzugeben.
Als ehemaliger Physikstudent (dieses Studium ist das beste Garantiesystem für spätere Arbeitslosigkeit, weshalb ich meinen mitteldotierten Job aufgeben und einen eigenen Hedge Fund für high net worth customers gründen werde) fasziniert mich der theoretische Ansatz neuronaler Systeme.
Ich würde mich freuen, wenn wir zu diesem Thema etwas über praktische Erfahrungen hören würden. Ist das alles Backtesting bzw. reine Theorie oder wird erfolgreich getradet? Werden Trendfolgesysteme von Hedge Funds damit "ergänzt" und ggf. optimiert oder habe ich das falsch verstanden?
In einem anderen Thread dieses Forums hieß es mal: "Wenn man sich die Renditen der Anbieter neuronaler Systeme anschaut, kann man leicht ins Heulen kommen." Ich gebe zu, dass mich genau dieser Satz neugierig gemacht hat. Habe stundenlang Material studiert, muss sagen, im Dax Future z.B. 179 % bei maximum drawdown ca. 16 %, bei google wird mit 1605 % in 30 Monaten geworben.
Freue mich auf Resonanz
Boesky
@ ivan boesky
Ich hatte mal kurz bei http://de.moneybee.net/index.asp mitgemacht. Damals im Jahr 2000 waren die Seitenbetreiber bei Bloomberg und haben sehr kluge Dinge über Ihre Netze gesagt. Von der Theorie her waren sie sicher fest in der Materie verwurzelt. Man musste sich dort kostenlos anmelden und eine Software herunterladen, die als Bildschirmschoner Pakete für die NN berechnete. Nur wer regelmäßig Pakete ablieferte bekam einen Zugang zu den Ergebnissen.
Es hat mich damals mit aktuellen Ergebnissen nicht überzeugt, aber die Geldbienen haben sich seither bestimmt fleißig weiterentwickelt.
Wenn ich nur deren Rechenleistung anschaue, dann frage ich mich, wie das einer alleine einholen will.
-----
Kein Scherz: Backtesting für ALLE!
Abtauchen in die MoneyBee-Historie - Depots testen auf den MoneyBee-Prognosen der letzten drei Jahre? Kann jetzt jeder! Probieren Sie unseren umfangreichen Backtesting-Bereich unbegrenzt, mit zahlreichen neuen Features! Wir haben nur einen Haken drangeschraubt: Nur Premium-Mitglieder können mit den neuesten Daten arbeiten, alle anderen erhalten den Service 4 Wochen zeitverzögert. Aber Tests sind sonst unbegrenzt möglich! Wir freuen uns über Kommentare, Lob und Meldungen winzigkleiner Bugs.
Ihr MoneyBee-Team
-----
Gruss
trendling
@ ivan
Man schafft es auch ohne ein neuronales Netz eine gute Performance zu erzielen und gleichzeitig ein geringen Drawdown zu haben.
Es kommt wirklich nur auf die Strategie an, z.B. Diversifikation, SL's usw.
Grüße
Firebold
@ ivan boesky
Ich hatte früher in meinem Beruf viel mit neuronalen Netzen zu tun. Ich war spezialisiert auf Mustererkennung in der Bildanalyse sowie in der Spachverarbeitung. Meine Heimat war Spektralanalysen Transformationen sowie neuronale Netze. Aufbau und Funktionsweise kenne ich bis in die letzten Details.
Genau aus diesem Grund bin ich an der Börse sehr vorsichtig. Ein System auf neuronaler Basis zu entwickeln das 1605% in 30 Monaten schafft, wie bei Google beworben, ist absolut möglich, machbar und trozdem ein sagenhafter Quatsch. Es wird sicherlich glänzende Ergebnisse beim backtesting bringen! Und dabei bleibt es auch!
Bitte überleg einmal. Wenn das so funktionieren würde wie beschrieben würde sicherlich jeder Hedgefonds so ein Wunderding einsetzen und allen davonrennen! Aber als ehemaliger Physikstudent der Du vorgibst gewesen zu sein müßte Dir die Problematik eigentlich klar sein. Neuronale Netze sind erste Wahl beim assozieren von Mustern. Das Netz wird nicht programmiert wie Computer mit sequentiellen Anweisungen sondern ist eine Parallelstruktur welche durch Gewichtung der Neuronen lernt.
Das Netz lernt! Und den Chart lernt es auswenig, überspitzt gesagt. Overfitting! Laß ein Netz lernen z.B. von 2000 bis jetzt. Wenn man nicht gerade ein furchtbarer Stümper ist wird es eine traumhafte Kapitalkurve geben vom Jahr 2000 stetig aufwärts bis jetzt. So, nun setze dieses Netz bei demselben Markt ein, aber füttere es ab dem Jahr 1998. Ich garantiere dir mit absoluter Sicherheit daß von 1998 bis 2000 das Ergebnis mehr als erschreckend sein wird!
Ich will damit die Anwendung von neuronalen Netzen an den Märkten nicht verdammen, aber man muß wissen was in dieser black-box geschieht um sie dort einsetzen zu können wo es Vorteile bringen kann. Ansonsten wird man sehr schnell Schiffbruch damit erleiden.
Gruß OPTRADE
@ivan boesky
Ich arbeite seit März 2001 mit der Omega Trad. Station und kann nur alle warnen sich auf Backtesting zu verlassen.Es ist leider nichts wert nicht mal ansatzweise werden im realen Handel die Ergebnisse des Backt. erzielt.Das vorher errechnet Drowdown wird meistens schon im ersten Monat weit überschritten.
Backtesting ist nur etwas für Broker/Vermögensverwalter um Kapital kräftigen Kunden einen sehr lukrativen Handel vorzuzeigen wobei anschließend für sie an den Roundturns ohne Risiko gut verdient wird. Das Kapital des Kunden wird in den meisten Fällen verbrannt.
@gs1150
So negativ würde ich das Backtesting nicht sehen. Klar lassen sich die historisch erzielten Ergebnisse nicht 1:1 auf die Zukunft übertragen, aber als Werkzeug, um die grundsätzliche Eignung von Handelsansätzen zu überprüfen, ist das Backtesting sehr wertvoll.
Aber: Jeden Tag herrschen andere Bedingungen an der Börse. Beim Backtesting werden in der Regel aber nur Chart-Formationen überprüft, das heißt, die Rahmenbedingungen bleiben beim Test außen vor. Das ist etwa so, als würde ich die Wettervorhersage nur auf Grund von Temperaturangaben berechnen, beim Backtesten aber außer Acht lassen, daß es Jahreszeiten gibt. Habe ich dann ein System für den Sommer entwickelt, staune ich nicht schlecht, wenn ich damit Vorhersagen für den Winter machen will...
robby_b
Wenn Backtesting bei einem nicht funktioniert (oder der Tester nicht funktioniert), sollte man sowieso die Finger von der Börse lassen, denn die zukünftigen Kurse sind noch viel unerkennbarer.
Folge: kein Backtesting => kein "Vortesting" => Finger von der Börse!
Oder?
;-) HH
Und gleich was hinterher ...
Neuronale Systeme - was ist eigentlich deren Ziel?
Erstellen sie einem Handelssysteme oder optimieren sie einem nur Parameterwerte von Indikatoren?
Wenn sie nur letzteres tun, dann beschränkt sich der Lernvorgang doch nur auf die Reduktion von Zeit bei zukünftiger Suche. Wer also planlos nach Parameterwerten sucht, fährt mit neuronalen Netzen sicherlich sehr gut.
Wer selber plant, kann die Suche nach Parameterwerten so weit einschränken, dass er kein externes neuronales Netz mehr braucht, weil er ja sein eigenes inneres (Gehirn) verwenden kann. (bzw, dann unter wenigen Möglichkeiten suchen lassen kann.)
(Oh, Mann - bin ich heute wieder ketzerisch.)
Oder ?
;-)) HH
Lieber Ivan,
Ich selbst bin Physiker und KEINER meiner Kollegen ist arbeitslos, im Gegenteil der Arbeitsmarkt für Physiker sieht im Moment sogar relativ gut aus. Soviel dazu (übrigens arbeiten in den USA 10 % der Physiker für Banken und Hedgefonds).
Neuronale Netze (NN):
Neuronale Netze sind nichts anderes als ein nichtlieares Regressionsverfahren wie viele andere auch. Das heisst ein NN verbringt keine Wunder und die Gefahr des Curve Fittings ist noch sehr viel höher als bei "herkömmlichen" Handelssystemen (wegen der deutlich erhöhten Anzahl an Freiheitsgraden). Wie überall gilt auch bei Neuronalen Netzen: Garbage in, Garbage out, d.h. die Aufbereitung der Daten für das NN ist entscheidend. Brute Force hilft da nicht viel.
Was für Ergebnisse lassen sich erzielen: Gute NNs erzielen in etwa gleich gute Ergebnisse (bei mir) wie gute mechanische Handelssysteme. Beim Trader der Woche Wettbewert auf Aktienboard habe ich z.B. mit einem NN mitgemacht und letztes Jahr eine Performance von 78 % gehabt. Real hätte die Performance natürlich ganz anders ausgesehen, aber soviel dazu ob man damit profitabel handeln kann oder nicht.
Aber wie gesagt, mit NNs profitable HSse zu basteln ist nochmals deutlich schwieriger als "herkömmliche" Handelssysteme zu machen. Und das ist schon schwer genug (und 90 % schaffen es nie).
Ich wünsche noch viel Spass bei der Hedgefonds Gründung...
Grüsse
Bernhard
@Hungerturm
'Neuronale Netze sind nichts anderes als ein nichtlieares Regressionsverfahren wie viele andere auch.'
Aha. Vielleicht würde die Diskussion um neuronale Netze etwas lebendiger, wenn mal jemand in klaren, verständlichen Worten beschreiben kann, was ein neuronales Netz eigentlich macht, wie es sich von traditionellen Handelssystemen unterscheidet und wo die Grenzen sind.
Ich habe zwar schon einige Erklärungen gelesen, selbst aber noch nichts damit zu tun gehabt und wäre deshalb an einer verständlichen Erklärung - vielleicht sogar noch mit einem Beispiel - über den praktischen Einsatz sehr glücklich.
robby_b
Was machen NN in Börsenporgrammen?
Klassische Anwendung (und einzige?!):
Nehmen wir mal an du hast 4 Indikatoren, die jeweils 200 Parameterwerte haben können und du willst die beste Kombination aus allen diesen 4 Indikatoren.
Möglichkeiten also 200*200*200*200= 1.600.000.000 (!) wozu dein PC wahrscheinlich 3 Jahre brauchen würde (oder so).
Wie verkürzt man die Rechenzeit um ein gutes Kombinationsmuster zu finden ?- nur darum gehts bei NN in Börsenprogrammen.
Also muss irgendein Verfahren (=NN) her, dass die dafür benötigte Rechenzeit verkleinert. Lösung: es rechnet erst mal so durch (!!!) (je nach Verfahren) und findet womöglich (hoffentlich) besonders gute Parameterinseln, die es dann dir in >>Zukunft<< immer als erstes anbietet. Bis zum nächsten Training vielleicht usw. Oder bis zum nächsten Markt ...
;-) HH
Hallo HH,
ich kenne mich mit NN nicht aus, aber nur für die Verkürzung der Rechenzeit bräuchte ich eigentlich kein NN.
Für die 4 Indis mit je 200 Parametereinstellungen rechne ich dann nicht sofort in 1er Schritten, sondern in z.B. 10er Schritten, je nachdem, was mein PC noch in annehmbarer Zeit bewältigt. Dann sehe ich schon meine Inseln mit den besten Parametereinstellungen und rechne um die Inseln herum mit feinerer Auflösung.
Dafür mit NN zu werkeln ist mit Kanonen auf Spatzen zu schießen. Glaube daher eher, daß NN für ein wenig mehr da sein sollten, unabhängig davon ob man jetzt denkt, daß sie dafür taugen. Wenn es für die Steigerung der Rechengeschwindigkeit auch einfacher geht, müssen NN noch für was anderes gut sein, sonst würde man doch den einfacheren Weg gehen, oder?
Viele Grüße
Hallo gautama2,
mehr machen die NN aber auch nicht. Zumindest kenne ich kein Produkt, was was anderes machen würde. Eben - mit ein bißchen Grips in der Handelslogik/Überlegung kann man Geld und noch viel viel mehr Zeit sparen.
bye HH
(Will denn keiner pro argumentieren?)
@robby_b
Nichtlieares Regressionsverfahren ist ein Oberbegriff für Lösungsansätze die eben nicht liniar zu beschreiben sind.
@HappyHippo
"Wie verkürzt man die Rechenzeit um ein gutes Kombinationsmuster zu finden ?- nur darum gehts bei NN in Börsenprogrammen." Naja, darum geht es bei NN's ja auch nicht, bzw. sind die dazu gar nicht in der Lage.
Um "Kombinationsmuster" zu finden benötigst du "Beispiele". Diese müssen in irgendeine Art sinnvoll sein, um sinnvolle Aussagen treffen zu können. Wenn deine Beispiele (auch Trainingsdaten genannt) in keine Art sinnvoll sind, wird das nix.
Während des lernens verändert ein NN die "gewichtungen" der Verbindungen zwischen den einzelnen Neuronen. Sind die Inputdaten sinnvoll wird das Netzt je nach Lernalgorithmus früher oder später das optimum gefunden haben, wenn nicht, irrt es während der Lernphase und kann natürlich bei den live Daten keine sinnvolle Aussage liefern. Da es bei den NN's verschiedene Topologien, Lernregel, Aktivierungsfunktionen gibt, halte ich gar nichts von bereits fertigen NN's in den meisten Börsenprogrammen.. !
Wer interessiert ist, siehe http://www-ra.informatik.uni-tuebingen.de/SNNS/.
mfg
Juergen Jetmar
Hallo allvano,
das snns baue ich jetzt in meinen Taschenrechner ein ;-).
Bin nicht ganz d'accord mit deinem Posting. Sinn und Zweck eines heuristischen Verfahrens (egal welches) in einem Börsenprogramm ist(wäre) doch, für Indikatoren "beste" Werte oder Wertmengen auszugeben. Beste bpsw. in Hinblick auf die Performance (als Zielgröße) eines Handelssystems.
Wie das "technisch intern" umgesetzt wird, ist eigentlich Nebensache. Hauptsache ist, man erhält "gute" Ergebnisse (eben Paramenterwerte) in angemessener Zeit zu einem angemessenen Preis. Und zumindest das versprechen doch die Hersteller. Und Ergebnisse werden ja auch geliefert, insofern können diese Programme ja nicht das Gegenteil tun.
Dass es vielleicht gar nicht so viel Sinn macht (siehe gautama2), so vorzugehen, steht ja dann auf einem anderen Blatt.
Was mich nur wundert: Zitat
"Da es bei den NN's verschiedene Topologien, Lernregel, Aktivierungsfunktionen gibt, halte ich gar nichts von bereits fertigen NN's in den meisten Börsenprogrammen.. !
...hälst du ja auch vom Prinzip her nichts von diesen Verfahren in Börsenprogrammen.
Eine kurze Erläuterung hierzu würde, glaube ich, vielen stillen Lesern dienlich sein.
Danke und Gruß
HappyHippo
@allvano
Meiner Erfahrung nach kommt es bei NNs wesentlich weniger auf die Netzwerktopologie, Trainingsalg. usw. an, als auf eine vernünftige Aufbereitung von Inputs (jedenfalls bei der Art von Netzen, die ich handele bzw. gehandelt habe). NNs in Börsenprogramme haben den Vorteil, dass man sich auf das Wesentliche konzentrieren kann, man muss sich nicht jeden Scheiss selbst programmieren (so habe ich auch angefangen, bis es mir zu blöd wurde).
@HappyHippo
Ich weiss noch überhaupt nicht, was ich von Dir halten soll, ob Du einfach nur provozieren willst oder in deinem Leben noch kein Handelssystem geschrieben hast. Die Optimierungsfunktion ist übrigens praktisch die einzige Funktion, die ich bei der HS Entwicklung nicht benutze...
Hier mal noch ein Netz mit 57.000 !!! Out of Sample Trades mit einem NN...
http://www.handelssysteme-online.de/html/auswahl_aktien_fuer_nns.html
Ich weiss hoch, historisch schöne Kapitalkurven zu erzeugen ist einfach, aber 57.000 Out of Sample Trades sind schon etwas, finde ich. Soviel zum Curve Fitting...
Grüsse
Bernhard
Kennt ihr den schon?
Was ist 30 cm lang, 50 cm hoch und 70 cm tief?
Ein Draxl.
Wenn jetzt jemand wissen will, was ein Draxl ist: Ein Draxl ist 30 cm lang, 50 cm hoch und 70 cm tief. Jetzt alles klar?
So ähnlich geht es mir, wenn ich was über neuronale Netze lese (und ich denke, vielen geht es ähnlich.) Ich lese viel über Höhe und Breite, das es verschiedene Systeme gibt, die besser oder schlechter sind - aber mal einfach, möglichst auch noch plastisch zu erklären, was ein neuronales Netz IST, das habe ich bislang noch vermißt.
Das beste, was ich bisher an Erklärung gefunden habe, war der Hinweis auf fraktale Systeme. Ein Fraktal soll ein kleines Abbild etwas größeren sein - etwa eine einzelne Aktie, deren Kursverlauf den Kursverlauf des gesamten Index widerspiegelt. Demnach würde es genügen, die Kursverläufe einiger repräsentativer Aktien zu analysieren, um daraus auf die Verläufe des Gesamtmarktes schließen zu können. (Die Reduzierung der Rechenzeit wäre demnach eine natürliche Folge dieser Beschränkung.)
200*200*200*200= 1.600.000.000 (!) wozu dein PC wahrscheinlich 3 Jahre brauchen würde (oder so).
Mein Rechner taktet mit 2,66 GHz, sollte also pi mal Daumen irgendwas um 1 Millarde Rechenoperationen pro Sekunde bewältigen. Für 1,6 Milliarden Rechenoperationen wäre er demnach unendliche 1,6 Sekunden beschäftigt - ich glaube, damit könnte ich leben. (So was kommt leider dabei raus, wenn man nur über die Vorteile eines Draxl diskutiert, ohne jemals genau zu sagen, was um Himmels Willen ein Draxl überhaupt ist...)
robby_b, der sich schon für neuronale Netze interessieren würde, wenn er nur mal verstehen würde, was denn nun ganz genau damit gemeint ist...
@Robby
Ein Neuronales Netz ist zu seinem Namen gekommen, weil die Idee hinter einem Neuronale Netz war, das menschliche Gehirn mathematisch nachzubilden. Also sowohl wie es aufgebaut ist als auch wie es lernt. Es gibt also Neuronen (das sind einfach Gewichte in einer Funktion) und Synapsen (also Übergangsfunktionen) und diese werden trainiert. Als die NNs in den 70ern aufkamen, hatten sie einen riesen Hype ausgelöst und wie immer bei einer neuen Entwicklung hat man dann gedacht, man hätte die eierlegende Wollmilchsau erfunden. Dies wurde dann zurechtgestutzt. Im Prinzip ist also ein NN wirklich "nur" eine etwas andere Optimierungsmethode, bei der historisch bedingt eben z.B. nicht von optimieren, sondern trainieren gesprochen wird. Neuronale Netze funktionieren in manchen Bereichen sehr gut, in anderen weniger. Die Hype für die Börsenanwendungen hat sich inzwischen auch schon gelegt, es sind eben keine "Wunderproduzenten".
Die Anwendung ist auch jeden Fall höchst nichttrivial, wie übrigens die jeder anderen Optimierung auch, gerade bei Börsenanwendungen
mfg
Bernhard
Hallo,
hab gelesen, daß Neuronale Systeme auch Wirtschaftsdaten verwenden. Wieviele Eingangsparameter verwenden NN für Börsenanlysen beispielsweise?
(Kann sein, daß sich bei dieser Frage einigen NN-Spezialisten die Haare sträuben. Das täte mir dann leid.)
Grüße
Albert
Hallo Bernhard,
danke für die etwas tiefergehende Erläuterung. Könntest Du vielleicht ein Beispiel bringen bzw. beschreiben? Ich habe keine praktische Erfahrung mit neuronalen Netzen, habe aber mal eine Grafik gesehen, in der links der Input für die Neuronen dargestellt war - letztlich nur Eingabeparameter - rechts die Verknüpfungen (scheinbar die von Dir genannten Synapsen, die ich wohl am Besten mit Rechenregeln beschreiben könnte) - und ganz rechts dann der Output. Trifft das ungefähr zu?
Wenn ja, wie nutzt man dieses System für Analysen? Ich habe so ein bißchen den Verdacht, daß viele Anwender einfach wahllos Daten in eine Blackbox werfen, ohne zu wissen, was darin eigentlich passiert, und dann darauf hoffen, daß auf der anderen Seite 120% per Anno rauskommen.
robby_b
Hallo hungeturm,
tja - eine Webseite ohne Impressum mit grossartigen Behauptungen ist so viel Wert wie ein ausgefüllter Lottoschein nach der Ziehung.
0,1% Belastung durch Kosten und Slippage bei einem Zeitraum ab 1974!
Ist das realistisch? Sonst wäre wohl die Performance eingebrochen?
bye HH
@robby_b
Hallo,
ich bin mir nicht sicher ob Dein Beispiel mit den Rechenoperationen ironisch gemein war, auf jeden Fall kann man die Rechenoperationen NICHT mit Optimierungsversuchen gleichsetzen. Auf meinem 3GHz Rechner dauern z.B. 100 Optimierungsdurchläufe auf 5min Daten über 7 Jahre schon mindestens 3 Minuten (TradeStation). Mit diesen Rahmenbedingungen kannst Du dann gern einmal den Zeitbedarf für 200^4 Optimierung abläufen durchrechnen.
Ja, dürften wohl ein paar Jahre mehr sein ... ;-)
Lieber Happyhippo,
ich weiss nicht ob und was Du handelst, wenn Du US Aktien des SP500 zum Open ohne Stops mit einem vernünftigen Broker handeln würdest, dann wüsstest Du, ob es vernünftig wäre oder nicht. Mehr sage ich dazu nicht.
Hättest Du den Text gelesen, dann hättest Du auch gesehen, dass es bei dieser Untersuchung nicht primär um ein profitables HS ging (obwohl es das ist)...
Um ein Impressum ist nur bei einer gewerblichen Seite (bzw. mit redationellem Inhalt) notwendig. Da ich niemandem etwas verkaufen will...
An dieser Stelle beende ich die Diskussion, denn sie führt zu nichts.
mfG
Bernhard
Hallo Bernhard,
wieso so aggressiv ? Kann ich nicht verstehen. Außer du hast was mit dem Vetrieb solcher Programme zu tun ...
Aber: Ob es solche niedrigen Kostenbelastungen in den 70er und 80er Jahren gab, darf stark bezweifelt werden.
Und nachfragen wird man ja wohl noch dürfen, oder?
Zweitens - bleibt auf dieser Seite der behauptete Zusammenhang zwischen NN und profitablen HS gelinde gesagt, "äußerst nebulös". Eigentlich überhaupt nichts Greifbares in dieser Richtung.
HH
Lieber Hippo,
leider komme ich mit Deiner Art einer sachlichen Diskussion nicht zurecht. Da wird dann das fehlende Impressum bemängelt. Der erwartete Vorwurf, dass ich Börsensoftware verkaufen wolle kam natürlich dann auch gleich in der sachlichen Diskussion. Nur immer Andeutungen und nie eine Aussage. Ich habe einfach nicht den Eindruck, dass Du eine sachliche Diskussion führen willst, sondern einfach nur provozieren.
mfG
Bernhard
Hallo Bernhard,
Erstens - wo bitte habe ich denn dich persönlich provoziert? Bitte zitieren!
Zweitens Internetrecht - es haben sehr wohl auch Privatpersonen Impressumspflicht, wenn sie Seiten geschäftsmaßig betreiben (nicht verwechseln mit gewerbsmäßig). Mal aktuell informieren!
Und hier geht es um NN und eine "kritische" Besprechung dazu. Wenn du das nervlich nicht aushälst, einfach woanders surfen ... ;-) (gut gemeinter Rat)
bye HH
Hi,
mal eine grundsätzliche Frage. Bei uns auf Corfu ist es zwar auch schweinekalt, aber es scheint wenigstens die Sonne. Schlägt Euch das Wetter schon so auf´s Gemüt, daß ihr jetzt alle aufeinander losgeht? Bernhard, Du bist jetzt schon der Dritte, der das Handtuch werfen will. Und das, wo es gerade ein bißchen spannend wird.
@Prowler
Du hast natürlich recht mit Deiner Einschätzung. HappyHippo sprach aber nur von 1,6 Milliarden Rechenvorgängen, und die schafft ein 3 GHz locker in ein paar Sekunden. Die Zahl an sich hat also nichts zu sagen.
Anders sieht es aus, wenn ein Rechenvorgang sehr komplex ist - sieben Jahre eines Charts mit 5 Minuten Bars durchzuscannen, ist was anderes, als mal eben 1 und 1 zusammenzuzählen. Deshalb liegt es auf der Hand, nach anderen Lösungswegen zu suchen.
Ein Grundproblem mag aber auch darin bestehen, daß man heute gerne mit Rechenpower auf Probleme losgeht, bei denen man früher noch sein Köpfchen benutzt hat.
Beispiel. Ein Freund hat mir von einem begnadeten Mathematiker berichtet, der für Ölfirmen die Tankerauslastung plant. Alle Experten hatten Hunderte von Parametern festgelegt und waren dann davon ausgegangen, daß deren Berechnung mit Supercomputern sehr, sehr lange dauert - mithin nicht realistisch für eine Tankerplanung, die tagesaktuell sein muß. Der Mathematiker hat sich ein Modell ausgedacht, in dem er mit Fraktalen arbeitet - statt die Gesamtsumme auszurechnen, wählte er nur Beispiele, die aber mit einer weit über 90%igen Wahrscheinlichkeit die optimalen Resultate lieferten. Das war den Verantwortlichen genug, sie haben ihn auf der Stelle engagiert.
Wenn ich bei neuronalen Netzen den gleichen Ansatz sehe - mit viel Rechenpower blind drauflos zu rechnen - dann bin ich den Ergebnissen gegenüber eher skeptisch. Auch hierzu ein Beispiel. Nehmen wir mal einen Getränkevertieb, in dem anhand der Absatzzahlen der Bedarf für den nächsten Tag oder die nächste Woche ermittelt werden soll. Da kann man sicher tolle mathematische Modelle aufstellen, statistische Daten bis zurück zum Sankt Nimmerleinstag berechnen lassen und dürfte mit sehr großer Wahrscheinlichkeit doch mächtig daneben liegen.
Ich möchte wetten: Wenn ein Lehrling mit einem Kalender herkommt und die Fragen stellt: Wieviel haben wir im Sommer, wieviel im Winter, wieviel kurz vor Weihnachten, wieviel vor Ostern verkauft, bekommt er mit dem Taschenrechner bessere Prognoseergebnisse als mit jedem neuronalen Netz. Was nicht mal dem Netz anzulasten ist - es wurden einfach nur die falschen Fragen gestellt.
Ich schreibe viel über Datenbanken und da gibt es ein ähnliches Problem. Unternehmen haben heute sehr leistungsfähige Produktivsystem, die - ähnlich wie die Börse - einen permanenten Datenstrom liefern. Den zu analysieren ist ein Ding der Unmöglichkeit - was nicht an der fehlenden Rechenpower liegt, sondern daran, daß es nicht möglich ist, mit Standardmethoden die richtigen Fragen zu stellen. (Für jede Abfrage müßten sehr viele Tabellen miteinander verknüpft werden, jede Fragestellung mußte separat eingegeben bzw. programmiert werden und bei jeder Zusatzfrage begänne die Arbeit wieder von vorne - ist nicht bezahlbar.)
Die Lösung besteht in einer Technologie, die OLAP heißt. Ähnlich wie bei Pivot-Tabellen in Excel werden die Daten in einem mehrdimensionalen Würfel gesammelt, und bei jeder Abfrage werden die Dimensionen miteinander verbunden.
Einfaches Beispiel. Eine Basis-Liste zeigt alle Umsätze nach Monaten. (Entspräche den Aktienkursen nach Zeit.) Jetzt möchte jemand wissen, wie sich diese Umsätze auf die einzelnen Kunden verteilen - neue Dimension zuschalten, schon sind die Daten aufgesplittet. Und wie verteilen sich die Umsätze auf die Regionen? Neue Dimension. Unterteilt nach Produkten, nach Vertretern etc. Auf einmal werden die Daten transparent, weil nun die richtigen Fragen gestellt werden können.
Übertragen auf Aktien, könnte ich mir in etwa ein solches System vorstellen: Erst mal alle Aktienkurse nach Zeit. Wie verteilen sich die Aktien auf die einzelnen Börsen? Wie auf die Branchen? Wie verhalten sie sich im Vergleich zu den Zinsen? Wie auf Unternehmensgrößen? Auf die Anzahl der verfügbaren Aktien? Auf das Handelsvolumen?
Wenn ich ein Unternehmen mit einem Börsenwert von 10 Millionen habe, besteht eine Chance, daß sich daraus ein 100 Millionen Unternehmen entwickelt, die Aktie sich also verzehnfachen kann. Wenn ich ein Unternehmen mit einem Börsenwert von 100 Milliarden habe, besteht keine Chance zu einer Verzehnfachung - bislang ist bei 500 Milliarden noch Schluß. Was nützt es mir also, wenn ich Unternehmen aller Branchen und aller Größen in einen Topf werfe und dann versuche, aus diesem Mix was vernünftiges herauszulesen?
Über die Vorselektion habe ich bislang aber noch wenig gelesen - die Einteilung in Branchen ist bislang das Höchste der Gefühle, über das diskutiert wird.
Nun den Bogen zum neuronalen Netz zurück. Angenommen, ich habe 100 Aktien herausgesucht von jungen, dynamischen Unternehmen, von denen wahrscheinlich ein Dutzend groß rauskommen. Was müßte ich in einem neuronalen Netz eingeben, um mit einer relativ hohen Wahrscheinlichkeit die potentiellen Gewinner von den Loosern zu unterscheiden?
Und jetzt bitte keine Diskussionen mehr über Impressum oder nicht (ist kein Befehl, nur ein Wunsch meinerseits) und vielleicht statt dessen mehr Konzentration auf die Möglichkeiten, die in den neuronalen Netzen stecken. Vielleicht haben die meisten Anwender einfach noch nicht die richtigen Fragen gestellt?
robby_b
PS: Ich weiß immer noch nicht, was ein Draxl ist - das beschäftigt mich schon seit 20 Jahren. Bei neuronalen Netzen blicke ich hoffentlich ein bißchen früher durch…
Lieber HappyHippo,
einigen wir uns also darauf, dass NNs nicht funktionieren.
Grüsse
Bernhard
Hallo HappyHippo,
aus Deinen Beiträgen kenne ich Dich als kühlen, kompetenten Mitstreiter um gute Gewinne. Woher dieser plötzliche Drang zur Rechthaberei? Hoffentlich nur ein schlechter Tag bei Dir!
robby_b
Hallo robby_b,
ich bin mir nicht bewusst jemanden provoziert zu haben und lasse mir das auch nicht einfach von irgend jemandem unterstellen, nur weil ich meine Meinung sage. Anscheinend sind manche sehr sehr dünnhäutig und verwechseln das.
Aber zum Thema:
;-) ich sprach nicht von simplen Rechenvorgängen, sondern von echten 1,6*10^9 Parameter-Kombinationen (Indikatoren) (interne Rechenvorgänge dürften das irre viele sein). Insofern dürfte die Berechnung aller Kombinationen schon in die Jahre gehen - sprich völlig unwirtschaftlich sein.
Wer solche Rechenmarathons aber durchziehen möchte, kann natürlich gerne heuristische Verfahren einsetzen, also auch NNs' (!!). Ja, um die Rechenzeit abzukürzen.
Obwohl ich ja grundsätzlich dazu wie gautama2 der Meinung bin, dass dies überflüssig ist und der Ansatz, so HS zu entwickeln als verfehlt anzusehen ist.
Gruß,
HH
Hallo Zusammen!
Dann gebe ich auch mal meinen Senf dazu.
Ich selbst entwickle HS auf Basis von NN`S seit ca. 1,5 Jahren. Das beste was ich bisher zustande gebracht habe war ein NN das auf 10 Jahre EOD-Daten trainiert wurde über 3 Jahre kontrolliert wurde und dann noch 1,5 Jahr im freien Zeitraum lief bis es abgestürzt ist.
Ich kann nur bestätigen, dass man NN`s sehr schnell übertrainieren kann.
Ein NN dient eigentlich dazu eine Prognose zu machen, z.B. wie stark der Kurs in den nächsten x Perioden steigt oder fällt oder ähnliches.
Damit das NN eine Prognose machen kann, musst du ihm Inputs geben.
Vielleicht einen technischen wie den RSI(14) oder Wirtschaftsdaten, was auch immer.
Anhand dieser Inputs versucht das Netz nun im Trainingszeitraum eine Prognose zu machen.
Anhand des Kontrollzeitraums, sofern einer vorhanden ist, wird bewertet wann das Training abgebrochen wird, weil das Übertrainieren einsetzt (Werte im Trainingszeitraum werden immer besser aber Werte im Kontrollzeitraum werden wieder schlechter).
Im freien Zeitraum beobachtest du dann wie sich das NN in der Realität verhalten hätte.
NN`s werden eigentlich nicht dazu benutzt geeignete Parameter für Indikatoren zu finden, das macht man eigentlich bei großen Suchräumen mit Genetischen Algorithmen, aber das ist ein anderes Thema.
Die verschiedenen Inputs werden vom Netz gewichtet zu den Hiddenneuronen geleitet. Hast du z.B. 1 Hiddenschicht mit 3Hiddenneuronen, so gehen von jedem Input drei Verbindungen ab, zu jedem Hidden-neuron eine.
Jede dieser Verbindungen wird gewichtet.
Von den Hiddenneuronen geht dann jeweils eine Verbindung zum Output.
Bei einem Output wären das dann 3 Verbindungen, die wieder gewichtet werden.
Das was ein NN ausmacht ist, dass es auch nicht lineare Zusammenhänge entdecken kann und logische Schlussfolgerungen (and or xor) daraus ziehen kann.
Dies wird wohl hauptsächlich durch die Anzahl der Hiddenneuronen und Hiddenschichten beeinflusst.
Wie das genau von statten geht weiß ich nicht, denn ich bin kein Physiker.
Im Prinzip erstellt ein NN das Regelwerk wie die ganzen Inputs oder Indikatoren in Ihrer Gesamtheit zu bewerten sind, deuten sie auf steigende oder fallende Kurse.
So das war`s
LaMachine
Sehr schöne Erklärung LaMaschine :)
Hallo zusammen,
ich lese hier immer etwas über Indikatoren und Parameteroptimierung im Zusammenhang mit Neuronalen Netzen. Ein NN optimiert die Parameter eines als Input verwendeten Indikators in der Regel aber überhaupt nicht (dies wäre ein Sonderfall der Anwendung). Der Indikator wird so verwendet, wie er als Input hineingegeben wurde. Stellt man z.B. einen 20-Tages-Durchschnitt als Input zur Verfügung dann wird dieser genau so verwendet und nicht verändert, es wird nicht geprüft ob ein 17, 15, oder 10-Tagesdurchschnitt die Kursentwicklung besser prognostiziert.
Was macht ein NN dann mit dem Input? Es wird versuchen aus dem GD-20 eine Kursprognose (oder was immer das Prognoseziel war, z.B. Veränderung der Volatilität, die Prognose eines anderen Indikators, die verbleibende Zeitspanne bis zu einem Trendwechsel etc.) abzuleiten. Es erstellt also eine Funktion, mit dem GD-20 als Input, die den vorgegebenen Output beschreiben soll. In der Regel stellt man dem NN jedoch mehrere Inputs zur Verfügung, nicht nur einen einzigen.
Das ganze funktioniert natürlich nur dann, wenn es auch einen wiederkehrenden statistischen Zusammenhang zwischen Input und Output gibt. Dies dürfte bei einem gleitenden Durschnitt und der zukünftigen Kursentwicklung kaum der Fall sein. Grundsätzlich kann man Daten jeglicher Art als Input verwenden, die Auswahl ist nicht auf Kursdaten beschränkt. Du könntest also z.B. die Zahl der positiven und negativen Beiträge in diesem Board als Input verwenden, wenn dir geeignete historische Datenreihen zur Verfügung stehen und du der Meinung bist, dass man einen Teil der Marktstimmung daraus ableiten kann, die wiederum für das Prognosziel eine statistische Relevanz besitzt. Für Wirtschafts- und Marktdaten stehen solche Datenreihen in der Regel noch zur Verfügung, wobei man beachten muss, dass es manchmal Änderungen in der Berechnungsmethodik gibt die diese Daten wertlos werden lassen können. Bei anderen kreativen Ideen wird es schwierig oder sehr teuer an diese Daten zu kommen.
In der Regel sollte man eine gewisse Vorstellung davon haben, wo es Zusammenhänge gibt und wie man den Input aufbereiten muss, damit das Neuronale Netz diese auch findet und entsprechend verwerten kann. Hat man diese Vorstellung nicht oder gibt es keine solchen Zusammenhänge ist der Einsatz von Neuronalen Netzen selbstverständlich sinnlos.
Gruß Thomas
@HappyHippo
schieben wir´s auf Wetter, OK?
@LaMachine
Du darfst Dich ruhig etwas früher und öfter einklinken und Deinen 'Senf' dazugeben - so schmeckt der Mostrich recht gut. Langsam entsteht doch ein Bild
@tom66
Macht es überhaupt Sinn, ein neuronales Netz mit nur einem Parameter zu füttern? Das kann ich doch auch herkömmlich und wenn ich dann eine Monte-Carlo-Analyse drüberlaufen lasse, kann ich auch ein paar Tausend Kombinationen in wenigen Minuten simulieren lassen - mit den Ergebnissen komme ich schon sehr weit, wenn es darum geht, nur mal ein Gefühl dafür zu bekommen, ob mein Ansatz was taugt. Und wenn ich da verschiedene Parameter für meine Formel verwende, weiß ich innerhalb von ein bis zwei Stunden, ob es sich lohnt, weiterzumachen.
Der Reiz eines neuronalen Netzes würde für mich eher darin liegen, eine Vielzahl von Umgebungswerten zu definieren und dann das Programm nach möglichen Verknüpfungen suchen zu lassen - nicht nach Formeln, sondern nach Zusammenhängen, die ich eben per Formel gerade nicht erfassen kann.
Geht das grundsätzlich?
robby_b
@ hungerturm
Betrifft: mutmaßliche Arbeitslosigkeit promovierter Physiker
Du bist ein wandelndes Polynom n-ter Ordnung, ein neuronales Netz in se. Mein Rückzieher: da ich nur sieben Semester Physik gemacht und in Wahrheit daran gescheitert bin, ist was anderes aus mir geworden. Ein sehr mittelmäßiger Ex-Analyst und ein guter Ideenlieferant. Deshalb meine neue Equity - AG mit angeschlossenem Hedge Fund.
Scherz beiseite. Mich fasziniert das Ganze. Mal gucken http://www.eventus-traders.de
- keine Sorge, ich pushe hier weder Hot Stocks noch Produkte, das habe ich dem Richard Ebert in einer schwachen Stunde versprochen -
Dr. Boesky, stets etwas mehr off topic als ihm gut tut.
@robby_b
Ob ich einen oder mehrere Parameter als Input für ein Neuronales Netz verwende hängt natürlich vom Prognoseziel ab. Ich hatte mal mit der Prognose eines gleitenden Durchschnitts experimentiert, um ein Gefühl dafür zu bekommen, wie ein NN arbeitet. Ein Indikator ist recht leicht zu prognostizieren (wenn er Kursdaten über mehrere Perioden beinhaltet), da seine Wertänderung in der nächsten Periode zu 50% von dem aus der Berechnung fallenden Wert abhängt. Über die Verteilung der Wertänderung des aus der Berechnung fallenden Wertes lassen sich weitere Rückschlüsse über die Wahrscheinlichkeit des weiteren Verlaufs eines Indikators ziehen. Bereits ein einzelner Input reichte dem NN um eine Prognosegenauigkeit von >90% zu erzielen (nur auf den trainierten Basiswert, dort jedoch auch im Kontrollzeitraum). Bei anderen Werten der gleichen Gattung (Aktien) traten jedoch ebenfalls Trefferqouten (hier einmal als einzelne Kennzahl verwendet, da viele andere vom Kursniveau abhängig sind und daher nicht isoliert aussagefähig) von 85-88% auf. Fügte man mehr als einen Input hinzu so ließen sich die Ergebnisse nicht mehr verbessern, normalerweise verschlechterten sie sich sogar. Ich habe bei etwa 20 Versuchen nur einen einzigen Ansatz gefunden, der vergleichbare Ergebnisse mit zwei anderen Inputs erzielte (bei denen ich zudem nicht genau verstehe warum sie so gute Ergebnisse liefern).
Du fragst, ob ein Neuronales Netz Zusammenhänge darstellen kann, die sich per Formel nicht erfassen lassen. Sicherlich nicht, denn letztlich ist ein NN nur Mathematik. Aber gibt es überhaupt Zusammenhänge die nicht über Formeln darstellbar sind? Letztlich ist dies nur eine Frage der Parameter, mit unendlich vielen Parametern kann man alles darstellen, oder nicht (wobei wir dann beim curve fitting wären)? Man muss jedoch nicht alle den Kurs beeinflussenden Faktoren darstellen, eine solche Vorgehensweise wäre sicherlich so hilfreich wie eine Karte im Maßstab 1:1. Ich denke es geht vielmehr darum, möglichst wenige robuste Inputs zu finden um den Markt mit einer handelbaren Wahrscheinlichkeit zu erklären.
Die Auswahl von Outperformern (wie von dir beschrieben) stellt sicherlich ein anderes sinnvolles Anwendungsgebiet dar. Immerhin werden Neuronale Netze bereits erfolgreich bei der Kreditwürdigkeitsprüfung eingesetzt, was einer beinahe inversen Anwendung entspricht. Im übrigen halte ich die Auswahl von Outperformern für ein wesentlich einfacherers Unterfangen, als die Prognose kurzfristiger Kursveränderungen.
Gruß Thomas
@tom66
Hallo Thomas,
erst mal Danke auf die Schnelle - melde mich morgen noch mal, muß das erst mal durcharbeiten. Klingt interessant und könnte mir ein ganzes Stück weiterhelfen.
Robert
PS: Anbei ein Chart, der zeigt, was man bei richtiger Vorauswahl anstellen kann: Kauf nach Ausbruch aus der Seitwärtsphase, danach Stop-Loss nach Darvas. Gekauft im März bei 6.5, verkauft im November bei 17. Wenn die Merkmale für die frühzeitige Auswahl dieser Art von Aktien optimiert werden kann, setze ich mich auch mit einem neuronalen Netz auseinander...
@Hungerturm
ein NN wie immer es auch aussieht ist ein Meister der Assoziation. Deshalb wird es in erster Linie in der Mustererkennung eingesetzt. Vonwegen Reduktion der Rechenzeit... bitte rede den Mitgliedern doch nicht so ein Quatsch ein. Das ist definitiv FALSCH!!! Hier in die Mathe zu gehen würde jeden Rahmen sprengen. Man hat es hier mit gänzlich anderen Methoden zu tun. Mit dem Computer wird ein Rechner simuliert zu dem er von sich aus vom Befehlssatz sonst gar nicht fähig wäre, sprich PC wie wir ihn alle haben. Es gibt zwar spezielle Hardware bzw. Steckkarten für PC´s um hohe Datenströme in Echtzeit auf neuronaler Basis zu verarbeiten aber das ist ein anderes Kapitel. Ich bin der Meinung wenn man keine Ahnung von der Funktionsweise von NN hat sollte man besser andere Wege suchen, denn man tappt sonst immer im dunkeln. Sollte man sich trozdem mit NN befassen so muß man wissen daß immer nur gelernte Muster assoziert werden. Mehr ist nicht drinn.Unmöglich!
Gruß OPTRADE
@opttrade
Um Missverständnisse auszuräumen. Es geht bei NNs wirklich nicht um eine Optimierung im herkömmlichen (Börsen)Sinne (also einen optimalen Parameterwert für einen Indikator zu finden), da gibt es wesentlich schnelle und bessere Methoden, auch wenn ich von weglicher Optimierung dringend abraten will. Es geht um Muster zu lernen (was eben auch eine "Optimierung" von der mathematisch "hinterlegten" NN Funktion ist). Auch das Wort Muster sollte hier erklärt werden, es geht hier nicht um herkömmliche "visuelle Kursmuster", Flaggen, Dreiecke usw. Da würde man mit einem NN auch grösste Probleme bekommen (was nicht heissen soll, das es nicht ginge, ich habe es aber vernünftig nicht geschafft). Es geht eher um Beziehungen wie. Gestern war der Kurs grösser als vorgestern und vor drei Tagen sehr viel kleiner und es ist bei einer Unterstützung, also wird er mit einer gewissen Wahrscheinlichkeit. Natürlich sind die Zusammenhänge nicht so einfach und das grosse Problem eines NN ist ja, dass es nach dem Trainings praktisch eine Black Box ist, man also eigentlich nicht weiss, was es da für Muster gelernt hat. Das zweite grosse Problem ist, dass die Gefahr des Curve Fittings noch sehr viel grösser ist als bei normalen Indikatoroptimierung.
Grüsse
Bernhard
Nachtrag:
Der letzte Satz von Opttrade stimmt natürlich auch. Aber das gilt natürlich auch für jeden "Optimierungs" oder "Lernprozess".
mfG
Bernhard
@ hungerturm
Habe erst heute die Hungerturm - Homepage HHH entdeckt sowie weitere Links. Da wird jetzt mal was gelernt, investox & co. natürlich.
Gruß Ivan
Hallo,
Wollte hier nur einen Link einstellen, für die Leute, die wissen wollen was dahitner steckt und wie ein NN funktioniert. Ich denke, dass die Seite das ganze ganz gut erklärt. Speziell der Link: "Prinzipien künstl. Neuronaler Netze". Müsste auch auch für nicht Mathematiker verständlich sein ;).
Link: http://wwwmath.uni-muenster.de/SoftComputing/lehre/material/wwwnnscript/prin.html
Viel Spass damit,
Grüße Sammy.
@ ivan boesky
Hallo,
unter dem Link http://www.eventus-traders.de findet sich meiner Meinung nach keine wirkliche Internetseite. Es kommt nur eine Meldung, dass keine Datei hinterlegt ist und ein bischen Werbung.
Die Equity AG, von der Sie sprachen: Was genau bietet diese an und was mich noch mehr interessiert: Ist es sehr schwierig, in Deutschland einen Hedgefond zu gründen? Es gab da ja irgendeine Gesetzesänderung, habe ich gehört.
Vielen Dank,
Thomas
@ Thomas G
Sorry, es heißt http://www.eventus-traders.com
Ist mir nur deshalb aufgefallen, weil bei google Inserate zu finden sind ... mit allerdings wechselnden Performancedaten. Extrem seriös kommt mir das offengesagt nicht vor, aber geworben wird eben nun mal mit "neuronal".
Die Frage nach der Gründung eines Hedgefonds - oh Gott, bitte da erst mal hunderte Seiten Basismaterial durcharbeiten, lieber Thomas. Forget it, die BaFin wird nur Großbankenprodukte oder die DIT zulassen. Fachliteratur durchackern, jeden Tag reinschauen bei http://www.fundresearch.de, hedgefondsweb.de usw.usw.
Hedge Fund auf Grenada oder Anguilla steht in 20 Banktagen. Problem: wer kauft Dir die Scheine ab? Die Banken, die BaFin und die Medien machen Dich rascher fertig als Jeager Research (obwohl der wahrscheinlich nicht ganz korrekt gearbeitet hat, wie man derzeit immer mehr hört). Neuester Trick wieder mal: Volafuture - Konto in der Schweiz anbieten. Wenn die Kohle verzockt ist, können deutsche Schwarzgeldanleger kaum was machen. Mario Jaeger hat den Fehler gemacht, nicht von Anfang an offshore zu arbeiten.
Ivan
Ivan
Hallo,
eine allgemeine Aussage, wie Du sie geschrieben hattest, reicht mir völlig. Für mich ist das erstmal nur so von allgemeinem Interesse.
Mit Volafutures sind die Futures aus den VIX gemeint, oder? Die soll es ja erst ab März geben, wenn ich mich nicht irre. Und ob man damit so leicht Geld verdienen kann? Der Future wird sich sicher nicht so eng an den Index halten, wie bei anderen Indizes, denke ich mal, sonst wäre es ja leicht.
Viele Grüße
Thomas