Lenzelott
Mitglied seit
12 Jahre 2 Monate

VTAD Award 2011

ich oute mich mal:
ich habe dieses Jahr beim VTAD Award mitgemacht und ein mittellanges Papier dafür verfasst.

Entgegen meiner Erwartungen habe ich nur den 2. Platz belegt. ;)

Ist eine Arbeit über den trendfolgenden Handel mittels Linearer Regression.

Wen das Thema interessiert, die Arbeit habe ich auf meinem Blog zum Download bereitgestellt. Der VTAD wird dies in den nächsten Tagen auf seiner Homepage ebenfalls tun.

http://backtesting.posterous.com/

Freue mich über Eure Kommentare und Anregungen.

Geschrieben von Lenzelott am
benedikt54
Mitglied seit
12 Jahre 6 Monate

@ Lenzelott [#1]

Ich finds interessant bzw. erstaunlich zu lesen das es sowas überhaupt gibt.

kanada
Mitglied seit
12 Jahre 6 Monate

@ Lenzelott [#1]

Entgegen meiner Erwartungen habe ich nur den 2. Platz belegt. ;)
Da bin ich auf das Werk des Erstplatzierten gespannt und ob er sich ebenfalls so viel Mühe gegeben hat.

Könntest Du kurz erklären, was Du unter der "zeitgewichteten Überrendite" verstehst? Handelt es sich dabei um die Differenz aus Systemrendite und Rendite der Benchmark - basierend auf einer gewissen Zeiteinheit?

Kürzlich wurde in einem anderen Thread die Sortino Ratio angesprochen. Neben dem Sharp Ratio wäre eine Kennzahl, die das downside Risiko beschreibt, sicherlich interessant.
Auch ein out of sample, in sample Test und eine Unterteilung in einzelne Marktphasen würde weitere Details des Systems offenlegen. In 7.3 sprichst Du dies kurz an und es ist verständlich, dass der Test auf Zeitstabilität noch viel mehr Seiten benötigt hätte :-)

Im Abschnitt 10.4.1 gehst Du kurz auf die Benchmarkproblematik ein. Das freut mich, denn dieses Thema wird selten angesprochen!

MfG

Lenzelott
Mitglied seit
12 Jahre 1 Monat

@kanada [#3]
"zeitgewichteten Überrendite"

Beispiel:
Buy & hold bringt 0,0x% Durchschnittsrendite pro Tag in der Aktie 1, das System liefert durchschnittlich pro Tag im Trade 0,0y%.
Wenn 0,0y%-0,0x% >0 ist, spreche ich von zeitgewichteter Überrendite.

Ich hatte leider nicht mehr genügend Platz dies in der Arbeit darzustellen (Seitenzahl war beschränkt und ich schon leicht drüber).

Ich habe mir dafür auch einen eigenen "Vergleichsbenchmark" gebastelt:
Zufälliger Einstieg in eine zufällige Aktie des Auswahluniversums. Exit nach exakt der Anzahl Handelstagen, wie das System durchschnittliche Tradedauer hat (n Tage). In der Praxis berechne ich dafür ALLE möglichen n Tage Handelszeitfenster in jeder Aktie und bilde daraus den Mittelwert.
Nun bildet man den Quotienten aus Durchschnittlichem Trade und diesem Durchschnittlich für ein entsprechendes Zufallsfenster zu erwartenden Wert.

Die unterschiedlichen Systeme aus der Arbeit liegen bei diesem Test zwischen 2,0 und 2,4.

kanada
Mitglied seit
12 Jahre 6 Monate

@ Lenzelott [#4]

Wenn 0,0y%-0,0x% >0 ist, spreche ich von zeitgewichteter Überrendite.

Vielen Dank für die Erklärungen.
Wer hat denn den ersten Platz erzielt und mit welchem Thema?

MfG

Lenzelott
Mitglied seit
12 Jahre 1 Monat

@ kanada [#3]
"Kürzlich wurde in einem anderen Thread die Sortino Ratio angesprochen. Neben dem Sharp Ratio wäre eine Kennzahl, die das downside Risiko beschreibt, sicherlich interessant."

Da gebe ich Dir uneingeschränkt Recht recht, vor allem weil ich der jenige war, der es in in dem anderen Thread angesprochen hat. ;)

Leider ist das Sortino Ratio nicht im Investox Testzahlenjungel enthalten. Für mein Konto mach ich das mit Excel, aber bei der Anzahl getesteter Aktien wollte ich mir das nicht antun.
In Investox Version 6 gibt´s jetzt seit kurzem die Möglichkeit eigene Kennzahlen mit VB Script einzuklinken, das werde ich dann mal demnächst tun.

Lenzelott
Mitglied seit
12 Jahre 1 Monat

@ kanada [#5]

Ging schneller als erwartet, arbeiten stehen seit heute zum Download auch auf der VTAD Seite bereit:

Dr. Dürschner mit "Gleitende Durchschnitte 3.0"
http://www.vtad.de/node/1441

in der Präsentation zur Arbeit habe ich im Bereich "Bonusmaterial" 3-4 Sachen die nicht in der Arbeit auftauchen (zb. Crossmarketvalidierung Deutsche Aktien).
http://www.vtad.de/sites/files/forschung/Praesentation_Joachim_Lenz_Lineare_Regression_VTAD_Award_0.pdf

kanada
Mitglied seit
12 Jahre 6 Monate

@ Lenzelott [#7]

Den Artikel (GD 3.0) habe ich nur kurz überflogen, aber schon wegen der Form und dem Aufbau der Arbeit, würde sie von mir keine Bestnote erhalten ;-(
Auch bleiben viele Fragen offen und die Ergebnisse wurden nicht statistisch "sauber" analysiert.

Prowler
Mitglied seit
12 Jahre 1 Monat

@ Lenzelott [#1]

"5.1.5 Die relative Mondfeuchte liegt über 42%
Hier wird man den heiligen Gral finden."

LOL

Profile picture for user SPOMI
SPOMI
Mitglied seit
12 Jahre 6 Monate

@ Lenzelott [#1]

Frei heraus gefragt, warum schreibt man diese Arbeit?

Um einen VTAD Preis zu gewinnen

Verwertung von anderen Analysen

Pflichtübung für höhere Weihen

Interessantes Thema, die Form und Methodik wissenschaftlichen Arbeitens mögen andere in der VTAD beurteilen. Grüsse SPOMI

Lenzelott
Mitglied seit
12 Jahre 1 Monat

@ Prowler [#9]

Zielsicher gefunden. Sauber !

Lenzelott
Mitglied seit
12 Jahre 1 Monat

@ SPOMI [#10]
Wenn man teilnimmt, dann wahrscheinlich nicht um zu verlieren. :D

xtrade
Mitglied seit
12 Jahre 6 Monate

@ Lenzelott [#1]

also ich finde, Deine Arbeit hätte den ersten Preis verdient.

die Arbeit des ersten Platzes ist einfach nur stümperhaft.
Könnt ich mich schon wieder aufregen.
Der Autor hat noch nichtmal verstanden, was ein exponentieller Gleitender Durchschnitt überhaupt ist, und schmeißt wie Begriffen wie Nyquist-Shannon-
Abtasttheorem in der Gegend herum.
Die Arbeit von dem ist höchst unwissenschaftlich und fast schon falsch.
Ein exponentieller Gleitender Durchschnitt ist ein prozentual abnehmend gewichteter
Durchschnit.
Hat überhaupt nix mit einem Zeitraum zu tun, die Zeitraumangabe dient nur in etwa dazu, es einem normalen SMA ungefähr anzunähern. Die Formeln sollen dies in etwa hinbekommen und wurden darauf hin mehr schlecht als recht entwickelt.

Im Gegensatz dazu gibt es den linear abnehmend gewichteten Durchschnitt.
und eben den normalen SMA, wo alle gleich gewichtet sind.

Das Abtastheorem hat hier auch überhaupt nichts zu suchen, es besagt lediglich, alle wieviel Perioden man Digitalisieren muss, um eine Freuqenz überhaupt von diskreten Signalen erfassen zu können.
Hier kann er nicht viel ändern, da er mit Tagesdaten digitalisiet hat und am Abtasttheorem nun nichts mehr ändern kann !

Bei GD's kann man nich viel zaubern, höchstens die Gewichte ändern, sinnvoll ändern.
Was er jetzt gefunden hat, wird eine übergewichtung im ersten Viertel sein, und dann irgendeinen undefinierten Mischmasch im Rest.
Völlig sinnlos.
Sein eingezeichneter neuer NMAW ist einfach ein kürzerer GD, durch die starke nicht sinnvolle asymetrische übergewichtung der letzten Kurse nicht brauchbarer als irgendein anderer.

Falls mal jemand die Herleitung für den Exponentiellen Durchschnitt interessiert, ich würde sie mal online stellen bei Interesse.

also Lenzelott .. für mich bist Du der ungeschlagene Sieger !

Lenzelott
Mitglied seit
12 Jahre 1 Monat

@ xtrade [#13]
"Falls mal jemand die Herleitung für den Exponentiellen Durchschnitt interessiert, ich würde sie mal online stellen bei Interesse."

Mich interessiert alles. Immer her damit.

EMA´s übrigens ganz fieses Zeug.
EMA(t)=a*Y(t)+(1+a)*EMA(t-1)
normalerweise wird dabei a=2/(1+Perioden) verwendet, manchmal 1/Perioden.

Wenn man das genau untersucht wird man feststellen, dass man 5-10 mal so viele Perioden benötigt wie die Periodeneinstellung vorgaukelt bis der EMA "eingeschwungen" ist. Mit eingeschwungen meine ich: eine hinreichend Große Gewichtung vorliegt.

Wer also einen EMA200 berechnen will, benötigt 1000-2000 Perioden Vorlauf, sonst wird´s nix.

xtrade
Mitglied seit
12 Jahre 6 Monate

@ Lenzelott [#14]

ich muss noch überlegen, wie ich das öffentlich mache, denn eigentlich war es nur der erste Teil zur entwicklung eines ganz neuen Ansatzes .. jedenfalls viel interesanter, als das vom 1. Platz .. ich überleg mal bis heute abend, ob ich den ersten Teil schon veröffentliche :)

> Wer also einen EMA200 berechnen will,
> benötigt 1000-2000 Perioden Vorlauf, sonst wird´s nix.

nicht unbedingt, der Grenzwert geht recht schnell gegen Null ..
ist aber alles in der Arbeit drin von mir..

Lenzelott
Mitglied seit
12 Jahre 1 Monat

@ xtrade [#15]

Ich hab das auch mal untersucht, wieviele Perioden Vorlauf man bei welchem Glättungsfaktor benötigt.
Leider war es bei mir eben so, dass ich für den Glättungsfaktor 1/Perioden rund die 10 fache Periodenanzahl vorlauf benötigt habe um in dem Handelssystem keine Misstrades aufgrund Fehlerhafter Berechnung gegenüber dem laaangen Backtestzeitraum zu erhalten. In meinem speziellen Fall hat das die ATR betroffen, die ja definitionsgemäß nach Wilder ein EMA ist. In Investox wird er dann mit demm Faktor 1/Perioden geglättet und da habe ich 10x soviele Perioden Vorlauf benötigt.

Error=(1- α)^k
Wobei Error der Anteil der noch nicht „benutzten“ Gewichte ist.

Log(error)=k * log(1-α)
k=log(error)/log(1- α ) log(1- α) geht für kleinere α gegen – α (gilt also nur für große n)

Zwei Möglichkeiten:
a) ATR mit α = 1/N
k=log(error)/(-1/n)=-n*log(error)

b) EMA mit α =2/(1+N)
k=log(error)/(-2/(n+1))=-(n+1)* log(error)/2

Will man nun 99,99% der Gewichte berücksichtigt haben, ergibt sich daraus
a) k=-n*log(0.0001)=n * 9,21
b) k= -(n+1)*log(0.0001)= (n+1)*4,60

xtrade
Mitglied seit
12 Jahre 6 Monate

@ Lenzelott [#16]

ja, man braucht theoretisch alle Kurse .. das stimmt. Aber nur in der rekursiven Berechnungsmethode.

... Eine interessante Fehlerabschätzung, die Du da gemacht hast.

hier mal die Herleitung des exponentiellen Gleitenden Durchschnitts, der das genaue Verständnis der anderen voraussetzt. Also nicht wundern, dass am Anfang Banalitäten erklärt werden, ist aber wichtig für den späteren Teil.

http://www.xtrade.de/Dokumente/Uebersicht_Gleitende_Durchschnitte.pdf

(ich seh gerade, das auch hier und da noch paar kleine Ungenauigkeiten enthalten sind, aber die Arbeit is auch noch nicht fertig,
(Das Verständnis sollte darunter aber nicht leiden)

kanada
Mitglied seit
12 Jahre 6 Monate

@ Lenzelott [#16]

Du hast eine Formel für den maximalen Drawdown angegeben. Woher hast Du die bzw. die habe ich noch nicht oft gesehen.

MfG

Profile picture for user pullPUSH
pullPUSH
Mitglied seit
12 Jahre 6 Monate

@ Lenzelott [#1]

Wow - Donnerwetter. Großen Respekt für die Ausarbeitung!

scorpion260
Mitglied seit
12 Jahre 6 Monate

@Lenzelott

Ein Freund der Linearen Algebra und Analysis, sieh an*g.

Gefällt mir Deine Ausarbeitung.
Wie lange hast Du dafür denn benötigt, bzw. wie lange hat man Zeit, um eine Arbeit bei diesem Wettstreit einzureichen?

Du bist sicher Mathematiker, oder Wirtschaftswissenschaftler, oder?!

Lenzelott
Mitglied seit
12 Jahre 1 Monat

@ scorpion260 [#20]

Physik war mal sowas was ich studierte.

Gast

Da bin ich ja froh, das ich diesmal (noch) nicht mit gemacht habe, denn alle Sachen so schön in "Form" zu schmeißen... da hätte dann wohl neben der Zeit eventuell auch die Lust gefehlt.

Ich weiß zumindest aus sicherer Quelle das es diesmal recht viele gute einreichte Arbeiten waren. Deshalb ist das was @Lenzelott da zu Papier gebracht hat auch als 2. eine super Leistung und er hat definitiv einige hinter sich gelassen.

Lenzelott
Mitglied seit
12 Jahre 1 Monat

@ kanada [#18]

MaxDD :
Formel nicht logisch?
Ich hoffe ich hab kein Scheiss da reingepackt?!
Muss ich mir die nochmal anschauen?

ganz ehrlich:
Ich hab da so Grundgerüst an Ungemüse was ich schon immer anhänge, so für alles was irgendwie im Backtest auftaucht. Je nachdem was verwendet ist, schmeisse ich Teil von dem Ungemüse raus. Formel einmal in Word erfasst, bleibt Sie beim Ungemüse.

Hier habe ich zb. mein übliches Sharp Ratio / Sortino Ratio Downsideviation "Geschwurbel" gestrichen, weil ich nicht Willens war, das hierfür per Excel auszurechnen (Arbeit sollte vor Rentenbeginn fertig sein).

@ scorpion260 [#20]
"Wie lange hast Du dafür denn benötigt, bzw. wie lange hat man Zeit, um eine Arbeit bei diesem Wettstreit einzureichen?"

Zeit war reichlich zur Verfassung; Wettbewerb irgendwann letztes Jahr ausgerufen und Abgabetermin war der 28.2.2011
Die Arbeit ist eine Zusammenfassung bisheriger Untersuchungen der letzten Jahre von mir, insofern lässt sich die Zeitkomponente für die Erstellung sehr schwer bestimmen.
Die Zeitkomponente für die Backtests ist auf jeden Fall exorbitant.

3000 Aktien * 26 Jahre * 250 Handelstage * 500 => ca. 10 Mrd Regressionsgeraden.

xtrade
Mitglied seit
12 Jahre 6 Monate

ich hoffe, es interessiert noch jemanden, was ich schreibe :-)
Aber hier mal meine Verdeutlichung, worin ich die Wertlosigkeit des 1. Platzes sehe:

zusammen mit diesem Dokument:

http://www.xtrade.de/Dokumente/Uebersicht_Gleitende_Durchschnitte.pdf

ergibt sich:

Zitat aus der Arbeit:

"Die Anwendung eines GD auf sich selbst lässt sich signaltheoretisch als eine
Abtastung verstehen:"

Das ist völlig falsch und sinnfrei, hier erfolgt gar keine Abtastung mehr, die Daten sind schon da !
Da die Grundanahme sinnfrei ist, kann alles darauf aufbauende auch nicht sinnvoll sein.

2 hinteinander angewendete Gleitende Durchschnitte ergeben einfach einen neuen Gleitenden Durchschnit mit
(irgendwelchen) Gewichtungen,
Da hier nichts zielgerichtet durchdacht wurde, ist das (zufällig) sinnvoll, oder eben nicht.

Gast

@ xtrade [#24]

das Erkenntnisproblem liegt bei dir hier wiedermal in der Tatsache, das du einer der wenigen bist, die selbst einen (W/E)MA echt selbst StepByStep in NativCode programmiert haben (Chartsoftware:).

OttoNormalTrader schreibt GD(...) fertig!

Ergo kann man deine faktorbasierte Auflösung nur "sehen" wenn man sie denn auch so einzeln macht.
Das ganze noch auf einen HeikinAshi-Chart angewendet... da "siehst" du doch gleich nochmal eine "Glättung"...

Also Multiple GD's auf HA-Charts... da lässt in purer Fleißarbeit mit etwas Gleichungsgefummel definitv zusammenfassen und auf die Grundwerte vereinfachen.

Zum AbtastTheorem:
rein technisch macht eine gestufte Abtastung durchaus Sinn... es könnte sein das man mit einer "Stufe" nicht die volle Dynamik der Eingangssignale sauber erfassen und (technisch) verarbeiten kann. Dann ist es durchaus üblich dies mehrstufig oder eventuell sogar noch teilweise rückgekoppelt zu realisieren. Dem (End)Resultat ist es mathematisch aber egal.

..."völlig falsch und sinnfrei, hier erfolgt gar keine Abtastung mehr"... darf man technisch so NICHT SAGEN!

Bei rein technischen Betrachtung definiert sich Abtastung übrigens immer als "kontrollierter" Informationsverlust durch Informationsreduktion... ein technischer Informationsgewinn ist im Prinzip ausgeschlossen.
(ausser man nutzt die Abtastung gezielt zur Signaltrennung, was dann quasi einfachsten Falls dem DeTrending entspricht oder man es bis zur Frequenzzerlegung in Richtung Spektralanalyse treibt
...siehe Buchverzeichnis der Arbeit... Huang NE, Shen Z, Long SR, Mu MC, Shih EH, Zhang Q, Tung CC, Lin HH: The empirical mode decomposition and the Hilbert Spectrum for nonlinear and non-stationary time series analysis... dort zwar noch nicht sehr konkret Anwendungsbezogen, aber wenn man es wie 1+1 "kreativ" zusammen setzt, dann ist das ein gutes Buch)

Ich bin hier schlicht zu faul, die gesamte Gleichungskette zunächst mal zu expandieren und dann bestmöglich zu normieren... xtrade macht das ja aus Hobby und einen "FröhlichFaktor" hat er ja auch schon im wahrsten Sinne des Wortes "zerlegt":)

xtrade
Mitglied seit
12 Jahre 6 Monate

@ TimeTrade [#25]

Eine Ermittlung der Frequenzen wurde ja nicht vorgenommen.
Ob Frequenzen, also Zyklen, wirklich genügend stabil und weiterhin vorhersehbar sind, das wolle uns ja Robert zeigen:)

Das Abtasttheorem ist doch an sich eine ganz einfache Sache, und besagt lediglich, dass wenn ich zu selten Signale aus einem kontinuierlichen Datenstrom abgreife, dass ich dann falsche Frequenzen ermittel, da ich dann nicht alle Wellenberge erfassen kann.
Mit der technischen Analyse kann man es anschaulich so beschreiben: Wenn ich nur Stundencharts habe, kann ich nich mehr sehen, wie hochfrequent innerhalb der Stunde etwas schwingt, weil die Info einfach fehlt.
Die 2 im Abtastheorem ist sowieso nur das technisch notwendigste. Besser sind 3 oder 4 oder 5 fach häufige Abtastung.
Bei Musik ergibt eine doppelt so hohe Abtastfrequenz sowieso noch keine sauberen Sinussignale, dazu reichen die Informationen gar nicht aus, sondern es werden Dreiecks oder Sägezahnformen.
DTS-HD arbeitet mit 192 kHz. Bei einer maximal hörbaren Frequenz von 20 kHz ist das die 10 fache Abtastrate.
Die 2 ist überhaupt kein Naturgesetz.
Zitat aus der Arbiet: "Mit einem Tast-Signal, in userem Fall wäre dies der GD"
.. nein, ein GD ist auch mit größter Zauberkraft keine Abtastung eines Singals, sondern eine Glättung.
Die Entscheidung der Abtastrate fällt VOR der Datenanalyse mit der Entscheidung, ob ich Minutenbars, oder Stundenbars für die Analyse verwende.
Wenn ich Stundenbars nehme, kann ich keine Schwingungen mehr von 30 Minutenbars erfassen, so ist das mit dem Abtasttheorem.

"Das ganze noch auf einen HeikinAshi-Chart angewendet... da "siehst" du doch gleich nochmal eine "Glättung"..."

ja die unwissenschaftliche Darstellung von Verkauf und Kaufsignalen in einem Heikin Ashi Chart hab ich ja noch gar nicht bemängelt. Ich hoffe nicht, dass die Tradeabrechnung anhand der Heikin Ashi Kerzen vorgenommen wurden, dass würde dann einen i-Punkt auf die "Arbeit" setzen.

Ein Heikin Ashi Chart is nix weiter als eine (kurze) Glättung, diese Glättung als normale Candelsticks einzuzeichnen ist unnnütze Verwirrung des Anwenders. Eine Linie hätte es auch getan, die aufsteigend grün und absteigend rot gemalt wird.

Da man im Heikin Ashi Chart den echten Kurs nicht mehr sieht, nützt auch das schönste einzeichnen von Kauf und Verkaufsignalen nichts, da ich immer noch nicht sehe, obs denn nun ein Verlust oder ein Gewinn gewesen wäre. Weil der Kurs nicht zu sehen ist !
Aber ja .. dazu muss man das Ding wirklich mal selber programmiert haben vielleicht..

xtrade
Mitglied seit
12 Jahre 6 Monate

@ xtrade [#24]

Lenzelott, es tut mir Leid, dass ich Deinen Thread damit störe, aber ich finde Deine Arbeitsweise höchst wissenschaftlich, genau das kann ich bei der Arbeit von Herrn Dürschner nicht erkennen.
Anhand von einzelbeispielen wurde die Qualität des "NMAW" bewertet.

wenn ich die Qualität vom NMAW wirklich bewerten will, haben wir Posting [#24] festgestellt, dass die pure Zahl des Parameters nicht mehr verwendbar ist, sondern zu einem ganz anderem GD führt.

daher muss ich erstmal ermitteln, welcher NMAW einem SMA89 überhaupt am nächsten kommt.
(Summe der Fehlerquadrate wäre ein Beispiel)
erst dann kann ich sehen, ob der NMAW weniger oder mehr Fehlsignale liefert, als ein vergleichbarer SMA.

Desweiteren muss ich alle periodeneinstellungen Testen, eventuell das Optimum suchen.
Wenn ein optimierter NMAW in der Lage ist, einen optimierten SMA zu übertreffen, erst dann wird das Ding interessent.

Desweiteren kann ich danach prüfen, ob der zu jedem NMAW passende SMA im Durschschnitt besser ist, als der SMA ..

Das wäre wissenschaftlich, aber nich diese Arbeit von Herrn Dürschner!

xtrade
Mitglied seit
12 Jahre 6 Monate

Hier mal ein Vergleich des Superindikators Namens "NMAW"
und einem Simple Moving Average über 4 Perioden.
Beide in einem Heiking Ashi Charts .. FDAX 09:00 Uhr bis 17:30 Uhr

Na wenn das kein Fortschritt ist !
(edit: Ein 3er GD passt glaub ich noch besser, sehe ich gerade)
Bei uns in der DDR sagte man immer, heute stehen wir am Abgrund und morgen sind wir einen Schritt weiter.
In der Seitwärtsphase vom 10. Februar gefällt mir der SMA sogar noch besser.

Bild entfernt.
Bild entfernt.

xtrade
Mitglied seit
12 Jahre 6 Monate

Die Heikin Ashis sind nicht ganz identisch an manchen Stellen, glaub beim Chart aus der Arbeit handelt es sich um den Index und nicht um den Future)

Der NMAW hat einen Touch von einem MACD, da er schon einknickt, wenn die Bewegung langsamer wird.
Der Touch vom MACD hat mir zumindest gefallen, so dass ich mal einen MACD mit einem SMA gemixt habe.
mit Heikin Ashi Charts ist es aber wie schon gesagt nicht sinnvoll, aus dem Chart Kauf oder Verkaufsignale ablesen zu wollen, da der suggerierte Kurs zum Zeitpunkt nicht wie angezeigt exisitiert. Meist ist eine Kerze spaeter der richtige Kurs abzulesen.
Sieht man, wenn man beide Charts, Candlestick und Heikin Ashi mal tickgenau parallel gleichzeitig anzeigen laesst..

Lenzelott
Mitglied seit
12 Jahre 1 Monat

Ei wie.

Als ich hier meinen Eingangspost geschrieben habe, war es alles andere als meine Absicht eine Diskussion über die Arbeit vom Dr. Dürschner loszutreten.
Wollte eigentlich nur auf mein eigenes Werk hinweissen, da ich der Meinng bin, dass es den einen oder anderen Erkenntnisgewinn enthält.

Möchte mich da auch vorerst heraushalten aus der Diskusion, keine Lust als schlechter Verlierer rumgereicht zu werden.
Vielleicht habe ich in den Osterferien ein wenig Muse hierzu ein paar grundlegende Dinge zu schreiben / rechnen.

So viel vorab: die obige Betrachtung der gewichtungsfaktoren des doppelten MAs geht in die richtige Richtung.

xtrade
Mitglied seit
12 Jahre 6 Monate

@ Lenzelott [#30]

Tschuldigung .. ich sag auch nix mehr. Wollte Dir damit nicht schaden.
Meine mathematische Denkprozesse waren schon immer so, dass ich erstmal grundsätzlich alles anzweifel und überdenke.
Dann finde ich entweder den Fehler bei mir oder im Konzept.
So finde ich auch Ungenauigkeiten / Ungereimtheiten in Lehrbüchern, so dass ich es aber damit schaffe, selbst mathematisch fast schon unbedarfte Personen durchs Abi zu bringen :)

Meine Art ist kommunikationstechnisch aber sicher nicht immer optimal :-) Das gestehe ich mal ein.

Mein Mathelehrer hatte große Freude mit mir ab der 5. Klasse, aber er mochte mich trotzdem :)
Ich lass es erstmal dabei gut sein.
Tut mir Leid jetzt irgendwie. Du hast Recht, es sollte in dem Thread mehr um Deine Arbeit gehen.

Rückrufservice
Beschreiben Sie bitte Ihr Anliegen, damit wir uns auf den Rückruf vorbereiten können.
Ja, ich habe die Datenschutzerklärung zur Kenntnis genommen und willige ein, dass die von mir angegebenen Daten inklusive der Kontaktdaten zwecks Bearbeitung der Anfrage und für den Fall von Anschlussfragen elektronisch erhoben und gespeichert werden. Meine Daten werden dabei nur streng zweckgebunden zur Bearbeitung meiner Anfrage genutzt und nicht ohne Einwilligung weitergegeben. Diese Einwilligung kann jederzeit mit Wirkung für die Zukunft widerrufen werden.

Register now

Jetzt registrieren und ZMP Live+ 14 Tage kostenlos testen!
  • Dauerhaft kostenfrei
  • Keine Zahlungsinformationen erforderlich
Hilfe?

Sie haben Fragen zu ZMP Live? Unser Team steht gerne hilfsbereit zu Ihrer Verfügung. Senden Sie uns gerne eine Nachricht:

Es gilt unsere Datenschutzerklärung