Neuronale Netzwerke Gleitender Durchschnitt


Neuronales Netzwerk 2 Gleitende Mittelwerte Ein neuronales Netzwerk Expert Advisor basierend auf zwei gleitenden Durchschnitten mit dem Trainingsmodus. Trainieren Sie den Expert Advisor auf ausgewählte Beispiele und machen Sie einen Profit im wirklichen Leben. Die EA kann an jedem Instrument und in jedem Zeitrahmen arbeiten. Trading-Algorithmus der EA Zwei gleitende Durchschnitte werden durch den neuronalen Netzwerkkern analysiert, der Befehle zum Kauf oder Verkauf erzeugt. Die Werte von zwei gleitenden Durchschnitten, schnelle (FMA) und langsame (SMA), werden der ersten Schicht zur Verfügung gestellt, bei der zweiten Schicht berechnet sie zwei Neuronen, die für Buy (N Buy) verantwortlich sind und verkaufen (N verkaufen), die Entscheidung zu kaufen Oder verkaufen auf der dritten Ebene. Das Blockschaltbild des neuronalen Netzes ist in der Abbildung dargestellt. Expert Advisor Training Im Trainingsmodus erinnert sich die EA an die Werte der bewegten Durchschnitte, die vom Benutzer auf dem Chart des Währungsinstruments markiert sind. In der Zukunft erkennt man im Normalbetrieb die Werte der gleitenden Mittelwerte. Um die EA-Marke mindestens einen langen und einen kurzen Handel auf dem Diagramm zu trainieren. Um einen langen Handel zu verwenden, verwenden Sie den Kaufpfeil, und für den kurzen Handel verwenden Sie den Verkaufspfeil. Sie können mehr Pfeile auf dem Diagramm platzieren. Je mehr Pfeile, desto länger wird der Trainingsprozess. Das Vorhandensein von anderen Objekten auf dem anderen Diagramm als den Pfeilen ist nicht wünschenswert. Nach dem Training wird der Ordner NN 2MA im gemeinsamen Ordner des Terminals erstellt. Es enthält die Datei HHHHHHNN2MA. bin mit den Einstellungen des trainierten neuronalen Netzes. XXXXXX im Dateinamen ist der Name des Finanzinstruments. Im Normalbetrieb lädt die EA die Daten aus der Datei. Wenn die Datei nicht gefunden wird, werden die Standardeinstellungen verwendet. Standardmäßig wird die EA bei USDJPY und einem einstündigen Zeitrahmen trainiert, die Trades werden 2012 ausgewählt. Folgende Eingabeparameter sind für das EA Training verantwortlich: Die Anzahl der Gewichte pro Neuron. Gleich der Länge des MA. Default - 48. Die Anzahl der Trainingszyklen - Default 100. Je höher der Wert, desto länger ist der Trainingsprozess. In der Testversion ist es 10. Faktor b - der Wert beeinflusst die Geschwindigkeit der Korrektur von Gewichten von Neuronen, wird für die Ausbildung des Netzwerks verwendet. Der Standardwert ist 0.7, muss nicht geändert werden. Lernmodus EA - ermöglicht den Trainingsmodus der EA. Beispiele für die Angabe von Trades zum Training der EA sind in der Abbildung verfügbar. Die Einstellungen für den normalen Modus Einstellungen der gleitenden Mittelwerte Sie können die Einstellungen für jeden gleitenden Durchschnitt anpassen: den Zeitraum, den Preis, den Berechnungsmodus. Auftragsmenge - Voreinstellung ist 0,1. Wert der Schlupf in Punkten - Standard ist 30. Anzahl der Versuche, eine Position zu öffnen - Standard ist 5. Level StopLoss in Punkten - Standard ist 0. Level TakeProfit in Punkten - Standard ist 0. Level TrailingStop in Punkten - Default ist 650. Allow Geld-Management - Kontrolle der Auftragsgröße, um den Markt zu betreten, durch Defalment ermöglicht. Wenn der Modus deaktiviert ist, wird die Auftragsgröße aus dem Parameter Menge des Auftrags übernommen. Das Volumen der Aufträge als Prozentsatz der Einzahlung - verwendet, um die Auftragsgröße zu kontrollieren, ist standardmäßig 5 Prozent. Hinzufügen zur offenen Position - standardmäßig aktiviert. Wenn es ein Signal gibt, den Markt in Richtung einer offenen Position zu betreten, tritt die EA in den Markt ein. Einstellungen des Neuronalen Netzes Die Anzahl der Gewichte pro Neuron. Gleich der Länge des MA. Je höher der Wert, desto genauer wird der aktuelle Marktstaat erkannt, aber er reduziert die Anzahl der Trades. Je niedriger der Wert, desto weniger genau wird der aktuelle Marktstaat erkannt, aber die Anzahl der Trades steigt. Der Wert der Neuron-Aktivierung. Der Wert beträgt etwa 0,75 des Wertes der Anzahl der Gewichte pro Neuron. Je höher der Wert, desto strenger ist die Auswahl der Neuronen für eine Entscheidung. In der Testversion ist es 40. Die Anzahl der Trainingszyklen - Standard ist 100. Faktor b die Gewichtskorrekturgeschwindigkeit, Voreinstellung ist 0,7. Lernmodus EA der EA-Trainingsmodus. Während des Trainings werden die Maximalwerte der Neuronen in den Kommentaren auf dem Diagramm angezeigt. Diese Werte können als Aktivierungswert des Neurons verwendet werden. Ein Beispiel ist in der Abbildung dargestellt. Kommentare aktivieren - Kommentare auf dem Diagramm. Magic Anzahl der Berater. Pause nach dem Handel in Millisekunden. Standardmäßig wird die EA auf USDJPY H1 auf zwei Trades im Jahr 2012 geschult. Das Ergebnis der Expert Advisor Prüfung im Jahr 2013 ist in der Abbildung gezeigt. Ich verstehe neuronale Netze mit einer beliebigen Anzahl von versteckten Ebenen können nichtlineare Funktionen approximieren, aber kann es Ungefähre: Ich kann nicht darüber nachdenken, wie es könnte Es scheint wie eine sehr offensichtliche Beschränkung der neuronalen Netze, die potenziell einschränken können, was es tun kann. Zum Beispiel, wegen dieser Einschränkung, neuronale Netze wahrscheinlich nicht ordnungsgemäß annähern viele Funktionen in Statistiken wie Exponential Moving Average oder sogar Varianz verwendet. Wenn man von gleitendem Durchschnitt spricht, können sich wiederkehrende neuronale Netzwerke richtig annähern, so dass ich verstehe, wie ein vorwärtsgerichtetes neuronales Netzwerk oder sogar ein einziges lineares Neuron einen gleitenden Durchschnitt mit der Schiebefenstertechnik ausgeben kann, aber wie würden wiederkehrende neuronale Netze es ohne X-Menge versteckter Schichten machen (X ist die gleitende durchschnittliche Größe) Auch nehmen wir an, wir kennen nicht die ursprüngliche Funktion f. Was passiert, um den Durchschnitt der letzten 500 Eingänge zu erhalten, und dann Ausgabe 1, wenn seine höher als 3 und 0, wenn es nicht. Aber für eine Sekunde, so tun wir nicht wissen, dass es eine Black Box. Wie würde sich ein wiederkehrender neuronales Netzwerk annähern, das wir zuerst wissen müssen, wie viele Zeitpunkte es haben sollte, was wir nicht haben. Vielleicht könnte ein LSTM-Netzwerk, aber auch dann, was, wenn es nicht ein einfacher gleitender Durchschnitt ist, ist es ein exponentieller gleitender Durchschnitt, den ich nicht glaube, dass LSTM es auch machen kann. Noch schlimmer noch was, wenn f (x, x1) das wir lernen wollen, ist einfach das scheint sehr einfach und unkompliziert. Kann ein neuronales Netzwerk es lernen, ich sehe nicht wie. Bin ich vermisse etwas riesiges hier oder sind maschinelle Lernalgorithmen extrem begrenzt Gibt es noch andere Lerntechniken neben neuronalen Netzwerken, die das alles tatsächlich machen können. Der entscheidende Punkt zu verstehen ist kompakt. Neuronale Netze (wie wir alle anderen Näherungsstrukturen wie Polynome, Splines oder Radiale Basisfunktionen) können jede kontinuierliche Funktion nur innerhalb eines kompakten Satzes approximieren. Mit anderen Worten, die Theorie besagt, dass gegeben ist, dann gibt es ein neuronales Netzwerk, das f (x) mit einem Näherungsfehler kleiner als epsilon annimmt. Überall in einem, b. In Bezug auf Ihr Beispiel von f (x) x 2. Ja man kann es mit einem neuronalen netzwerk in einer endlichen reihe approximieren: -1,1. 0, 1000 Etc. Um dies zu visualisieren, stellen Sie sich vor, dass Sie f (x) innerhalb von -1,1 mit einer Step-Funktion approximieren. Können Sie es auf dem Papier machen, wenn Sie die Schritte schmal genug machen, können Sie jede gewünschte Genauigkeit erreichen. Die Art, wie neuronale Netze sich n (x) annähern, ist nicht viel anders als diese. Aber wieder gibt es kein neuronales Netzwerk (oder jede andere Näherungsstruktur) mit einer endlichen Anzahl von Parametern, die f (x) x 2 für alle x in -, Antwortete am 20. März um 18:06 Ich verstehe neuronale Netze mit einer beliebigen Anzahl von versteckten Ebenen können nichtlineare Funktionen angenähert werden, aber es kann sich annähern: Der einzige Weg, den ich für diese Frage verstehen kann, ist, dass Sie über Extrapolation sprechen. So z. B. Gegebene Trainingsmuster im Bereich von -1 lt x lt 1 kann ein neuronales Netzwerk die richtigen Werte für x gt 100 lernen. Ist das, was du meinst Wenn du vorherige Kenntnisse hättest, dass die Funktionen, die du anprobieren möchtest, wahrscheinlich in geringer Ordnung sind Polynome (oder irgendeine andere Gruppe von Funktionen), dann könntest du sicherlich ein neuronales Netzwerk aufbauen, das diese Funktionen darstellen und überall x2 extrapolieren kann. Wenn du keine Vorkenntnisse hast, sind die Dinge ein bisschen schwieriger: Es gibt unendlich viele glatte Funktionen, die x2 im Bereich -1..1 perfekt passen und theres kein guter Grund, warum wir erwarten würden, dass x2 bessere Vorhersagen als irgendeine andere geben würde Funktion. Mit anderen Worten: Wenn wir keine Vorkenntnisse über die Funktion hatten, die wir lernen wollten, warum sollten wir x - gt x2 lernen wollen. Im Bereich der künstlichen Trainings-Sets, könnte x2 eine wahrscheinliche Funktion sein, aber in der realen Welt ist es wahrscheinlich nicht. Um ein Beispiel zu nennen: Lets sagen, die Temperatur am Montag (t0) ist 0, am Dienstag seine 1, am Mittwoch seine 4. Wir haben keinen Grund zu glauben, dass sich die Temperaturen wie Polynome niedriger Ordnung verhalten, so dass wir nicht aus diesen Daten ableiten wollen Dass die Temperatur am nächsten Montag wahrscheinlich um 49 liegen wird. Auch nehmen wir an, wir wissen nicht, dass die ursprüngliche Funktion f, die passiert, um den Durchschnitt der letzten 500 Eingänge zu bekommen, und dann eine 1 ausgeben, wenn ihre höher als 3 und 0 if es ist nicht. Aber für eine Sekunde, so tun wir nicht wissen, dass es eine Black Box. Wie wäre ein rezidivierendes neuronales Netzwerk angenähert, dass ich denke, das sind zwei Fragen: Erstens kann ein neuronales Netzwerk diese Funktion darstellen. Gibt es eine Menge von Gewichten, die genau dieses Verhalten geben würde. Es hängt offensichtlich von der Netzwerkarchitektur ab, aber ich denke, wir können mit Architekturen aufkommen, die diese Art von Funktion repräsentieren können (oder zumindest annähernd annähern). Frage 2: Kann man diese Funktion erlernen, genügend Trainingsmuster geben Nun, wenn dein Lernalgorithmus nicht in einem lokalen Minimum stecken bleibt: Wenn du genug Trainingsmuster hast, gibt jeder Satz von Gewichten, der deine Funktion nicht annimmt, einen Trainingsfehler größer Dass 0, während ein Satz von Gewichten, die die Funktion passen youre versuchen zu lernen, hat eine Trainingsfehler0. Wenn man also ein globales Optimum findet, muss das Netzwerk die Funktion erfüllen. Der Grund, warum ich an x2 dachte. Und einfache oder exponentielle gleitende Durchschnitte ist vor allem, weil es ein gutes Geschäft in der Finanzmarktvorhersage in der technischen Analyse verwendet wird. Ich hatte gehofft, dass ein neuronales Netzwerk potenziell diese Algorithmen und den Handel auf der Grundlage von ihnen lernen könnte, ohne vorher hart zu kodieren und ihr Ergebnis einzugeben. Doch ich versuche herauszufinden, ob ein neuronales Netzwerk sogar eine solche Funktion lernen kann. Ndash Essam Al-Mansouri Ich verstehe, wie x2 ist nicht genau nützlich für die Wettervorhersage und könnte dazu führen, dass das Netzwerk 49 Grad am nächsten Montag vorhersagen, aber ich bin sicher, dass ich eine Polynomfunktion lernen kann Für FOREX Preisvorhersage, zum Beispiel. Ich verstehe vielleicht eine andere Netzwerkarchitektur, als ich im Sinn war, könnte fähig sein, aber ich kenne keine Architektur, die f (x, x1) xx1 darstellen kann. Ich glaube, ich hätte vielleicht das Wort annähernd anstatt zu vertreten, aber ich glaube dir Immer noch verstanden, was ich gerade sagen wollte. Sorry, ich konnte meinen letzten Beitrag nicht rechtzeitig bearbeiten. Ndash Essam Al-Mansouri 1. September um 18:41 Ich verstehe neuronale Netze mit einer beliebigen Anzahl von versteckten Ebenen können nichtlineare Funktionen approximieren, aber kann es ungefähr: ja es kann. Ich weiß nicht, was macht Sie denken, dass eine harte Funktion zu approximieren ist, ist es eine sehr einfache. Bei genügend versteckten Einheiten kann ein neuronales Netzwerk jede Funktion einer beliebigen Präzision in einem beliebigen Bereich angenähert werden. Sprechen von gleitenden Durchschnitt, können wiederkehrende neuronale Netze richtig annähern, dass ja, kann es. Es ist ein wieder ein ganz einfaches Problem, dass Sie zu denken scheint, ist aus irgendeinem Grund schwierig, dass Sie nicht teilen. Sie können die triviale Lösung sehen, indem Sie einfach den verborgenen Zustand erstellen, der groß genug ist, um die ganze Geschichte und den Rest des Netzwerks zu enthalten, um den Durchschnitt aus dem wiederkehrenden versteckten Zustand zu berechnen. Wir müssten zuerst wissen, wie viele timesteps es haben sollte, was wir nicht haben. Das ist ein Parameter-Tuning-Problem, das bisher behandelt wurde. Sie können ganz einfach nach weiteren Informationen suchen. Bin ich fehlt etwas riesiges hier oder sind maschinelle Lernalgorithmen extrem begrenzt Gibt es andere Lerntechniken neben neuronalen Netzwerken, die tatsächlich etwas davon tun können, scheinen Sie kein wirkliches Verständnis von neuronalen Netzwerken zu verpassen. Ihre allererste Aussage von Ich verstehe neuronale Netze mit einer beliebigen Anzahl von versteckten Ebenen können nichtlineare Funktionen approximieren, aber kann es angenähert zeigt, dass Sie nicht wirklich verstehen, die Worte, die Sie verwenden. Es gibt eine riesige Palette von Themen, die Sie nicht verstehen können, oder miteinander zu verknüpfen, und niemand wird in der Lage sein, Sie gerade in einem einfachen QampA-Format zu setzen. Wenn Sie wirklich verstehen wollen, was los ist, nehmen Sie einige Graduate-Kurse in Machine Learning und Neural Networks im Besonderen. Ein guter Ausgangspunkt wäre diese Videos, wenn du schon das Wissen hast. Beantwortet Sep 1 14 at 16:37 Dies ist nicht der richtige Ort zu lehren. Ergreifen Sie eines der vielen Bücher über das Thema und lesen Sie das. Sie sind sogar unter Berücksichtigung der Art der Aktivierungsfunktion oder dass es mehr als eine Einheit pro Eingabe gibt oder dass es viele versteckte Ebenen geben kann (nicht dass sie benötigt werden, aber helfen zu verstehen). Ndash Raff. Edward Sep 1 14 at 19:09 Raff Edward, du warst unhöflich und verkleinert in deinen Antworten einfach weil du und nicht Essam die theoretischen Einschränkungen von Neuronalen Netzwerken nicht verstehst. NEIN, NEIN, NEIN Kein neuronales Netzwerk kann jemals die Funktion f (x) xx lernen. Auch kann man nicht unendlich viele andere Funktionen lernen, es sei denn, du nimmst das Unpraktische an: - eine unendliche Anzahl von Trainingsbeispielen 2 - unendlich viele Einheiten 3- eine unendliche Zeit, um NNs zu konvergieren, sind gut im Lernen von Low-Level-Mustererkennungsproblemen (Signale, die am Ende einige statistische Muster haben, die durch eine kontinuierliche Funktion dargestellt werden können), aber das ist es nicht mehr Heres einen Hinweis: versuchen Sie es Um ein NN zu bauen, das n1 Dateneingaben (x0, x1, x2 xn) annimmt und es wird true (oder 1) zurückgeben, wenn (2 x0) im Rest der Sequenz ist. Und viel Glück. Unendliche Funktionen, vor allem solche, die rekursiv sind, können nicht gelernt werden. Sie sind nur Raff Edward missverstanden meine Frage. Er hatte recht, wenn man sagt, dass neuronale Netze eine beliebige Funktion annähern können, aber ein wichtiger Teil, den er und ich nicht richtig angeben, ist, dass er eine beliebige quadratische Funktion annähern kann. Dies bedeutet, dass es sich bei f (x) annähern kann, wenn x eine unendliche Reichweite hat, wie Panagiotis darauf hingewiesen hat. Ndash Essam Al-Mansouri 10. Januar um 9: 03Improvement von Auto-Regressive Integrated Moving Durchschnittliche Modelle mit Fuzzy-Logik und künstlichen Neuronalen Netzwerken (ANNs) Die Zeitreihen-Prognose ist ein aktives Forschungsgebiet, das für Anwendungen in einer Vielzahl von Bereichen erhebliche Aufmerksamkeit erregt hat. Auto-Regressive Integrated Moving Average (ARIMA) Modelle sind eines der wichtigsten Zeitreihenmodelle, die in den letzten drei Jahrzehnten in der Finanzmarktprognose eingesetzt wurden. Aktuelle Forschungsaktivitäten in der Zeitreihen-Prognose zeigen, dass zwei grundlegende Einschränkungen ihre Popularität für die finanzielle Zeitreihen-Prognose beeinträchtigen: (a) ARIMA-Modelle gehen davon aus, dass zukünftige Werte einer Zeitreihe eine lineare Beziehung zu aktuellen und vergangenen Werten sowie mit weißem Rauschen haben , So dass Näherungen durch ARIMA-Modelle für komplexe nichtlineare Probleme nicht ausreichen und (b) ARIMA-Modelle erfordern eine große Anzahl von historischen Daten, um genaue Ergebnisse zu erzielen. Sowohl theoretische als auch empirische Befunde haben vorgeschlagen, dass die Integration verschiedener Modelle eine effektive Methode zur Verbesserung ihrer prädiktiven Leistung sein kann, besonders wenn die Modelle im Ensemble ganz anders sind. In diesem Papier sind ARIMA-Modelle mit künstlichen Neuronalen Netzwerken (ANNs) und Fuzzy-Logik integriert, um die linearen und Datenbeschränkungen von ARIMA-Modellen zu überwinden und so genauere Ergebnisse zu erzielen. Empirische Ergebnisse der Prognose der Finanzmärkte zeigen, dass die Hybridmodelle eine effektiv verbesserte Prognosegenauigkeit aufweisen, so dass das vorgeschlagene Modell als Alternative zu Finanzmarktprognosewerkzeugen genutzt werden kann. Auto-Regressive Integrated Moving Average (ARIMA) Zeitreihenvorhersage Künstliche Neuronale Netze (ANNs) Fuzzy Logik Finanzmärkte Wechselkurs Entsprechender Autor. Tel. 98xA0311xA03912550xA01 Fax: 98xA0311xA03915526. Copyright Kopie 2008 Elsevier B. V. Alle Rechte vorbehalten. Mehdi Khashei wurde 1979 in Esfahan, dem Iran, geboren. Er studierte Wirtschaftsingenieurwesen an der Isfahan University of Technology (IUT) und erhielt 2005 den MS-Abschluss in Wirtschaftsingenieurwesen. Er ist Autor oder Co-Autor von ca. 13 wissenschaftlichen Arbeiten in internationalen Zeitschriften oder Mitteilungen an Konferenzen mit Prüfungsausschuss. Seine aktuelle Forschung kombiniert die Auto-Regressive Integrated Moving Average (ARIMA) Modelle mit künstlichen Neuronalen Netzwerken (ANNs) und Fuzzy-Logik auf Zeitreihen-Prognose. Seine Forschungsinteressen umfassen rechnerische Modelle des Gehirns, Fuzzy Logik, Soft Computing, nichtlineare Approximatoren und Zeitreihenvorhersage. Mehdi Bijari erhielt seinen BSc in der Ingenieurtechnik, 1987, MSc in der Systemplanung, 1990, sowohl von der Isfahan University of Technology (IUT) als auch Doktorand in Wirtschaftsingenieurwesen 2002, Sharif University of Technology. Seit 1991 ist er in der Abteilung Ingenieurwissenschaften an der IUT tätig. Seine Forschungen liegen im Bereich Projektmanagement, Simulation, Produktionsplanung, meta-heuristische Methoden, Optimierung, Zeitreihenvorhersage und Informationssysteme. Er hat verschiedene Arbeiten in der Produktionsplanung, Zeitreihenvorhersage und Optimierung veröffentlicht. Gholam Ali Raissi Ardali ist Assistant Professor für Wirtschaftsingenieurwesen an der Isfahan University of Technology (IUT). Er erhielt BSc in der Statistik amp informatics, 1975, vom Institut für Statistik und Informatik, Teheran, Iran, MSc in angewandter Statistik, 1977, von Brunel University, England und PhD in der industriellen Technologie, 1980, von der Bradford University, England. Seine Forschungsinteressen sind das gesamte Qualitätsmanagement, die statistische Qualitätskontrolle, die Zeitreihenvorhersage, die neuronalen Netze und das Supply Chain Management. Wenn wir eine Prognose machen müssen, sagen die Bücher, dass die Hauptmethode das autoregressive gleitende Durchschnittsmodell ist. Meiner Meinung nach gibt es ein weiteres großes Werkzeug, das Feed-Forward-Neuronales Netzwerk (FFNN). So denke ich, dass wir zwei Hauptwerkzeuge verwenden könnten: Autoregressive gleitender Durchschnitt Feed forward Neuronales Netzwerk Natürlich muss es Unterschiede geben, aber ich bin kein Experte. Wer, der genügend Erfahrung in diesen beiden Methoden hat, kann mir die Unterschiede zwischen diesen beiden Methoden zur Vorhersage erklären, die am 20. Februar 14 um 14:53 erbracht werden

Comments