トランプ大統領のツイートからFXの為替相場を予想する方法
こんばんは、新米データサイエンティスト(@algon_fx)です。最近、仕事が忙しいのを理由にジムに行けてませんでした。そんな生活が2ヶ月も続くと、気づけば体重が増えてました(汗)。来週からジム復活して、またしっかり頑張る所存です。
さて、私の体型などどうでも良い話ですね。今日のブログのネタは少し変わったネタをやりたいと思います。まずは下のツイートをみてください。
以前に遊び半分で作ったトランプ大統領のツイートからドル円の値動きを推測するモデル、作り込みしたら結構便利になってきた。原則はテクニカルだけど、ファンダメンタルっぽいのも取り入れるともっと利益出る気がする!
ニーズがあれば初心者向けの記事でまとめます!
— 新米データサイエンティスト (@algon_fx) 2018年12月3日
そうです、今回のブログではトランプ大統領のツイート内容を分析して、ドル円の為替レートの値動きを予測する流れをPythonを使って行います。
いつも通りですが本記事はFX予測手法を公開!これをやれば儲かります!といった類の話ではありません。これから機械学習の手法を活用してFXトレードをやってみたい!という方向けの入門チュートリアル的な内容です。
簡単なPythonの知識があれば実装が可能です。是非、みなさん挑戦してみてください!
ファンダメンタルズとは
FXトレードには大きく分けると2種類のトレード手法があります。それが「テクニカル分析」と「ファンダメンタルズ分析」です。
私は原則としてテクニカル分析を使ってFXトレードを主に行なっています。テクニカル分析とは、過去の為替レートの値動きを細かく分析をして今後のトレンドや将来の値動きを推測してトレードを行う手法です。
対してファンダメンタルズ分析とは、国の経済状態を分析して将来の為替レートの値動きを推測してトレードを行う手法です。
経済状態というと難しく聞こえますが、ニュースなどで耳にする「GDP(国内総生産)」や「貿易収支」などといった指標からその国の経済、さらにはその国の通貨を評価するわけです。
ファンダメンタルズの根本にあるのは非常にシンプルな考え方です。ファンダメンタルズが強い国(つまり経済状態が良好な国)の通貨はいずれ上昇する、逆にファンダが弱い国(つまり経済状態が悪い国)は通貨が下降すると考えに基づきます。
もう少し具体的な話をしましょう。ファンダメンタルズには数多くの指標が存在します。その中でも特に為替相場を大きく動かすのに「米国雇用統計」という指標が存在ます。下のチャートをみてください。

上の図は2012年4月の雇用統計が発表された直後のドル円のチャートです。たったの60秒でドル円が80銭も大幅に動いています。このように雇用統計が発表されると多くのトレーダーがドルの経済状況を加味してトレードすることにより、ドル円の相場が大きく動きます。
話が逸れるので雇用統計の詳細は割愛しますが、重要なのは経済指標が発表されるとドル円のレートが飛ぶように動くよ!ってところです。ドル円の相場を動かすのは雇用統計だけではありません。
ドル円を動かす指標は数多くありますが、今回はアメリカのトランプ大統領に焦点を当てましょう。日銀総裁や首相、大統領などが発言をして為替レートが動くことも多々あります。さんこうまでにですが、これららは「要人発言」と呼ばれます。
なぜトランプ大統領なのか?ですが特に理由はありません。強いていうのであれば、当選前からメディアを騒がし、問題発言などが多くドル円も敏感に反応するのでは?と考えたからです。事実、トランプ大統領が発言して世間が反応するので「トランプ砲」なんて言われたりします。
この記事の目標とやる事
この記事で行う内容、また達成したい目標を簡単にまとめます。
目標
・トランプ大統領のツイートデータを取得
・トランプ発言の10分後のドル円の値動きを予測
やる事
・2018年9〜10月のツイートデータを習得
・同時期のドル円レートデータをAPIから習得
・両データをクリーニング&前処理
・ナイーブベイズで解析
・テストデータを使ってモデルの評価
こんな流れでやっていきます。Pythonの初歩的な知識があれば誰でも実装可能です。機械学習の基礎知識があれば、より楽しめる記事だとは思いますが、無くても問題ないように解説します。
では、やってみましょう!
STEP1 ライブラリのインポート
Jupyter Notebooを起動して、一緒にコーディングしてみましょう。Google Colabを利用すれば、ブラウザ一つで本記事の内容が実装可能です。(詳しくは「Google Colabの使い方」をご参照ください)
まずは今回使うライブラリをインポートしましょう。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 |
# データを効率的に扱うライブラリ import pandas as pd import numpy as np import matplotlib.pyplot as plt import matplotlib.finance as mpf from matplotlib.finance import candlestick2_ohlc from datetime import datetime, timedelta # 自然言語処理(NLP)を扱うライブラリ import nltk from nltk.corpus import stopwords import string # 機械学習ライブラリ from sklearn.feature_extraction.text import CountVectorizer from sklearn.model_selection import train_test_split from sklearn.naive_bayes import MultinomialNB from sklearn.metrics import confusion_matrix from sklearn.metrics import accuracy_score # 設定 pd.options.display.max_colwidth = -1 |
機械学習の三種の神器とも言える「Numpy」「Pandas」「Matplotlib」に加えて、「nltk」と呼ばれるライブラリもインポートしています。
「nltk」とはNatural Language Toolkitの略です。今回はトランプ大統領のツイート、つまり言語を解析します。言語解析で役に立つのがnltkです。nltkですが、Google Colabにはデフォルトでインストールされていますので追加構築は不要です。
nltkで追加のモジュールをダウンロードしちゃいましょう。下記のコードをセルに入力して実行してください。
1 2 3 4 5 |
# NLTKのモジュールのダウロード nltk.download('stopwords') nltk.download('punkt') |
1 2 3 4 |
--出力 True |
すでにモジュールがダウンロードされていれば「True」が出力されます。
また、今回の使う機械学習の手法はナイーブベイズです。これはScikit-learnを使って実装します。
STEP2 トランプ大統領のツイートデータ取得
続いて今回の主役ともいえるトランプ大統領のツイートデータを習得しましょう。最初はツイッターのAPIを接続して取得されば良いかと考えていましたが・・甘かったです。
どうやらツイッターAPIは昔より使用制限が厳しくなり、申請してから最低でも一週間程度かかるとのこと。それは困る。とりあえずトランプさんだけのデータでもなんとかならないか・・
と考えてググっていたら、ありました。便利なサイト。その名もtrumptwitterarchive.comです。そのままやん(笑)下記のフルアーカイブのページからデータの取得が可能です。
http://www.trumptwitterarchive.com/archive
今回は直近の2018年9月10月の二ヶ月分のトランプ大統領のツーイトデータを取得しました。上記のサイトから取得したデータをCSVにまとめています。下記のURLからダウンロード可能です。上記のサイトから自身でCSVファイルを生成しても問題ないです。
ダウンロード:trump.csv
では、早速ツイートのデータをPandasのデータフレームで読み込んでみましょう。Google Colabを使っている方はCSVファイルをGoogle Colabにアップロードしてから下記のコードを実行してください。
1 2 3 4 5 |
# トランプのツイートデータを読み込み trump = pd.read_csv('trump.csv') trump.shape |
1 2 3 4 |
-- 出力 (751, 7) |
2ヶ月間のツイート総数は751のようです。思ったよりもツイート数が多いですね。単純計算すると115分に一度はつぶやいていることになります。まじか。
ではデータの内容も確認してみましょう。
1 2 3 4 |
# データの最初の2行を表示 trump.head(2) |
少し見辛いですがこんなデータです。こちらのサイトで取得したデータですが、ツイッターのAPI経由で取得したデータをサイトに掲載しているそうです。
ツイートのデバイス情報やリツイートやファボ数など興味深いデータではありますが、今回は不要なのでデータから落としちゃいましょう。加えてツイート発信時間を「time」、ツイート内容を「tweet」とカラム名を変更します。
1 2 3 4 5 |
# 不要なデータを削除 trump = trump[['created_at', 'text']] trump.columns = ['time', 'tweet'] |
ツイート発信時間ですがデータ型がオブジェクトですので、Datatime型へ変換してあげましょう。さらにツイート発信時間の秒数を四捨五入します。これは後ほどの結合するドル円の為替レートのデータには秒数が含まれないためです。(1分足のデータなので)
1 2 3 4 5 6 7 8 9 10 |
# オブジェクトからDatime型へ変換 trump['time'] = pd.to_datetime(trump['time']) # 秒数を四捨五入 trump['time'] = trump['time'].dt.round('min') # 最初の2行を確認 trump.head(2) |
1 2 3 4 5 6 |
--出力 time tweet 0 2018-10-30 12:53:00 “If the Fed backs off and starts talking a little more Dovish I think we’re going to be right back to our 2800 to 2900 target range that we’ve had for the S&P 500.” Scott Wren Wells Fargo. 1 2018-10-30 12:34:00 The Stock Market is up massively since the Election but is now taking a little pause - people want to see what happens with the Midterms. If you want your Stocks to go down I strongly suggest voting Democrat. They like the Venezuela financial model High Taxes & Open Borders! |
ひとまずはトランプ大統領の2ヶ月間のツイートデータが取得できました。
STEP3 ドル円1分足データの取得
ツイートデータが揃いましたので、続いてドル円の過去為替レートのデータを作りましょう。こちらも同期間のデータが必要なのOANDA APIから2018年9月〜10月のドル円レートを取得しました。
APIから取得したデータをCSVファイルにまとめました。下のリンクからダウンロード可能です。APIから直接データを作ってみたい方は「PythonでFX APIを動かす基本技10選」をご参照ください。
ではレートのデータをPandasで読み込みましょう。今回は「時間(t)」と「終値(c)」のみしか使いませんので他のカラムは除外します。また、時間のデータをDatatime型へ変換もしています。
1 2 3 4 5 6 7 |
# レートを取得 rate = pd.read_csv("../../algoFX/news/usd_1min_trump.csv") rate = rate[['t', 'c']] rate['t'] = pd.to_datetime(rate['t']) rate.head(2) |
1 2 3 4 5 6 |
--出力 t c 0 2018-09-03 09:00:00 111.151 1 2018-09-03 09:01:00 111.120 |
いきなり9月3日ですが、1日・2日は土日なのでレートデータがありません。
STEP4 教師データの作成
前段階としてトランプ大統領のツイートデータ、また同期間のドル円の為替レートデータが揃いました。これらのデータを少し調理して教師データとしてまとめましょう。
まずは時間軸を揃えてあげましょう。ドル円レートのデータは私がCSVファイルに落とす前に日本時間へ変換しています。対してツイートデータの時間は全て「GMT」基準ですがデータ取得先のサイトが米国東海岸時間(EST)へ全て変換しています。ですのでESTからJSTへ変換が必要です。
ESTとJST(日本時間)は時差が-14時間です。単純にGMTから-14時間を引いてあげましょう。(この時間の計算ですが注意が必要です。後ほど解説します)
1 2 3 4 5 6 |
# ESTからJSTへ変換(-14時間) trump['jst'] = trump['time'] - timedelta(hours=14) del trump['time'] trump.head(2) |
1 2 3 4 5 6 |
--出力 tweet jst 0 “If the Fed backs off and starts talking a little more Dovish I think we’re going to be right back to our 2800 to 2900 target range that we’ve had for the S&P 500.” Scott Wren Wells Fargo. 2018-10-29 22:53:00 1 The Stock Market is up massively since the Election but is now taking a little pause - people want to see what happens with the Midterms. If you want your Stocks to go down I strongly suggest voting Democrat. They like the Venezuela financial model High Taxes & Open Borders! 2018-10-29 22:34:00 |
これでツイートデータと為替レートデータの時間軸が整いました。
では、教師ラベルをデータに追加してあげましょう。今回はとても単純な教師ラベルを使います。トランプ大統領がツイートをした時間から10分後にドル円レートが情報すれば「1」、逆にレートが下がれば「0」とします。
今回は適当に10分後、さらには1分足のデータを使っていますが、これが正解という訳ではありません。1分後の直後ではどうなのか?翌日のデータは?といった具合に細かい検証が必要です。過去レートのデータ取得はOANDA APIを使えば異なる期間/ローソク足のデータ取得が可能です。
ではターゲットを作成しましょう。
1 2 3 4 5 6 7 8 |
# 10分後 レートが上がれば「1」、下がれば「0」 rate['target'] = 0 pos_mask = (rate['c'].shift(-10) - rate['c']) > 0.0 neg_mask = (rate['c'].shift(-10) - rate['c']) < 0.0 rate['target'][pos_mask] = 1 rate['target'][neg_mask] = 0 |
念のため確認してみましょう。これが間違っていたら全てが台無しです。
1 2 3 4 |
# 教師ラベルの確認 rate.iloc[4:10] |
1 2 3 4 5 6 7 8 9 10 |
--出力 t c target 4 2018-09-03 09:04:00 111.083 1 5 2018-09-03 09:05:00 111.103 0 6 2018-09-03 09:06:00 111.111 0 7 2018-09-03 09:07:00 111.118 0 8 2018-09-03 09:08:00 111.108 0 9 2018-09-03 09:09:00 111.110 0 |
大丈夫そうですね。一番上の09:04のレートと5分後のレートを比較してみると上がっているので教師ラベルは「1」で正解です。
STEP5 レートとツイートデータを結合
為替レートのデータへ教師ラベルも追加出来ました。2つのデータを結合しましょう。結合に使うKeyは時間とします。すでに前の項目で両データの時間軸を整えているので、トランプ大統領がツイートした時間の為替レートのデータが1行で表されます。
1 2 3 4 5 |
# データの結合 masta = pd.merge(trump, rate, left_on='jst', right_on='t') masta.head(2) |
1 2 3 4 5 6 |
--出力 tweet jst t c target 0 “If the Fed backs off and starts talking a little more Dovish I think we’re going to be right back to our 2800 to 2900 target range that we’ve had for the S&P 500.” Scott Wren Wells Fargo. 2018-10-29 22:53:00 2018-10-29 22:53:00 112.492 1 1 The Stock Market is up massively since the Election but is now taking a little pause - people want to see what happens with the Midterms. If you want your Stocks to go down I strongly suggest voting Democrat. They like the Venezuela financial model High Taxes & Open Borders! 2018-10-29 22:34:00 2018-10-29 22:34:00 112.445 1 |
結合により不要なカラムがありますので除外しましょう。加えてターゲット(ドル円が上がったか下がったか)の分布を確認します。
1 2 3 4 5 6 7 |
# カラムの除外 masta = masta[['t', 'tweet', 'target']] # ターゲットの分布確認 masta['target'].value_counts() |
1 2 3 4 5 6 |
--出力 0 282 1 219 Name: target, dtype: int64 |
若干ではありますがトランプ砲が放たれた五分後のドル円レートは下がる傾向の方が強いようです。(ラベルが0は五分後にレートが下がった、1は五分後にレートが上がったでしたね)
STEP6 言語データの前処理
教師データが揃いましたので、次は機械学習アルゴリズムが学習しやすいようんデータの前処理を行ってあげましょう。今回の訓練データは「言語データ」です。前処理の方法は数多くありますが、本記事では最も基礎的な以下の処理を行います。
・全文字列を小文字化する
・句読点を削除
・ストップワードを削除
・特殊記号を削除
それぞれの処理を行いながら簡単な解説も入れていきます。最終的に関数を作成して一括で処理をしますが、前処理を段階的に理解するためそれぞれの処理を確認してみましょう。サンプルのためデータの一番最初のツイートを切り出します。
1 2 3 4 5 6 7 8 |
# ツイートの一番最初のデータをサンプルとして切り出す tweet = masta['tweet'][0] tweet --出力 '“If the Fed backs off and starts talking a little more Dovish I think we’re going to be right back to our 2800 to 2900 target range that we’ve had for the S&P 500.” Scott Wren Wells Fargo.' |
最初の前処理は小文字化です。これは例えばLoveとloveの2単語が含まれていた場合、loveと小文字で統一することで同単語として認識するためです。
1 2 3 4 5 6 7 |
# 小文字 tweet.lower() --出力 '“if the fed backs off and starts talking a little more dovish i think we’re going to be right back to our 2800 to 2900 target range that we’ve had for the s&p 500.” scott wren wells fargo.' |
ご覧の通りサンプルのツイートの最初の単語「If」が「if」へ変換されています。
次は句読点を文書から取り除きます。句読点は人間が文章を理解する上でとても重要な役割を果たしますが、データとして解析するには少し厄介だからです。
1 2 3 4 5 6 7 |
# 句読点を除外 ''.join([moji for moji in tweet if moji not in string.punctuation]) --出力 '“If the Fed backs off and starts talking a little more Dovish I think we’re going to be right back to our 2800 to 2900 target range that we’ve had for the SampP 500” Scott Wren Wells Fargo' |
よく出力結果をみてみると「,」などの句読点が文章から除外されているのが確認できます。ただし、ツイートをみてみると特殊文字「“」や「’」が未だ含まれています。これも邪魔なので除外しましょう。
1 2 3 4 5 6 |
# 特殊記号を削除 ''.join([moji for moji in tweet if moji not in "“”’"]) --出力'If the Fed backs off and starts talking a little more Dovish I think were going to be right back to our 2800 to 2900 target range that weve had for the S&P 500. Scott Wren Wells Fargo.' |
不要な特殊記号も除外されています。クリーニングの最後は「ストップワード」を削除しましょう。ストップワードとは一般的に文章解析を行う際に役に立たないと考えられる単語をさします。
nltkには英語のストップワードが収録されています。いくつか出力して確認してみましょう。
1 2 3 4 5 6 7 |
# ストップワードを表示 stopwords.words('english')[0:5] --出力 ['i', 'me', 'my', 'myself', 'we'] |
「i」や「me」などが英語ではストップワードです。人間の私たちからすれば、これらの単語は非常に重要な意味合いを持ちますが、解析を行う際には不要と考えて除外を行います。(ストップワードを除外することが100%正しい訳ではありません)
1 2 3 4 5 6 7 8 |
# ストップワードを削除 tweet_low = tweet.lower() ' '.join([tango for tango in tweet_low.split() if tango not in (stopwords.words('english'))]) --出力 '“if fed backs starts talking little dovish think we’re going right back 2800 2900 target range we’ve s&p 500.” scott wren wells fargo.' |
出力結果をみてみると「the」などの単語が除外されています。では、今までの処理を関数にまとめて、データを一括で綺麗にしてあげましょう。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 |
# 文章をクリーニングする関数 def tweet_clean(input): clean = ''.join([char for char in input if char not in string.punctuation]).lower() clean = ''.join([char for char in clean if char not in "“”’" ]) clean = ' '.join([word for word in clean.split() if word not in (stopwords.words('english'))]) return clean # データへ適用 masta['tweet'] = masta['tweet'].apply(tweet_clean) del masta['t'] # 確認 masta.head(2) |
1 2 3 4 5 6 |
--出力 tweet target 0 fed backs starts talking little dovish think going right back 2800 2900 target range weve sampp 500 scott wren wells fargo 1 1 stock market massively since election taking little pause people want see happens midterms want stocks go strongly suggest voting democrat like venezuela financial model high taxes amp open borders 1 |
句読点や記号など不要なデータが除外されて綺麗な文章になりました。今回はあくまで「基本」の処理です。これ以外にも数字を除外したり、類義語を一つにまとめるなど様々な処理があります。文章を解析するのはそれだけ大変って話です。
データが綺麗になりましたので、ここで訓練データとテストデータへ切り分けましょう。時系列のデータなので切り分け方に工夫すべきですが・・今回は乱数を使って簡単に分割しちゃいます。(サボります)
1 2 3 4 |
# テストデータと訓練データへ分割 train, test = train_test_split(masta, test_size=0.2, random_state=1) |
STEP7 Bag of Wordsへ変換
いよいよステップ7まできました!実際に予測をする目の前です!最後の力を振り絞って頑張りましょうw
モデル訓練を行う最後の処理は「Bag of Words」です。直訳すると「言葉の袋」です。Bag of wordsとは、文章に含まれる全単語を抽出して、それぞれが含まれるか含まれないかで「0」と「1」で表現する手法です。
Bag of Wordsを使うメリットは処理が非常に簡単なことです。デメリットとしては、単語の順序などが考慮されないことです。詳しく説明すると長くなりますので興味がある方はご自身で調べてみて下さい。
では、やってみましょう。Scikit-learnのCountVectorizer()のクラスを使うことで簡単に処理が可能です。下のコードをみてもわかりますが、単語抽出は「訓練データのみ」です。つまりテストデータにしか含まれない単語は情報として除外されます。
1 2 3 4 5 6 7 8 9 10 |
# CountVectroizer()のインスタンス vect = CountVectorizer() # 訓練データを学習してBag of wordsへ変換 X_train = vect.fit_transform(train['tweet']) # テストデータは変換のみ(訓練はしない) X_test = vect.transform(test['tweet']) |
続いてターゲットも訓練・テストデータ共にNumpy配列へ変換してあげましょう。
1 2 3 4 5 6 7 |
# 訓練データのターゲット y_train = train['target'].values # テストデータのターゲット y_test = test['target'].values |
これで準備完了です!!お疲れ様でした!!次はいよいよモデル訓練と実際に予測をして評価をしてみましょう。
STEP8 モデル訓練と評価
長った・・。内容は基礎的なことしかしていませんが、データ取得から前処理が長かったですね・・。でも皆さん!ここまで来たら後は簡単です!
冒頭でも話しましたが今回使うアルゴリズムはナイーブベイズを使います。ナイーブベイズとは、条件付き確率「ベイズの定理」を基にした機械学習の分類手法の一つです。
ではScikit-learnのナイーブベイズの使ってモデル訓練をしましょう。Scikit-learnには3種類のナイーブベイズが実装されていますが、今回は多項分布ナイーブベイズを利用します。
ではモデル訓練をやってみましょう。
1 2 3 4 5 |
# 多項分布・ナイーブベイズのモデルを訓練 clf = MultinomialNB() clf.fit(X_train, y_train) |
訓練完了です!では、まずは訓練データを使って推測してみましょう。
1 2 3 4 5 6 7 |
# 訓練データから予測してみる train_pred = clf.predict(X_train) # 混同行列を表示 confusion_matrix(y_train, train_pred) |
1 2 3 4 5 |
--出力 array([[225, 3], [ 9, 163]]) |
おおおお!なんかそこそこ予測精度よくねー?って、訓練データですからね。モデルはこれらのデータを学習済みな訳ですから精度が高くて当然です。念のため正解率も算出してみましょう。
1 2 3 4 5 6 7 |
# 正解率 accuracy_score(y_train, train_pred) --出力 0.97 |
訓練データでは97%の正解率が出ました。しつこいようですが、これは訓練データです。さほど大きな意味合いはありません。
では、いよいよ本番!!!!テストデータで推測してみましょう!トランプ砲が放たれた5分後のドル円のレートの動きを上手く予測できたのでしょうか・・ドキドキワクワクです!
1 2 3 4 5 6 7 |
# テストデータで予測 test_pred = clf.predict(X_test) # 混同行列を表示 confusion_matrix(y_test, test_pred) |
1 2 3 4 5 |
--出力 array([[38, 16], [26, 21]]) |
あ〜〜・・うん。まぁこんなもんですかね。それでは正解率も出してみましょう。
1 2 3 4 5 6 7 |
# 正解率 accuracy_score(y_test, test_pred) --出力 0.5841584158415841 |
結果、58.41%の正解率でした!まぁ、トランプ砲が放たれて勘でドル円の値動きを予測するより少しだけ精度の高い推測が出来た結果です。
では、推測した結果をローソク足に落として確認してみましょう。テストデータの12番目のデータを確認してみます。
1 2 3 4 5 |
print(test_pred[12]) print("=====================") print(test.iloc[12]) |
1 2 3 4 5 6 7 8 |
--出力 1 ===================== tweet rt usmc live white house sgt maj john canley becomes 300th marine receive medal honor httpstcosd93rrqaoz target 1 Name: 119, dtype: object |
こちらのデータは正解ラベルが「1」。つまりトランプ砲が放たれた5分後にドル円のレートが上昇したサンプルです。
こちらのツイートの発言時間をデータから探してあげましょう。Pandasのquery()を使って文字列検索を行います。
1 2 3 4 |
# 該当ツイートの時間を確認 trump.query('tweet.str.contains("300th")', engine='python') |
1 2 3 4 5 |
--出力 tweet jst 156 RT @USMC: LIVE from the White House: Sgt. Maj. John Canley becomes the 300th Marine to receive the Medal of Honor. https://t.co/sD93rrqaoZ 2018-10-17 06:12:00 |
時間がわかりましたので、為替データから当該時間のデータを切り出してローソク足に出力してみます。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 |
# 為替レートデータを再度読み込み rate_data = pd.read_csv("../../algoFX/news/usd_1min_trump.csv") rate_data[rate_data['t'] == '2018-10-17 06:12:00'] # ローソク足表示 fig = plt.figure(figsize=(18, 9)) ax = plt.subplot(1, 1, 1) candle_temp = rate_data[42840:42890] candle_temp = candle_temp.reset_index() candlestick2_ohlc( ax, candle_temp["o"], candle_temp["h"], candle_temp["l"], candle_temp["c"], width=0.9, colorup="r", colordown="b" ) |
ローソク足の一番左がトランプ砲が放たれた瞬間です。ご覧の通りトランプ大統領がツイートした5分後にドル円レートは上昇しているのが確認できます。
このモデルを信じてトレードしていたら利益が出たことになりますね。
まとめ
今回は少し長くなりましたが、如何でしたでしょうか?本ブログではテクニカル指標を特徴量として様々な手法でFX予想を行って来ましたが、このように文章(ツイート)を使った予測手法は初めてのご紹介でした。
しつこい様ですがこのFX予想手法を使っても儲けは絶対に出ません。ただし、学習するデータの期間やターゲットの作成の仕方などを工夫することでトレードの役立つツールを作ることは可能です!
FXで機械学習を使うための初心者向けチュートリアルもまとめています!Pythonの初歩的な知識があれば実装が可能ですので、興味がある方は是非ご覧ください!
決定木を使ってFX予想をやってみる
FXトレードでロジスティック回帰を独自テクニカル指標として活用する方法
ブログ読んでいただきありがとうございます!Twitterでも色々と発信しているので、是非フォローお願いします!
ディスカッション
コメント一覧
まだ、コメントがありません