【4/13の日経平均】

 終値 21,779円(先週末比+211円)

【シカゴ日経平均先物 13日】(かっこ内は大阪日中比)

  円建て6月限 21,765円(-45)

【ロイター見通し概略】

 やや強気?!

 詳しくは
 https://jp.reuters.com/article/tokyo-stx-wklyoutlook-idJPL3N1RQ2LK

【勝手な個人見解!】
 ----------------------------------------------------------
 ※あくまで個人見解です。結果について、責任負えません。
 ----------------------------------------------------------
 2019年4月末に向けての225価値想定19,000円
 ※価値想定は予想ではありません。
  市場マインドがニュートラルの場合の株価とお考え下さい。

 買い建て指数0.0%(暫定版)おおむね現金確保

 ※リバランスポイント参考値(暫定版)
   基準株価   下落時    上昇時
  ○21,000円   0%→0%   10%→0%
   20,600円   0%→10%   20%→10%
   20,200円   10%→20%   10%→20%

 ※上下指数参考値 (暫定)
   週末×1.10 23,957円  0.0%
   週末×1.05 22,868円  0.0%
   週末÷1.05 20,742円  7.2%
   週末÷1.10 19,799円  30.5%

  #リバランスポイント、上下指数については
  # http://gookabu.blog48.fc2.com/blog-entry-107.html
  #をご参照下さい

〇個人見解の補足

  最近、決算の先行指標になっている安川電機の好決算の報道が
  ながれて相場は小康状態。

  とは言っても、トランプさんの対日貿易交渉やらTPP復活や
  らは不安材料という事で、微妙です。

  とりあえず私はダンマリを決め込みます。

  そう言えば、一言忘れていました。

  現在の想定は、配当後の日経平均です。

  本当月権利落ち分200円弱を下げても良かったのですが、
  ほんの少し強気シフトという事でとらえて下さい。

  では引き続き、多変量解析→AI(人口知能)の話。

  今回からは多変量解析(統計)やAIに関わらず、よく見かけ
  るミスについてです。

  ここまでお話ししたとおり、AIは統計の発展形です。
  従って共通する部分も多いのです。

  まずは、過去データを分析(学習)して得られた結論を鵜呑み
  にする例。(何年か前に同様記事を書いた覚えも??)

  よく聞く、「シストレツールなんかで過去ン年のバックテスト
  で○○の結論が得られた、よってXXの戦略が有効」
  なんて話は「ほぼ無意味」なのです。(苦笑)

  そもそも過去ン年・・・せいぜい10年程度のデータだと思いま
  すが・・・これではまったく不十分。

  極端な例ですが1980年~1989年のデータで得られた法則を1990
  年以降に適用してみれば、大抵の法則は崩壊するでしょう。w
  #ご存知バブルの前後です。

  おそらく、得られた法則は1990年のわずか1年すら通用しなか
  ったのではないでしょうか?!

  これは統計的にみればしごく当たり前の事。

  統計に(AIも同じです)使うデータは「全体を代表する、ラ
  ンダム抽出されたデータ」である必要があります。

  ところが1980年~1989年のデータなんて、市場全体から見れば
  ほんの一瞬でしかありません。
  #日本から株式市場がなくなる?ン百年先まで考えると、その
  #間の「わずか10年」です。

  しかも、連続した10年のデータなんて局所的なデータで、全体
  を語れるはずもありません。

  言うなれば、夏の東京で測定した弁当販売モデル。

   販売推定数 = 100 - 降水確率

  を、冬の札幌で適用するようなものです。
  #過去データを鵜呑みにするのは、この位アホな事なのです。

  このモデルをそのまま使う方が、どうかしていますよね?!。

  例えば、真夏だった1989年が翌年1990年には真冬になった様
  な物と考えれば良いと思います。

  市場ではこんな事が良く起こります。
  この事は頭に入れておいた方が良さそうです。

  ちなみに、経済学関係の論文では50年程度のデータで分析をし
  ているケースが多いようです。

  これは、これで十分と言うわけではなく、これしかデータが集
  められない・・・と言う要素の方が大きい気がします。

  やってみると分かりますがン十年のデータを集める事は、かな
  り大変。(そもそもデータが無い事も多いのです)
  #為替でも固定だったり、変動だったり金本位制だったり。

  10年ですら、全体から見たごく一部の偏ったデータでしかない
  のです。まして、2~3年のデータで分かった気になるなんて!

  ついでに付け加えると、市場のデータは相関を持っています。
  (つまりランダムではないと言う意味)

  例えば、当日と翌日のデータは95%以上は同じデータと見なせ
  てしまうのです。

  これが別のデータだと言えるようになるには(私の調べた範囲
  では)2年程度は間を空ける必要があります。

  すると、単純計算10年のデータすら、ルーレット5回分のデー
  タに過ぎない・・・と言う事です。若干大げさですが・・・・。

  こう考えると、相場に統計を使う事が、いかに難しいか分かる
  と思います。そして安直に使うと痛い目にあいます。w

  次回は、これとは別のGoogleがハマったBig Dataの落とし穴
  についてご紹介します。
------------------------------------------------------------
 (宜しければ下記も参考にしてください)
  ○アクティブリバランス投資法とは?!
   http://gookabu.blog48.fc2.com/blog-entry-86.html
  ○アクティブリバランス投資法、実行マニュアル
   http://ynavi.info/mag/act2.html
  ○主なバックナンバー
   http://gookabu.blog48.fc2.com/blog-entry-153.html
  ○アクティブリバランス詳細解説リンク集
   http://gookabu.blog48.fc2.com/blog-entry-53.html
------------------------------------------------------------

お役に立ちましたらポチっとお願いします。
人気ブログランキングへ

2018.04.14 Sat l 週間想定 l コメント (0) トラックバック (0) l top

コメント

コメントの投稿












トラックバック

トラックバック URL
http://gookabu.blog48.fc2.com/tb.php/578-7e21c8c8
この記事にトラックバックする(FC2ブログユーザー)