2007/11/12
絵日記更新大会も終わって絵無し禁止の自分ルールも解けたので久しぶりに絵無し更新を
http://d.hatena.ne.jp/tihara/20071111#p1
ここらへんの話を読んでて思い出したのは昔、為替AI(株とかでもある機械取引の為替版)を組んでて思った事だった。
何かと言うと”為替市場[チャート]だけ見てても絶対に勝てない”という実にシンプルで面白くも無い結論。
そこから私のファンダメンタルズ分析志向が始まるわけだけど、経済データを加味しても(けっこう効果はあるが)足りない。スパンを3ヶ月〜1年にして目標利率を10%くらいにしてもどうも。ドル円ならFF金利+α程度の辺りを境に難しくなる?
(べつにそういう意味で決めてるわけじゃないが)中央銀行ってすごい。そもそも私の分析方法が間違ってたりAIの出来がそもそもダメってのも大きいがチャートと(簡単な)統計データだけで目標にしたファンドに勝つのは無理だった。そこからは根気勝負というか、設計思想やアルゴリズムレベルでの革新がなさそうで(あと飽きて)開発を止めてしまったからどこまでいけるかはわからないけど。
自動音声認識も音声そのものだけの解析じゃなく、前後の文(単語)から精度を高めるようになってきてる。ここらへんは解析対象自体(チャート)と関係データ(経済統計)なのでまだこの先に進んでいるようでは無いらしい。
実際、人間が聞いていても何言っているか判らなかったり、意識次第で別の意味で聞こえたりするわけでもっと別のものが必要なんだろうなぁ。
雰囲気を解析して絞り込んだり、言った人と言われた人のパーソナルデータとか。知り合いよりも知らない人同士の電話で聞き間違いが多いのは多分そういうデータが少なからず判断材料になっているからだろう。
趣味とか嗜好のデータくらいならそれと関連の深い単語を優先する。みたいな感じでN-gramデータを作れそうな気がする。たとえ違う話題でも趣味の単語を応用したりするから普通のN-gramデータとは別にもつ必要がある。(と想像するけど今のN-gramデータで十分だったらスイマセン)
問題は雰囲気、空気のほうはさっぱりわからない。多分必要なパラメータ自体は音声を解析して感情を当てるみたいな技術があるからそこらへんと、あとは文の意味を解析しないとなぁ……(相手の主張に反対してるとか、賛成しているとか)
そうなるともはや音声認識の域じゃなくてAI、Alifeになってくる。この技術でも専門化の果てにきて複合化が必要な段階にあるわけか。
現代とやらは本当に複雑な事をしないといけない時代になりそうだ…… |