アルゴリズムの精度 < エコシステム
- カテゴリ:
- Data Mining
最近、ちょっとレコメンド関連の情報を漁っていて思ったこと。俺の頭ではどう考えをめぐらせてもレコメンドはビッグビジネスにはできなくて、ここに数多参入している経営者の方々はどういう戦略を描いているのだろうか?と思っていて。
たとえば売上等の指標を100%から105%まで上げるレコメンドエンジンは簡単に作れる。Apriori・協調フィルタリングなどでアイテム間関連性やユーザー間関連性を出すという手法。だけど、105%から105.5%にまで上げるのが難しかったりする。そこではベイズとかユーザークラスタリングとかを組み合わせて精度を上げていく。つまり、ある程度のところまでは至極簡単にできてしまうけれど、ある程度以上は果てしなく大変になる。で、105%までの仕組みであれば誰かが無料で提供するコモディティになる、というか既になっている(他の用途でのデータ収集だったりオープンソースだったり)。そして、105.5%が求められているかというと、ほとんどはNOでしょう。金融のリスク関連であれば必要となりますが、マーケ領域では。云わばレコメンドエンジンのファストファッション化。
そして、ほとんどのレコメンドは顧客企業のサイト内だけのデータを分析して傾向を見出すことになる。これはアルゴリズムの精度改善では乗り越えられない、データという高い高い壁がある。日本のレコメンドエンジン開発者やアカデミック世界の知見をうち(弊社)のエコシステムで活かせたらなぁ、と日々頭を悩ませる今日この頃です。(生活者タイムラインを重視したCRMは極めて重要だと思ってますけどね)
個人的にはアルゴリズム精度改善に心血を注ぐよりは、データによるレバレッジがギンギン効く領域を見定めてアルゴリズムをぶっこみ、ポジティブスパイラルに入るととんでもないことが起きるエコシステムを作ることに心血を注ぎたい。まぁそれがアドネットワークやAd Exchangeなんだけども。これって文系人間でないとできない発言だろな。。
ということで、米国のAd Exchangeやテクノロジー企業がどういうことになっているかを今後がんばって書いてみようと思います。
[この記事を読んだ方へのレコメンド]
スマイル測定「今年最低の発明」 米タイム誌「独断で」