2015/11/30

会社設立から一年が経ちました

明日12月1日で、会社の営業開始から一年が経ちます。あまりにも目まぐるしい日々で、3年くらいは経っているような感覚。アニバーサリーでもないとブログを永遠に書けない気がするので、勢いでポスト。

10年間のサラリーマン生活と会社経営で最も違うなと感じたのは、キャッシュフローへの意識。どうしてもサラリーマンの頃はP/Lしか見ないので、会社の口座にいくら残っているかなんて気にも留めてなかった。会社経営は、資本金という元手を握りしめて出る冒険の旅。営利が出ていても、うちみたいにソフトウェアの固定資産が大きい場合、キャッシュが先に出て行くのにP/L上の利益は残って法人税に殺意を抱くことになる。(ちなみに分析環境としてIBMのSPSS Modeler Client & Server、Tableau、ArcGISなどを購入。Redshift、S3やEC2などのクラウド系は資産にならないのはGood。)

ただここらへんは、オープンソースでなんでも作れるプログラマ系のヒトには無い苦悩かもしれない。世の中には無償のツールがごろごろ転がっているから。そんな商用ソフトウェアに相変わらずロックインされている私ですけれど、「研究所所長」なる肩書きの頃よりも「社長」の今のほうがはるかにプログラミングスキルは高まってしまった。そう、サラリーマン時代は大企業化に伴って分業化が進み、スキルの領域が狭くなっていたことに改めて気付かされた。これがもう一つの起業してからの大きな変化。今は自分でやらざるを得ない領域が多くなった分、いろんなことを勉強するためにケツに火がつく。毎日のように契約書を読んでいると、契約書の文字列をフローチャートやベン図に脳内変換できるように徐々になってきたり。

事業については、当初から構想していた事業をもうすぐ開始できそうな運び。ここまで一年かかってしまったけれど、ここからが本当のスタートです。冒険の仲間、絶賛募集中です。

このエントリーをはてなブックマークに追加



2014/12/31

2014年の振り返り

過去何年も、年末には一年の振り返りブログを書いてきたので、今年も一応。

何はともあれ2014年、起業しました。用意周到に準備はしていたとはいえ、心配事のすべては杞憂に終わりました。むしろ、あまりにもすべてが想定通りすぎて、拍子抜け感。お陰様でもろもろ順調でございます。ただ、想像以上にやることが多いので、自分が本当に時間を費やすべきことだけを選択していかないと回らんなぁというのはひしひしと感じており、来年のテーマは仕事をどう外出しするかということかなと思う今日この頃です。

2014年の位置情報はまだ胎動といった感じでしたが、2015年は日本にマーケットを誕生させるべく、刺激を与えて行く所存です。


このエントリーをはてなブックマークに追加

2014/12/19

IBMの人工知能Watsonを触ってみた

IBM Watson Analyticsベータ版をビジネス向けに提供開始 - Japan

IBMがゴリ押し中の所属タレント、Watson君が昨日からパブリックベータになったので、さっそく試してみました。WatsonはIBMの作った人工知能で、米国のクイズ番組でクイズ王を倒したという実績があり、今回リリースされた"Watson Analytics"は、データ分析などをやるブランドとのこと。世界のミッキー同様、クイズのWatson君とAnalyticsのWatson君は中身は別人だと思われます。ちなみにWatsonという名前はIBMの創設者の名前らしく、気合が伝わってまいります。

お金の無いスタートアップにとって 、イニシャルコストの必要ないクラウドサービスは大変有難いのですが、このWatson Analytics、機能制限はあるものの基本は無料で使えます。機能としては、データをどんどん深堀りしていく探索的BI機能(Explore)と、データマイニングの機能(Prediction)、ダッシュボード的BI機能(View)があって、ブラウザで使えるお手軽BI+データマイニングツールと考えて良さそう。

試しにSSPのアドネットワーク別レポートを突っ込んでみました。まず出てきたのがこちら。
start

「広告タイプ別の月次売上は?」とか「CTRとCPCの関係を月次で?」みたいな提案があります。つまり、SSPからダウンロードしたExcelレポートをアップロードしただけで、Dateの列は日付であることを認識して提案してくれてます。

Watson君からの提案は、とんでもないものが多々。新卒社員ばりの天然っぷり。ただ、訳の分からない提案をされると、「うん?」と思考する時間があって、今まで自分の常識の範疇では絶対にありえない分析とかをやってみようかという発想が出てくることがある。セレンディピティとでも言いましょうか。機械には人間の常識は通用しません。データ分析しろと上司に言われて呆然とディスプレイを眺めている人には良いかも。長年同じ分析をやっている人にとっても、ヒントを与えてくれるという意味では面白そう。現時点では、あんまり使い物になってないけど、今後、クラウド側にカラム名やデータ傾向が蓄積されて、業界用語と関係性をWatson君が理解できるようになったら、まさにイノベーション。BIで一番めんどくさいのが、事前にデータを定義することなので。

adnets
 提案のままだとダメなので、いろいろと組み替えるとこんな感じ。アドネットワーク別のインプレッション比率。これをある程度インタラクティブにいじくることができる。ただ、他のBIツールと比べてまだまだ感は否めない。

今度はデータマイニング機能。町丁目別の人口増減率を説明するモデルを作ってみた。ちなみに、適当に突っ込んだデータなので、結果には何の意味もありません。
predictどの変数が効いているのかが出てきて、一般的なデータマイニングツールよりは普通のビジネスユーザーにもなんとなく理解しやすいかも。ただ、一定のデータマイニング知識は必要だし、知識がない上で触ると誤った答えを導くので、ビジネスユーザーに使ってもらう製品と考えると難しいところ。なお、Watson Analyticsはまだ日本語に対応していないため文字化けしてます。

predict_field入力変数ごとに目的変数との相関が出てきたり、グラフも値に合わせて出してくれたり。

 ざっくり使ってみた感触としては、まだお金を取れるレベルではない感じだけど(ベータ版だし)、分析を分析屋だけに留めず、ビジネスのフロントの人間に直接触って欲しいんだというメッセージはひしひしと感じます。

既存のIBMのデータマイニングソフトウェアであるSPSS Modelerや、BIのCognosには到底及ばないのだけれど、今後データをクラウドで集中管理し、クラウド側がデータの意味を理解できるようになってくると、本当の人工知能として、BIやデータマイニングツールのカイゼンとは隔絶したイノベーションの可能性は垣間見える、そんな気がします。
  • 私のMac環境では、Safariでファイルのアップロードでエラーが発生しましたが、Firefoxを使用することで回避出来ました。
  • WebからダウンロードするレポートなどであるExcel用CSVをアップロードする際にエラーが発生しますが、一旦Excelで開き、フォーマットをExcelブックにして再保存することで回避出来ました。


このエントリーをはてなブックマークに追加

2014/12/01

株式会社ジオロジックを設立しました

位置情報ベンチャー『株式会社ジオロジック』を設立し、本日から営業開始しました。

geologic_logo_3d_white_317x100

Geography《地理学》 + Logic《論理》 = GeoLogic
位置情報にインテリジェンスを。

これまで培ってきた「アドテクノロジー」「データ分析」の技術に加え、「位置情報」が新たに加わります。

「なぜ位置情報?」

よく聞かれます。これまでの位置情報にまつわる数々の失敗事業の歴史はもちろん知っています。今の位置情報広告の市場規模は、ほぼゼロです。でも、今はまさに位置情報がビッグバンを起こす瞬間だと思ったんです。そろそろ、今まで出たくて出たくてうずうずしていた位置情報データたちが飛び出してくる頃合いです。スマホはもちろんのこと、今IoTやO2Oと呼ばれているもののほとんどは位置情報と密接に関わった領域です。にも関わらず、地理情報業界(GIS業界)のマーケティング方面への動きは活発にはなっていません。アドテクやビッグデータ分析などが勃興してきた頃に、マーケティングリサーチ業界が動かなかったあの頃のデジャブを感じています。

今までのオーディエンスターゲティングは、Web閲覧履歴(URL)を基にユーザーの興味関心・デモグラなどを推測するものでした。これからは、そこに位置情報データが加わります。URLと緯度経度は同じようなもの。そもそもドメインというものは、IPアドレスの数字を人間に読みやすく変換してるだけ。たとえば、http://54.65.75.112とブラウザに打ち込んでも、http://www.geologic.co.jpと同じページが開きます。GeoLogicではその逆に、緯度経度の数字を人間にわかりやすく変換するだけでなく、同時にマーケティング情報を付与したいなと。Webの世界では[IP:11.11.11.11→realestate.jp→不動産サイト]と分析すると考えれば、位置情報の世界では[緯度35.656806, 経度139.701101→渋谷区桜丘町16-12→不動産屋]となるだけなので、URLベースの分析も緯度経度ベースの分析も本質は変わらないのです。(緯度経度だけでなく住所でも分析はできます。)

人間はWebの中だけに生息する生物ではないので、リアルを加味するのはマーケティングとして当然の進化です。過去にエリアターゲティング広告(いわゆるジオフェンシング)が全然ダメだったというスコープの話ではなく、もっと大きなマーケティングのスコープにおいて。

いま、アドテク業界には位置情報に関するノウハウはほとんどありません(たぶん)。しかも、位置情報のノウハウは、アドテクのノウハウとはまったくの別物ときています。片手間でできる代物ではないです。そこで、GeoLogicはテクノロジープロバイダとして、アドテク業界における位置情報データ活用を一任してもらえる存在になりたいと思って、会社設立に至ったわけです。

まだウェブサイトもHTMLソース手打ちの状態なんですが、TwitterアカウントFacebookページを用意したので、今後のGeoLogicが少しでも気になる方はフォローしていただければと。また、位置情報以外のコンサルティングも、あまり時間は割けないのですが案件によってはお引き受けできるので、サイト上からお問い合わせいただければと。

本来、会社設立のブログエントリーってものは大きなビジョンを語るもんです。はい。ただ、こういう感じがオレ流な感じもしたんで、そのまま投稿ボタンを押してみることにします。 

位置情報データ分析のジオロジック 


このエントリーをはてなブックマークに追加

2014/10/29

分析には経験と勘が必要な理由

さて。再びブログをなんとしてでも習慣づけるべく、気持ちを奮いたたせて書いてみます。

オプトさんのData Science Labo(DSL)にて開催されているデータ分析のコンペで「ネット広告のクリック予測」というのを発見したのでネタにさせていただきました。

このコンペは、そのインプレッションがクリックされるか否かを分析によって予測するものですが、変数が覆面になっています。おそらく、メディアのIDだとかメディアのカテゴリだとかのIDやフラグだと思うのですが、どの数字が何を示すデータなのかはまったく示されていません。分析を知らない方にとっては「そんなバカな」かもしれないですが、分析はできてしまいます。ただし、こういった覆面データの分析は、"アルゴリズムの評価"という意味では有用なのだけれど、"その人がビジネスで成果を出す能力があるかどうかの評価"は難しいのであるよ、ということを思い出してペンを取った次第です。

分析アルゴリズムを産み出すアカデミック世界では、覆面だろうが同じデータを違うアルゴリズムにかけて、どれだけ正確に予測できたかというのは非常に正しい測定方法です。ただ、ビジネスを生業とするデータサイエンティストにとって最も重要なのは、(業界の)経験と勘から効果的な新しい変数を作って、最終目的を達成させることだと思っています。

以前、米国でNetflixだったと思いますが、映画のレコメンドエンジンのコンペがありました。実際の条件は見ていないのでわからないですが、映画名が明かされているのであれば標準的に振られる変数である「SF」「コメディ」みたいなカテゴリ だけじゃなく、「サブカル系」「小学校低学年向け」みたいな変数を勝手に作ってアルゴリズムにぶっこむことができる。たとえば、『近キョリ恋愛』というタイトルがあればそれをキーにして、山Pが出てて、ジャニーズフラグ立ってて、女子中高生純愛系で、少女漫画が原作で、みたいな情報をどんどん引っ張って突っ込む。最初に貰ったデータを外の世界のデータと繋いで、精度を改善できる。仮に映画のタイトルが『映画xyz』みたいに匿名化されてると、こうしたことができなくなる。

これはネット広告でも一緒で、どのURL/アプリのどの広告枠でといった情報が無いと、外の世界のデータと繋ぐことができない。ここが勝負を分けたりする。ここで暗に言っているのは、SSPからのRTBリクエストとして飛んでくる変数をログにした行列をそのままアルゴリズムにかけても、なかなか難しいということです。アルゴリズムをあれやこれや試すよりも、新しい変数を作って試すほうが有益なことは多々あるわけで。

たぶん今、経営者が"ビッグデータ"をビジネスに繋げる"データサイエンティスト"に求めるものは、目の前にある素材をどう調理するかを考える人じゃなくて、手元に無い素材は仕入れられる人なんじゃないのかなと、漠然と思うわけです。いわば『鉄腕DASH人材』。

最後までお付き合いいただいた方はもうお気づきかと思いますが、オプトさんのコンペの件とは何の関係もないお話でございました。私も以前、コンペを企画しようと考えたのですが、映画などのエンタメとは違ってほとんどの情報を覆面化せざるを得ないので諦めました。本当に分析コンペ運営は難しそうです。同様に、機密性の高いデータ分析を外部に委託する場合にも覆面化せざるを得ない場面があると思いますが、そこで成果を出すというのもなかなかに難しい問題であります。(ユーザーIDの類は匿名化は必須です。変数そのもの覆面化について。)


このエントリーをはてなブックマークに追加