Googleの本質

  • 投稿日:
  • by

ブラウザの話しとも関連する内容です。久しぶりに梅田さんのBlogから引用します。タイトルが「Amazon、Yahoo!、eBayと楽天は何が違うのか」。

ここで再び、「e-Japan時代の情報政策(下):情報家電産業の課題:経済産業省 村上敬亮氏」の1ページ目の下の図を、クリックしてみてください。Amazon、Yahoo!、eBay、楽天といった、創業からそろそろ10年が経過しようとするネット企業・第一世代にとっては、ネット産業を横にレイヤー分けするこの図がしっくりと来るのである。

垂直統合モデルに回帰するGoogle

でもGoogleは違う。ここを縦に切るのである。

自らが保有する戦略技術がなければ絶対に提供できないサービスを構想する。水平分業から垂直統合への回帰を、Googleは仕掛けようとしているのである。ここがGoogleのユニークさであり、破壊的イノベータである所以だ。僕が先週のエントリーで、「Googleをこそ突然変異だと見るほうが自然かもしれない」と書いたのは、そういう意味である。だからこそGoogleに破壊される可能性が最も高いYahoo!が、最も強い危機感を抱いて、数千億円規模の投資をしてサーチエンジンの会社を買い集め、Googleと同じようなコスト構想を実現できるバックエンドのシステムの構築に乗り出したわけだ。Amazonの危機感はYahoo!よりはちょっと薄いけれど(事業の競争優位が、よりライフソリューション層に寄っているから危機感は少し希薄になる)、A9くらいの投資はする。eBayはオークションというもっと特殊なライフソリューション層での競争優位を確立しているから、あまりGoogleに対する危機意識はない。今のネット産業の最先端は、そんな構図で動いているのだと思う。

またまたタイトルと引用部分の中身が全然違いますが(笑)。

しかし、この観点は見事です。

ほとんどの人はこのGoogleの優位性に気づいていません。特にサービス指向の企業ほど、今そのレイヤーで儲かっていると言う理由だけで、自分たちが選択しているビジネスモデルが正しいと判断してしまいがちです。

Googleの技術は、私のレポート「64ビットマシンの世界」の中で触れているように、通信がテラバイト化する時代になればなるほど益々重要な意味を持ってきます。

具体的に説明しましょう。

Googleの技術の本質は、「ブラウザ+HTML+アプリケーションサーバー+データベースサーバー+ファイルシステム」の後に既存のOS(オペレーティングシステム)を位置づけたことにあります。この中の「+」で表現している部分がネットワーク(通信)になりますが、ネットワークスピードは技術の市場原理で黙っていても速くなります。従って、これらのエレメント技術を自社で握ってさえいれば放っておいても自社技術のトータルのパフォーマンスが向上していくのです。更に、ハードウェアにおいてさえ著しくファームウェアと言うソフトウェアに依存するRAIDを捨て、コモディティ化したハードディスクしか採用していません。

これに対して、楽天を初めとしたネット企業の技術の大半は、Oracleであるとかマイクロソフトであるとかと言う企業に首根っこを押さえられているのです。例えOSSを採用していても自らその技術をコントロールできるわけではありませんので、結果は同じです。

つまり、Googleの技術をサーチの技術と見なすと本質を見誤ると言うことです。

この技術があるからこそレイヤーを「縦に切る」ことができるのです。

ここで言うレイヤーは、今まで何度も取り上げてきたKAIモデルのレイヤーと、結果的に共通した概念になります。KAIモデルによるこれからのソフトアセットとは、より上位のレイヤー「業界」の大半の機能を、一番下位のレイヤーまで一気通貫で実現することであると言う考え方です。この考え方の意味はまた別の機会に説明したいと思いますが、いずれにせよレイヤーを「縦に切る」ためには、それぞれのレイヤーにおける要素技術を押さえていないことには話しにならないと言うことです。一見アプリケーションというものはその表面的な仕様(いわゆる外部スペック)と呼ばれる技術を押さえていれば実現できそうに思えるのですが、全くそうではありません。

以前江島さんのBlog「データの連続性とプロセスの非連続性」に対して、以下のようなコメントをしました。

アプリケーションという抽象的概念は、プログラムという実装で、解釈という多義性を免れることができます。同様に、プロセスやデータのモデリングも、プログラムの実装抜きでは単なる言葉の遊びに過ぎません。

また、プログラムの実装は、そのプログラムを動作させるためのハードウェアおよびソフトウェアの仕掛けあるいは性能に依存し、よってその制約を厳しく受けることになります。それがまた、抽象化の概念に跳ね返り、モデリングの概念を規定することになります。つまり、モデリングとはそれ自身が単体で存在できるわけではなく、その実装技術に強く依存しており、結果、技術の進歩の影響を、良い意味でも悪い意味でも強く受けることになります。

このことは別の言い方をすると、アプリケーションの変化の直接的原因が、人間系にあるのではなく、実装技術を支える基盤技術(これを私はアプリケーションの最適環境と呼んでいます)側の変化にあることを意味していると言えます。

人間系が原因だと考える立場の人は、世の中の変化や経営状況が外部要因となってアプリケーションに新たな機能が追加されたり、逆に機能不足になると考えがちです。はたして、そうでしょうか。

業務系のアプリケーションの必須要件は、データの一元管理とリアルタイム処理であると、私は常々申し上げてきましたが、これを実現するのはたやすいことではありません。同一エリア上ならそれほど問題にならないものが、多地点、複数拠点で業務を行おうとすると、たちまち技術上、経済上の制約を受けることは今更説明の余地はないでしょう。つまり、今までのアプリケーションというのは、結局、ユーザーのニーズを100%満たすようなものはほぼ存在せず(予算が潤沢な団体は別にして)、今回のインターネットの普及に伴うような「最適環境」の劇的変化に遭遇して初めて、たちまち本来のニーズに向けた開発が始まるというのが、実相ではないでしょうか。

ここで言うところの「最適環境」自体を、自らの力で構築できる技術を持っているのと、持っていないのでは天地ほどの開きがあります。

最終的にYahoo!がこの認識でいるのかどうかはまだ疑わしいところがありますが、この観点から見ると自ずと生き残るネット企業がどこか分かるような気がします。 KAI