さんざん梅田さんのBlogで議論してきた内容ですが、久しぶりにCNETの記事「いま明かされる、グーグル・データセンターの秘密」から。
Googleは、比較的低価格のマシンを大量に購入することで、通常なら数千万ドルもかかるようなコンピュータインフラを、わずか数百万ドルで構築してしまった。この方法を選んだのは、ハードウェアのコストを検討していた同社のエンジニアが、強力なプロセッサを8基以上搭載するようなハイエンドサーバを数台購入するのに比べ、もっと簡単なつくりの「コモディティ」サーバを何十台も購入するほうが、はるかに安上がりなことに気付いたからだ。
このアプローチを成功させるにはちょっとしたコツが必要になる。それは、数多くのサーバをうまく連動させ、あるマシンで障害が発生しても、クエリに対する検索結果の表示や広告の表示といった業務に支障がでないようにする、ということだ。
これについては筆者も以前のエントリーで詳細をレポートしていますのでご覧いただければと思います。
このCNETの記事に呼応するかのように、先週金曜日にYAHOO!がサーバー障害を起こして、YAHOO!メールを初めとした各種機能が利用できない状態が続きました。
YAHOO!の問題点について、以下のエントリーで何度か取り上げています。
YAHOO!の技術的バックボーンの詳細は明かではありませんが、Googleのサーバーの仕掛けと違ってごく一般的なWebサーバーの仕掛けを利用しているとすれば、YAHOO!の技術陣は今後この問題に対して相当性根を入れて取り組まなければ、こう言ったサーバー障害を根絶することは不可能です。
具体的に言えば、インターネットのサーバーを支えるハードウェアおよびソフトウェア、さらに個別のアプリケーションにおいて、耐障害性に対するアーキテクチャをどう設計するか、この1点に問題解決の方法は集約されると、筆者は考えています。
これは、先日からの話題である、自己組織化するアプリケーションを設計するためのアーキテクチャの話しにも通じる話であり、ここにきて世の中の技術の流れの必然性、共時性をいやでも痛感せざるを得ないと言う状況です。 KAI
コメント