青山システムコンサルティングのコンサルティングコラムです

TEL:03-3513-7830|お問い合わせ

コラムカテゴリー:

 一昨年の年末のメルマガでIT業界のトレンドを「仮想化」、「クラウドコンピューティング」、「IFRS対応」で始まり、「スマートフォン」で終わるというふうにお伝えしました。「IFRS対応」は震災の影響もあり適用年度が先送りされ、やや冷めた感がありますが「仮想化」や「クラウドコンピューティング」は当たり前の技術として定着してきたようです。
また「スマートフォン」も2015年末には携帯電話市場でのシェアが50%を越えるまでになると予想され、個人の趣味のレベルから今後はビジネス分野への適用が本格化すると考えられます。
これらに加え、昨年からは「ビッグデータ」というキーワードが加わりました。
今回は「クラウドコンピューティング」と「ビッグデータ」についてのトレンド解説をしてみたいと思います。

1)クラウドコンピューティング

導入期間の短さと利用料金の安さから、SaaS、PaaS、IaaSなどの各種サービス体系でIT業界の一世を風靡しているクラウドコンピューティング。インターネット経由で誰でもどこからでもアクセスできる「パブリッククラウド」と企業内あるいは企業グループ内での閉じたネットワークで利用する「プライベートクラウド」に大別されますが、電子メールやドキュメント管理などの情報系システムは「パブリッククラウド」、高いセキュリティーやサービスレベルが求められる基幹業務システムは「プライベートクラウド」でという利用のされ方が主流のようです。
しかしながらプライベートクラウドは大企業やその企業グループで利用しなければ割高になるため、IT費用を極力抑えたい中堅・中小企業や市区町村などの官公庁のシステムでは「パブリッククラウド」を利用する方が多いようです。
昨年にはいくつもの市区町村のクラウドコンピューティングによる電子申請システムでDDos攻撃により、電子申請ができなくなった事故が記憶に新しいですが、コストの安さとセキュリティーのトレードオフはパブリッククラウドにおける永遠の課題です。
またクラウドコンピューティングは仮想化技術により、システム障害時のフェイルオーバー(代替)機能が提供されていることが多いため、東日本大震災以降BCP対策として導入されることもあるようです。
いづれにしても特殊なハードウエアが必要なシステムを除いて、将来にわたって世の中の情報システムがクラウド化されていきITシステムが資産からサービスに転換されていく流れは間違いないと思います。

2)ビッグデータ

Wikipediaによれば「ビッグデータ」とは通常のデータベース管理ツールなどで取り扱う事が困難なほど巨大な大きさのデータの集まりのことで、その格納、検索、共有、分析、可視化などに困難さを伴うとあります。
もう少し厳密にいえば、「ビッグデータ」の定義にはデータの多様性、すなわち、RDBMS(リレーショナル・データベース・マネジメント・システム)の表に納まる数値や文字列などの構造化データだけではなく、文書、イメージ、グラフ形式データ、センサー・データなどの非構造化データを含むとされることが多いようです。
さらに、データのリアルタイム性を「ビッグデータ」の要件に加えることがあります。つまり、「ビッグデータ」にはVolume(量)、Variety(多様性)、Velocity(速度)という3つのVの要素が関係しています。
巨大なデータを、高度なデータマイニング手法によって深く分析し、その結果を活用する。そうすることで、専門家でさえ気づかない事象の変化への対応や、人を介さない意思決定が実現可能になります。超並列スーパーコンピュータにより地球上のさまざまな気象データを分析し、各地の気象を予測するというのもビッグデータを活用する一例です。
ビッグデータを活用するためには、HadoopやNoSQLなどの超並列バッチ処理が行なえるテクノロジーも必要ですが、IT、ビジネス、そして、データ分析の知識を兼ね備えた「データサイエンティスト」と呼ばれる人材が不可欠となります。 マッキンゼーの調査によれば、米国では10万人以上のデータ分析専門家が不足しているとのレポートがあります。
「ビッグデータ」の価値を将来にわたって享受していく上でボトルネックになるのはテクノロジーよりもやはり人的要素となるようです。

この投稿をシェア

2011年11月01日 (火)

青山システムコンサルティング株式会社

谷垣 康弘(元会長)