“IoTで260億の機器がネットに接続、データセンター管理が複雑化 – Computerworld”に、Internet of Things(以下、IoT)によって、膨大なデータとリアルタイム処理、それにデータの扱い方が大幅に変わるという話が出ていました。
これ、確かにそういうケースがないとは言いませんが、しかし、あまりにも特定ケースに偏りすぎているように思います。
IoTは生物(主に動物)の神経網みたいなものです。生物の神経はセンサーから常に膨大な情報を受け取っていますが、実際に反応すべき事項以外は脳につたえないし、脳に届いていたとしてもすべてを記録(記憶)するわけではありません。そして、このモデルは現在の一般的なコンピューター処理でも変わりません。そこにIoTでとれるようになったデータを追加するとしても、末端から順番に取捨選択と加工を繰り返しながら中央に集めていくのは変わらないプロセスだと思うのです(そうでないのなら、IoTにARMとIntelが構想しているようなインテリジェントなプロセッサーなど不要です)。
その捨てていた未加工データ(RAW DATA)を最近のコンピューターの処理能力の向上によって処理できるようになったので、それを使って分析を強化しようというのがビッグデータの流れですが、これは何もIoTだからというわけではありません。これらを混ぜて、片側の要素(この場合はIoT)として語るのは本質を踏み外すと考えるわけです。
また、IoTだといっても取る情報によってはそんなにデータ量がないケースもあります。例えば通過人数をカウントして1分なり10分なり1時間なりといった単位ごとにデータを集積するだけであれば、現代においてデータ爆発というようなデータ量ではありません。
したがって「IoTだからデータセンターの管理が複雑になる」という論調はちょっとずれていると思うんですよねぇ…。要はIoTをどう使うかです。場合によってはビッグデータ的な扱いもあるけども、それはIoTの本質ではないわけです。
そう考える私の結論は「混ぜるな危険!」です。