2012/10/06

一億件

朝から一億件で遊んでました。

以前DB2の性能テスト用に作った大量データがMacに入っているなぁと思い出して、久しぶりに起動してみました。
データ件数 約1億件
データサイズ 約50GB
手始めに軽い気持ちでREORGCHK(データの断片化具合をチェックする)コマンドをたたいてみると、これが30分ぐらいかかって驚いた。
REORGCHK中 頻繁なディスクI/O
select count(*) from ...(データ件数を数える命令)も60秒ぐらいかかる。
何をやるにしても50GBデータへのディスクI/Oが発生してレスポンスが悪い。

これが、今お仕事で使わせてもらってる?億円のサーバーだと、どちらも1秒たらず。
もの凄いテクノロジーでもってディスクI/Oが最小化されてたり、他の要素も最適化されてたりする結果なんだろうなぁ。

パソコンの感覚ではサーバー・サイジングはやれないって思いました。

以上








0 件のコメント: