トラブル。

 何年も前に先輩が導入したシステムで、正式納品直前にこちらが行うべきだったデータ精度点検を大した理由もなく省略していたところ、今週になって信頼性に大問題が発生してしまった。外部からの指摘で担当者が気付いたらしいのだが、稼動開始から今までそのシステムで作成したデータを関係各方面に配布してしまっているし、今も毎日膨大な量の件数が出力されている。
 初期対応のためのヒアリングでは、稼動当初から同じような指摘を複数受けつつも、システム対応を行わずその場しのぎの対応で済ませていた実情がわかってきた。
 可能な限り早期にデータの精度を要求水準まで引き上げなければならない。ところが、データ生成から出力にいたるあらゆるステップでほぼ確実にデータ精度が劣化する仕組みであること、しかも現場の担当者ではその問題が事実上無視されていたこと、さらにデータ精度は常に完全を要求されることも明らかになってきた。つまり今までは誰も気がつかなかっただけでひたすら要求データによく似たゴミデータを吐き出していただけということになる。こんなシステム、本当に意味あるのか…?
 当該課の課長はデータの重要性は理解していてもシステム運用上の制約については目をそむけ、来週早々には必ずデータ精度を100%問題がない状態にするようにと怒鳴るだけ。
 ベンダからは現行の出力プロセスに、データ精度が要求される点に近くなるよう補正をかけるルーチンを挿入することを提案してきた。それではデータ精度の向上は全く望めない。
 元データ自体は数万件あるが、これを再度生成し直せば精度の底上げができる事が分かっている。しかし作業には膨大な数の人手と機材が必要だ。
 なぜ正式稼動前のデータ点検を行わなかったのだろうか?
 明日、状況を整理して当該課長に説明を行う予定。