「IT業界とカタカナの乱用」の中で、ビッグデータという流行語については、まだきちんとした定義がなされておらず、その概念も一般に共有化されているとは言い難いのではないか、と書いた。
このビッグデータという用語は、その後も盛んに使われて、今や業界紙や一般紙の記事で目にしない日はない。
従って、概念の共有という観点では、一般の人々にも認知された用語になってきたと言えそうである。
しかしながら、用語の意味定義という観点ではどうであろうか?
これだけ使われているのだから、意味定義においても、以前よりは明確になってきているのではないか、と思いきや、決してそうではない。
今もかなり漠然としている、というか、それが語られる文脈によって意味に相当の揺らぎがあるように感じる。
ビッグデータというのが、単純に、「大量データの処理」を指すのであれば、これは何も今に始まった話ではない。
そもそもコンピューターは昔から大量データを処理する目的で使われてきた。
例えば、国民年金や厚生年金などの年金処理。
私の記憶では、1970年代、当時の電電公社で汎用機によるデータ処理が進められていた。
全国の年金対象者について、毎月の保険料納付額や支給金額の履歴、資格要件や資格の変更履歴などを管理していたから、今の尺度で見ても大量データであったと思う。
一方、ビッグデータの定義として、「大量データ」という要件だけでは不十分で、収集したデータに対して、統計解析やマイニングなどの処理を施し、データ間の相関関係などを分析し、そこから知見を得ることを要件にしているケースがある。
しかし、これなども、嘗てCRMなどの流行語で語られてきたシステムとほとんど変わらない。
大量データを対象にした統計解析に重きを置いて語られるとき、最近はデータ・サイエンティストという用語も良く目にするようになった。
データ・サイエンティストも最近の流行語だと思われるが、このスキル定義も曖昧である。
そもそも、IT人材のスキル定義としては、「共通キャリア・スキルフレームワーク」があり、その具体化としてITSS(ITスキル標準)が有名であり且つ日本における実質的な標準であるが、ITSSにもデータ・サイエンティストなる人材像は存在しない。
ITSSにも定義されていない人材像が、現在最も重要なスキルであるように語られるのは妙な話である。
もっとも、変化の激しい業界であるから、ITSSが変化に追随できていない、という見方もできないわけではないが・・・。
データ・サイエンティストというのが、統計解析などの知識をもとに、実データを分析して新たな知見を引き出すスキルを指しているのであれば、これも実は今に始まった話ではない。
DWHやBI、CRMなどの用語が流行ったころにも注目されていたスキルである。
ビッグデータの要件として、リアルタイム性を付け加えて語られることもあるようだ。
最近の例では、プライバシー問題で話題になった、駅改札から収集したデータの分析がある。これは、駅改札の入札データを収集してマーケティングなどに活用しようという目論見である。
主要都市各駅の入札データをリアルタイムに分析しようとすると、これは相当の計算機パワーが必要になると想像できる。
しかしながら、大量データをリアルタイムに処理するという観点では、銀行のATMの処理や、証券会社のシステム(証券取引所への自動発注や、取引所からの株価情報の分析)など、これも以前からあった計算機処理の分野である。
こうしてみると、ビッグデータというのは、従来からある計算機処理の分野の、かなり広い範囲をカバーした用語であるとともに、DWH、BI、CRMなど過去の流行語の焼き直しという側面もある。
このように広範囲かつ定義が曖昧な用語であるから、ビジネス分野の計算機処理は、何でもビッグデータの実例になり得るのではなかろうか・・・・。
|