今回の震災で感じたGeo+Webの技術面の課題 Pt. 1

今回の震災で感じたGeo+Webの技術面の課題を記録し始めたいと思います。
あとで考えることができるよう、またあとで考えることができるきっかけとなるよう、ここに書いてみます。

情報の出口に関する課題

1ファイル10MBを超えるようなデータは分散配布を考えるべき

通常、Geo+Webの配布データといえば、数百KBくらいまでのタイルデータですが、災害時には、1ファイル10MBを超えるようなデータが大量に配布される場面が多いです。この場合、OSS の配布で通常行われているような分散配布技術が適用できると思います。例えば、Apache の配布で行っているようなミラーサイトだとか、もう少しラジカルには bittorrent みたいな方法とか。常識的な処方としてはミラーサイトだと思いますが、災害時に真に多くの人が時間を争って必要とするようなデータについては、bittorrent 的な技術の活用が考えられると思います。

もっとニーズに合わせた提示をすることができそう

やっぱり Ushahidi はすごいなと思っていて、今回、準備ゼロから?ものすごく効果的な Ushahidi サイトが構築されたと思っています( http://sinsai.info/ )。ものすごい量の情報が集まっていますが、自分の興味がある地区のインシデントを調べる以外の目的において、もっとニーズに合わせた情報の提示をすることができそうです。sinsai.info のインシデント情報は KML で公開されているよう ( http://sinsai.info/ushahidi/kml )ですから、提示の工夫をする課題は誰にでも解ける状態になっています。

リッチな情報に対応できる携帯端末があるのに、アプリがまだない

PDF や GeoTIFF で大量の情報が公開されていますが、iPadiPhone 等で快速に提示できる技術が未開発です。Geo系の情報は、iOS 標準のアプリには重すぎます。タイル化が必要です。Avenza PDF Maps というアプリ( http://www.avenza.com/pdf-maps )が内部でタイル化してくれますが、日本語対応や安定性に課題があります。

情報の分析に関する課題

提示の問題とも絡みますが、今回、前回の震災と比べて情報の収集及び提供については大幅な改善を見た一方、情報の提示に加え、情報の分析についてはまだまだ未開発なところが多いと感じました。今回の震災でどんな情報が提供され、それがどんなところで活かされて、その活用の場では本来どのように料理された情報が必要だったのか、理解していく必要があると思います。情報が活かされる場において relevant な情報を、timely かつ accurate に提供していく、という課題設定が必要です。

教訓を得るべき

被害の状況に立ち会ってしまったからには、この大きな負からできるだけの教訓を回収して後に残すことで正を得ていきたいと思います。それがこの大きな負への報いになると思っています。