Один из наиболее приемлемых вариантов оценки качества публикуемых данных — создание метаданных (данных о самих данных), где помимо специальной географической и описательной информации указывались бы такие характеристики, как точность, качество, надежность. Однако смысловая "относительность" перечисленных характеристик, с одной стороны, и многообразие стандартов метаданных, сложность их получения в автоматическом режиме и особенно субъективность при описании качества данных[См., например, Grade Finale Report (edina.ac.uk/projects/grade/GRADE_Final_Report.pdf, Do spatial data consumers really understand data quality information?; www.spatial-accuracy.org/2006/PDF/Boin2006accuracy.pdf, Spatial Data Quality By Wenzhong Shi, Peter F. Fisher and Michael F. Goodchild (Eds).Taylor and Francis, London and New York, 2002).] — с другой, не позволяют в полной мере решить проблему оценки качества публикуемых материалов.
В 2007 году Open Geospatial Consortium Data Quality Working Group (WG)[ www.opengeospatial.org.], осознавая трудности, связанные с разработкой универсального стандарта метаданных, предпринял уникальную попытку обобщить опыт, знания и экспертные мнения в области оценки качества пространственных данных.
Более чем двум тысячам специалистам в области ГИС и ДЗЗ по всему миру было предложено заполнить специальную анкету[www.surveymonkey.com/s.aspx?sm=_2ffWZCQbm2ugKS_2fW8A0MWIQ_3d_3d.] и изложить в достаточно свободной форме то, какие параметры могут быть использованы для оценки качества геопространственной информации и каким образом эта оценка может быть описана в метаданных.
Некоторые попытки по совершенствованию механизмов описания качества данных были предприняты и такими инициативными группами, как GSDI Association, CGIAR и INSPIRE. Тем не менее до сих пор метаданные являются абсолютно добровольным элементом подготовки и распространения геоданных. Большинство компаний далеко не сразу приходят к пониманию важности документирования состояния данных, и ситуация в целом остается довольно-таки печальной: чаще всего пользователь ничего не знает о качестве используемых им данных.
Авторские права и юридические аспекты
Авторские права, пожалуй, одна из самых болезненных проблем для современного веб-сообщества, не обошла она и пространственные данные. В настоящее время законодательство в области их распространения столь фрагментарно, что большинству компаний приходится действовать по принципу "все или ничего" — данные либо хранятся за семью замками в серверной части, доступной по внутренней сети ограниченному числу сотрудников компании, либо публикуются в Интернете и дальше уследить за их судьбой становится очень трудно, а чаще всего — вообще невозможно. В связи с этим компании следуют принципу "ничего" и просто-напросто не публикуют свои данные.
Более того, растет число картографических веб-сервисов, позволяющих:
1) объединять слои данных из различных источников;
2) модифицировать сами данные;
3) создавать собственные данные на основе опубликованных, и для каждого случая вообще-то необходимо определять правообладателя и особенности дальнейшего распространения и использования информации. К настоящему моменту ни один из перечисленных случаев юридически не урегулирован, что вызывает негодование поставщиков данных. Интересный анализ этой проблемы и возможное решение предложил Онсард (Н. J. Onsurd)[www.sli.unimelb.edu.au/research/SDI_research/Presentations/CommonsAndMarketMelbourne.ppt.]. Главная идея здесь сводится к созданию единой peer-to-peer системы хранения, добавления и доступа к данным с использованием Open Access Licenses (аналог GNU для ПО).
С веб-картографией, в широком понимании этого слова, связана масса перспективных технологий. Остановимся на некоторых из них, имея в виду, что помимо простой визуализации и создания данных, пожалуй, самым новым аспектом работы с пространственными данными является перенос в веб их обработки и анализа. Это становится возможным благодаря развитию инструментария, легко размещаемого на веб-серверах: как открытого GDAL, PROJ, GeoTools, FDO, так и проприетарного ArcGIS Server.
Cloud processing
Развитие арендуемой системы распределенной обработки данных в Сети E2/E3 Amazon AWS ("облако вычислений") открывает интересные перспективы всем технологиям, связанным с большими объемами данных (исходные "реальные" данные дистанционного зондирования Земли имеют объем, исчисляемый терабайтами за сеанс).
Amazon в этом случае выступает с инициативой, отличной от уже привычного подхода других компаний (Google, Microsoft, Yahoo), сосредоточившихся лишь на доставке графических данных конечному пользователю.
Использует "облако" E2/E3 и фирма WeoGeo, которая одной из первых начала использовать "облачную технологию" в применении к геопространственным данным.
Буквально на днях стало известно, что туда же, в "облако", с учетом опыта WeoGeo, переходит и Spatial ETL (разработка компании Safe Software), что означает реализацию распределения нагрузок не только по доставке, но и по конвертации огромных массивов геоданных. Другой интересной, но пока еще не используемой широко технологией параллельных вычислений являются системы, подобные Digipede или opensource-системе распределенной обработки Hadoop.
Анализ данных
Современные средства позволяют публиковать в вебе не только данные или их представления, но и переносить туда отдельные аналитические операции. Например, имея модель процесса, построенную с помощью ArcGIS, ее можно опубликовать с помощью ArcGIS Server и использовать в ArcGIS Explorer для обработки данных прямо в вебе[www.esri.com/news/arcwatch/0607/graphics/agexplorer4-lg.jpg.]. Простой пример — вы велосипедист и хотите проложить оптимальный маршрут по пересеченной местности; другой пример — вы домовладелец, и ваш дом расположен рядом с рекой, вы хотите знать, в каких границах разольется река при повышении ее уровня на N метров. В последнее время появляются и opensource-средства анализа данных, например WPServer (от создателей OpenLayers).