Uso de lg̤ica difusa como estrategia para evaluar la confianza y accesibilidad de los DataSet publicados en SPARQL Endpoints
La web semǹtica ha proporcionado herramientas como Linked Data, la cual ha permitido adelantar procesos de vinculacin̤ de datos abiertos. De cara a la creciente publicacin̤ de datos abiertos, se encuentran los retos de calidad de los datos vinculados, requerimientos vitales para el bene...
Saved in:
| Other Authors: | , , , , , |
|---|---|
| Format: | Book |
| Language: | Spanish |
| Subjects: | |
| Online Access: | Uso de lg̤ica difusa como estrategia para evaluar la confianza y accesibilidad de los DataSet publicados en SPARQL Endpoints |
| Tags: |
Add Tag
No Tags, Be the first to tag this record!
|
| Summary: | La web semǹtica ha proporcionado herramientas como Linked Data, la cual ha permitido adelantar procesos de vinculacin̤ de datos abiertos. De cara a la creciente publicacin̤ de datos abiertos, se encuentran los retos de calidad de los datos vinculados, requerimientos vitales para el beneficio de los consumidores que deseen utilizar los datos publicados. Para abordar estos retos, se han generado modelos y herramientas que permiten evaluar la calidad de los datos. Una gran parte de estas herramientas basan su quehacer en la medicin̤ de variables haciendo uso de modelos matemt̀icos tradicionales, restringiendo la valoracin̤ misma de la calidad. Este artc̕ulo se orienta en proponer un mťodo de evaluacin̤ de datos abiertos bajo especificaciones Linked Open Data, publicados en SPARQL Endpoints, mediante la implementacin̤ de un modelo basado en lg̤ica difusa. Este modelo permitir ̀comparar los modelos tradicionales de evaluacin̤ sin la necesidad de restringir los aspectos de calidad con los que se puede medir. Finalmente se presentan los resultados obtenidos y trabajos futuros.1. Introduccin̤Tecnologa̕s de la web semǹtica, tales como Linked Data, soportada sobre la filosofa̕ de Open Data, han venido incursionando cada vez con ms̀ fuerza en los procesos de publicacin̤, distribucin̤ y consumo de datos en la web [1]. Haciendo uso de dichas tecnologa̕s, el cargue y actualizacin̤ de datos en la web se ha vuelto una labor un poco ms̀ fc̀il. Estas actividades pueden ser realizadas por cualquier tipo proveedor, sea este individuos, pequeǫs grupos de personas, organizaciones educativas, sitios de redes sociales e incluso organismos gubernamentales [2]. Dada la gran variedad de proveedores de datos, la vinculacin̤ de datos abiertos ha crecido de manera exponencial, pasando de 12 DataSet publicados en 2007, a cerca de 300 en 2011, y 9,960 DataSet en 2016. Datos acumulados de tres de las principales colecciones de DataSet disponibles al pb͠lico: data.gov, publicdata.eu y datahub.io [3].Con este crecimiento de Linked Open Data (LOD), surge la necesidad de establecer estrategias o herramientas que permitan evaluar y gestionar la calidad de los datos publicados en la web. Lo anterior dado que en estudios como [4] y [5] la informacin̤ proporcionada por la mayora̕ de los recursos publicados en la web no posee una estructura adecuada para el proceso de vinculacin̤, adems̀ de presentar desafo̕s en cuanto a informacin̤ relevante para ser consultada sobre los recursos vinculados.Con base en estos desafo̕s, diferentes investigaciones han identificado variables a evaluar en los procesos de vinculacin̤ de datos, tales como seguridad, estabilidad, rapidez y precisin̤ [6]. Teniendo en cuenta que la calidad es un concepto muy subjetivo, no se puede definir de una sola manera por un simple juicio [2, 6]. Bajo este contexto, Tim Berners-Lee estableci ̤un esquema tčnico de publicacin̤ LOD en 2011 basado en 4 principios [7]:- Usar URI para nombrar cosas u objetos conceptuales.- Usar URI HTTP que sean interpretables por humanos y mq̀uinas.- Proveer informacin̤ t͠il acerca de cada URI en algn͠ estǹdar de la web (p. ej. RDF).- Crear links entre URI. |
|---|---|
| ISBN: | 2619-6581 (versin̤ electrn̤ica); 1794-4953 (versin̤ impresa) |