Ratio: 0 / 5

Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado
 

Wikipedia logo red copyWikipedia se ha convertido en una fuente de información muy importante para la mayor parte de los usuarios de Internet, una primera referencia de la que echar mano en la red. Con más de un millón de artículos publicados, este enorme almacén de contenidos recibe unas 31 millones de visitas al día o 374 visitas por segundo ¿Buscas una respuesta?: Pregúntale a Google y Google te llevará a Wikipedia, esta enciclopedia libre y colaborativa siempre ocupa los primeros resultados de búsqueda.

Sin embargo ese carácter esencialmente colaborativo es un arma de doble filo: por una parte la enciclopedia se actualiza constantemente (300 artículos nuevos cada día) pero por otra parte se hace difícil garantizar la fidelidad y veracidad de la información publicada por los colaboradores.
El resultado es que existe una amplia variedad de artículos de buena calidad en más de 200 idiomas entre los cuales también se hallan entradas no contrastadas o de dudosa veracidad.
¿Cómo saber si un artículo es fiable en Wikipedia?
Esta pregunta que todos alguna vez nos hemos hecho puede tener repuesta gracias al trabajo realizado por Xiangju Qin y Pádraig Cunningham en el University College de Dublín en Irlanda. Estos informáticos han desarrollado un algoritmo que evalúa la calidad de las páginas de Wikipedia en función de la autoridad y relevancia de los editores que participan y la longevidad de las modificaciones que han hecho.

Wikipedia-algoritmo-calidad
Se parte de la premisa de que "Las páginas con importantes aportes de contribuyentes relevantes suelen ser páginas de alta calidad", argumentan los autores.
Qin y Cunningham utilizan un procedimiento lógico de revisión que comienza por analizar la longevidad de una publicación. La idea es que los artículos de calidad aguantan mejor el paso del tiempo y sobreviven mejor a las futuras revisiones.
El algoritmo también elimina las publicaciones fraudulentas de autores anónimos, reduciendo el impacto de las acciones maliciosas en la enciclopedia.
Después el algoritmo mide la autoridad de cada editor. En realidad Wikipedia cuenta con un número muy limitado de editores que hacen la mayor parte de las contribuciones (unos 225 en Wikipedia en español). Estas personas no sólo difunden conocimientos sino que ayudan a preservar las normas de la comunidad.
El nuevo algoritmo de Page Rank Iterativo, también analiza cómo se relacionan estos editores entre sí, presuponiendo que los autores más serios y experimentados también están más y mejor relacionados. Al igual que una página web más enlazada puntúa más alto en Page Rank, los autores más relacionados también tendrán una mayor autoridad.
Quin y Cunningham combinan estos parámetros de longevidad y autoridad para obtener una medida de la calidad del artículo.
Ya son más de 9000 artículos los evaluados por este método que según los autores mejora en gran medida los usados anteriormente para medir la calidad y veracidad de los mismos.
Conocer e identificar los artículos de mala calidad es fundamental para su retirada o revisión y corrección. Los colaboradores de confianza podrán realizar aportaciones y correcciones más fácilmente.
Gracias a esta herramienta será más fácil separar el trigo de la paja mejorando la enciclopedia en su conjunto.

Compartir en Menéame

Compartir

Submit to DeliciousSubmit to DiggSubmit to FacebookSubmit to Google BookmarksSubmit to StumbleuponSubmit to TwitterSubmit to LinkedIn

Artículos relacionados

Seguir

 

 twitter black google plus black linkedin blackrss blackkyoutube blackdelicious black pinterest black facebook black

Síguenos en Flipboard

Marketing Actual

Este sitio utiliza cookies para mejorar la navegación y mostrarle información comercial. Puede ampliar la información sobre nuestra política de cookies aquí. Saber más

Acepto