Jump to content

vxon_kitt

+Premium Members
  • Posts

    125
  • Joined

  • Last visited

Everything posted by vxon_kitt

  1. ¿Acaso hace falta que haya más actividad? Lo que hace falta es que la gente practique geocaching fuera de su casa!!
  2. Que todo sea así. Yo recuerdo aún el día que poco después de meter la rueda de mi viejo Seat Toledo en una alcantarilla sin tapa y ser rescatado por la grúa, me fui a hacer unos cachés en la zona del embalse de Valmayor, y cuando acabé y regresaba a casa por la carretera, me empezó a perseguir con el coche un individuo de presunta naturaleza homosexual que se pensaba que en lugar de geocaching estaba jugando al "cruising". La verdad es que fue bastante estresante, tipo thriller.
  3. Tienes razón, es muy complicado fijar un límite tanto temporal como de número de cachés. Al final, cuando ya se tiene una cierta experiencia en este mundillo, a veces es posible darse cuenta si el caché en cuestión es una birria, puede merecer la pena, o tiene pinta de ser una obra maestra. Pero tampoco eso es infalible, claro.
  4. Efectivamente, parece más que razonable haber encontrado un cierto número de cachés antes de publicar un caché. Además, para evitar registros ficticios, también estaría bien poner un "periodo de carencia" de un tiempo prudente.
  5. Es la traducción on line de lo que le habian contestado a omortsoN por si le servia de algo. Ah, ok, no me había enterado.
  6. Así que tú eres el responsable de que la red del IGN se colapse cada dos por tres... Vamos a tener que pedirle a los de Washington un "sillín electrocutante" para poner a buen recaudo a ciertos sujetos ;-) (digo lo de sillín porque aquí somos más pequeñitos que en USA, de hecho todo es más pequeño que allí).
  7. Podríamos acabar incluso en la silla eléctrica.
  8. La verdad es que es un texto bastante árido, tiene aspecto de contrato en toda regla, pero en fin, habrá que mirarlo poco a poco, a ver si entre todos sacamos algo en claro.
  9. Gracias por vuestros comentarios y recuperar el hilo inicial.
  10. Bueno, tal como dije no quería molestar a nadie y simplemente di mi opinión, y ya sabes que cuando alguien opina, está ejecutando un acto plenamente subjetivo. Estoy de acuerdo contigo en que sería mejor abrir un post aparte por si hay interesados en llevar a cabo el estudio que planteó inicialmente omortsoN a imagen y semajanza de los compañeros portugueses. Y efectivamente, he revisado la triangulación de Delaunay y a falta de saber cuál fue el error en los cálculos, he obtenido que hay 686 cachés cuyas coordenadas publicadas están por debajo de los famosos 161 m. En el análisis del año que viene veré cuáles de estos no son cachés de tipo unknown y buscaré ejemplos como el del acantilado que justifiquen la relajación de la norma. Gracias por darte cuenta del error!
  11. Lo que te ha dicho y nada es más o menos lo mismo. Además, se cae con todo el equipo cuando te dice que no es fácil de explicar (¿acaso lo ha intentado?) Sin ánimo de ofender a nadie, mucho me temo que la disposición de los colegas portugueses puede ser francamente mejorable.
  12. Si te encargas tú de llevar la dirección del asunto, yo puedo ayudarte con la traducción al inglés.
  13. Estoy intentando entender los posts de Mr. RA, pero no me queda muy claro qué es lo que intenta transmitirnos con ellos. Si fuera tan amable de explicárnoslos, lo agradecería.
  14. Efectivamente, las coordenadas de los cachés con que he trabajado son las procedentes de las pockets queries, y en el caso de los cachés de tipo unknown serían, naturalmente, las coordenadas publicadas, que en el caso de los cachés de la plaça de Catalunya de Barcelona, adoptan esa disposición hexagonal, aunque luego no haya ningún contenedor físico en ese lugar. El análisis de estos datos no permite hacer otro tipo de cálculos. Pero lo que sí he analizado y muestro en el documento, es que aparte de estos cachés unknown, no hay ningún otro caché en España que diste menos de 161 m del más cercano, al menos, con las pocket queries en la mano y si la triangulación de Delaunay que ha hecho Quantum GIS es correcta, que a lo mejor no lo es tanto ;-), o bien, existe otra posible triangulación con una geometría diferente. Por supuesto, en el caso de acantilados y lugares similares, parece más que razonable no considerar arrajatabla la norma de los 161 m. Y nada, gracias por tus comentarios, y Guadalajara estará encantada si sus cachés reciben vuestras visitas aunque vengáis de lejos... porque está claro que la de los geocachers habituales en la zona centro, parece que no va a llegar, al menos de momento. ;-) Es importante elegir bien la fecha, porque en verano, es poco recomendable peregrinar por tierras mesetarias. Sin duda, el final del otoño, todo el invierno y la primera parte de la primavera son las épocas mejores, donde uno puede disfrutar de la evolución del paisaje vegetal paso a paso. Saludos.
  15. La 13.2 la puedes bajar de aquí: http://www.bluemarblegeo.com/global-mapper/product/download_complete.php pero es una versión incompleta, de evaluación.
  16. El tema de las APIs tiene que ser muy interesante y permitir muchas opciones. Yo solo lo utilizo en GSAK para generarme las estadísticas y la verdad es que lo hago de una manera automatizada sin ser demasiado consciente de cuál es la finalidad de los pasos que doy. Estaría bien buscar por ahí a ver si hay algún hilo donde se expliquen cómo funcionan las APIs con detalle. Pero de ahí a poder saber las DNFs que tienen todos los geocachers de un país... hay un abismo. Sobre todo, porque lo primero sería saber cuáles son los geocachers de un país. Ese primer paso es, definitivamente, el que no entiendo cómo se puede dar. Porque en principio, no hay ninguna asociación "descargable" de ese dato. Es más, tampoco sería sumamente relevante desde mi punto de vista, pues un geocacher puede tener su "home location" en Madrid, como es mi caso, y tener la inmensa mayoría de sus cachés en Castilla-La Mancha, p. ej. Pero en fin, si averiguas algo al respecto y podemos implementar el servicio en las estadísticas del año que viene, bienvenido será.
  17. omortsoN, respecto a lo que preguntas: Partimos del fichero resultante de la unión de las pocket queries en formato shapefile. El paso de GPX a SHP ha sido corregido en las últimas builds de Global Mapper, pues en la 13.0 producía una serie de errores. En la 13.2 aparentemente funciona bien. También tenemos que utilizar el fichero de entidades territoriales de que se trate: ya sean municipios, provincias, hojas del MTN50, etc. Este fichero también será un shapefile con los campos de interés, p. ej., el número de habitantes. Otros campos, como la superficie del municipio se pueden calcular directamente con Quantum GIS, pues las entidades territoriales serán polígonos. A continuación se plantean dos alternativas. La primera es asignar a cada caché el municipio o la entidad que sea que le corresponde. Esta operación se hace en Quantum GIS intersectando la capa de los cachés con la capa de los municipios. Para ello hay que ir a "Vectorial \ Herramientas de geoproceso \ Intersección", y obtendremos un nuevo shapefile en el que para cada caché constan los campos adicionales relativos a la tabla de municipios o la que sea, en la que cae cada caché. La segunda es contar cuántos cachés quedan en cada entidad territorial. Para ello iremos a "Vectorial \ Herramientas de análisis \ Puntos en polígonos", y esto lo que genera es un campo adicional en la tabla de entidades territoriales con que estemos trabajando, que por defecto se llama CTAPTO, en el que se incluye el número de puntos -en este caso cachés- que quedan dentro de cada entidad. A partir de ahí ya se pueden generar cálculos con ese campo sencillamente, como la densidad de cachés por superficie, etc., y posteriormente exportar el fichero DBF asociado al SHP a formato Excel (para corregir tildes, eñes y demás caracteres raros) y generar cálculos más avanzados mediante tablas dinámicas o gráficos. Espero que te haya servido de ayuda lo anterior. Saludos.
  18. Por supuesto, si vuestro pueblo no aparece en las estadísticas que se muestran en el documento y queréis conocer datos a modo de ranking o demás, comentadlo y hurgo un poco en las tablas, que para eso están.
  19. A ver si esas provincias con riquezas naturales abundantes, como Ciudad Real, remontan un poco, sí, la verdad es que estaría bien dar a conocer sus encantos mediante el geocaching. En mi caso, poco puedo hacer, puesto que está demasiado lejos de mis dominios, así que de momento, seguiré concentrado en Guadalajara.
  20. Buenas, He visto el link que muestras sobre las estadísticas en Portugal y la verdad es que no sabría muy bien de dónde salen los datos que sirven para generarlas o cómo los procesan, y menos de forma automática. El conjunto de procesos que he seguido son bastante manuales. Básicamente se parte de unas pocket queries y de datos cartográficos en formato vectorial. Las pocket queries se "maquillan" previamente (con Textpad, que permite automatizar macros de forma deliciosa) para evitar algunos errores de interpretación y posteriormente se genera un fichero shapefile a partir de Global Mapper (se ha utilizado la versión 13.2). Ese fichero shapefile se importa con Quantum GIS 1.7.4 (que desgraciadamente tiene a día de hoy algunas limitaciones, aunque como contrapartida, es un software gratuito bastante potente), y se hace el cruce del fichero con otros datos vectoriales, como límites provinciales, de municipios, etc. El siguiente paso es la creación de nuevos atributos para las tablas que se generan, en algunos casos directamente con Quantum GIS, como p. ej., para calcular la superficie de los polígonos de Voronoi, y en otros, con Excel 2007, como en los casos que se ha utilizado la función BUSCARV para asignar un valor a otro elegido de una matriz. El problema de Excel es que no permite guardar los atributos que se crean en los propios ficheros DBF, así que hay que utilizar Access 2007, que también provoca algunos problemillas. Finalmente, la gestión y representación de los mapas de coropletas mediante Quantum GIS es un asunto muy sencillo de ejecutar. Respecto a la automatización de estos procesos, tal como los he implementado, distarían mucho de ser automatizables, al menos mis rudimentarios conocimientos no darían para mucho en este sentido. En cuanto a las estadísticas por ubicación de geocachers, en las pocket queries solo hay referencias a los cachés, pero no al perfil de los geocachers, así que tampoco se podrían generar con estos datos. Lo que se podría hacer es ver para cada geocacher cuántos cachés tienen en cada comunidad autónoma, provincia o municipio, y clasificarlos por fechas, por tamaños, etc. Todo eso se haría mediante tablas dinámicas en Excel. Una cosa que he echado de menos en las pocket queries es que podría constar en ellas el número de finds, DNFs, y demás tipo de atributos que pueden tener los logs de cada cachés. Así se podrían haber hecho estadísticas ordenando las provincias por número medio de DNFs que tienen sus cachés, p. ej., o cuáles son los cachés que más registros de mantenimiento por el propietario tienen, etc. En cualquier caso, como esto no es igual explicarlo en un foro que verlo en persona, te animo a que si vienes a Madrid alguna vez, me avises y si quieres te puedo enseñar sobre un PC algunas de las cosas que he comentado. Saludos.
  21. Hola a todos, Os dejo un link desde el que os podéis descargar un documento PDF en el que he estado trabajando las últimas semanas y que analiza mediante estadísticas básicas algunos aspectos sobre la situación actual del geocaching en España. Al mismo tiempo también dedico una buena parte del trabajo a exponer las tareas que he llevado a cabo en la provincia de Guadalajara mediante la creación de las series Deep Alcarria y compañía. PDF_Estadisticas 2012 Saludos.
  22. Pero al final te acabarás contaminando y escribiendo burro con v y "vamos ha ver" y cosas de esa índole. Por no hablar de las fotos spoiler tomadas con el móvil a 30 cm del caché... aunque esto se sale un poco del asunto del post.
  23. No envidio nada vuestro trabajo. Si me pongo ya de mala leche como usuario cuando veo una descripción llena de errores ortográficos, no sé cómo me controlaría si lo tuviese que leer como revisor. Y lo que definitivamente no mola nada es esa manía que muchos tienen sistemáticamente de copiar y pegar lo que encuentran por ahí en internet en las descripciones de los cachés. Estoy convencido de que la mayor parte de esos textos no se los ha leído ni siquiera el que los ha cogido por ahí de internet y los ha copiado y pegado en su caché.
×
×
  • Create New...