Más

¿Teniendo en cuenta los agujeros / restricciones en la creación de polígonos de Voronoi en QGIS?

¿Teniendo en cuenta los agujeros / restricciones en la creación de polígonos de Voronoi en QGIS?


Estoy tratando de crear polígonos voronoi en QGIS que considerarían "agujeros" en el dominio general. Un ejemplo sería:

De hecho, creé el Voronois en esta imagen usando QGIS a través del comando GRASS, luego usé la herramienta "Diferencia" para crear los agujeros. Se usó un shapefile de polígono separado, que contiene las extensiones de los agujeros, como la capa "Diferencia". Una aplicación de ejemplo sería la creación de polígonos alrededor de puntos de muestreo que se recopilaron entre estructuras que deberían excluirse del análisis.

Aquí surgen dos problemas:

  1. La función de "diferencia" no parece funcionar correctamente al 100%, con algunos límites de polígono que se extienden hacia los "huecos". Esto se puede solucionar buscando una fila en la tabla de atributos que no tenga un número de identificación de polígono (o una identificación de "0").

  2. Este tipo de "perforación" posterior al hecho puede resultar en polígonos discontinuos, como lo muestra la flecha roja en la imagen.

Mi pregunta es: ¿existe una herramienta o complemento de Voronoi que pueda considerar la presencia de "agujeros" en el centro del dominio, como un proceso de un solo paso, y también eliminar la generación de polígonos discontinuos? Imagino que tal herramienta extendería un límite de polígono hasta la intersección más cercana con otro límite, a menos que ese otro límite golpee primero contra un límite de "agujero".


Esto podría ser posible usando rásteres. Primero convierta sus puntos y polígonos de límites en un ráster de alta resolución. Establezca una máscara para sus límites usandor.mask. Entonces correr.grow.distanceen GRASS y use elValor = salida. Esto le dará por cada píxel, que es el punto más cercano. Convierta esto nuevamente en polígonos vectoriales. Es posible que se necesiten pasos adicionales para deshacerse de los polígonos astillados.


Ciertamente, esto es posible con rásteres.

Es de esperar que esta captura de pantalla muestre el problema con mayor claridad. La parte B del voronoi está más cerca 'en línea recta' del centro original del voronoi, pero esto no tiene en cuenta el hecho de que tomaría más tiempo caminar alrededor del edificio. Tengo entendido que la pregunta del OP es que el voronoi debe tener en cuenta esta distancia adicional para caminar alrededor del edificio.

Me gusta la sugerencia de @Guillaume. Sin embargo, cuando lo probé tuve problemas para conseguirr.grow.distancepara honrar la máscara (ver más abajo. Las ondas no deben atravesar los edificios).

Mi conocimiento de Grass no es tan fuerte como podría ser, así que tal vez esté haciendo algo estúpido. Definitivamente, mira esa sugerencia primero, ya que será mucho menos trabajo que la mía ;-)

Paso 1: crear una superficie de costos

El primer paso es crear una superficie de costos. Esto solo debe hacerse una vez.

  • crea una capa editable, agujeros y todo.
  • agregue un campo llamado 'unidad', configúrelo en 1.
  • usando polígono a ráster en su capa vectorial "perforada" (la que tiene los agujeros), usando el campo 'unidad'. Ahora tiene una capa "máscara", donde 1 es espacio libre y 0 es construcción.
  • use la calculadora de ráster para convertir esto en una superficie de costos. Estableceré "exterior" en 1 y "interior" en 9999. Esto hará que moverse a través de edificios sea prohibitivamente difícil.

    (("máscara @ 1" = 1) * 1) + (("máscara @ 1" = 0) * 9999)

Puede obtener resultados más 'orgánicos' agregando un poco de ruido a la superficie del costo (por ejemplo, use un número aleatorio del 1 al 3, en lugar de solo 1 para pxiels al aire libre).

Paso 2. Cree rásteres de costos acumulativos para cada centro de voronoi

Ahora podemos ejecutar (para una celda voronoi a la vez) el algoritmo GRASSr.cost.coordinatescontra nuestra capa superficial de costo.

Para la coordenada de inicio, use el centro vornoi. Para la coordenada final, elija una de las esquinas de su área. Sugiero usar 'Knights Tour' ya que esto da resultados más suaves.

El resultado muestra líneas de igual tiempo de viaje desde un centro de voronoi. Observe cómo las bandas envuelven los edificios.

No estoy seguro de cuál es la mejor manera de automatizar esto. Tal vez procesando el modo por lotes, o hecho en pyqgis.

Paso 3. Fusionar los rásteres

Esto probablemente necesitará código. El algoritmo sería

cree un ráster 'A' para que coincida con el tamaño de sus imágenes de costo acumulativo rellene el ráster 'A' con un número adecuadamente alto, p. 9999 crea una matriz del mismo tamaño que el ráster. para cada ráster de costo acumulado número 1… N para cada celda en la imagen si celda 

Ese enfoque debería producir un ráster en el que cada celda esté categorizada por el centro de voronoi al que esté más cerca, teniendo en cuenta los obstáculos.

A continuación, puede utilizar ráster a polígono. A continuación, puede utilizar el Generalizar plugin para eliminar los artefactos de efecto de "paso" del ráster.

Disculpas por la imprecisión en los pasos 2 y 3 ... Espero que alguien intervenga con una solución más elegante :)


Nota 1: No pude reproducir el problema propuesto porque el Diferencia La herramienta funcionó bien para mí en varias pruebas que realicé (tal vez fue debido a la geometría simple del problema o porque la herramienta ha sido mejorada desde que se hizo la pregunta hace 1 año).

Sin embargo, propongo una solución alternativa en PyQGIS para evitar el uso de Diferencia herramienta. Todo se basa en la intersección local entre dos capas de entrada (consulte la figura siguiente):

  1. una capa de vector de polígono que representa los polígonos de Voronoi;
  2. una capa vectorial poligonal que representa los huecos / restricciones que deben excluirse del análisis.

Nota 2: Ya que no quiero usar el Diferencia herramienta, no puedo evitar la creación de "astillas" (ver luego), así que necesitaba ejecutar elv.limpioherramienta para eliminarlos. Además, como dijo @Chris W,

[…] Pero el segundo que resulta en astillas no es del todo inesperado - después de todo, esa área todavía estaría asignada al mismo punto incluso si el agujero está presente. Podrías usar ese método y luego incorporar las astillas a sus vecinos con un método de limpieza.

Después de estas premisas necesarias, publico mi código:

## Voronoi_Polygons = vector polygon ## Constraints = vector polygon ## Voronoi_Cleaned = vector de salida de qgis.core import * voronoi = processing.getObject (Voronoi_Polygons) crs = voronoi.crs (). ToWkt () ex = voronoi.extent () extensión = '% f,% f,% f,% f'% (ex.xMinimum (), ex.xMaximum (), ex.yMinimum (), ex.yMaximum ()) restricciones = procesamiento.getObject (Restricciones) # Cree la capa de salida voronoi_mod = QgsVectorLayer ('Polygon? Crs =' + crs, 'voronoi', 'memory') prov = voronoi_mod.dataProvider () fields = voronoi.pendingFields () # Campos de la capa de entrada prov.addAttributes (fields ) # Agregue campos de la capa de entrada al outLayer voronoi_mod.updateFields () # Índice espacial que contiene todas las 'restricciones' index_builds = QgsSpatialIndex () para la característica de las restricciones.getFeatures (): index_builds.insertFeature (feat) final_geoms = {} final_attrs = { } para hazaña en voronoi.getFeatures (): input_geom = feat.geometry () input_attrs = feat.attributes () final_geom = [] multi_geom = input_geom.asPolygon () input_geoms = [] # edg es de la geometría de entrada para k en multi_geom: input_geoms.extend (k) final_geom.append (input_geoms) idsList = index_builds.intersects (input_geom.boundingBox ()) mid_geom = [] # bordes de los agujeros / restricciones if len (idsList) > 0: req = QgsFeatureRequest (). SetFilterFids (idsList) para pies en restricciones.getFeatures (req): geom = pies.geometry () agujero = [] res = geom.intersection (input_geom) res_geom = res.asPolygon () para i en res_geom: hole.extend (i) mid_geom.append (hole) final_geom.extend (mid_geom) final_geoms [feat.id ()] = final_geom final_attrs [feat.id ()] = input_attrs # Agrega las entidades a la capa de salida outGeom = QgsFeature () para clave, valor en final_geoms.iteritems (): outGeom.setGeometry (QgsGeometry.fromPolygon (valor)) outGeom.setAttributes (final_attrs [clave]) prov.addFeatures ([outGeom]) # Agregar 'voronoi el panel Capas QgsMapLayerRegistry.instance (). addMapLayer (voronoi_mod) # Ejecute 'v.clean' processing.runalg ("grass7: v.clean", voronoi_mod, 2, 0.1, extensión, -1, 0.0001, Voronoi_Cleaned, Non e) # Elimina 'voronoi_mod' al panel Capas QgsMapLayerRegistry.instance (). removeMapLayer (voronoi_mod)

lo que conduce a este resultado:

Solo para mayor claridad, este sería el resultado sin el uso de lav.limpioherramienta:

La diferencia con el resultado de @LeaningCactus es que, a estas alturas, las geometrías no están rotas y podrían "limpiarse" sin errores.


Polígono triangular que coincide con la propiedad de Delaunay

Quiero triangular un polígono (sin autointersección, pero con huecos y el polígono también puede ser cóncavo). En esta pregunta (por ejemplo): Delaunay triangulando el polígono 2d con agujeros se propone una triangulación de Delaunay restringida. Lo que me estaba preguntando: ¿es esta la mejor manera de hacerlo o es como "usar un mazo para romper una nuez"? Una alternativa sería usar un algoritmo para crear una triangulación "normal" (por ejemplo, dividir el polígono en partes de monotones y y triangular estas partes) y luego voltear los bordes. Pero parece que (casi) nadie acepta esta solución. ¿Hay una razón? ¿Cuáles son los pros y los contras de una de estas soluciones? (los polígonos pueden tener un tamaño arbitrario)


de Berg, M., van Kreveld, M., Overmars, M. y Schwarzkopf, O. (1997). Geometría computacional: algoritmos y aplicaciones. Saltador.

Ester, M., Kriegel, H., Sander, J. y Xu, X. (1996). Un algoritmo basado en densidad para descubrir clústeres en grandes bases de datos espaciales con ruido. En Actas de la segunda conferencia internacional sobre descubrimiento de conocimiento y minería de datos (págs. 226-231). Portland, Oregón.

Estivill-Castro, V. y Lee, I. J. (2000a). AUTOCLUST: Agrupación automática mediante extracción de límites para minar conjuntos masivos de datos puntuales. En Actas de la quinta conferencia internacional sobre geocomputación (págs. 23-25). Campus de Medway, Reino Unido: Universidad de Greenwich.

Estivill-Castro, V. y Lee, I. J. (2000b). AUTOCLUST +: agrupación automática de conjuntos de datos puntuales en presencia de obstáculos. En Actas del Taller internacional sobre minería de datos temporal, espacial y espacio-temporal (págs. 133-146). Lyon, Francia.

Gao, Y. y Zheng, B. (2009). Consultas continuas de vecinos más cercanos obstruidos en bases de datos espaciales. SIGMOD, 577–590.

Lee, C. H. (2002). Agrupación de datos espaciales basada en densidad en presencia de restricciones físicas. Tesis de maestría. Universidad de Alberta, Edmonton, Canadá.

Malerba, D., Appice, A., Varlaro, A. y Lanza, A. (2005). Agrupación espacial de objetos estructurados. IL P, 227–245.

Ng, R. y Han, J. (1994). Método de agrupación en clúster eficiente y eficaz para la minería de datos espaciales. En Actas de la XX Conferencia Internacional sobre Bases de Datos Muy Grandes (págs. 144-155). Santiago, Chile.

O'Rourke, J. (1998). Geometría computacional en C (2ª ed.). Nueva York: Cambridge University Press.

Sander, J., Ester, M., Kriegel, H. y Xu, X. (1998). Clustering basado en densidad en bases de datos espaciales: el algoritmo GDBSCAN y sus aplicaciones. Minería de datos y descubrimiento de conocimientos, 2(2), 169–194.

Tung, A. K. H., Han, J., Lakshmanan, L. V. S. y Ng, R. T. (2001a). Agrupación en clústeres basada en restricciones en grandes bases de datos. En Actas de la octava conferencia internacional sobre teoría de bases de datos (págs. 405–419). Londres, Reino Unido.

Tung, A. K. H., Hou, J. y Han, J. (2001b). Agrupación espacial en presencia de obstáculos. En Actas de la decimoséptima conferencia internacional sobre ingeniería de datos (págs. 359–367). Heidelberg, Alemania.

Wang, X. y Hamilton, H. J. (2003). DBRS: un método de agrupamiento espacial basado en la densidad con muestreo aleatorio. En Actas de la Séptima Conferencia de Asia Pacífico sobre descubrimiento de conocimientos y minería de datos (págs. 563–575). Seúl, Corea.

Wang, X. y Hamilton, H. J. (2005). Agrupación de datos espaciales en presencia de obstáculos. Revista internacional sobre herramientas de inteligencia artificial, 14(1–2), 177–198.

Zaïane, O. R. y Lee, C. H. (2002). Agrupar datos espaciales cuando se enfrentan a limitaciones físicas. En Actas de la Conferencia Internacional IEEE sobre Minería de Datos (págs. 737–740). Ciudad de Maebashi, Japón.

Zhang, B., Ying, W., Xie, M. y Dong, J. (2007). Agrupación geoespacial con atributos no espaciales y restricción geográfica no superpuesta: una medida de distancia espacial penalizada. PAKDD, 1072–1079.


Transformación de perspectiva de un streamplot 2d

Tengo un diagrama de línea de corriente bidimensional de una simulación de dinámica de fluidos. Me pregunto: ¿es posible de alguna manera permitir que Mathematica trate la trama aerodinámica como un plano en una trama tridimensional para que pueda aplicar una transformación de perspectiva de cámara a la trama tridimensional resultante?

Para proporcionar un poco más de información, tengo escenas tridimensionales (un ejemplo de las cuales se muestra a continuación) para las que estoy ejecutando simulaciones de dinámica de fluidos. Como resultado de estas simulaciones, obtengo una serie de campos de velocidad de flujo de viento bidimensionales, que son secciones transversales de los verdaderos campos de velocidad de flujo de viento tridimensionales. Estos campos cuantifican la dirección y la velocidad del viento a través del entorno sujeto a las restricciones geométricas de la escena y algunos parámetros definidos por el usuario y condiciones de contorno.

Para fines de visualización, estoy interesado en transformar y superponer uno o más de los diagramas de línea de corriente bidimensionales de los campos de velocidad en mi escena tridimensional de modo que el diagrama de línea de corriente bidimensional ocupe el lugar del plano rojo en la imagen. debajo. Aunque simplemente podría rasterizar la trama aerodinámica, tratarla como una textura para el plano y renderizar la escena en 3DS Max, espero superponer las tramas aerodinámicas como gráficos vectoriales.

Anexo: Según la sugerencia de Yves, he proporcionado una versión submuestreada del campo de velocidad del flujo de viento que estoy usando para mis gráficos. Usando su maravilloso guión, soy capaz de tomar una trama aerodinámica bidimensional y rotarla / escalarla como si fuera una trama tridimensional.

ListStreamPlot [datos, StreamPoints - & gt Fine] [[1]] /. Flecha [pts_]: & gt Flecha [<# [[1]], 0, # [[2]]> & amp / @ pts] // Graphics3D

La única pregunta que me queda es: ¿cómo puedo cambiar los parámetros de perspectiva de la cámara de la trama? Específicamente, me gustaría cambiar la perspectiva de la trama de línea de corriente tridimensional de modo que el cuadro delimitador alrededor de la trama tome la forma de un trapezoide y las trayectorias de línea de corriente se modifiquen en consecuencia. Soy consciente de que Graphics3D tiene opciones ViewAngle, ViewPoint y ViewVector, pero no estoy seguro de cómo usarlas en el contexto del script de Yves.


¿Teniendo en cuenta los agujeros / restricciones en la creación de polígonos de Voronoi en QGIS? - Sistemas de Información Geográfica

Todos los artículos publicados por MDPI están disponibles inmediatamente en todo el mundo bajo una licencia de acceso abierto. No se requiere un permiso especial para reutilizar todo o parte del artículo publicado por MDPI, incluidas las figuras y tablas. Para los artículos publicados bajo una licencia Creative Common CC BY de acceso abierto, cualquier parte del artículo puede ser reutilizada sin permiso siempre que el artículo original esté claramente citado.

Los artículos de fondo representan la investigación más avanzada con un potencial significativo de alto impacto en el campo. Los artículos de fondo se envían por invitación individual o recomendación de los editores científicos y se someten a una revisión por pares antes de su publicación.

El artículo principal puede ser un artículo de investigación original, un estudio de investigación novedoso y sustancial que a menudo implica varias técnicas o enfoques, o un artículo de revisión completo con actualizaciones concisas y precisas sobre los últimos avances en el campo que revisan sistemáticamente los avances científicos más interesantes. literatura. Este tipo de artículo proporciona una perspectiva sobre las futuras direcciones de la investigación o sus posibles aplicaciones.

Los artículos de Editor's Choice se basan en las recomendaciones de los editores científicos de las revistas de MDPI de todo el mundo. Los editores seleccionan una pequeña cantidad de artículos publicados recientemente en la revista que creen que serán particularmente interesantes para los autores o importantes en este campo. El objetivo es proporcionar una instantánea de algunos de los trabajos más interesantes publicados en las diversas áreas de investigación de la revista.


Detección de agujeros para cuantificar la conectividad en redes de sensores inalámbricos: una encuesta

Debido al despliegue aleatorio, los factores ambientales, la topología dinámica y los ataques externos, la aparición de agujeros en las redes de sensores inalámbricos es ineludible. El agujero es un área en la red de sensores alrededor de la cual los sensores dejan de detectar o comunicarse debido al drenaje de la batería o cualquier falla, ya sea temporal o permanente. Los agujeros perjudican las funciones de detección y comunicación de la red, por lo que su identificación es una preocupación importante. Este documento analiza los diferentes tipos de orificios y la importancia de la detección de orificios en las redes de sensores inalámbricos. Los esquemas de detección de agujeros de cobertura se han clasificado en tres categorías según el tipo de información utilizada por los algoritmos, el modelo de cálculo y la dinámica de la red para una mejor comprensión. Luego, se discuten las fortalezas y deficiencias relativas de algunos de los algoritmos de detección de agujeros de cobertura existentes. El artículo concluye destacando varias direcciones de investigación futuras.

1. Introducción

Una red de sensores inalámbricos es una red que está formada por cientos o miles de nodos de sensores que están densamente desplegados en un entorno desatendido con capacidades de detección, comunicaciones inalámbricas y cálculos [1]. Los nodos sensores son dispositivos diminutos de baja potencia equipados con procesador, memoria, radio, actuador y fuente de alimentación. Los transmisores y receptores de radio ayudan a los nodos sensores a comunicarse entre sí.

Algunos de los desafíos en las WSN son la implementación de nodos, el consumo de energía, la heterogeneidad de los nodos, la agregación de datos y la tolerancia a fallas [2]. La detección de agujeros es uno de los principales problemas de WSN. Los agujeros afectan la capacidad de la red y la cobertura de percepción de la red. Debido a la batería limitada, los nodos pueden morir con el paso del tiempo. En caso de despliegue aleatorio, existe una gran posibilidad de que todas las áreas de la región objetivo no se cubran adecuadamente, lo que lleva a la formación de agujeros. La detección de agujeros es importante debido a sus efectos negativos y dañinos.

Las WSN tienen una miríada de aplicaciones interdisciplinarias, como la previsión meteorológica, la vigilancia del campo de batalla, la identificación de amenazas [3], la supervisión de la salud [4], la supervisión del medio ambiente [5] y la supervisión de la vida silvestre. Todas aquellas aplicaciones que exigen un despliegue aleatorio y un entorno no controlado sufren problemas de agujeros [6]. Por lo tanto, la detección de agujeros puede ser útil para todas las disciplinas de las ciencias y la ingeniería.

El resto del artículo está organizado de la siguiente manera. La Sección 2 analiza los diferentes tipos de agujeros en las WSN y la importancia para los algoritmos de detección de agujeros. La Sección 3 propone una taxonomía novedosa de algoritmos de detección de agujeros de cobertura y revisa algunos de los algoritmos de detección de agujeros de cobertura existentes que se refieren a la taxonomía. Las conclusiones y las direcciones de investigación futuras se presentan en la Sección 4.

2. Agujeros en WSN

Un área donde un grupo de nodos sensores deja de funcionar y no participa en la detección de datos y la comunicación se denomina agujero en la red [7]. Los agujeros son las barreras para la comunicación. Los agujeros tienen un gran impacto en el rendimiento de la red.La detección de agujeros identifica nodos dañados, atacados o inaccesibles. Si hay un agujero en la red, los datos se enrutarán una y otra vez a lo largo de los nodos del límite del agujero, lo que provocará un agotamiento prematuro de la energía presente en estos nodos [8]. Esto finalmente aumentará el tamaño del agujero en la red. La detección de agujeros evita el consumo de energía adicional alrededor de los agujeros debido a la congestión. Asegura una larga vida útil de la red y una adecuada calidad de servicio.

Uno de los problemas más prominentes en las redes de sensores inalámbricos es la detección del límite de la red, es decir, los nodos que están presentes en el límite de la red y el límite del agujero [7], es decir, los nodos que rodean un agujero como se muestra en la Figura 1 .


Los agujeros se pueden clasificar con respecto a su movilidad (móvil o estática), duración (persistente o temporal), propósitos (intencionales o no), función afectada (funcional o no funcional) y causa de anomalía [9], como se muestra en la Figura 2. Los agujeros formados en la red de sensores estáticos se denominan agujeros estáticos. Los nodos móviles crean y rompen conexiones mientras se mueven, creando así agujeros móviles. Los eventos externos, como incendios forestales o lluvias intensas, destruyen los nodos de sensores en un área que conduce a la formación de agujeros persistentes. Puede formarse una programación ineficaz de activación del sueño de los nodos sensores agujeros temporales en la región de destino. Agujeros involuntarios se forman cuando un nodo carece accidentalmente de algunas capacidades físicas. Agujeros intencionales se forman cuando una parte del campo objetivo no es detectada por ningún nodo porque los nodos en esa área están programados intencionalmente para estar en estado de suspensión para ahorrar energía. Si, debido a una falla en la detección de algunos nodos, las tareas de comunicación y procesamiento de la red de sensores se ven afectadas, entonces el orificio correspondiente formado es un orificio funcional. Por otro lado, si algunas tareas no funcionales, como la seguridad, se ven afectadas, se forman agujeros no funcionales.


Jabeur y col. [9] discutió PLMS (físico / lógico / malicioso / semántico), una taxonomía basada en la causa en detalle, donde los agujeros de los sensores se estudian desde una perspectiva de causa-efecto-solución. Agujeros semánticos se relacionan principalmente con la recopilación, el procesamiento y el enrutamiento de datos. Algunas de las razones de su formación son la recopilación de datos inexacta y la ausencia de sensores especializados. Agujeros lógicos se crean debido a enfoques basados ​​en clústeres en los que un nodo sensor puede no obtener soporte de sus vecinos que pertenecen al mismo clúster. Agujeros físicos puede surgir debido a las capacidades de procesamiento limitadas de los nodos del sensor llamados orificios de procesamiento, a través del consumo excesivo de energía en algunos nodos que conduce a la formación de orificios de energía, o debido al rango de detección limitado de los nodos que crean orificios de detección. Los orificios de cobertura y enrutamiento se incluyen en la categoría de orificios físicos. Agujeros de cobertura son el resultado de la implementación no planificada de nodos debido a que el área objetivo no se cubre adecuadamente. También pueden ocurrir debido a cambios en la topología debido a que algunos nodos de sensores pueden moverse con el tiempo y generar agujeros de cobertura. Orificios de enrutamiento Ocurren en redes de sensores inalámbricos si hay un número insuficiente de nodos o los nodos que están disponibles no pueden participar en el enrutamiento [10]. Estos agujeros tienen un efecto directo sobre el rendimiento de enrutamiento de la red. Estos agujeros ocurren principalmente en el reenvío codicioso geográfico debido a un fenómeno mínimo local.

Los agujeros formados por el comportamiento malicioso de algunos nodos de la red se denominan agujeros maliciosos. La categorización adicional de nodos maliciosos incluye interferencias, sumideros y agujeros de confianza. Atasco de agujeros Ocurren si algunas señales de alta frecuencia bloquean la frecuencia de radio utilizada para comunicarse por los nodos sensores. Causas de ataques de denegación de servicio Fregadero / negro agujeros [11] donde un adversario anuncia rutas atractivas para hundirse y así logra engañar a otros nodos cercanos que pueden seleccionar este nodo como su próximo salto. Trust Hole es un nuevo tipo de agujeros propuesto por el autor que se incluye en agujeros maliciosos categoría. Los sensores asignan valores de confianza ponderados basados ​​en diferentes parámetros a sus vecinos. Los valores del umbral de peso de confianza dependen de la aplicación. Podemos ver un agujero de confianza en la Figura 3, delimitado por sensores que tienen valores de peso menores o iguales a 0.5.


De todos los tipos de agujeros discutidos hasta ahora, los agujeros de cobertura son los más importantes de detectar, ya que juegan un papel vital para asegurar una buena QoS. Nos ayudan a identificar si cada punto del campo de detección tiene el grado de cobertura requerido o no. Son los indicadores de la salud general de las redes de sensores y ayudan a identificar las características geográficas de la región objetivo [12]. Los límites de los agujeros pueden determinar áreas de interés como incendios, inundaciones o terremotos. Nos ayudan a encontrar ubicaciones donde se deben implementar más nodos y, por lo tanto, ayudan a reparar los agujeros. La detección de agujeros garantiza la fiabilidad al evitar la pérdida de datos.

La detección de agujeros de cobertura ayuda a identificar vías de comunicación alternativas y ayuda a regular el flujo de tráfico de datos. La ausencia de algoritmos de detección de agujeros eventualmente causará problemas en el enrutamiento. Así, el resto del artículo se centra en identificar diferentes formas de detectar agujeros de cobertura en redes de sensores.

3. Taxonomía de los algoritmos de detección de agujeros de cobertura

Ha habido una gran cantidad de investigaciones sobre la detección de agujeros de cobertura en las WSN durante los últimos años. En la Figura 4, los algoritmos de detección de agujeros de cobertura se han clasificado en diferentes categorías: (A) según el tipo de información utilizada, (B) según el modelo computacional y (C) según la dinámica de la red. En esta sección, analizamos y resumimos algunos de los algoritmos típicos de detección de agujeros de cada categoría.


3.1. Enfoques basados ​​en el tipo de información utilizada

Los esfuerzos invertidos hasta ahora en el campo de la detección de agujeros de cobertura basados ​​en el tipo de información utilizada por los algoritmos se pueden dividir en tres enfoques, a saber, enfoques topológicos, estadísticos y geométricos [13].

3.1.1. Enfoque geográfico

Este enfoque asume que la ubicación exacta de los nodos sensores se conoce de antemano. Cada nodo conoce su ubicación con la ayuda de hardware de ubicación especial como GPS [12] o mediante el uso de dispositivos de escaneo, aumentando así el tamaño y la estructura de los nodos sensores. También se conoce como enfoque basado en la ubicación.

Yang y Fei [14] propusieron un algoritmo de detección de agujeros y enrutamiento geográfico adaptativo (HDAR) para detectar agujeros y usar esta información para tratar con problemas mínimos locales. Si el ángulo entre dos bordes adyacentes de un nodo es mayor de 120 grados, entonces comienza el algoritmo de detección de agujeros. Aquí, la relación entre la distancia de la red y la distancia euclidiana se usa como métrica para detectar un agujero, es decir, Length_pro

/ dist_euc es la tasa de detección de agujeros. Si para un nodo el valor de la tasa de detección de agujeros es mayor que un umbral predefinido, entonces está en el límite. Una de las principales ventajas es que un solo nodo puede detectar el agujero de manera eficiente. Después de detectar el agujero, anuncia esta información a los nodos cercanos que pueden ajustar de forma adaptativa la dirección de avance.

3.1.2. Enfoque topológico

También llamado enfoque basado en la conectividad, utiliza solo la información de conectividad disponible de la red para detectar agujeros [13]. Este enfoque no requiere información de ubicación y funciona incluso para redes densas. No hay ninguna suposición sobre la distribución de nodos. Uno de los algoritmos basados ​​en un enfoque topológico para detectar agujeros de cobertura dentro de las redes de sensores inalámbricos se dio en [15] y luego se mejoró en [16]. Los autores propusieron un esquema cooperativo distribuido basado en el hecho de que los nodos en el agujero o en el límite de la red tienen grados más pequeños que los nodos interiores. Se trata de nodos estáticos, distribuidos uniformemente y cada nodo tiene una identificación única. Si el grado de un nodo es menor que el grado promedio de sus vecinos de 2 saltos, entonces toma una decisión sobre si está en el límite del agujero o no. Si es así, envía mensajes informando su estado a sus vecinos de 1 salto que también pueden estar en el límite del pozo. El algoritmo es escalable, pero el enfoque produce malos resultados para redes densas desplegadas de forma aleatoria. Si no hay suficientes nodos alrededor de un agujero, la salida producida no es precisa.

Martins y col. [17] utilizó los conceptos de complejo Rips y complejo Cech para descubrir agujeros de cobertura. Si el radio de comunicación es mayor o igual al doble del radio de detección y hay un agujero en el complejo Rips, entonces debe haber un agujero en el complejo Cech. Los autores clasificaron los agujeros como triangulares o no triangulares. El algoritmo distribuido propuesto por los autores es capaz de detectar agujeros no triangulares y el área de agujeros triangulares. Después de construir el gráfico vecino, cada nodo verifica si existe un ciclo hamiltoniano en el gráfico. Si no es así, el nodo está en el límite del agujero. Después de tomar una decisión, cada nodo transmite su estado a sus vecinos. El algoritmo además encuentra ciclos que delimitan agujeros.

Zeadally y col. [18] propuso un enfoque basado en saltos para encontrar agujeros en las redes de sensores. Hay tres fases, a saber, la fase de recopilación de información donde cada nodo intercambia información para construir una lista de vecinos de x-hop, la fase de construcción de ruta donde se identifican los enlaces de comunicación entre los nodos sensores en la lista de vecinos de x-hop, y finalmente la fase de verificación de ruta donde Los caminos se examinan para inferir los nodos internos y de límites. Si la ruta de comunicación de los vecinos de x-hop de un nodo está rota, entonces es un nodo límite. El algoritmo funciona para un grado de nodo de 7 o superior, que es mejor que algunos de los otros enfoques, pero hay una gran sobrecarga de comunicación involucrada para identificar vecinos x-hop.

Chu y Ssu [19] propusieron un algoritmo de detección de límites descentralizados (DBD) para identificar los nodos sensores cerca de un agujero u obstáculo en WSN utilizando un enfoque topológico. Cada nodo conoce a sus vecinos de tres saltos intercambiando mensajes HELLO e información de nodo de uno y dos saltos. No hay restricción de UDG. Luego, cada nodo construye un gráfico vecino de 2 saltos. Si existe un ciclo en un gráfico de este tipo, entonces hay un agujero en la red. Para tratar con un agujero que no está incluido totalmente dentro del gráfico vecino de 2 saltos, se desarrolló otra regla basada en la estructura del contorno. La detección de una línea de contorno rota implica un límite de red o un obstáculo.

Hay muy pocos algoritmos que puedan detectar límites de pequeños agujeros. Dong y col. [20] propuso un algoritmo distribuido que puede detectar con precisión los límites de pequeños agujeros en la red. El primer paso del algoritmo es reducir el gráfico de conectividad mediante la eliminación de vértices y la eliminación de bordes para obtener un gráfico de esqueleto. A partir de entonces, el gráfico de esqueleto se divide aún más para obtener ciclos de límites internos gruesos. Cada ciclo encierra un agujero de gráfico o corresponde al límite exterior. Los límites exteriores gruesos se refinan aún más para obtener ciclos de límites finos. No hay ningún supuesto relacionado con la densidad de nodos. Los autores demostraron además la exactitud de la detección de agujeros.

3.1.3. Enfoque estadístico

Se aplica alguna función estadística a los datos recopilados de los nodos vecinos y luego una función booleana decide si los nodos están en el límite del agujero o no. Se basa en el supuesto de que la distribución de nodos sigue alguna función estadística. No hay necesidad de GPS, pero requiere una alta densidad de nodos, es decir, el grado medio debe ser 100 o superior [21]. En la práctica, este despliegue uniforme denso no es práctico. El concepto utilizado por Fekete et al. [21] es que los nodos fronterizos tienen grados promedio más bajos que los nodos interiores. La densidad media es la métrica utilizada para detectar huecos donde el grado real del nodo se compara con un valor de umbral predefinido para inferir su posición. Otra métrica utilizada por Fekete et al. [21] es el índice de centralidad, donde se asigna un valor alto a los nodos internos y menos valor a los nodos externos.

Discusión. Hemos considerado muchos algoritmos en diferentes categorías, cada uno con sus propias limitaciones. El enfoque geométrico para la detección de agujeros requiere un sensor con GPS y es caro. Consumen mucha energía y no es práctico que los sensores conozcan su ubicación exacta en un entorno hostil. Teniendo en cuenta las enormes aplicaciones de WSN, estos enfoques tienen un alcance limitado. Los enfoques estadísticos proporcionan un rendimiento óptimo, pero son computacionalmente costosos. Debido a los desafíos en las redes de sensores inalámbricos, no es deseable que los nodos realicen cálculos matemáticos y estadísticos complejos [13]. El enfoque topológico proporciona resultados realistas pero implica una sobrecarga de comunicación. Algunos de los algoritmos no funcionan para grados de red pequeños.

3.2. Algoritmos basados ​​en modelo computacional

Sobre la base del modelo computacional utilizado, los algoritmos de detección de agujeros de cobertura se pueden clasificar en dos categorías, a saber, centralizados y distribuidos.

3.2.1. Centralizado

Los algoritmos centralizados se ejecutan en uno o más nodos en una ubicación centralizada. Bldg y Funke [28] presentaron un algoritmo de detección de agujeros centralizado basado en información de conectividad de la red. Los autores seleccionan un conjunto de nodos y luego identifican si los isoniveles generados a partir de cada nodo están rotos o son continuos. El algoritmo se basa en el hecho de que los isoniveles siempre se rompen en el límite de la red o en el límite del agujero. Identifica los nodos cercanos a los límites, pero no da idea de cómo podrían estar conectados. Además, requiere un despliegue denso. Ghrist y Muhammad [25] han introducido una técnica centralizada para detectar agujeros de cobertura basada en la homología, una variante de topología algebraica. Utiliza solo la información de conectividad disponible para detectar agujeros de cobertura de un solo nivel. La complejidad del tiempo es

, siendo el número de nodos. El enfoque no garantiza la detección precisa de los límites del pozo.

3.2.2. Repartido

En los algoritmos descentralizados, varios nodos trabajan juntos para detectar de manera eficiente los agujeros en la red, lo que resulta en una división uniforme de la carga de trabajo. Senouci y col. [24] propuso una detección y curación de agujeros (HEAL), un algoritmo distribuido y localizado que puede detectar agujeros de cobertura utilizando la detección de agujeros de cobertura distribuida y puede curar los agujeros detectados utilizando el concepto de fuerzas virtuales. Las fuerzas atractivas y repulsivas actúan dentro del área de cicatrización del agujero (HHA) para recuperarse de los agujeros sin efectos secundarios. La complejidad computacional de este algoritmo es

, donde es el número medio de vecinos de 1 salto. HEAL se ocupa de orificios de diversas formas y tamaños y proporciona una solución rentable y precisa para la detección y curación de orificios. Kröller y col. [30] desarrolló un algoritmo distribuido para detectar agujeros en grandes redes de sensores utilizando un gráfico de disco de cuasiunidades. El algoritmo no funciona bien en redes dispersas donde la identificación de una sola flor es difícil.

Wang y col. [27] presentó un algoritmo de reconocimiento de límites distribuido simple basado en inundaciones repetitivas de la red. Los ancestros comunes más cercanos (NCA) se utilizan para detectar agujeros. En la Figura 5, el nodo r es el ancestro común más cercano de los nodos py q. El algoritmo construye el árbol de ruta más corto arraigado en algunos nodos arbitrarios. Los nodos donde los caminos más cortos de distintos tipos de homotopía se encuentran más allá del agujero se denominan nodos de corte.


Después de determinar los cortes en el árbol de la ruta más corta, se detecta el límite interior grueso que es un ciclo más corto que encierra el agujero compuesto. Luego, la red se inunda con el ciclo más corto para identificar los nodos externos, es decir, los nodos cuyos recuentos de saltos para el ciclo son localmente máximos. Finalmente se refina el límite interior grueso. No hay restricción de UDG. Se trata de una enorme sobrecarga de comunicación para sincronizar los nodos antes de que se construya el árbol. Además, el algoritmo falla si hay varios agujeros adyacentes.

Sobre la base de los nodos que invocan el algoritmo de detección de agujeros, podemos clasificar aún más los algoritmos distribuidos en dos categorías, a saber, detección local y global detección. Un agujero ocurre cuando varios nodos adyacentes en la red de sensores fallan y se define como el casco convexo de la región que contiene los sensores fallados [22]. Los agujeros afectan a sus vecinos inmediatos, así como a los nodos remotos cuyas opciones de enrutamiento se reducen. Según los nodos que invocan el algoritmo de detección de agujeros, existen dos categorías de algoritmos de detección de agujeros, a saber, detección local y detección global. En la detección local, los nodos que se ven afectados inmediatamente por el agujero inician el algoritmo de detección del agujero. Sin embargo, en la detección global, el agujero es detectado por un nodo que está lejos y no se ve afectado directamente por el daño causado por el agujero.

(a) Detección local. Corke y col. [22] presentó, analizó e implementó dos algoritmos distribuidos para la detección de agujeros. En la detección local, la fase de inicialización del nodo es necesaria para conocer el estado de conectividad inicial. En la fase de inicialización, cada nodo envía un ping solicitando información del vecino. Los nodos que responden con su ID se agregan a la lista de vecinos. A continuación, se hace ping a los vecinos periódicamente para verificar la integridad de la red. Si el nodo vecino no responde al mensaje de ping, se considera inactivo. Cuando la cuenta muerta excede el umbral muerto, el nodo se marca a sí mismo como asentado en el perímetro de daño. Durante el cálculo de la extensión del daño, cada nodo descubre el casco convexo general de forma incremental calculando cascos convexos en cada nodo y compartiendo los cascos hasta que no haya más cambios en el conjunto de cascos. Wang y col. [27] han desarrollado un algoritmo distribuido donde cada nodo primero verifica si es un nodo atascado o no usando la regla TENT. Si un nodo está más cerca del objetivo que todos sus vecinos de 1 salto, entonces es un nodo atascado. Los nodos atascados se marcan como nodos de límite de agujero. El algoritmo de boundhole luego construye rutas alrededor del límite del pozo para enrutar paquetes. La aproximación solo necesita información de ángulo dentro de sus vecinos de 1 salto, por lo que la detección es local.

(b) Detección global. En el método global, la información de enrutamiento se utiliza para detectar los agujeros. En papel [22], la densidad de trayectoria es la métrica utilizada para detectar la presencia de agujeros. Cada nodo transmite aleatoriamente un paquete de diagnóstico que contiene la coordenada de origen, la coordenada de destino, la coordenada anterior, la distancia recorrida y la identificación del mensaje. La distancia recorrida y la coordenada anterior se actualizan en cada salto. La identificación del mensaje se utiliza para ignorar los mensajes duplicados. Cuando el mensaje llega al destino, la densidad de la ruta se calcula como la relación entre la distancia en línea recta desde el origen hasta el destino y la distancia real recorrida. Una relación baja implica que existe un agujero en la red.

Discusión. El almacenamiento limitado es uno de los desafíos de las redes de sensores, por lo que los algoritmos que recopilan datos completos en algún nodo para realizar cálculos centralizados no son factibles. El enfoque centralizado adolece del problema del punto único de falla. Debido a la topología dinámica y las alteraciones exógenas, las WSN necesitan una implementación densa. Los protocolos diseñados para redes tan densas deben distribuirse para adaptarse a una arquitectura escalable. Los algoritmos centralizados consumen más energía para lograr un mayor porcentaje de área de pozo recuperada en comparación con el algoritmo distribuido. Por otro lado, los algoritmos distribuidos son más complejos que los centralizados, ya que deben ejecutarse en muchos nodos de la red. El enfoque global ayuda a superar la ambigüedad que a menudo enfrenta la detección local. Los algoritmos de detección local se ejecutan periódicamente para proporcionar información sobre el estado de la red de sensores. Se pueden utilizar para buscar cambios desde el estado inicial.

3.3. Algoritmos basados ​​en la dinámica de la red

Los algoritmos discutidos en esta sección se clasifican según la dinámica de la red en la red de sensores como sensores estáticos, sensores móviles y sensores híbridos.

3.3.1. Sensores estáticos

Li y col. [34] propuso 3MeSH (algoritmo de detección de orificios de autorreparación de malla triangular), que es un algoritmo de detección de orificios distribuido sin coordenadas. Se supone que cada nodo tiene un radio de detección uniforme R y un radio de comunicación 2R. Inicialmente se selecciona un subconjunto de nodos activos. Un nodo activo x es vecino del nodo activo y si están separados entre R y 2R. Los nodos que se encuentran dentro del rango de detección de un nodo activo se denominan nodos redundantes. Cada nodo activo recopila información de conectividad de sus vecinos. Si el nodo detecta la presencia de un anillo 3MeSH como se muestra en la Figura 6 definido por todos sus vecinos, entonces es un nodo límite. Para detectar agujeros grandes, los nodos pueden recopilar información de conectividad de nodos más alejados, pero a costa de una mayor complejidad. 3MeSH-DR es una versión mejorada del algoritmo 3MeSH presentado en [31].


3.3.2. Sensores móviles

Los nodos de sensores móviles pueden moverse después de la implementación inicial. El principal objetivo de la WSN móvil es maximizar la cobertura. La topología de la red de sensores se ve afectada por los nodos móviles, ya que forman nuevas conexiones y rompen las antiguas. Si el área de cobertura de un nodo puede ser cubierta por su nodo vecino, entonces solo un nodo puede moverse a otra área. En [26], los autores han utilizado diagramas de Voronoi para detectar agujeros de cobertura. El diagrama de Voronoi es un diagrama de límites alrededor de cada sensor de modo que cada punto dentro del límite del sensor está más cerca de ese sensor que cualquier otro sensor en la red [35]. La figura 7 muestra una celda de Voronoi. Los nodos P, Q, R, S y T son vecinos Voronoi de X y a, b, c, dye representan los bordes Voronoi. Estos bordes son la bisectriz vertical de la línea que conecta a X con sus vecinos Voronoi.


Un polígono construido a partir de todos estos bordes de Voronoi se llama celda de Voronoi del nodo X. Podemos ver un diagrama de Voronoi en la Figura 8.


Para detectar un agujero, cada nodo verifica si su polígono de Voronoi está cubierto por su área de detección. Si no es así, existe un agujero de cobertura. Después de detectar el agujero, uno de los tres algoritmos propuestos se utiliza para encontrar la ubicación de destino donde se debe mover un nodo móvil para curar el agujero. En el algoritmo basado en vectores (VEC), los nodos sensores se empujan desde regiones densas a regiones dispersas para que los nodos se distribuyan uniformemente. El algoritmo basado en Voronoi (VOR) es un algoritmo de extracción que atrae nodos hacia regiones dispersas. En el algoritmo minimax, la ubicación de destino está en el centro de su polígono de Voronoi. El algoritmo Minimax logra la máxima cobertura a costa de una mayor sobrecarga computacional.

Zhao y col. [32] propuso un método de detección de agujeros de cobertura (CHDM) mediante análisis matemático. Se supone que la red consta de nodos móviles, cada uno con un radio de detección ry un radio de comunicación 2r. Un nodo p se define como vecino del nodo q si se encuentra en su rango de comunicación. Sobre la base del ángulo central entre sensores vecinos, los autores presentaron diferentes casos para encontrar agujeros de cobertura en el círculo de comunicación alrededor de un nodo móvil redundante. Para parchear el agujero, se mueve un nodo redundante a una posición apropiada dentro del agujero.

3.3.3. Sensores híbridos

Las WSN híbridas constan de nodos fijos y móviles. Los nodos móviles ayudan a reparar los agujeros de cobertura creados por los nodos estacionarios. Babaie y Pirahesh [29] presentaron un diagrama de orientación triangular para detectar un agujero. Los autores conectaron el centro de tres sensores adyacentes para producir un triángulo y además presentaron varias posibilidades de ocurrencia de agujeros y luego calcularon el área que no está cubierta por ninguno de ellos. Esta área descubierta es el agujero de cobertura. Para parchear el agujero de cobertura, un nodo móvil se mueve al incentro o circuncentro dependiendo de si el área del agujero es mayor o menor que la región de detección, respectivamente. El enfoque es simple en comparación con la construcción del diagrama de Voronoi. Además, puede determinar el área exacta del agujero.

Wang y col. [33] propuso un protocolo de licitación distribuido para detectar agujeros de cobertura en redes de sensores híbridos. Los nodos móviles actúan como un servidor de reparación de agujeros con cierto precio base inicialmente establecido en cero. El precio base es la estimación del nuevo agujero de cobertura generado cuando un nodo móvil se mueve a una nueva ubicación de destino con fines de recuperación. Durante la fase de publicidad, los sensores móviles transmiten sus ubicaciones y precio base. En la fase de licitación, los sensores estáticos examinan sus respectivas celdas Voronoi para detectar agujeros de cobertura localmente. Si existe un agujero, estima su tamaño y determina la posición del objetivo dentro del agujero. Los nodos estáticos luego calculan la oferta usando la fórmula

, siendo la distancia entre la ubicación de destino y el nodo que desea ofertar. Los sensores estáticos envían un mensaje de oferta al sensor móvil más cercano cuyo precio base es menor que su oferta. Cada nodo móvil compara las ofertas recibidas y elige el mensaje con la oferta más alta y se mueve a la ubicación de destino especificada en el mensaje. Esta oferta se convierte en el nuevo precio base del nodo móvil. Este proceso se detiene cuando la oferta de cualquier sensor estático no supera el precio base de cualquier sensor móvil.

Discusión. La probabilidad de que se forme un agujero en una red de alta densidad es menor. Por lo tanto, para redes densas se prefieren las redes de sensores estáticos, mientras que en el caso de escasa densidad, las redes de sensores híbridas y móviles ofrecen una mejor cobertura. Algunos de los nodos en las redes híbridas y móviles pueden moverse para reparar los agujeros de cobertura, mejorando así la conectividad de la red. Los sensores movidos a larga distancia consumirán más energía. Si la energía de un sensor es tan baja que muere poco después de ser reubicado en la región objetivo, entonces este esfuerzo se desperdicia. Por lo tanto, el costo de mudanza y mensajería debe mantenerse al mínimo al enviar nodos móviles a ubicaciones objetivo en redes de sensores híbridas y móviles.

4. Resúmenes y perspectivas

En este trabajo se propone una taxonomía que da una clasificación exhaustiva de los algoritmos de detección de agujeros de cobertura. En los últimos años, los investigadores han proporcionado muchas ideas innovadoras para resolver el problema de detección de agujeros de cobertura en las WSN, pero la investigación en esta dirección aún se encuentra en una fase de crecimiento. La Tabla 1 resume las características de varios algoritmos de detección de agujeros de cobertura en el aspecto del enfoque utilizado, modelo computacional, dinámica de red, nivel de detección y entorno de simulación. En las Tablas 2 y 3, se puede ver que cada algoritmo tiene sus propias fortalezas y deficiencias, pero ninguna es absolutamente la mejor. La Tabla 4 analiza algunas de las sugerencias de aplicación para los algoritmos de detección de agujeros de cobertura.


Discusión

Una interpretación ecológica de por qué las aves se alimentaban en lugares con mayor disponibilidad de hábitat integrado en el tiempo.

Little Blue Herons y Great White Herons utilizaron lugares de alimentación de forma no aleatoria y los patrones de uso en la escala espacial de 5 km se explicaron mejor por la disponibilidad de hábitat integrada en el tiempo. Ambas especies tenían de dos a tres veces más probabilidades de utilizar lugares de alimentación con mayor disponibilidad de hábitat integrado en el tiempo (7 h) que las ubicaciones cercanas con menor disponibilidad de hábitat integrado en el tiempo (1 h). Además, los lugares donde se observó la búsqueda de alimento de las garzas azules tenían una disponibilidad de hábitat integrado en el tiempo promedio de población de

6.5 h, y los lugares donde se observó la búsqueda de alimento de las garzas blancas tuvieron valores aún mayores (

8 h de disponibilidad). Proponemos que las relaciones energéticas y de distribución entre depredadores y presas están directamente relacionadas con la disponibilidad de hábitat integrado en el tiempo.

Los modelos teóricos de búsqueda de alimento sugieren que el tiempo de permanencia en una parcela aumentará a medida que aumente el costo de viaje entre parcelas (Bernstein et al. 1991), pero el tiempo dedicado a la búsqueda de alimento también depende de la disponibilidad y la tasa de agotamiento de los alimentos (van Alphen et al. 2003). Por lo tanto, es razonable suponer que moverse grandes distancias en busca de lugares alternativos de alimentación es una estrategia arriesgada durante las fluctuaciones de las mareas. De hecho, las variables dinámicas (distancia a aguas profundas y profundidad del agua) estuvieron presentes en los mejores modelos de ambas especies en el análisis de escala espacial de 500 m, lo que sugiere una importancia de estas variables dinámicas, lo que brinda apoyo que el modelo estadístico está capturando con éxito. una respuesta de las aves en busca de alimento a los cambios en el medio ambiente durante el ciclo de las mareas solo hubo apoyo para las variables estáticas (distancia a la isla y disponibilidad de hábitat integrada en el tiempo) en los modelos estadísticos en el análisis de escala espacial de 5 km y no hubo evidencia de que el las variables dinámicas mejoraron los modelos. La mayoría de las aves, una vez en un lugar de alimentación, solo mostraron movimientos localizados de búsqueda de presas (& lt500 m L. Calle y D. E. Gawlik, observación personal) y alimentación continua durante la totalidad de la marea baja, lo cual es consistente con el comportamiento de alimentación de la garza común durante las mareas bajas en Brasil (Moralez-Silva et al. 2010). Presumiblemente, este comportamiento se debió al alto costo de los movimientos a gran escala (& gt500 m) para encontrar lugares de alimentación alternativos, ya que las mareas pueden cambiar la extensión del área de los lugares de alimentación disponibles en más de un orden de magnitud en períodos cortos de tiempo (Calle et al.2016). El comportamiento relativamente estacionario de alimentar a las garzas puede sugerir que el costo del viaje durante las mareas es demasiado alto o que el agotamiento de las presas es insignificante. Nuestro trabajo sugiere que las aves zancudas se alimentaban en lugares con mayor disponibilidad de hábitat integrado en el tiempo para satisfacer de manera más eficiente las demandas energéticas al reducir el tiempo dedicado a moverse y rastrear cambios en las profundidades del agua.

Aunque no cuantificamos la distribución de los peces durante todo el ciclo de mareas, es probable que las presas estuvieran más disponibles para las aves durante las mareas bajas y menos disponibles en otros momentos (Lekuona 1999, Matsunaga 2000, Regós 2011). Otros investigadores han observado un aumento cuadrático en las tasas de huelga y captura de aves zancudas que se alimentan durante la marea baja, disminuyendo rápidamente durante las porciones de reflujo e inundación de la marea (Moralez-Silva et al. 2010, Regós 2011), lo que sugiere que las densidades de presas son más grandes o las presas son más vulnerables a la captura durante las mareas bajas. Sugerimos que una mayor duración del acceso al hábitat de alimentación (es decir, una mayor disponibilidad de recursos integrados en el tiempo) ayuda a las aves depredadoras a satisfacer sus demandas energéticas.

La duración total de una ubicación en aguas poco profundas también podría tener un doble propósito en este sistema al proporcionar un hábitat para peces pequeños o juveniles y, por extensión lógica, un aumento en las presas de aves zancudas. La respuesta numérica de los peces a las fluctuaciones de las mareas es específica de la especie (Ellis y Bell 2008), y la abundancia máxima de algunas especies ocurre durante las mareas altas, bajas o medias. Sin embargo, parece haber consenso en que la abundancia de peces pequeños es generalmente mayor en aguas menos profundas que en aguas más profundas (Nagelkerken et al. 2000, Whitfield 2017). Aunque las garzas blancas capturan peces grandes (L. Calle, observación personal), la mayoría de los peces presa son pequeños (& lt12 cm L. Calle, datos no publicados), y estudios de la garza real de tamaño similar (A. cinera) también encontraron que los peces de presa pequeña eran la norma (Gwiazda y Amirowicz 2006, Regós 2011). Además, muchas especies permanecen en la zona intermareal durante la marea baja incluso cuando el agua superficial está temporalmente ausente, ya que algunos peces están bien adaptados para sobrevivir fuera del agua mediante la respiración de aire (Martin 1995) y mediante el metabolismo del nitrógeno modificado (p. Ej., Peces sapo y gobios Walsh y Milligan 1995). Sin embargo, la exposición del lecho marino al aire no fue común para grandes extensiones en las planicies de marea en nuestra área de estudio (L. Calle, observación personal) y las aguas poco profundas persistentes podrían ser un refugio adecuado para los peces pequeños que no pueden sobrevivir fuera del agua (Nagelkerken et al. 2000, Baker y Sheaves 2007, Ryer et al. 2010).

De hecho, si existen aguas poco profundas (& lt1 m) en las planicies de marea durante la mayor parte del ciclo de las mareas, estas ubicaciones podrían ser áreas de refugio importantes para que los peces pequeños o juveniles escapen de los efectos letales y subletales de los depredadores acuáticos (Ruiz et al. 1993, Baker y Sheaves 2007, Ryer et al.2010). En un estudio focal de una sola planicie de marea durante un ciclo de marea completo, no observamos el comportamiento de alimentación siguiendo el borde o diferencias perceptibles en los lugares de alimentación en relación con las mareas de reflujo e inundación (L. Calle, datos no publicados), lo que sugiere que no hubo una gran concentración de peces en el borde de ataque de la inundación por marea. Sin embargo, también encontramos en este estudio que, en la escala espacial de 500 m de selección de recursos, la probabilidad de uso disminuyó de 1.8 a 3.4 veces a una distancia de 200 a 300 m de aguas profundas (& gt1 m). La aparente preferencia por ubicaciones cercanas a aguas profundas podría sugerir que los peces presa se movían dentro y fuera de las planicies de marea durante las mareas (Gibson 2003) en un patrón que no agrega la presa en los márgenes de las planicies de marea, o donde los efectos del movimiento en y fuera de las llanuras de marea no se extienden mucho más allá de las aguas profundas. Las características topográficas, como la morfología del canal, también pueden influir en el movimiento de los peces. La predicción de que la distribución y abundancia de peces pequeños es una función de la duración promedio de un hábitat en aguas poco profundas (& lt1 m) necesitaría ser verificada por estudios de campo. Sugerimos que las aves zancudas en los sistemas intermareales han convergido en un patrón de uso que está doblemente influenciado por (1) el alto costo del movimiento y el tiempo limitado de acceso al hábitat de alimentación durante las mareas y también influenciado por (2) la dinámica del ecosistema que resulta en un beneficio de doble propósito para peces pequeños.

¿Existe evidencia de que los atributos del hábitat tradicional expliquen los patrones de uso de los recursos?

Los factores bentónicos considerados en este análisis (es decir, el porcentaje de cobertura de pastos marinos y sustratos bentónicos) no explicaron los patrones de uso del hábitat en nuestro estudio, pero estos factores probablemente sean cruciales para modificar los patrones de distribución de peces pequeños (Matsunaga 2000, Ellis y Bell 2004 ). Los huracanes (Fourqurean y Rutten 2004) y los nutrientes (Lapointe et al. 2004, Green et al. 2015) pueden modificar las condiciones bentónicas de los lugares de alimentación y, por lo tanto, afectar los patrones de uso del hábitat por parte de las aves. Aún así, los atributos bentónicos son relativamente estáticos e invariables en escalas de tiempo relevantes para las decisiones de alimentación de las aves zancudas. Como tal, el hecho de que la vegetación y el sustrato no contribuyan a los modelos de uso del hábitat no fue sorprendente.

La profundidad del agua en sí misma impone limitaciones físicas en el acceso al hábitat de forrajeo acuático, pero es una variable dinámica que solo se correlacionó marginalmente con la disponibilidad de hábitat integrada en el tiempo (Apéndice S1: Fig. S4). Este último se calcula como la integral de las profundidades de agua accesibles y las aguas poco profundas por sí mismas no garantizan que la disponibilidad de hábitats integrados en el tiempo sea de larga duración. Por lo tanto, la profundidad del agua puede considerarse una propiedad que es independiente de la disponibilidad de hábitat integrada en el tiempo. Aún así, solo hubo evidencia de que la profundidad del agua ayudó a explicar los patrones de uso de Great White Herons en el análisis espacial más pequeño, mientras que Little Blue Herons usó profundidades de agua al azar. En ambos casos, la disponibilidad de hábitats integrados en el tiempo ayudó a describir los patrones de uso de manera más general.

Nuestro modelo simplificado del sistema, que se basó en gran medida en la disponibilidad de hábitats integrados en el tiempo, pudo realizar predicciones precisas sobre el uso del hábitat. El marcado patrón de las aves que se alimentan en lugares con mayor disponibilidad de hábitat integrado en el tiempo sugiere que las condiciones bentónicas y las profundidades del agua accesibles por sí solas no cumplen los criterios para aumentar la probabilidad de uso. En cambio, las profundidades instantáneas del agua pueden servir como un límite práctico de acceso, pero la disponibilidad de hábitat integrada en el tiempo del lugar de alimentación es la propiedad de hábitat más importante.

La disponibilidad de recursos integrados en el tiempo es una propiedad dinámica de los recursos y también una medida sólida para la inferencia ecológica

El aumento a largo plazo del nivel del mar (Maul y Martin 1993) reducirá la extensión del hábitat actual de alimentación de las aves zancudas (Galbraith et al. 2002), esto es bien sabido. Sin embargo, el efecto negativo de la pérdida de hábitat se ve agravado por una pérdida en la duración del acceso, por lo que se puede argumentar que la pérdida de hábitat es tanto temporal como espacial. Aparte de las diferencias específicas de las especies en las restricciones de comportamiento en el acceso, la duración del acceso a los lugares de alimentación está predominantemente controlada por las mareas (Powell 1987, Raposa et al. 2009, Calle et al. 2016). Las características de las mareas (amplitud, período) cambiarán a medida que aumente el nivel del mar porque los cambios en la velocidad de las olas de marea ocurrirán en todo el mundo a medida que cambian las barreras al flujo (por ejemplo, a medida que aumenta la profundidad del agua en áreas poco profundas y a medida que las islas se inundan), pero la dirección de cambio (aumento o disminución) diferirá según la región (Pickering et al. 2017). Aun así, nuestros modelos sugieren fuertemente que una reducción en la duración de la disponibilidad afectará los patrones de uso del hábitat. La pérdida de hábitat por el aumento del nivel del mar estará precedida por una reducción en la duración del acceso a los lugares de alimentación actuales, al tiempo que creará oportunidades para alimentarse en ubicaciones de tierras altas recientemente inundadas (Dawson et al. 2011), pero la dinámica de los recursos temporales continuará afectando los patrones. de uso. En consecuencia, la disponibilidad de hábitats integrados en el tiempo puede ser una herramienta importante para predecir los efectos del aumento del nivel del mar en la fauna acuática y terrestre que depende de las zonas intermareales para sobrevivir.

¿Cuándo es ecológica y prácticamente relevante el concepto de disponibilidad de recursos integrada en el tiempo?

Un factor crítico que influyó en la utilidad de la medida de disponibilidad de recursos integrada en el tiempo en nuestro estudio fue el cambio no lineal en el área inundada debido a la interacción entre los niveles de agua que cambian rápidamente durante las mareas y la topografía subyacente con grandes características planas. Antes de este estudio, los cambios no lineales en la disponibilidad de hábitat eran difíciles de evaluar en relación con otros factores estáticos. Estudios previos evaluaron la disponibilidad de hábitat mediante el uso de la altura de la marea (Powell 1987, Spear et al. 1999, Ellis y Bell 2008, Raposa et al. 2009), los flujos de las mareas (Kneib y Wagner 1994, Forward y Tankersley 2001), u otro punto métricas basadas en Los mismos problemas impregnan otros estudios también. Por ejemplo, los peces de agua dulce suelen utilizar llanuras aluviales y arroyos efímeros como hábitat (es decir, para alimentarse o desovar) durante diferentes etapas de la vida (Humphries et al. 1999, King et al. 2003, Lytle y Poff 2004). Estos temas a menudo se estudian en el contexto de regímenes de flujo, días de inundación o hidroperiodo, o tiempo de movimiento (Lytle y Poff 2004). Sin embargo, el problema es inherentemente una interacción entre el espacio y el tiempo. Una pequeña llanura aluvial puede proporcionar más recursos para un pez que una gran llanura aluvial si el período de inundación es más largo. Los mismos procesos operan en los ecosistemas terrestres. Por ejemplo, cuando un león dominante obliga a un depredador guepardo subdominante a alterar y restringir sus tiempos de alimentación (Dröge et al. 2016), el hábitat integrado en el tiempo total disponible para el depredador subordinado se reduce significativamente de manera no lineal, en ambos casos. espacio y tiempo. Esta reducción en el hábitat disponible se puede cuantificar por el cambio en la disponibilidad de hábitat integrada en el tiempo.Aunque el ejemplo del león y el guepardo se resume adecuadamente en las restricciones en la duración de la alimentación únicamente, la medida integrada en el tiempo de la disponibilidad de hábitat es muy adecuada, en este caso, para la integración en modelos energéticos o poblacionales que intentan tener en cuenta medidas integradas de tiempo y energía. ganado o perdido entre los compartimentos del ciclo de vida (Caraco 1980, Pulliam 1988). Como guía práctica para la aplicación, cualquier rasgo físico (morfométrico) o de comportamiento que limite la disponibilidad de recursos en el tiempo o en el espacio debe considerarse en la estimación de la disponibilidad de recursos integrados en el tiempo porque es una propiedad característica del recurso que es independiente de otras. propiedades centradas en el individuo, como la tasa de admisión o el tiempo de residencia.

Las restricciones de comportamiento en otros taxones también actúan de manera similar para restringir las estimaciones del límite superior de disponibilidad de recursos a lo largo del tiempo. Un lagarto ectotérmico (Sceloporus merriami) requiere calor del sol para regular y excitar su metabolismo (Grant y Dunham 1988). En este caso, la cobertura de nubes y los frentes fríos reducen la cantidad de insolación o temperaturas durante el día y, por lo tanto, las nubes o los frentes fríos modifican la disponibilidad de recursos integrados en el tiempo (calor), como lo hicieron las mareas en nuestro estudio, mientras que la duración del día establece el límite superior. límites en la adquisición de recursos. Adolph y Porter (1993) ofrecen un modelo matemático clásico para determinar los presupuestos de actividad no lineal de los lagartos basados ​​en cargas de calor, pero su modelo solo aborda las limitaciones temporales. Un trabajo reciente sobre reptiles, que se basa en Adolph y Porter (1993), fusiona una comprensión mecanicista de los procesos temporales con las ventajas espaciales del modelado de distribución de especies (Kearney y Porter 2009), pero creemos que estos esfuerzos pasan por alto un punto importante. En nuestros ejemplos anteriores, la integración temporal de la disponibilidad de recursos es el principio unificador para comprender el proceso subyacente y formular preguntas de investigación que son de naturaleza mecanicista y comparables entre los estudios.

Los rasgos de comportamiento no solo establecen límites superiores fijos en la disponibilidad de recursos integrados en el tiempo, sino que también moderan la dinámica de los recursos en escalas de tiempo más precisas. Los rasgos de comportamiento adicionales imparten una limitación más matizada a la dinámica de los recursos que no se consideró en nuestro estudio. Por ejemplo, el tipo de cinética enzimática de Michaelis-Menton se utiliza para describir los límites de consumo asintóticos de los depredadores en función del tiempo necesario para buscar, manipular presas y procesar alimentos en el intestino (Jeschke et al. 2002). Si hubiéramos considerado estos rasgos de comportamiento adicionales y asumimos que operan en escalas de tiempo más cortas que un ciclo de mareas, entonces los factores que controlan la disponibilidad de recursos integrados en el tiempo se pueden ordenar como luz del día & gt fluctuaciones de marea & gt tiempo de búsqueda / manejo / digestión. Es importante destacar que los procesos que regulan la luz del día y las mareas operan a diferentes velocidades y períodos de tiempo, de modo que mientras un ave se alimenta, la luz diurna restante total disminuye y los niveles de agua continúan subiendo o bajando. Además, los procesos individuales que parecen controlar la dinámica de la disponibilidad de recursos (mareas, ciclos de luz diurna, rasgos de comportamiento) no necesariamente influyen directamente en ambos ejes del tiempo y el espacio, pero lo hacen. indirectamente o como consecuencia del movimiento continuo de procesos de fondo. Por ejemplo, el tiempo asignado a la búsqueda y manipulación de presas no influye directamente en la disponibilidad de recursos (hábitat) en el espacio, pero al mismo tiempo, el proceso de fondo de las fluctuaciones de las mareas disminuye la disponibilidad espacio-temporal del hábitat para alimentar a las aves. De esta manera, los tiempos de búsqueda y manejo son mucho más costosos para un animal en un sistema en el que existe una mayor diferencia entre las tasas de procesos que modulan la disponibilidad de recursos en el tiempo y el espacio. Con este tipo de comprensión de los sistemas, podemos asumir una escala de tiempo razonablemente fija para procesar los alimentos en el intestino, y tomar un promedio de los tiempos de búsqueda y manipulación para derivar una estimación del número máximo de presas que un ave puede consumir dentro de las limitaciones de fluctuaciones diurnas y de las mareas, considerando el descuento espacio-temporal de una actividad de alimentación sobre la disponibilidad de recursos. Nuestra capacidad para reducir la complejidad de la dinámica de recursos a componentes individuales utilizando el concepto de disponibilidad de recursos integrada en el tiempo se basa en gran medida en el pensamiento sistémico y en la comprensión de que, en muchos casos, los procesos que regulan la dinámica de recursos pueden considerarse independientes, con tasas y tasas únicas. marcos de tiempo, pero vinculados por el tejido del espacio-tiempo.

La modulación de la disponibilidad de recursos por restricciones de comportamiento puede ser espacial y temporal, o de forma dual, y los mismos procesos pueden modular la dinámica de recursos de manera opuesta para diferentes taxones en los mismos sistemas. En la zona intermareal, las aves parecen responder activamente a los niveles del agua, mientras que los ciclos reproductivos y el desarrollo larvario de los mosquitos intermareales (Cluino marinus) están determinados principalmente por dos

Ciclos mareas-lunares y solares de 15 días (Neumann y Heimbach 1984). El ciclo solar influye en el momento y la magnitud del pico de insolación, que influye en el desarrollo de las larvas y generalmente se cree que ocurre al mediodía, pero el agua es una masa térmica eficiente y el máximo balance de calor en la superficie bentónica ocurre cuando las mareas son más bajas al mediodía cada día.

15 d (Vugts y Zimmerman 1975). Aunque la mayor parte de la literatura sobre Clunio marinus se relaciona con su papel en el estudio de los ritmos biológicos controlados genéticamente, uno podría fácilmente intentar modelar su distribución pensando en la naturaleza dual de su dinámica de recursos: restringida espacial y temporalmente por una dependencia de ciclos periódicos de insolación solar.

Los ejemplos dados anteriormente son en muchos sentidos un replanteamiento de la investigación ecológica clásica. Creemos que hay un valor agregado considerable en enmarcar las investigaciones ecológicas de la dinámica de los recursos dentro del contexto de la disponibilidad integrada en el tiempo. Nuestro argumento no es simplemente un caso de jerga adicional. En cambio, pensamos que los estudios ecológicos pueden hacer más para centrarse en la comprensión a nivel de proceso de la dinámica de los recursos, lo que hace que la comprensión ecológica sea más fácilmente traducible entre estudios que difieren en sus taxones o ecosistemas focales porque operarían a partir de una comprensión de los principios generales de los sistemas. tiempo y espacio.


La geografía en la práctica: creación de distritos electorales de los Estados Unidos a partir de bloques censales

Cada 10 años, los distritos del Congreso de los Estados Unidos deben rediseñarse en respuesta a un censo nacional. Si bien el tamaño de los problemas prácticos de distritos políticos suele ser demasiado grande para enfoques de optimización exactos, las heurísticas como la búsqueda local pueden ayudar a las partes interesadas a identificar rápidamente planes buenos (pero subóptimos) que se adapten a sus objetivos. Sin embargo, hacer cumplir una restricción de contigüidad de distrito durante la búsqueda local puede requerir importantes herramientas de cálculo que pueden reducir los cálculos basados ​​en contigüidad en grandes problemas prácticos de distritos. Este documento aplica la geografia marco para la creación de Distritos del Congreso de los Estados Unidos a partir de bloques censales en cuatro estados: Arizona, Massachusetts, Nuevo México y Nueva York, y encuentra que (a) los algoritmos de evaluación de la contigüidad geográfica reducen el número promedio de bordes visitados durante las evaluaciones de contigüidad por al menos tres órdenes de magnitud en cada instancia de problema en comparación con la búsqueda de gráficos simples, y (b) los supuestos del modelo geográfico se adaptan fácilmente a la geografía de bloques censales a veces irregular con solo un impacto superficial en el espacio de la solución. Estos resultados muestran que el modelo geográfico y sus algoritmos de contigüidad asociados proporcionan una poderosa herramienta de evaluación de restricciones para los interesados ​​en distritos políticos.

Esta es una vista previa del contenido de la suscripción, acceda a través de su institución.


¿Teniendo en cuenta los agujeros / restricciones en la creación de polígonos de Voronoi en QGIS? - Sistemas de Información Geográfica

Una red de sensores inalámbricos es una red que está formada por cientos o miles de nodos de sensores que están densamente desplegados en un entorno desatendido con capacidades de detección, comunicaciones inalámbricas y cálculos [1]. Los nodos sensores son dispositivos diminutos de baja potencia equipados con procesador, memoria, radio, actuador y fuente de alimentación. Los transmisores y receptores de radio ayudan a los nodos sensores a comunicarse entre sí.

Algunos de los desafíos en las WSN son la implementación de nodos, el consumo de energía, la heterogeneidad de los nodos, la agregación de datos y la tolerancia a fallas [2]. La detección de agujeros es uno de los principales problemas de WSN. Los agujeros afectan la capacidad de la red y la cobertura de percepción de la red. Debido a la batería limitada, los nodos pueden morir con el paso del tiempo. En caso de despliegue aleatorio, existe una gran posibilidad de que todas las áreas de la región objetivo no se cubran adecuadamente, lo que lleva a la formación de agujeros. La detección de agujeros es importante debido a sus efectos negativos y dañinos.

Las WSN tienen una miríada de aplicaciones interdisciplinarias, como la previsión meteorológica, la vigilancia del campo de batalla, la identificación de amenazas [3], la supervisión de la salud [4], la supervisión del medio ambiente [5] y la supervisión de la vida silvestre. Todas aquellas aplicaciones que exigen un despliegue aleatorio y un entorno no controlado sufren problemas de agujeros [6]. Por lo tanto, la detección de agujeros puede ser útil para todas las disciplinas de las ciencias y la ingeniería.

El resto del artículo está organizado de la siguiente manera. La Sección 2 analiza los diferentes tipos de agujeros en las WSN y la importancia para los algoritmos de detección de agujeros. La Sección 3 propone una taxonomía novedosa de algoritmos de detección de agujeros de cobertura y revisa algunos de los algoritmos de detección de agujeros de cobertura existentes que se refieren a la taxonomía. Las conclusiones y las direcciones de investigación futuras se presentan en la Sección 4.

Un área donde un grupo de nodos sensores deja de funcionar y no participa en la detección de datos y la comunicación se denomina agujero en la red [7]. Los agujeros son las barreras para la comunicación. Los agujeros tienen un gran impacto en el rendimiento de la red. La detección de agujeros identifica nodos dañados, atacados o inaccesibles. Si hay un agujero en la red, los datos se enrutarán una y otra vez a lo largo de los nodos del límite del agujero, lo que conducirá a un agotamiento prematuro de la energía presente en estos nodos [8]. Esto finalmente aumentará el tamaño del agujero en la red. La detección de agujeros evita el consumo de energía adicional alrededor de los agujeros debido a la congestión. Asegura una larga vida útil de la red y una adecuada calidad de servicio.

Uno de los problemas más prominentes en las redes de sensores inalámbricos es la detección del límite de la red, es decir, los nodos que están presentes en el límite de la red y el límite del agujero [7], es decir, los nodos que rodean un agujero como se muestra en la Figura 1 .

Los agujeros se pueden clasificar con respecto a su movilidad (móvil o estática), vida (persistente o temporal), propósitos (intencionales o no), función afectada (funcional o no funcional) y causa de anomalía [9] como se muestra en la Figura 2. Los agujeros formados en la red de sensores estáticos se denominan agujeros estáticos. Los nodos móviles crean y rompen conexiones mientras se mueven, creando así huecos móviles. Los eventos externos, como los incendios forestales o las fuertes lluvias, destruyen los nodos de sensores en un área, lo que lleva a la formación de agujeros persistentes. La programación ineficaz del despertador del sueño de los nodos sensores puede formar agujeros temporales en la región objetivo. Los agujeros involuntarios se forman cuando un nodo carece accidentalmente de algunas capacidades físicas. Los agujeros intencionales se forman cuando una parte del campo objetivo no es detectada por ningún nodo porque los nodos en esa área están programados intencionalmente para estar en estado de suspensión para ahorrar energía. Si, debido a una falla en la detección de algunos nodos, las tareas de comunicación y procesamiento de la red de sensores se ven afectadas, entonces el orificio correspondiente formado es un orificio funcional. Por otro lado, si algunas tareas no funcionales, como la seguridad, se ven afectadas, se forman agujeros no funcionales.

Jabeur y col. [9] discutió PLMS (físico / lógico / malicioso / semántico), una taxonomía basada en la causa en detalle, donde los agujeros de los sensores se estudian desde una perspectiva de causa-efecto-solución. Los agujeros semánticos se relacionan principalmente con la recopilación, el procesamiento y el enrutamiento de datos. Algunas de las razones de su formación son la recopilación de datos inexacta y la ausencia de sensores especializados. Los agujeros lógicos se crean debido a enfoques basados ​​en clústeres en los que un nodo sensor puede no obtener soporte de sus vecinos que pertenecen al mismo clúster. Los agujeros físicos pueden surgir debido a las capacidades de procesamiento limitadas de los nodos sensores llamados agujeros de procesamiento, a través del consumo excesivo de energía en algunos nodos que conduce a la formación de agujeros de energía, o debido al rango de detección limitado de los nodos que crean agujeros de detección. Los orificios de cobertura y enrutamiento se incluyen en la categoría de orificios físicos. Los agujeros de cobertura son el resultado de la implementación no planificada de nodos debido a que el área objetivo no se cubre adecuadamente. También pueden ocurrir debido a cambios en la topología debido a que algunos nodos de sensores pueden moverse con el tiempo y generar agujeros de cobertura. Los agujeros de enrutamiento se producen en las redes de sensores inalámbricos si hay un número insuficiente de nodos o si los nodos que están disponibles no pueden participar en el enrutamiento [10]. Estos agujeros tienen un efecto directo sobre el rendimiento de enrutamiento de la red. Estos agujeros ocurren principalmente en el reenvío codicioso geográfico debido a un fenómeno mínimo local.

Los agujeros formados por el comportamiento malicioso de algunos nodos de la red se denominan agujeros maliciosos. La categorización adicional de nodos maliciosos incluye interferencias, sumideros y agujeros de confianza. Los agujeros de interferencia ocurren si algunas señales de alta frecuencia bloquean la frecuencia de radio utilizada para comunicarse por los nodos sensores. Los ataques de denegación de servicio provocan sumideros / agujeros negros [11] donde un adversario anuncia rutas atractivas para hundirse y, por lo tanto, logra engañar a otros nodos cercanos que pueden seleccionar este nodo como su próximo salto. Trust Hole es un nuevo tipo de agujeros propuesto por el autor que se incluye en la categoría de agujeros maliciosos. Los sensores asignan valores de confianza ponderados basados ​​en diferentes parámetros a sus vecinos. Los valores del umbral de peso de confianza dependen de la aplicación. Podemos ver un agujero de confianza en la Figura 3, delimitado por sensores que tienen valores de peso menores o iguales a 0.5.

Red de sensores con diferentes agujeros.

De todos los tipos de agujeros discutidos hasta ahora, los agujeros de cobertura son los más importantes de detectar, ya que juegan un papel vital para asegurar una buena QoS. Nos ayudan a identificar si cada punto del campo de detección tiene el grado de cobertura requerido o no. Son los indicadores de la salud general de las redes de sensores y ayudan a identificar las características geográficas de la región objetivo [12]. Los límites de los agujeros pueden determinar áreas de interés como incendios, inundaciones o terremotos. Nos ayudan a encontrar ubicaciones donde se deben implementar más nodos y, por lo tanto, ayudan a reparar los agujeros. La detección de agujeros garantiza la confiabilidad al evitar la pérdida de datos.

La detección de agujeros de cobertura ayuda a identificar vías de comunicación alternativas y ayuda a regular el flujo de tráfico de datos. La ausencia de algoritmos de detección de agujeros eventualmente causará problemas en el enrutamiento. Así, el resto del artículo se centra en identificar diferentes formas de detectar agujeros de cobertura en redes de sensores.

3. Taxonomía de los algoritmos de detección de agujeros de cobertura

Ha habido una gran cantidad de investigaciones sobre la detección de agujeros de cobertura en las WSN en los últimos años. En la Figura 4, los algoritmos de detección de agujeros de cobertura se han clasificado en diferentes categorías: (A) según el tipo de información utilizada, (B) según el modelo computacional y (C) según la dinámica de la red. En esta sección, analizamos y resumimos algunos de los algoritmos típicos de detección de agujeros de cada categoría.

Categorización del algoritmo de detección de agujeros de cobertura en WSN.

3.1. Enfoques basados ​​en el tipo de información utilizada

Los esfuerzos invertidos hasta ahora en el campo de la detección de agujeros de cobertura basados ​​en el tipo de información utilizada por los algoritmos se pueden dividir en tres enfoques, a saber, enfoques topológicos, estadísticos y geométricos [13].

3.1.1. Enfoque geográfico

Este enfoque asume que la ubicación exacta de los nodos sensores se conoce de antemano. Cada nodo conoce su ubicación con la ayuda de hardware de ubicación especial como GPS [12] o mediante el uso de dispositivos de escaneo, lo que aumenta el tamaño y la estructura de los nodos sensores. También se conoce como enfoque basado en la ubicación.

Yang y Fei [14] propusieron un algoritmo de detección de agujeros y enrutamiento geográfico adaptativo (HDAR) para detectar agujeros y usar esta información para tratar con problemas mínimos locales. Si el ángulo entre dos bordes adyacentes de un nodo es mayor de 120 grados, entonces comienza el algoritmo de detección de agujeros. Aquí, la relación de la distancia de la red sobre la distancia euclidiana se utiliza como métrica para detectar un agujero, es decir, Longitud & # x5fpro (p, x) / dist & # x5feuc (p, x) es la relación de detección de agujeros. Si para un nodo el valor de la tasa de detección de agujeros es mayor que un umbral predefinido, entonces está en el límite. Una de las principales ventajas es que un solo nodo puede detectar el agujero de manera eficiente. Después de detectar el agujero, anuncia esta información a los nodos cercanos que pueden ajustar de forma adaptativa la dirección de avance.

También denominado enfoque basado en la conectividad, utiliza solo la información de conectividad disponible de la red para detectar agujeros [13]. Este enfoque no requiere información de ubicación y funciona incluso para redes densas. No hay ninguna suposición sobre la distribución de nodos. Uno de los algoritmos basados ​​en un enfoque topológico para detectar agujeros de cobertura dentro de las redes de sensores inalámbricos se dio en [15] y luego se mejoró en [16]. Los autores propusieron un esquema cooperativo distribuido basado en el hecho de que los nodos en el agujero o en el límite de la red tienen grados más pequeños que los nodos interiores. Se trata de nodos estáticos, distribuidos uniformemente y cada nodo tiene una identificación única. Si el grado de un nodo es menor que el grado promedio de sus vecinos de 2 saltos, entonces toma una decisión sobre si está en el límite del agujero o no. Si es así, envía mensajes informando su estado a sus vecinos de 1 salto que también pueden estar en el límite del pozo. El algoritmo es escalable, pero el enfoque produce malos resultados para redes densas desplegadas de forma aleatoria. Si no hay suficientes nodos alrededor de un agujero, la salida producida no es precisa.

Martins y col. [17] utilizó los conceptos de complejo Rips y complejo Cech para descubrir agujeros de cobertura. Si el radio de comunicación es mayor o igual al doble del radio de detección y hay un agujero en el complejo Rips, entonces debe haber un agujero en el complejo Cech. Los autores clasificaron los agujeros como triangulares o no triangulares. El algoritmo distribuido propuesto por los autores es capaz de detectar agujeros no triangulares y el área de agujeros triangulares. Después de construir el gráfico vecino, cada nodo verifica si existe un ciclo hamiltoniano en el gráfico. Si no es así, el nodo está en el límite del agujero. Después de tomar una decisión, cada nodo transmite su estado a sus vecinos. El algoritmo además encuentra ciclos que delimitan agujeros.

Zeadally y col. [18] propuso un enfoque basado en saltos para encontrar agujeros en las redes de sensores. Hay tres fases, a saber, la fase de recopilación de información donde cada nodo intercambia información para construir una lista de vecinos de x-hop, la fase de construcción de ruta donde se identifican los enlaces de comunicación entre los nodos sensores en la lista de vecinos de x-hop, y finalmente la fase de verificación de ruta donde Las rutas se examinan para inferir nodos internos y de límites. Si la ruta de comunicación de los vecinos de x-hop de un nodo está rota, entonces es un nodo límite.El algoritmo funciona para un grado de nodo de 7 o superior, que es mejor que algunos de los otros enfoques, pero hay una gran sobrecarga de comunicación involucrada para identificar vecinos x-hop.

Chu y Ssu [19] propusieron un algoritmo de detección de límites descentralizados (DBD) para identificar los nodos sensores cerca de un agujero u obstáculo en WSN utilizando un enfoque topológico. Cada nodo conoce a sus vecinos de tres saltos intercambiando mensajes HELLO e información de nodo de uno y dos saltos. No hay restricción de UDG. Luego, cada nodo construye un gráfico vecino de 2 saltos. Si existe un ciclo en un gráfico de este tipo, entonces hay un agujero en la red. Para tratar con un agujero que no está incluido totalmente dentro del gráfico vecino de 2 saltos, se desarrolló otra regla basada en la estructura del contorno. La detección de una línea de contorno rota implica un límite de red o un obstáculo.

Hay muy pocos algoritmos que puedan detectar límites de pequeños agujeros. Dong y col. [20] propuso un algoritmo distribuido que puede detectar con precisión los límites de pequeños agujeros en la red. El primer paso del algoritmo es reducir el gráfico de conectividad mediante la eliminación de vértices y la eliminación de bordes para obtener un gráfico de esqueleto. A partir de entonces, el gráfico de esqueleto se divide aún más para obtener ciclos de límites internos gruesos. Cada ciclo encierra un agujero de gráfico o corresponde al límite exterior. Los límites exteriores gruesos se refinan aún más para obtener ciclos de límites finos. No hay ningún supuesto relacionado con la densidad de nodos. Los autores demostraron además la exactitud de la detección de agujeros.

Se aplica alguna función estadística a los datos recopilados de los nodos vecinos y luego una función booleana decide si los nodos están en el límite del agujero o no. Se basa en el supuesto de que la distribución de nodos sigue alguna función estadística. No hay necesidad de GPS, pero requiere una alta densidad de nodos, es decir, el grado medio debe ser 100 o superior [21]. En la práctica, este despliegue uniforme denso no es práctico. El concepto utilizado por Fekete et al. [21] es que los nodos fronterizos tienen grados promedio más bajos que los nodos interiores. La densidad media es la métrica utilizada para detectar huecos donde el grado real del nodo se compara con un valor de umbral predefinido para inferir su posición. Otra métrica utilizada por Fekete et al. [21] es el índice de centralidad, donde se asigna un valor alto a los nodos internos y menos valor a los nodos externos.

Discusión. Hemos considerado muchos algoritmos en diferentes categorías, cada uno con sus propias limitaciones. El enfoque geométrico para la detección de agujeros requiere un sensor con GPS y es caro. Consumen mucha energía y no es práctico que los sensores conozcan su ubicación exacta en un entorno hostil. Teniendo en cuenta las enormes aplicaciones de WSN, estos enfoques tienen un alcance limitado. Los enfoques estadísticos proporcionan un rendimiento óptimo, pero son computacionalmente costosos. Debido a los desafíos en las redes de sensores inalámbricos, no es deseable que los nodos realicen cálculos matemáticos y estadísticos complejos [13]. El enfoque topológico proporciona resultados realistas pero implica una sobrecarga de comunicación. Algunos de los algoritmos no funcionan para grados de red pequeños.

3.2. Algoritmos basados ​​en modelo computacional

Sobre la base del modelo computacional utilizado, los algoritmos de detección de agujeros de cobertura se pueden clasificar en dos categorías, a saber, centralizados y distribuidos.

Los algoritmos centralizados se ejecutan en uno o más nodos en una ubicación centralizada. Bldg y Funke [28] presentaron un algoritmo de detección de agujeros centralizado basado en información de conectividad de la red. Los autores seleccionan un conjunto de nodos y luego identifican si los isoniveles generados a partir de cada nodo están rotos o son continuos. El algoritmo se basa en el hecho de que los isoniveles siempre se rompen en el límite de la red o en el límite del agujero. Identifica los nodos cercanos a los límites, pero no da idea de cómo podrían estar conectados. Además, requiere un despliegue denso. Ghrist y Muhammad [25] han introducido una técnica centralizada para detectar agujeros de cobertura basada en la homología, una variante de topología algebraica. Utiliza solo la información de conectividad disponible para detectar agujeros de cobertura de un solo nivel. La complejidad del tiempo es O (n 5), siendo n el número de nodos. El enfoque no garantiza la detección precisa de los límites del pozo.

En los algoritmos descentralizados, varios nodos trabajan juntos para detectar de manera eficiente los agujeros en la red, lo que resulta en una división uniforme de la carga de trabajo. Senouci y col. [24] propuso una detección y curación de agujeros (HEAL), un algoritmo distribuido y localizado que puede detectar agujeros de cobertura utilizando la detección de agujeros de cobertura distribuida y puede curar los agujeros detectados utilizando el concepto de fuerzas virtuales. Las fuerzas atractivas y repulsivas actúan dentro del área de cicatrización del agujero (HHA) para recuperarse de los agujeros sin efectos secundarios. La complejidad computacional de este algoritmo es O (v 2), donde v es el número promedio de vecinos de 1 salto. HEAL se ocupa de orificios de diversas formas y tamaños y proporciona una solución rentable y precisa para la detección y curación de orificios. Kr & # xf6ller et al. [30] desarrolló un algoritmo distribuido para detectar agujeros en grandes redes de sensores utilizando un gráfico de disco de cuasiunidades. El algoritmo no funciona bien en redes dispersas donde la identificación de una sola flor es difícil.

Wang y col. [27] presentó un algoritmo de reconocimiento de límites distribuido simple basado en inundaciones repetitivas de la red. Los ancestros comunes más cercanos (NCA) se utilizan para detectar agujeros. En la Figura 5, el nodo r es el ancestro común más cercano de los nodos py q. El algoritmo construye el árbol de ruta más corto arraigado en algunos nodos arbitrarios. Los nodos donde los caminos más cortos de distintos tipos de homotopía se encuentran más allá del agujero se denominan nodos de corte.

El ancestro común más cercano de pyq es el nodo r.

Después de determinar los cortes en el árbol de la ruta más corta, se detecta el límite interior grueso que es un ciclo más corto que encierra el agujero compuesto. Luego, la red se inunda con el ciclo más corto para identificar los nodos externos, es decir, los nodos cuyos recuentos de saltos para el ciclo son localmente máximos. Finalmente se refina el límite interior grueso. No hay restricción de UDG. Se trata de una enorme sobrecarga de comunicación para sincronizar los nodos antes de que se construya el árbol. Además, el algoritmo falla si hay varios agujeros adyacentes.

Sobre la base de los nodos que invocan el algoritmo de detección de agujeros, podemos clasificar los algoritmos distribuidos en dos categorías, a saber, detección local y detección global. Un agujero ocurre cuando varios nodos adyacentes en la red de sensores fallan y se define como el casco convexo de la región que contiene los sensores fallados [22]. Los agujeros afectan a sus vecinos inmediatos, así como a los nodos remotos cuyas opciones de enrutamiento se reducen. Según los nodos que invocan el algoritmo de detección de agujeros, existen dos categorías de algoritmos de detección de agujeros, a saber, detección local y detección global. En la detección local, los nodos que se ven afectados inmediatamente por el agujero inician el algoritmo de detección del agujero. Sin embargo, en la detección global, el agujero es detectado por un nodo que está lejos y no se ve afectado directamente por el daño causado por el agujero.

(a) Detección local. Corke y col. [22] presentó, analizó e implementó dos algoritmos distribuidos para la detección de agujeros. En la detección local, la fase de inicialización del nodo es necesaria para conocer el estado de conectividad inicial. En la fase de inicialización, cada nodo envía un ping solicitando información del vecino. Los nodos que responden con su ID se agregan a la lista de vecinos. A continuación, se hace ping a los vecinos periódicamente para verificar la integridad de la red. Si el nodo vecino no responde al mensaje de ping, se considera inactivo. Cuando la cuenta muerta excede el umbral muerto, el nodo se marca a sí mismo como asentado en el perímetro de daño. Durante el cálculo de la extensión del daño, cada nodo descubre el casco convexo general de forma incremental calculando cascos convexos en cada nodo y compartiendo los cascos hasta que no haya más cambios en el conjunto de cascos. Wang y col. [27] han desarrollado un algoritmo distribuido donde cada nodo primero verifica si es un nodo atascado o no usando la regla TENT. Si un nodo está más cerca del objetivo que todos sus vecinos de 1 salto, entonces es un nodo atascado. Los nodos atascados se marcan como nodos de límite de agujero. El algoritmo de boundhole luego construye rutas alrededor del límite del pozo para enrutar paquetes. La aproximación solo necesita información de ángulo dentro de sus vecinos de 1 salto, por lo que la detección es local.

(b) Detección global. En el método global, la información de enrutamiento se utiliza para detectar los agujeros. En papel [22], la densidad de trayectoria es la métrica utilizada para detectar la presencia de agujeros. Cada nodo transmite aleatoriamente un paquete de diagnóstico que contiene la coordenada de origen, la coordenada de destino, la coordenada anterior, la distancia recorrida y la identificación del mensaje. La distancia recorrida y la coordenada anterior se actualizan en cada salto. La identificación del mensaje se utiliza para ignorar los mensajes duplicados. Cuando el mensaje llega al destino, la densidad de la ruta se calcula como la relación entre la distancia en línea recta desde el origen hasta el destino y la distancia real recorrida. Una relación baja implica que existe un agujero en la red.

Discusión. El almacenamiento limitado es uno de los desafíos de las redes de sensores, por lo que los algoritmos que recopilan datos completos en algún nodo para realizar cálculos centralizados no son factibles. El enfoque centralizado adolece del problema del punto único de falla. Debido a la topología dinámica y las alteraciones exógenas, las WSN necesitan una implementación densa. Los protocolos diseñados para redes tan densas deben distribuirse para adaptarse a una arquitectura escalable. Los algoritmos centralizados consumen más energía para lograr un mayor porcentaje de área de pozo recuperada en comparación con el algoritmo distribuido. Por otro lado, los algoritmos distribuidos son más complejos que los centralizados, ya que deben ejecutarse en muchos nodos de la red. El enfoque global ayuda a superar la ambigüedad que a menudo enfrenta la detección local. Los algoritmos de detección local se ejecutan periódicamente para proporcionar información sobre el estado de la red de sensores. Se pueden utilizar para buscar cambios desde el estado inicial.

3.3. Algoritmos basados ​​en la dinámica de la red

Los algoritmos discutidos en esta sección se clasifican según la dinámica de la red en la red de sensores como sensores estáticos, sensores móviles y sensores híbridos.

Li y col. [34] propuso 3MeSH (algoritmo de detección de orificios de autorreparación de malla triangular), que es un algoritmo de detección de orificios distribuido sin coordenadas. Se supone que cada nodo tiene un radio de detección uniforme R y un radio de comunicación 2R. Inicialmente se selecciona un subconjunto de nodos activos. Un nodo activo x es vecino del nodo activo y si están separados entre R y 2R. Los nodos que se encuentran dentro del rango de detección de un nodo activo se denominan nodos redundantes. Cada nodo activo recopila información de conectividad de sus vecinos. Si el nodo detecta la presencia de un anillo 3MeSH como se muestra en la Figura 6 definido por todos sus vecinos, entonces es un nodo límite. Para detectar agujeros grandes, los nodos pueden recopilar información de conectividad de nodos más alejados, pero a costa de una mayor complejidad. 3MeSH-DR es una versión mejorada del algoritmo 3MeSH presentado en [31].

Los nodos de sensores móviles pueden moverse después de la implementación inicial. El principal objetivo de la WSN móvil es maximizar la cobertura. La topología de la red de sensores se ve afectada por los nodos móviles, ya que forman nuevas conexiones y rompen las antiguas. Si el área de cobertura de un nodo puede ser cubierta por su nodo vecino, entonces solo un nodo puede moverse a otra área. En [26], los autores han utilizado diagramas de Voronoi para detectar agujeros de cobertura. El diagrama de Voronoi es un diagrama de límites alrededor de cada sensor, de modo que cada punto dentro del límite del sensor está más cerca de ese sensor que cualquier otro sensor en la red [35]. La figura 7 muestra una celda de Voronoi. Los nodos P, Q, R, S y T son vecinos Voronoi de X y a, b, c, dye representan los bordes Voronoi. Estos bordes son la bisectriz vertical de la línea que conecta a X con sus vecinos Voronoi.

Un polígono construido a partir de todos estos bordes de Voronoi se llama celda de Voronoi del nodo X. Podemos ver un diagrama de Voronoi en la Figura 8.

Para detectar un agujero, cada nodo verifica si su polígono de Voronoi está cubierto por su área de detección. Si no es así, existe un agujero de cobertura. Después de detectar el agujero, uno de los tres algoritmos propuestos se utiliza para encontrar la ubicación de destino donde se debe mover un nodo móvil para curar el agujero. En el algoritmo basado en vectores (VEC), los nodos sensores se empujan desde regiones densas a regiones dispersas para que los nodos se distribuyan uniformemente. El algoritmo basado en Voronoi (VOR) es un algoritmo de extracción que atrae nodos hacia regiones dispersas. En el algoritmo minimax, la ubicación de destino está en el centro de su polígono de Voronoi. El algoritmo Minimax logra la máxima cobertura a costa de una mayor sobrecarga computacional.

Zhao y col. [32] propuso un método de detección de agujeros de cobertura (CHDM) mediante análisis matemático. Se supone que la red consta de nodos móviles, cada uno con un radio de detección ry un radio de comunicación 2r. Un nodo p se define como vecino del nodo q si se encuentra en su rango de comunicación. Sobre la base del ángulo central entre sensores vecinos, los autores presentaron diferentes casos para encontrar agujeros de cobertura en el círculo de comunicación alrededor de un nodo móvil redundante. Para parchear el agujero, se mueve un nodo redundante a una posición apropiada dentro del agujero.

Las WSN híbridas constan de nodos fijos y móviles. Los nodos móviles ayudan a reparar los agujeros de cobertura creados por los nodos estacionarios. Babaie y Pirahesh [29] presentaron un diagrama de orientación triangular para detectar un agujero. Los autores conectaron el centro de tres sensores adyacentes para producir un triángulo y además presentaron varias posibilidades de ocurrencia de agujeros y luego calcularon el área que no está cubierta por ninguno de ellos. Esta área descubierta es el agujero de cobertura. Para parchear el agujero de cobertura, un nodo móvil se mueve al incentro o circuncentro dependiendo de si el área del agujero es mayor o menor que la región de detección, respectivamente. El enfoque es simple en comparación con la construcción del diagrama de Voronoi. Además, puede determinar el área exacta del agujero.

Wang y col. [33] propuso un protocolo de licitación distribuido para detectar agujeros de cobertura en redes de sensores híbridos. Los nodos móviles actúan como un servidor de reparación de agujeros con cierto precio base inicialmente establecido en cero. El precio base es la estimación del nuevo agujero de cobertura generado cuando un nodo móvil se mueve a una nueva ubicación de destino con fines de recuperación. Durante la fase de publicidad, los sensores móviles transmiten sus ubicaciones y precio base. En la fase de licitación, los sensores estáticos examinan sus respectivas celdas Voronoi para detectar agujeros de cobertura localmente. Si existe un agujero, estima su tamaño y determina la posición del objetivo dentro del agujero. Los nodos estáticos luego calculan la oferta usando la fórmula & # x3c0 & # x2a (d - sensing-range) 2, siendo d la distancia entre la ubicación objetivo y el nodo que quiere ofertar. Los sensores estáticos envían un mensaje de oferta al sensor móvil más cercano cuyo precio base es menor que su oferta. Cada nodo móvil compara las ofertas recibidas y elige el mensaje con la oferta más alta y se mueve a la ubicación de destino especificada en el mensaje. Esta oferta se convierte en el nuevo precio base del nodo móvil. Este proceso se detiene cuando la oferta de cualquier sensor estático no supera el precio base de cualquier sensor móvil.

Discusión. La probabilidad de que se forme un agujero en una red de alta densidad es menor. Por lo tanto, para redes densas se prefieren las redes de sensores estáticos, mientras que en el caso de escasa densidad, las redes de sensores híbridas y móviles ofrecen una mejor cobertura. Algunos de los nodos en las redes híbridas y móviles pueden moverse para reparar los agujeros de cobertura, mejorando así la conectividad de la red. Los sensores que se mueven a gran distancia consumirán más energía. Si la energía de un sensor es tan baja que muere poco después de ser reubicado en la región objetivo, entonces este esfuerzo se desperdicia. Por lo tanto, el costo de mudanza y mensajería debe mantenerse al mínimo al enviar nodos móviles a ubicaciones objetivo en redes de sensores híbridas y móviles.

En este trabajo se propone una taxonomía que da una clasificación exhaustiva de los algoritmos de detección de agujeros de cobertura. En los últimos años, los investigadores han proporcionado muchas ideas innovadoras para resolver el problema de detección de agujeros de cobertura en las WSN, pero la investigación en esta dirección aún se encuentra en una fase de crecimiento. La Tabla 1 resume las características de varios algoritmos de detección de agujeros de cobertura en el aspecto del enfoque utilizado, modelo computacional, dinámica de red, nivel de detección y entorno de simulación. En las Tablas 2 y 3, se puede ver que cada algoritmo tiene sus propias fortalezas y deficiencias, pero ninguna es absolutamente la mejor. La Tabla 4 analiza algunas de las sugerencias de aplicación para los algoritmos de detección de agujeros de cobertura.

Características de varios algoritmos de detección de agujeros de cobertura.

Fortalezas y deficiencias de los algoritmos de detección de agujeros de cobertura.

Comparación de algoritmos de detección de agujeros bajo diferentes parámetros.

Sugerencias de aplicación para algoritmos de detección de agujeros de cobertura.

Habiendo examinado varios algoritmos de detección de agujeros de cobertura, en esta sección se analizan algunas de las direcciones de investigación futuras. Los autores han hecho un buen intento por detectar agujeros, pero la mayoría de los algoritmos producen malos resultados para redes densas desplegadas de manera no uniforme. No se han analizado las complejidades computacionales de los algoritmos topológicos. La investigación adicional sobre la optimización de algoritmos en redes de sensores híbridos y la evaluación de compensaciones entre la latencia y las técnicas de recopilación de datos pueden proporcionar información valiosa para optimizar la cobertura y la conectividad. Aunque la literatura está repleta de técnicas de detección de agujeros de cobertura, hasta ahora no existe un protocolo de detección de agujeros específico de la aplicación. Existen muy pocos protocolos que puedan hacer frente a huecos abiertos en los límites de la red.

El trabajo futuro también puede centrarse en mitigar el problema de los agujeros después de su aparición y proporcionar un proceso óptimo de curación de los agujeros. Algunas de las formas de evitar la formación de agujeros pueden ser utilizando lavabos móviles o lavabos múltiples. Los nodos envían sus datos al sumidero cuando el sumidero móvil se acerca, evitando así el desperdicio innecesario de energía en rutas de entrega de múltiples saltos. Para ahorrar energía de los nodos sensores, se pueden desplegar múltiples sumideros en el área objetivo para reducir la distancia que los datos tienen que viajar para llegar al sumidero. Se puede aprovechar la movilidad de los nodos para reparar los agujeros de cobertura. Se pueden construir algoritmos que den consideraciones especiales a los nodos que están a punto de convertirse en un agujero. Otro trabajo interesante puede ser el desarrollo de productos comerciales para detectar agujeros en las WSN.

La mayoría de los algoritmos consideran que los nodos se implementan en un entorno bidimensional, pero en las aplicaciones del mundo real, los nodos sensores se implementan en un entorno tridimensional. Entonces, se puede trabajar en esta dirección. Uno de los temas de investigación interesantes en el futuro puede ser la detección de la presencia de agujeros en las WSN submarinas y subterráneas. El modelado matemático y las pruebas del mundo real deben incluirse en los pasos reales de la investigación. Esto también permitirá una comparación justa entre algoritmos.


3.5 Características clave y deficiencias de los enfoques actuales

Como se muestra en este capítulo, existe una gran variedad entre las técnicas utilizadas para modelar diferentes aspectos del espacio, el tiempo y la escala geográfica en 2D y 3D. Teniendo en cuenta todas las formas posibles en las que estas técnicas se pueden combinar en un enfoque de modelado completo, se pueden idear muchos enfoques viables diferentes, que se pueden ajustar aún más para una aplicación o caso de uso en particular. Estos varían en aspectos fundamentales, como su carácter explícito, su uso de la geometría y la topología, y la clase de objetos que pueden manejar de manera eficiente.

Sin embargo, a pesar de estas diferencias muy reales y sustanciales, la representación se aproxima en GIS 2D se han vuelto en gran medida intercambiables en la práctica. Existe una miríada de estructuras de datos topológicas bien conocidas que se pueden utilizar, como el DCEL [Muller y Preparata, 1978] y el quad-edge [Guibas y Stolfi, 1985], e incluso cuando ciertos objetos no están directamente soportados en ellos (por ejemplo, aquellos con una forma no múltiple o con agujeros), generalmente se pueden almacenar utilizando varios & lsquotricks & rsquo simples, como primitivas combinatorias repetidas (como se mostró anteriormente en la Figura 3.10), tipos especiales de atributos o estructuras de datos externas como índices.

Además, muchas aplicaciones de GIS 2D ni siquiera requieren la topología explícita de una estructura de datos topológicos. La visualización y los cálculos simples pueden prescindir de él con la misma facilidad y, en consecuencia, utilizar estructuras de datos con muy poca o ninguna topología, optando por una representación similar a las características simples [OGC, 2011]. Además, considerando que el cálculo de relaciones topológicas entre objetos 2D es relativamente simple, se puede hacer sobre la marcha solo cuando es necesario [ESRI, 2005] & mdash, algo que es especialmente cierto para el tamaño relativamente pequeño de la mayoría de los conjuntos de datos 2D, que a menudo palidecen en comparación con la potencia informática que ahora está disponible. Todas estas razones apuntan hacia una conclusión similar: los objetos de hasta dos dimensiones (es decir, puntos, segmentos de línea y polígonos) se pueden representar utilizando enfoques topológicos o no topológicos con poca diferencia en la práctica.

En 3D, la situación es más compleja y la topología trae ventajas más significativas, incluso cuando el almacenamiento de relaciones topológicas tiene un costo significativamente mayor en términos de memoria. En comparación con las circunstancias en 2D, existen más relaciones topológicas entre los objetos 3D, y estos son más difíciles y costosos de calcular, por lo que su almacenamiento se vuelve altamente deseable en muchos casos. Al mismo tiempo, los conjuntos de datos suelen ser mucho más grandes, lo que hace que las relaciones topológicas sean más valiosas para atravesarlas de manera eficiente. Las aplicaciones más complejas, como las simulaciones, se benefician enormemente de las representaciones topológicas 3D y, al menos, de los datos que se sabe que son válidos, para los que se utilizan estructuras de datos topológicas 3D [Ledoux, 2013].

Además, muchas de las sólidas propiedades que permiten estructuras de datos simples pero potentes y cálculos rápidos en 2D no funcionan en 3D. Por ejemplo, existe un orden natural para los vértices o segmentos de línea alrededor de un polígono y mdashused, p. almacenar eficientemente un polígono como una secuencia de vértices & mdashpero no existe un orden natural similar para las caras alrededor de un poliedro. De manera similar, almacenar una partición plana completa como un conjunto de primitivas de borde donde cada borde registra los polígonos que se encuentran en cada uno de sus dos lados [Peucker y Chrisman, 1975] es sencillo y eficiente, pero una partición de espacio 3D almacenada como un conjunto de caras donde cada cara solo conoce los volúmenes que se encuentran en ambos lados es muy engorroso de navegar & mdashe incluso una operación simple como extraer los volúmenes en la partición es difícil sin las relaciones de adyacencia entre las caras.

En parte debido a esto, así como al aumento general de complejidad que viene con un aumento en el número de dimensiones, las estructuras de datos topológicos que son capaces de almacenar relaciones topológicas entre conjuntos de objetos 3D se utilizan menos en la práctica. La tercera dimensión espacial, el tiempo y la escala se implementan principalmente mediante adaptaciones ad hoc a estructuras de datos 2D, lo que limita efectivamente las capacidades del software SIG. Los SIG 3D a menudo imitan la tercera dimensión mediante el uso de una estructura denominada 2.5D [Raper, 1989], que esencialmente trata la tercera dimensión como un atributo y restringe las geometrías que se pueden representar o representar objetos 3D individualmente y solo implícitamente a través de su límite 2D , utilizando una estructura de datos 2D sin relaciones topológicas 3D 52. Esto implica que muchas operaciones solo son posibles mediante búsquedas costosas que involucran muchos más objetos de los que se necesitarían.

El tiempo y la escala son considerados inseparables en el proceso de representación por los teóricos, ya que los eventos tienen un lugar intrínseco en el espacio y el tiempo, así como resoluciones espaciales y temporales específicas [Raper, 2000]. Sin embargo, los SIG espacio-temporales mantienen múltiples representaciones de estructuras 2D [Armstrong, 1988] o 3D [Hamre et al., 1997], o una lista de cambios por objeto [Worboys, 1992a Peuquet, 1994], limitando el análisis espacio-temporal combinado de tales objetos. Los conjuntos de datos de múltiples escalas generalmente consisten en conjuntos de datos independientes para cada escala, que están desconectados o conectados solo a nivel de objeto (por ejemplo, mediante el uso de ID). Esto significa que las relaciones complejas entre objetos, como colapsos, agregaciones y otros que no son uno a uno, son difíciles de almacenar, lo que provoca, entre otros, problemas de actualización y mantenimiento, así como inconsistencias. También complica el almacenamiento de información semántica sobre estas relaciones.

18. Productos cartesianos de simplices & # 8617

19. Ciertamente hay excepciones, como los modelos a escala 3D + como los modelos 4D en los que un volumen colapsa hasta un punto. Sin embargo, la gran cantidad de primitivas que deberían definirse para un sistema de este tipo lo volvería poco práctico. & # 8617

Figura 3.1: Un objeto representado como un árbol de operaciones de conjuntos booleanos en una esfera, un cubo y tres cilindros. De Wikimedia Commons. & # 8617

20. es decir, una línea en 2D y un plano en 3D. & # 8617

21. Esto es equivalente a un triángulo en 2D y una pirámide poliédrica en 3D. & # 8617


Ver el vídeo: introducción general al QGIS aplicando polígonos de voronoi