1 Introducción
Avances recientes en las tecnologías de la información y las comunicaciones han permitido el reconocimiento del importante rol que desempeñan las interacciones sociales que emergen de diversos fenómenos socio-económicos 1),(2),(3; esta idea en gran medida se ha inspirado en conceptos y métodos empleados en el estudio de sistemas físicos constituidos por muchas partículas 4),(5, incentivando la investigación de problemas formulados en la intersección entre las matemáticas, la ciencia de la computación y las ciencias socio-económica 6; comprendiendo así que en esencia, una socie- dad o una economía, pueden conceptualizarse como un sistema de muchos agentes que interactúan entre sí, de modo que cada agente actúa buscando obtener la mejor utilidad posible para sí, condicionado al comportamiento de los demás agentes y condicionando a su vez el comportamiento de éstos. La formulación matemática de estas ideas toma lugar dentro de la llamada teoría de juegos 3),(7.
Esto ha hecho además que las ciencias socio-económicas adquieran un carácter más cuantitativo, abriendo así un espacio donde las llamadas ciencias duras, como la matemática y la física, pueden contribuir con toda una artillería analítica desarrollada a lo largo de los siglos. Esto constituye una excelente oportunidad para contribuir desde una perspectiva más cuantitativa al progreso social de los países en vía de desarrollo, los cuales se enfrentan usualmente a fenómenos tan complejos como la pobreza, la inequidad, y en particular, a redes delincuenciales que constituyen un ejemplo persistente de este tipo de fenómenos, el cual ha tenido un creciente interés para muchos investigadores en los últimos años desde esta perspectiva 8),(9),(10),(11),(12),(13),(14.
Una de las hipótesis que se han explorado, conocida como la teoría de las ventanas rotas 15, asume que el comportamiento criminal se contagia como una epidemia cuya difusión genera patrones espacio-temporales de actividad criminal en la región geográfica en la cual se encuentra inmersa 12.
Otro enfoque consiste en estudiar la influencia que puede tener la estructura de la red social que conforman un grupo de individuos en su comportamiento criminal 8),(16),(17 La motivación detrás de esta manera de atacar el problema es la posibilidad de que las políticas de reducción del crimen se puedan hacer más efectivas al incorporar técnicas de análisis que permitan dilucidar las propiedades estructurales de la red que se busca desmantelar
Y es precisamente el concepto de red, o grafo, uno de los que ha generado mayor interés debido a su ubicuidad y generalidad: un conjunto de puntos (nodos) y un conjunto de líneas (vínculos) que une algunos pares de nodos. Un problema importante en las aplicaciones socio-económicas es la caracterización de los nodos más relevantes en una red y el diseño de algoritmos para identificarlos. Esto da lugar a un problema computacional que resulta ser NP-difícil (NP-hard), lo cual significa que no se conoce un algoritmo eficiente para resolverlo y, más aún, que no se espera que exista ya que esto equivaldría a resolver de manera eficiente toda una vasta clase de problemas de gran relevancia en diversas áreas de la ciencia y la ingeniería 18. De manera que uno de los retos en esta área es el desarrollo de algoritmos eficientes, si bien aproximados, que permitan realizar los análisis necesarios en un tiempo razonable. Tener la capacidad de encontrar los nodos más relevantes permitiría, por ejemplo, concentrarse en los integrantes más influyentes en una red social, ya sea para maximizar el impacto de una campaña publicitaria o para bloquear de manera eficiente la propagación de una epidemia 19),(29. Con este fin se han introducido diferentes versiones de un concepto denominado centralidad, el cual cuantifica precisamente el grado de influencia de un nodo dado en una red. Estas variaciones van desde las que tienen en cuenta propiedades netamente locales, como el número de vínculos que emergen de un nodo, hasta propiedades globales más complejas como el número de caminos que lo atraviesan 21.
En este trabajo se estudia el problema de redes delincuenciales desde el punto de vista del modelado matemático y computacional. El modelo de redes delincuenciales aquí estudiado fue propuesto recientemente 8 y se basa en la teoría de juegos 22),(23, la cual provee un marco conceptual bastante general para estudiar interacciones sociales de toda índole. Este modelo sugiere una estrategia de desmantelamiento basada en la medida de centralidad de Katz-Bonacich 24),(25, la cual cuantifica el número de caminos que atraviesan un nodo dado; la relevancia de dichos caminos disminuye exponencialmente con su longitud. Aquí se estudian varios métodos algorítmicos para implementar dicha estrategia y se hace un análisis comparativo con otro tipo de estrategias más tradicionales. En particular, se adapta un algoritmo basado en el método Monte Carlo y se compara con un método basado en algoritmos voraces introducido recientemente en la literatura 8. En este trabajo se compara además el desempeño de éstos con estrategias menos sofisticadas y se proporciona evidencia que dichos algoritmos se desempeñan relativamente bien, contribuyendo así a proporcionar un mejor entendimiento de éstos.
La topología de las redes delincuenciales aquí estudiadas corresponde a la de un grafo aleatorio, o de Erdös-Rényi, el cual se obtiene conectando pares de nodos al azar con una cierta probabilidad 26),(27. Esto se hace con el objeto de facilitar este primer estudio sobre el tema; se debe tener en cuenta, sin embargo, que es de esperar que la topología de las redes delincuenciales se asemeje más a la de una red compleja 28 y por lo tanto el análisis aquí propuesto debe ser extendido en futuros trabajos.
2 Definición del problema
2.1 Descripción de redes delincuenciales
El modelo aquí investigado hace uso de la hipótesis de racionalidad de la teoría de juegos 22),(23. Esta se debe tomar como una primera aproximación al problema que debe ser luego comparada con modelos más realistas que incluyen dinamicas de aprendizaje basadas en teorías cognitivas 29, tales como el modelo investigado por algunos de los autores en el contexto de cooperación 30. También se asume que el proceso de desmantelamiento de la red sucede suficientemente rápido de modo que la red no tiene tiempo de reorganizarse manteniéndose por lo tanto constante, excepto por los cambios debidos a la remoción de individuos producto del desmantelamiento de ésta.
Considere un conjunto de n delincuentes y un conjunto de vínculos entre ellos. Esto define una red delincuencial que se denotará por g. La matriz de adyacencia que describe la red se denotará por G y sus componentes para todo par de delincuentes i y j se denotará por gij . Por definición gij = 1 si y solo si los delincuentes i y j han cometido un delito juntos y gij = 0 de otro modo. Se denotara por xi el esfuerzo delincuencial del delincuente i y por x = {x 1 , x 2 , ...xn} el perfil de esfuerzos de la población delincuencial con 0 ≤ xi ≤ 1 para cada i. Siguiendo a Ballester et al.8 la ganancia delincuencial esperada para el delincuente i está dada por
Aquí yi (x) corresponde a la ganancia bruta del delincuente i, mientras que pi (x, g) y f se refieren a la probabilidad que el delincuente i sea capturado y a la intensidad de la sanción recibida (valor de la multa o tiempo de cárcel), respectivamente. Dicha ganancia o utilidad de un delincuente depende no solo del esfuerzo del delincuente en consideración, sino también del esfuerzo de todos los delincuentes y de la estructura de la red delincuencial. Esto se debe a la competencia global por los recursos limitados y a la colaboración local entre delincuentes.
De acuerdo con la hipótesis de racionalidad de la teoría de juegos, los delincuentes escogerán el nivel de su esfuerzo delincuencial que maximice su ganancia ui (x, g) dados los niveles de esfuerzo de los demás delincuentes x −i = {x 1 , ..., xi−1, xi+1, ...xn}. El perfil de esfuerzos dado por x∗ = {x∗, ..., x∗ } constituye lo que se conoce en la teoría de juegos como un equilibrio de Nash del sistema.
Se asumirá por simplicidad que 8
La primera expresión modela la competencia global entre delincuentes, dependiendo por tanto de la suma de las actividades delincuenciales de todos los individuos en la red. La segunda expresión, por otra parte, model la colaboración local entre individuos cercanos en la red delincuencial, dependiendo por tanto de la suma de las actividades delincuenciales de los individuos vecinos en dicha red. Ambas expresiones incluyen la función m´ax con el fin de modelar procesos de saturación; por ejemplo, una vez que hay una alta actividad delincuencial a nivel global, cualquier actividad
delincuencial adicional no cambiará mucho los incentivos de los individuos. Los parámetros δ > 0 y φ ≥ 0 caracterizan la intensidad de dicha competencia global en la ganancia bruta y la intensidad de dicha colaboración y complementariedad local entre los delincuentes, respectivamente.
2.2 Caracterización del equilibrio de Nash
Ballester et al. (8) demostraron que el juego definido por las ecuaciones (1),(2), y (3) tiene un único equilibrio de Nash, el cual puede expresarse en términos de una noción de centralidad. Se entiende por centralidad a una caracterización matemática del grado de influencia que un nodo tiene en una red; existen diferentes tipos de centralidades, tales como la centralidad de grado (degree centrality) y la centralidad de Katz-Bonacich, entre otras (31),(32),(33). La centralidad de Katz-Bonacich es la noción relevante en este caso como se discute a continuación.
Para comenzar, se asume que en el equilibrio de Nash x∗ se tiene
la consistencia de esta hipótesis y su rango de validez deben ser chequeados al final del razonamiento que sigue. Teniendo en cuenta esta hipótesis en las ecuaciones (1),(2), y (3) que definen la función de utilidad de cada delincuente, y después de un poco de álgebra se tiene que
donde π = p 0 f es el costo marginal esperado de la pena para un delincuente aislado.
La condición de equilibrio está dada por la expresión
Introduciendo el escalar , el vector cuyas components son todas iguales a uno, y la matriz identidad n × n, denotada por I, la Ecuación (6) puede escribirse en forma vectorial como
asumiendo que I − αG es invertible, es conocido como el vector de centralidades de Katz-Bonacich. Finalmente, se debe tener en cuenta que
donde es el nivel de centralidad global de la red.
Despejando x∗en (9) y reemplazando en (7) se tiene finalmente que
El rango de validez de esta solución está determinado por la condición αρ(g) < 1, donde ρ(g) = m´axk |λk|, con λk , los autovalores de la matriz de adyacencia G, es el radio espectral de G Esta condición garantiza que la matriz I − αG en la Ecuación (8) es invertible y además que cada x∗ ≥ 0.
El vector de centralidades de Katz-Bonacich b(g, α) , se puede expresar en términos de sus componentes como
donde ∂i denota el conjunto de vecinos del delincuente i.
Esta ecuación se puede resolver escogiendo una centralidad inicial para cada nodo, introduciéndola en el lado derecho para calcular nuevos valores de centralidad, e iterando este proceso hasta su convergencia, es decir hasta que no haya más variación en los valores de centralidad obtenidos mediante una iteración dentro de una tolerancia dada.
Este proceso iterativo se puede considerar como un proceso difusivo no conservativo en una red. Un proceso difusivo en una red es un proceso estocástico que distribuye alguna cantidad entre cada uno de sus nodos. Si el total de la cantidad en consideración distribuida en la red se mantiene constante el proceso difusivo es conservativo, en caso contrario, el proceso difusivo es no conservativo34.
En este caso la cantidad que se distribuye es la centralidad de Katz- Bonacich estimada, y el peso total de la red corresponde a la suma de cada una de las centralidades estimadas. Dado que esta última cantidad no se conserva durante el método iterativo descrito anteriormente, éste es un proceso difusivo no conservativo. Un ejemplo importante de proceso difusivo conservativo es el celebrado algoritmo PageRank utilizado por Google para clasificar páginas web.
2.3 Estrategias de desmantelamiento
El objetivo principal de esta investigación es estudiar algunas estrategias que permitan propinar la máxima reducción posible en el nivel agregado de actividad delincuencial dado por
En general, estas se pueden clasificar en estrategias globales que intervienen la red de manera homogénea, o locales que tienen en cuenta la heterogeneidad del sistema inducida por la topología de la red. Algunos ejemplos son
Global: Esta consiste en incrementar a π = p 0 f mediante, por ejemplo, un incremento en la intensidad de las sanciones f o un incremento de la probabilidad de atrapar a un delincuente p 0. Estas no tienen en cuenta de manera explícita la topología de la red.
Local: Asumiendo que sólo se tienen recursos para la captura o remoción de k delincuentes de la red, esta estrategia consiste en concentrar dichos recursos en los k individuos que mayor impacto tengan en la reducción del nivel agregado de actividad delincuencial dado por
la expresión (12). Si se denota con K = {i 1 , ..., ik} el conjunto de delincuentes a ser removidos de la red, y la red resultante como g−K, el objetivo es entonces encontrar el conjunto K∗ tal que
Dado que ∂x∗/∂b (g, α) > 0 esto equivale
Nótese que bajo la hipótesis que usamos en este trabajo de que la red original a desmantelar g es constante, este problema de minimización es equivalente a la maximización de la llamada intercentralidad dK (g, α) = b(g, α)−b(g−K, α) introducida en la definición 3 de la referencia 8, como se puede observar en la Ecuación (11) de la misma referencia. Esta hipótesis es valida siempre y cuando el desmantelamiento se haga suficientemente rápido en relación con el tiempo que le toma a la red re-estructurarse.
La estrategia global es tal vez la que tradicionalmente más se ha utilizado. Sin embargo, con el advenimiento del análisis matemático y computacional de redes de toda índole, estrategias del segundo tipo pasaron a ser el centro de atención. La estrategia global es tal vez la que tradicionalmente más se ha utilizado. Sin embargo, con el advenimiento del análisis matemático y computacional de redes de toda índole, estrategias del segundo tipo pasaron a ser el centro de atención.
Este trabajo se enfoca en el estudio de algunos métodos que permitan implementar la estrategia local descrita anteriormente. Note que ésta estrategia da lugar a un problema de optimización combinatoria donde la función objetivo no está dada de manera explícita. En efecto, el vector de centralidades de Katz-Bonacich depende de la topología de la red mediante la Ecuación (12), y ésta varía al remover k nodos. Dicho problema de opti- mización es NP-difícil o 'NP-hard' 8. El método más directo de resolver este problema de optimización sería resolviendo dicha ecuación para todos los posibles conjuntos de k nodos a remover, calculando la suma de las centralidades de cada nodo, y escogiendo el conjunto que corresponda al valor mínimo de ésta. Sin embargo, dicho método no es práctico pues escala exponencialmente con el número de nodos a remover. Aquí exploraremos algunas heurísticas que permiten obtener respuestas aproximadas de una manera más eficiente.
2.4 Aproximación analítica de la centralidad
El resultado que se discute a continuación no se debe tomar como una demostración rigurosa sino más bien como una aproximación heurística con el objetivo de ganar un poco de intuición sobre el problema. Que tan buena resulta esta aproximación analítica se discutirá en la Sección 4 donde se comparará con métodos computacionales mas precisos.
Introduciendo un vector de variables binarias σ = {σ 1 , σ 2 , , . . . , σN }
tal que para cada i se tiene
la centralidad de Katz-Bonacich de un delincuente i, cuando la configuración de delincuentes removidos está dada por el vector σ , puede escribirse como
La centralidad global b de la red está dada por
donde σ = . Para poder proseguir con el cálculo se asumirá que
donde |∂i| es el número de vecinos de i. Este tipo de aproximación se conoce en física usualmente como la aproximación de campo medio, pues equivale a aproximar el promedio local con respecto a los vecinos de i con el promedio global sobre toda la red. Finalmente, aproximando el número de vecinosde i con el número de vecinos promedio en la red C, es decir |∂i| ≈ C, se obtiene
despejando b de esta ecuación se llega a
donde se introdujo la fracción de nodos removidos f . Este resultado se espera que sea válido cuando las correlaciones en el sistema sean suficientemente débiles.
3 Métodos computacionales
3.1 Método de Ballester et al.
Este método, propuesto en la referencia (8), se basa en una heurística greedy o avara. Esta heurística se utiliza para resolver problemas de optimización y consiste en tomar la elección óptima en cada iteración. Dado que esta heurística no utiliza información global, ésta puede quedar atrapada en un óptimo local.
Para resolver aproximadamente la Ecuación (13) mediante esta heurística se siguen los siguientes pasos:
1. Se calcula la centralidad de cada uno de los nodos de la red resolviendo la Ecuación (11) mediante el proceso difusivo no conservativo discutido anteriormente.
2. Se remueve de la red un nodo que tenga el mayor valor de centralidad y se calcula nuevamente cada una de las centralidades tomando como condición inicial del proceso difusivo no conservativo las centralidades obtenidas en el paso anterior.
3. Se itera este proceso hasta que hayan sido removidos k nodos.
3.2 Método de Monte Carlo
El método de Monte Carlo es un método no determinista muy versátil desarrollado por el físico Enrico Fermi y el matemático Stanislaw Ulam con el objetivo de estudiar proceso nucleares. Con el advenimiento de la era digital, este método ha encontrado importantes aplicaciones en diversas áreas de la ciencia y la ingeniería. A continuación se describe como se puede utilizar el método de Monte Carlo para encontrar una solución aproximada de la Ecuación (13).
4. Se escogen k nodos al azar para ser removidos y se calcula la centralidad de cada uno de los nodos de la nueva red así obtenida, resolviendo la Ecuación (11) mediante el proceso difusivo no conservativo descrito anteriormente.
5. Se intercambian dos nodos escogidos al azar, uno de los k nodos removidos en el paso anterior y uno de los N − k nodos restantes, y se calcula nuevamente cada una de las centralidades tomando como condición inicial del proceso difusivo no conservativo las centralidades obtenidas en el paso anterior. Si la centralidad global disminuye se acepta el cambio, de lo contrario se acepta con probabilidad e−β ∆ b , donde ∆b es la diferencia de la nueva centralidad global menos la anterior, y β es un parámetro a fijar.
6. Se itera el proceso anterior un número determinado de veces, guardando en cada paso los valores mínimos obtenidos y el conjunto de nodos removidos correspondiente.
4 Resultados numéricos
Inicialmente este estudio se concentró en el estudio de redes delincuenciales que tienen la topología de un grafo aleatorio o de Erdös-Rényi. Para generar estos grafos se tuvo en cuenta el siguiente procedimiento.
1. Se genera un arreglo de N nodos.
2. Se escoge un par de nodos al azar que no estén conectados y se adiciona un vínculo entre ellos.
3. Se itera el paso anterior hasta que se hayan adicionado M vínculos.
La conectividad, o número de vínculos, promedio por nodo en el grafo está dado por C = 2M/N35.
Luego de generar estos grafos, se buscó tener una idea de cómo se distribuye la influencia en redes delincuenciales que tienen la topología de un grafo aleatorio. Para tal fin, en la Figura 1 se presentan la fracción de nodos que tienen un valor de centralidad de Katz-Bonacich dado promediado sobre 100 grafos de 100 nodos, para diferentes valores de los parámetros del modelo: número M de vínculos en el grafo, el cual fija la conectivdidad promedio en C = 2M/N , y parámetro de centralidad α.
Los histogramas obtenidos se asemejan mucho a una distribución de Poisson, lo cual puede ser una consecuencia de la topología del grafo ya que la fracción de nodos con una conectividad dada también sigue una distribución de Poisson. Para una demostración de este hecho se puede ver por ejemplo 35. Es probable que siguiendo una estrategia similar se pueda extender dicha demostración al caso de la centralidad de Katz-Bonacich, la cual es una noción global de centralidad en contraste con la conectividad que es una noción netamente local. Sin embargo esto es sólo una hipótesis que encontramos plausible.
Posteriormente se utilizaron diferentes métodos para estudiar la varia- ción de la centralidad total de Katz-Bonacich b en función de la fracción de nodos removidos f
La Figura 2 muestra los resultados obtenidos para diferentes valores de los parámetros del modelo. Entre los métodos utilizados están el método de Ballester et al., o método greedy, y el método Monte Carlo, discutidos en la sección anterior. Como referencia se utilizó el caso donde los nodos se remueven al azar sin considerar información alguna sobre el sistema, lo cual corresponde al peor desempeño que se podría lograr. Un método adicional que se utilizó fue el de remover iterativamente el nodo con mayor conectividad (no centralidad) hasta remover un número especificado de nodos. Finalmente, se incluyó también la aproximación analítica dada por la Ecuación (17).
En general, se puede observar que el método greedy alcanza la mayor reducción posible en la centralidad global, seguido de cerca por el método de máxima conectividad. Esto indica que hay una estrecha correlación entre conectividad y centralidad de Katz-Bonacich en grafos aleatorios, lo cual es consistente con lo que se observó en la Figura 1. El método de Monte Carlo, con los parámetros utilizados, también se desempeña bastante bien aunque no siempre tan bien como el método greedy. Todos estos métodos alcanzan valores de centralidad global mucho menores que el método de remoción aleatoria, especialmente cuando se han removido menos del 60 % de los nodos. Note que aquí se está graficando la centralidad global normalizada por el número de nodos de la red inicial, por lo que en la práctica, dichas diferencias deben multiplicarse por el número de nodos de la red a desmantelar y por lo tanto es mucho mayor que lo que indica la figura.
Finalmente, la estimación analítica de la centralidad dada por la Ecuación (17) como función de la fracción de nodos removidos funciona relati- vamente bien cuando se han removido poco más del 40 % de los nodos en la red. Esto es comprensible dado que en dicha aproximación se ignoran las correlaciones entre variables correspondientes a distintos nodos en el grafo y como tal se espera que su calidad se deteriore con el aumento de la conectividad del grafo.
5 Conclusiones
En este trabajo se estudiaron diferentes métodos para el desmantelamiento de redes delincuenciales basados en el modelo propuesto por Ballester et al.8. Este problema es NP-difícil (NP-hard) por lo cual se requieren métodos heurísticos que permitan obtener soluciones aproximadas en un tiempo razonable. Uno de los métodos estudiados fue propuesto en la misma referencia citada anteriormente, el cual garantiza una solución dentro del 33 % del valor óptimo. Otro método estudiado fue una adaptación del método de Monte Carlo de la física estadística. También se consideró la remoción iterativa del nodo con máxima conectividad, y la remoción aleatoria de nodos. Este último sirvió como referencia ya que no utiliza información alguna sobre el sistema, y por lo tanto corresponde al peor desempeño que se puede obtener.
En general, salvo por el método de remoción aleatoria, todos los métodos presentaron un desempeño similar y mucho mejor que el de referencia anteriormente mencionado. En particular, se observó una fuerte correlación entre la medida de influencia netamente local dada por la conectividad, o número de vecinos, de un nodo con la medida de influencia más global dada por la centralidad de Katz-Bonacich, que tiene en cuenta todos los posibles caminos que atraviesan un nodo. Sin embargo, la topología de las redes estudiadas corresponde a la de un grafo aleatorio o de Erdös-Rényi. Se espera que la topología de redes delincuenciales reales se asemeje más a la de una red compleja 27),(28 y por lo tanto el análisis aquí desarrollado debe ser extendido a este tipo de topología en futuros estudios.