6 Pagerank y análisis de redes

6.1 Introducción

Pagerank asigna un número real a cada página de una red (web). Este número es un indicador de su importancia. Las ideas fundamentales son:

  • Las páginas de internet forman una red o gráfica, donde los nodos son las páginas y las aristas dirigidas son las ligas de unas páginas a otras.
  • La importancia de un página A depende de cuántas otras páginas apuntan a la página A. También depende de qué tan importantes sean las páginas que apuntan a A.
  • Cuando hacemos una búsqueda, primero se filtran las páginas que tienen el contenido de nuestra búsqueda, y después los resultados se ordenan según el pagerank de estas páginas filtradas.
  • ¿Qué problema resuelve? En un principio, se usaron métodos como índices y recuperación de documentos usando técnicas como tf-idf. El problema es que es muy fácil que un spammer sesgue los resultados para que sus páginas tengan alto nivel de relevancia en este sentido. Así que la importancia no se juzga sólo con el contenido, sino de los votos de otras páginas importantes. Este es un sistema más difícil de engañar.

  • Es crucial usar la importancia de los in-links de una página; si no, sería tambíen fácil crear muchas páginas spam que apunten a otra dada para aumentar su importancia.

El Pagerank, más en general, es una medida de centralidad o importancia de los nodos de una red dirigida. Comenzaremos considerando redes más variadas (por ejemplo, redes sociales) y el concepto general de centralidad.

6.1.1 Centralidad en redes

Consideremos una red de personas, que representamos como una gráfica \(G\) no dirigida o dirigida, dependiendo del caso. Las personas son los nodos y sus relaciones se representan con aristas.

Quiséramos construir una medida de importancia o centralidad de una persona dentro de la red. Por ejemplo:

  • Redes sociales de internet: las ligas representan relación de amigos, o la de seguidor. Importancia: número de amigos o seguidores (grado de entrada o salida).
  • Redes de citas bibliográficas: las ligas representan quién comparte o usa la información de quién. Importancia: número de citas o usos, ser citado por alguien importante, etc.
  • Red de empleados de una oficina: las ligas representan interacciones en algún periodo. Importancia: quién puede conectar de manera más inmediata a dos personas.

Ejemplo de Moviegalaxies.com: Pulp Fiction

Dos personajes están ligados si tienen interacciones en la película. El tamaño y color de los nodos dependen de su “centralidad” en la red.

Pulp fiction

Pulp fiction

(Gráfica creada con Gephi).

6.2 Tipos de redes y su representación

Una red es un conjunto de nodos conectados por algunas aristas. Las aristas pueden ser

  • Dirigidas: hay un nodo origen y un nodo destino.
  • No dirigidas: una arista representa una conexión simétrica entre dos nodos.

Podemos representar redes de varias maneras. Una primera manera es con una lista de pares de vértices o nodos que están conectados por una arista. Por ejemplo, para una red dirigida:

## # A tibble: 5 x 2
##    from    to
##   <dbl> <dbl>
## 1     1     2
## 2     1     3
## 3     1     4
## 4     1     5
## 5     2     3
## # A tbl_graph: 5 nodes and 5 edges
## #
## # A directed acyclic simple graph with 1 component
## #
## # Node Data: 5 x 1 (active)
##   name 
##   <chr>
## 1 1    
## 2 2    
## 3 3    
## 4 4    
## 5 5    
## #
## # Edge Data: 5 x 2
##    from    to
##   <int> <int>
## 1     1     2
## 2     1     3
## 3     1     4
## # … with 2 more rows

Que podemos visualizar como sigue:

## Using `sugiyama` as default layout

También es posible representar una red mediante una matriz de adyacencia.

La matriz de adyacencia para una red es la matriz \(A\) tal que \[A_{ij} = 1\] si existe una arista de \(i\) a \(j\). En el caso no dirigido, \(A\) es una matriz simétrica.

## 5 x 5 sparse Matrix of class "dgCMatrix"
##   1 2 3 4 5
## 1 . 1 1 1 1
## 2 . . 1 . .
## 3 . . . . .
## 4 . . . . .
## 5 . . . . .

Es más conveniente representar estas matrices como matrices ralas, como veremos más adelante.

Nota de R: utilizamos el paquete tidygraph y ggraph para hacer manipulaciones de gráficas y graficación. Estos paquetes son extensiones del paquete igraph, que es el que contiene los algoritmos de visualización, procesamiento y resumen de redes.

6.3 Visualización de redes

Existen varios algoritmos para visualizar redes que revelan distintos aspectos de su estructura (ver por ejemplo ?layout en R, en el paquete igraph).

Por ejemplo, aquí construimos una red aleatoria, y hacemos un layout de nodos aleatorio:

Y comparamos con la representación producida por un algoritmo basado en fuerzas.

Los algoritmos basados en fuerzas para representar redes en \(2\) o \(3\) dimensiones se basan principalmente en la siguiente idea:

  • Las aristas actúan como resortes, que no permiten que nodos ligados se alejen mucho
  • Los nodos tienen fuerzas de repulsión entre ellos (la analogía física es de cargas elécricas), y también a veces de gravedad entre ellos.
  • El algoritmo de representación intenta minimizar la energía de la configuración del sistema de atracciones y repulsiones.

Hay muchas variaciones de estos algoritmos, por ejemplo: graphopt en igraph, fruchtermann-rheingold, kamada-kawai, gem, escalamiento multidimensional, forceAtlas, etc. Intenta mover los nodos de las siguiente gráfica para entender el funcionamiento básico de estos algoritmos:

6.3.1 Ejercicio

  • Para la gráfica anterior, busca qué parámetros puedes cambiar en el algoritmo y experimenta cambiándolos (cuánta repulsión, rigidez de los resortes, número de iteraciones, etc.)

Otras familias de algoritmos intentan distintas estrategias, como los layout de círculo, estrella, para árboles, etc.

6.4 Medidas de centralidad para redes

Como discutimos arriba, las medidas de centralidad en redes intentan capturar un concepto de importancia o conectividad de un nodo en una red. Primero comenzamos con el caso no dirigido. Medidas básicas de centralidad son

  • Grado o grado de entrada/salida: cuántas ligas tiene un nodo (no dirigidos, de entrada o de salida).

  • Betweeness: qué tan importante o único es un nodo para conectar otros pares de nodos de la red (por ejemplo, una persona con betweeness alto controla más fácilmente el flujo de información en una red social).
  • Cercanía: qué tan lejos en promedio están los otros nodos de la red (pues puede encontrar y conectar más fácilmente otras dos nodos en la red).

  • Centralidad de eigenvector/Pagerank: la centralidad de un nodo es una especie de promedio de la centralidad de sus vecinos.

6.4.1 Grado

Sea \(G\) una gráfica no dirigida, y sea \(A\) la matriz de adyacencia de \(G\). Si \(i\) es un nodo (vértice) dado, entonces su grado es

\[c_G(i)=\sum_{j\neq i} A_{i,j}.\] que cuenta cúantas aristas conectan con el nodo \(i\).

¿Qué no captura el grado como medida de centralidad?

El grado es una medida local que no toma en cuenta la topología más global de la red: cómo están conectados nodos más lejanos alrededor del nodo que nos interesa.

Distancia a otros nodos

En primer lugar, por ejemplo, no captura que algunos nodos están más cercanos en promedio a los nodos de la red que otros.

Obsérvese en este ejemplo que el nodo \(C\) es más importante que \(D\), en el sentido de que está más cercano a los nodos de toda la red, aún cuando el grado es el mismo para ambos.

Caminos que pasan por un nodo

En la siguiente gráfica, el nodo \(G\) es importante porque es la única conexión entre dos partes de la red, y esto no lo captura el grado:

Nodos conectados a otros nodos importantes

En la siguiente gráfica el nodo \(H\) tienen el mismo grado que \(F\), pero \(H\) está conectado a un nodo más importante (\(A\))

6.4.2 Medida de centralidad: Betweeness o Intermediación

La medida de centralidad de intermediación de un nodo \(u\) se define como: \[c_b (u) = \sum_{j<k, u\neq j,u\neq i} \frac{ g(j,k |u)}{ g(j,k)},\] donde

  • \(g(j,k)\) es el número de caminos más cortos distintos entre \(j\) y \(k\) y
  • \(g(j,k |u)\) es el número de caminos más cortos distintos entre \(j\) y \(k\) que pasan por \(u\).
  • \(g(j,k | u ) = 0\) cuando \(j=u\) o \(k=u\).

  • Los caminos que más aportan a la intermediación de un nodo \(u\) son aquellos que conectan nodos que no tienen otra alternativa más que pasar por \(u\).

Esta medida se puede normalizar poniendo (\(n\) es el total de nodos de la red) \[\overline{c}_b (i)=c_b (i)/\binom{n-1}{2},\] pues el denominador es el máximo valor de intermediación que puede alcanzar un vértice en una red de \(n\) nodos (demuéstralo).

Ejemplo

Por ejemplo, consideremos el nodo \(B\). Hay dos caminos más cortos de \(C\) a \(F\) (de tamaño \(2\)), y uno de ellos pasa por \(B\). De modo que los caminos de \(C\) a \(F\) aportan \(0.5\) al betweeness de \(B\). De los caminos más cortos entre \(E\) y \(D\), ninguno pasa por \(B\), así que este par de vértices aporta \(0\) al betweeness. Verifica el valor de betweeness para \(B\) haciendo los cálculos restantes:

## Warning: `as_data_frame()` is deprecated, use `as_tibble()` (but mind the new semantics).
## This warning is displayed once per session.
## # A tibble: 7 x 2
##   importancia nombre
##         <dbl> <chr> 
## 1         7.5 A     
## 2         2.5 B     
## 3         0   C     
## 4         0   D     
## 5         0   E     
## 6         5   F     
## 7         0   G

Ejemplo de grado e intermediación: Pulp Fiction

En esta red, el color es una medición de betweeness y el tamaño del nodo una medición del grado. Aunque Butch y Jules tienen grados similares, Butch tiene intermediación más alto pues provee más ligas únicas más cortas entre los personajes, mientras que la mayoría de los de Jules pasan también por Vincent.

Pulp fiction

Pulp fiction

6.4.3 Medida de centralidad: Cercanía

También es posible definir medidas de importancia según el promedio de cercanía a todos los nodos. Éste se calcula como el inverso del promedio de distancias del nodo a todos los demás.

Ejemplo

## # A tibble: 9 x 2
##   importancia nombre
##         <dbl> <chr> 
## 1       0.8   A     
## 2       0.571 B     
## 3       0.533 C     
## 4       0.381 D     
## 5       0.381 E     
## 6       0.471 F     
## 7       0.5   G     
## 8       0.571 H     
## 9       0.571 I

En este ejemplo, el nodo \(F\) tiene cercanía más alta que \(D\), por ejemplo, pues se conecta a un nodo bien conectado de la red (en grado y betweeness):

Ejercicio

Verifica que la cercanía de \(A\) es \(0.80\).

6.4.4 Centralidad de eigenvector

Esta medida considera que la importancia de un nodo está dado por la suma normalizada de las importancias de sus vecinos. De esta forma, es importante estar cercano a nodos importantes (como en cercanía), pero también cuenta conectarse a muchos nodos (como en grado).

  • Nótese que esta es una descripción circular: para saber la importancia de un nodo, hay que saber la importancia de sus vecinos.

Consideremos el ejemplo siguiente:

Supongamos que las importancias de estos \(5\) nodos son \[(x_1,\ldots, x_5)\] donde \(x_i\geq 0\). Suponemos también que estas importancias están normalizadas, de forma que \(\sum_i x_i = 1\).

De acuerdo a la idea mencionada arriba, calculamos entonces cómo se ve la suma de las importancias de nodos adyacentes a cada nodo. Para el nodo uno,

\[{y_1} = x_2 + x_3 + x_4\]

para el nodo \(2\)

\[y_2 = x_1 + x_5\]

y para los siguientes nodos tendríamos \[y_3 = x_1\] \[y_4 = x_1\] \[y_5 = x_2\].

Este sistema lo podemos escribir de forma matricial, usando la matriz de adyacencia, como

\[ y = \left ( \begin{array}{rrrrr} 0 & 1 & 1 & 1 & 0 \\ 1 & 0 & 0 & 0 & 1 \\ 1 & 0 & 0 & 0 & 0 \\ 1 & 0 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 & 0 \\ \end{array} \right ) x \]

Por definición de las importancias, si normalizamos este vector \(y\) debemos obtener las importancias originales. Es decir, existe una \(\lambda\) tal que

\[\frac{1}{\lambda}y = x\]

Donde \(\lambda\geq 0\) es el factor de normalización. En resumen, \(x\geq 0\) debe satisfacer, para alguna \(\lambda > 0\), la ecuación \[A^t x = \lambda x,\]

es decir, \(x\) es un vector propio de la matriz de adyacencia con valor propio positivo.

Sin embargo, ¿cuando existe un vector \(x\geq 0\) con \(\lambda>0\) que satisfaga esta propiedad? ¿es único?

Ejercicio

Resuelve el sistema de ecuaciones de arriba y verifica que tal vector existe. ¿Cuál es el valor de lambda?

Matrices no negativas

Para entender la existencia y forma de la centralidad de eigenvector, comenzamos recordando algunos teoremas básicos de álgebra lineal. En primer lugar, tenemos:

Espectro de matrices no-negativas

Si \(A\) es una matriz no negativa, entonces:

  • Existe un valor propio real no-negativo \(\lambda_0\) tal que \(\lambda_0\geq |\lambda|\) para cualquier otro valor propio \(\lambda\) de \(A\).
  • Al valor propio \(\lambda_0\) está asociado al menos un vector propio \(x\) con entradas no negativas.

Nota: Parte de este teorema se puede entender observando que si \(A\) es no-negativa, entonces mapea el cono \(\{(x_1,x_2,\ldots, x_m) | x_i \geq 0\}\) dentro de sí mismo, lo que implica que debe dejar invariante alguna dirección dentro de este cono.

Si este vector propio no-negativo fuera único (hasta normalización) y distinto del vector \(0\), entonces esto nos daría un conjunto de medidas (únicas hasta normalización) \(x\) para la importancia de los nodos:

Ejemplo 1

## 5 x 5 sparse Matrix of class "dgCMatrix"
##               
## [1,] . 1 1 1 .
## [2,] 1 . . . 1
## [3,] 1 . . . .
## [4,] 1 . . . .
## [5,] . 1 . . .
## eigen() decomposition
## $values
## [1]  1.85  0.77  0.00 -0.77 -1.85
## 
## $vectors
##      [,1]  [,2]     [,3]  [,4]  [,5]
## [1,] 0.65 -0.27  0.0e+00  0.27  0.65
## [2,] 0.50  0.50 -8.8e-17  0.50 -0.50
## [3,] 0.35 -0.35  7.1e-01 -0.35 -0.35
## [4,] 0.35 -0.35 -7.1e-01 -0.35 -0.35
## [5,] 0.27  0.65  0.0e+00 -0.65  0.27

Las medida de centralidad de eigenvector da entonces, en este caso:

## [1] 0.65 0.50 0.35 0.35 0.27

Ejemplo 2

Sin embargo, puede ser que obtengamos más de un valor propio no negativo con vectores asociados no negativos, por ejemplo:

## 6 x 6 sparse Matrix of class "dgCMatrix"
##                 
## [1,] . 1 1 . . .
## [2,] 1 . 1 1 . .
## [3,] 1 1 . . . .
## [4,] . 1 . . . .
## [5,] . . . . . 1
## [6,] . . . . 1 .

Nótese que los eigenvectores \(1\) y \(2\) son no negativos, y están asociados a vectores propios no negativos:

## eigen() decomposition
## $values
## [1]  2.17  1.00  0.31 -1.00 -1.00 -1.48
## 
## $vectors
##       [,1] [,2]  [,3]  [,4]     [,5]  [,6]
## [1,] -0.52 0.00 -0.37  0.00  7.1e-01  0.30
## [2,] -0.61 0.00  0.25  0.00 -4.4e-16 -0.75
## [3,] -0.52 0.00 -0.37  0.00 -7.1e-01  0.30
## [4,] -0.28 0.00  0.82  0.00 -5.0e-16  0.51
## [5,]  0.00 0.71  0.00  0.71  0.0e+00  0.00
## [6,]  0.00 0.71  0.00 -0.71  0.0e+00  0.00

Nota: si encontramos un vector propio \(x\) con entradas negativas o cero, podemos convertirlo a un vector propio con entradas no negativas tomando \(-x\). Los vectores propios debemos considerarlos módulo una constante multiplicativa, y los vectores particulares que se encuentran dependen del algoritmo.

En este caso, la medida de centralización dependería de qué peso le ponemos al primer vector propio vs el segundo vector propio. En este ejemplo, la unicidad no sucede pues la red asociada no es conexa.

Matrices irreducibles y gráficas fuertemente conexas

¿Cuándo podemos garantizar unicidad en la solución de \(Ax=\lambda x\) con \(\lambda >0\) y que \(x\) sea un vector no-negativo distinto de \(0\)?

Sea \(A\) la matriz de adyacencia de una gráfica no dirigida.

  • Si la gráfica asociada a \(A\) es fuertemente conexa (existen caminos entre cualquier par de vértices) entonces decimos que \(A\) es irreducible.
  • Podemos dar también una definición de irreducibilidad sólo en términos de \(A\): \(A\) es irreducible cuando para toda \(i,j\) existe \(m\geq 0\) tal que \((A^m)_{i,j} > 0\).

Nota: discute por qué estas dos definiciones son equivalentes.

Utilizaremos uno de los teoremas más importantes del álgebra lineal:

Teorema de Perron-Frobenius

Si \(A\) es una matriz no-negativa irreducible, entonces

  • Existe un valor propio real positivo simple \(\lambda_0\) tal que \(\lambda_0 > |\lambda|\) para cualquier otro valor propio \(\lambda\) de \(A\), asociado a un vector propio \(x\) con entradas positivas.
  • No existe ningún otro vector propio con entradas no negativas que no sea paralelo a \(x\).

Y entonces podemos definir una medida única de centralidad módulo una constante multiplicativa.

Si \(A\) es la matriz de adyacencia de una red no dirigida, y \(A\) es irreducible (significa que la red es fuertemente conexa), definimos la centralidad de eigenvector de un nodo \(i\) como la \(i\)-esima componente del vector positivo \(x\) (con \(\sum x_i = 1\)) asociado al valor propio (único) de Perron-Frobenius.

Ejemplo: facultad de tres universidades

## Installing package into '/usr/local/lib/R/site-library'
## (as 'lib' is unspecified)
##   from to weight
## 1    1  4      4
## 2    3  4      1
## 3    5  6      1
## 4    5  7      2
## 5    6  7     28
## 6    3  9      1

Ahora calculamos centralidad de eigenvector.

##  [1] 19.28427195 13.54891742  8.52732413  6.01906197  5.20390737  4.55975215
##  [7]  4.31365219  3.62893919  3.52142334  3.05024058  2.96600797  2.68231620
## [13]  2.39513555  2.31619056  2.16862613  2.16367314  1.86878695  1.79335793
## [19]  1.67210831  1.45711323  1.31398285  1.26342258  1.11860926  0.91192684
## [25]  0.83298297  0.76661085  0.67717797  0.62853503  0.60853711  0.53658897
## [31]  0.40633064  0.35269668  0.22890511  0.10925448  0.07019048 -0.10784969
## [37] -0.21375151 -0.29653588 -0.32269871 -0.53285114 -0.60927866 -0.67667658
## [43] -0.75224677 -0.89246427 -0.91320548 -0.98714368 -1.08654186 -1.17819491
## [49] -1.18780363 -1.24700384 -1.34884565 -1.40630820 -1.49500340 -1.55283728
## [55] -1.65998702 -1.69095896 -1.80343425 -1.95608850 -2.02372354 -2.17895021
## [61] -2.21010702 -2.26810495 -2.37069677 -2.43515105 -2.61093872 -2.66944398
## [67] -2.82823649 -2.89324478 -3.01642381 -3.17631366 -3.26214715 -3.33603214
## [73] -3.62535659 -3.80512720 -4.08174170 -4.35124493 -4.48050936 -4.88798336
## [79] -5.21384350 -5.34107403 -5.98245325
## [1] 19.28427
## `stat_bin()` using `bins = 30`. Pick better value with `binwidth`.

Podemos calcular también usando gggraph:

6.5 Gráficas dirigidas

Estos conceptos pueden aplicarse también para gráficas dirigidas, cuando hay un concepto de dirección en las relaciones de los nodos.

  • In degree, out degree.
  • Betweenness puede definirse en función de caminos dirigidos.
  • Cercanía también (in closeness, out closeness).
  • Centralidad de eigenvector: misma idea, pero la matriz \(A\) no es simétrica. En este caso, \(A_{ij} = 1\) cuando hay una arista que va de \(i\) a \(j\).

Consideremos en particular cómo se calcula la centralidad de eigenvector para una red dirigida.

Su matriz de adyacencia es no simétrica

## 5 x 5 sparse Matrix of class "dgCMatrix"
##               
## [1,] . . 1 1 1
## [2,] 1 . 1 . 1
## [3,] . 1 . . 1
## [4,] 1 1 . . .
## [5,] 1 1 . 1 .

Para este ejemplo, las ecuaciones de importancia son como sigue. Para el nodo \(1\), \[\lambda x_1 = x_2 + x_4 + x_5\] para el nodo 5, por ejemplo, es \[\lambda x_5 = x_1 + x_2 + x_3\] y así sucesivamente.

Obsérvese que en cada ecuación se consideran las aristas entrantes, de forma que la ecuación del nodo \(1\) requiere la columna \(1\) de la matriz de adyacencia, el nodo \(2\) la columna \(2\), etc. Es decir, la ecuación que debemos resolver es

\[A^t x = \lambda x\]

En el ejemplo anterior,

## [1] 0.23 0.21 0.16 0.17 0.23

¿Cuándo podemos garantizar unicidad en la solución de \(A^tx=\lambda x\) con \(\lambda > 0\)?

Sea \(A\) la matriz de adyacencia de una gráfica dirigida. Igual que en el caso de gráficas no dirigidas:

  • Si la gráfica asociada a \(A\) es fuertemente conexa (para cualquier par de vértices hay caminos \(i\to j\) y \(j\to i\)) entonces decimos que \(A\) es irreducible.
  • Igualmente, \(A\) es irreducible si y sólo si para cualquier \(i,j\) existe una \(m>0\) tal que \((A^m)_{i,j}>0\).

Y podemos igualmente aplicar Perron-Frobenius, de donde concluimos:

Si \(A\) es irreducible, entonces \(\lambda_0 > 0\) es un eigenvector simple de \(A\), un vector propio asociado \(x\) tiene entradas positivas, y no existe ningún otro vector propio con entradas no negativas que no sea paralelo a \(x\).

Y entonces podemos definir una medida única de centralidad módulo una constante multiplicativa.

Ejemplos: ¿qué pasa si \(A\) es no reducible?

Hay distintas maneras en que la matriz no es reducible, y cada una de ellas contradice algún aspecto del teorema de Perron Frobenius.

Por ejemplo, si la gráfica es conexa pero no fuertemente conexa, podemos tener vectores propios no positivos (algunos nodos resultan con peso \(0\)):

##      [,1] [,2] [,3] [,4]
## [1,]    0    1    0    0
## [2,]    0    0    1    0
## [3,]    0    0    0    1
## [4,]    0    0    1    0
## eigen() decomposition
## $values
## [1]  1 -1  0  0
## 
## $vectors
##           [,1]       [,2]       [,3]           [,4]
## [1,] 0.0000000  0.0000000  0.0000000  2.834322e-292
## [2,] 0.0000000  0.0000000  0.7071068  -7.071068e-01
## [3,] 0.7071068  0.7071068  0.0000000   0.000000e+00
## [4,] 0.7071068 -0.7071068 -0.7071068   7.071068e-01

Si la gráfica es disconexa, podemos tener valores propios no simples con distintos vectores propios no negativos:

##      [,1] [,2] [,3] [,4] [,5]
## [1,]    1    1    0    0    0
## [2,]    0    0    1    0    0
## [3,]    0    0    0    0    0
## [4,]    0    0    0    0    1
## [5,]    0    0    0    1    0
## eigen() decomposition
## $values
## [1]  1 -1  1  0  0
## 
## $vectors
##           [,1]       [,2]      [,3] [,4]           [,5]
## [1,] 0.0000000  0.0000000 0.5773503    0   0.000000e+00
## [2,] 0.0000000  0.0000000 0.5773503    0  5.010421e-292
## [3,] 0.0000000  0.0000000 0.5773503    1  -1.000000e+00
## [4,] 0.7071068  0.7071068 0.0000000    0   0.000000e+00
## [5,] 0.7071068 -0.7071068 0.0000000    0   0.000000e+00

O ningún valor propio positivo:

##      [,1] [,2] [,3]
## [1,]    0    1    0
## [2,]    0    0    1
## [3,]    0    0    0
## eigen() decomposition
## $values
## [1] 0 0 0
## 
## $vectors
##      [,1]    [,2]    [,3]
## [1,]    0   0e+00   0e+00
## [2,]    0  3e-292 -3e-292
## [3,]    1  -1e+00   1e+00

6.6 Pagerank

Pagerank es una medida similar a la centralidad de eigenvector:

  • La importancia de una página (nodo) es un promedio ponderado de las importancias de otras páginas que apuntan (ligan) hacia ella.
  • Diferencia: usamos gráficas dirigidas, y distribuimos el peso de las aristas dependiendo de cuántas ligas hacia afuera tiene una página: es decir, la importancia de una página se diluye entre el número de ligas a sus hijos.

Esto tiene sentido pues si tenemos una página importante que apunta a pocas páginas, debe dar más importancia a estas pocas páginas que si apuntara a muchas páginas.

Para una red dirigida de páginas de internet, definimos entonces su matriz de transición \(M\) como sigue:

  • \(M_{ij} =1/k\) si la página \(i\) tiene \(k\) ligas hacia afuera, y una de ellas va a la página \(j\)
  • \(M_{ij} = 0\) en otro caso.

Intentaremos hacer algo similar a la centralidad de eigenvector, pero usando la matriz de transición en lugar de la matriz de adyacencia.

Ejemplo

La matriz de adyacencia no necesariamente es simétrica, pues la gráfica es dirigida:

## 4 x 4 sparse Matrix of class "dgCMatrix"
##             
## [1,] . 1 1 1
## [2,] 1 . 1 1
## [3,] 1 . . .
## [4,] . . 1 .

Y calculamos la matriz M, que es la matriz \(A\) con los renglones normalizados por su suma:

## 4 x 4 sparse Matrix of class "dgCMatrix"
##                                             
## [1,] .         0.3333333 0.3333333 0.3333333
## [2,] 0.3333333 .         0.3333333 0.3333333
## [3,] 1.0000000 .         .         .        
## [4,] .         .         1.0000000 .

6.6.1 La matriz \(M\) es estocástica

A la matriz \(M\) le llamamos una matriz estocástica, pues cada uno de sus renglones son no negativos y suman \(1\). Bajo este supuesto, es posible demostrar otra versión del teorema de Perron Frobenius:

Principio del Pagerank

Supongamos que \(M\) es irreducible, que en el caso dirigido quiere decir que la red es fuertemente conexa: existe un camino dirigido entre cualquier par de vértices.

  • Entonces el valor propio de Perron-Frobenius (simple) para \(M^t\) es \(\lambda_0=1\), y el único vector propio no negativo (módulo longitud) es estrictamente positivo y asociado a \(\lambda_0=1\).

Esto implica que si \(r\) es el vector de importancias según pagerank, entonces \(r\) debe satisfacer

\[r_j = \sum_{i\to j} \frac{r_i}{d_i}\]

donde la suma es sobre las ligas de entrada a \(j\), y \(d_i\) es el grado de salida del nodo \(i\) (dividimos la importancia de \(r_i\) sobre todas sus aristas de salida). En forma matricial, esto se escribe como: \[M^tr = r.\]

Ejercicio

Escribe las ecuaciones de las dos formas mostradas arriba para la red

## IGRAPH 2852684 D--- 4 8 -- 
## + edges from 2852684:
## [1] 1->2 1->4 1->3 2->1 2->4 3->1 4->3 2->3

Ejemplo: pagerank simple

## eigen() decomposition
## $values
## [1]  1.0000000+0.0000000i -0.3333333+0.4714045i -0.3333333-0.4714045i
## [4] -0.3333333+0.0000000i
## 
## $vectors
##              [,1]                  [,2]                  [,3]             [,4]
## [1,] 0.6902685+0i  0.7071068+0.0000000i  0.7071068+0.0000000i  7.071068e-01+0i
## [2,] 0.2300895+0i -0.2357023-0.3333333i -0.2357023+0.3333333i -7.071068e-01+0i
## [3,] 0.6135720+0i -0.1571348+0.4444444i -0.1571348-0.4444444i -6.634852e-16+0i
## [4,] 0.3067860+0i -0.3142697-0.1111111i -0.3142697+0.1111111i  1.061576e-16+0i
## [1] 0.6902685 0.2300895 0.6135720 0.3067860
## [1] 0.38 0.12 0.33 0.17

¿Por qué \(1\) tiene mayor importancia que \(3\)? Nótese que el nodo \(3\) tiene mayor grado que \(1\). La razón de que el pagerank de \(1\) es mayor que el de \(3\) es que la importancia del nodo \(1\) se diluye pues tiene grado \(3\) de salida, mientras que toda la importancia de \(3\) se comunica al nodo \(1\).

6.6.2 Primeras dificultades

¿Qué puede fallar cuando queremos encontrar el pagerank de un gráfica que representa sitios de internet, por ejemplo?

  • Si existen callejones sin salida la matriz \(M\) no es estocástica, pues tiene un renglón de ceros - no podemos aplicar la teoría de arriba. Por ejemplo, la siguiente matriz no tiene un valor propio igual a \(1\) (conclusión invalidada: hay un valor propio igual a \(1\)):

## eigen() decomposition
## $values
## [1]  0.7071068 -0.7071068  0.0000000
## 
## $vectors
##           [,1]       [,2] [,3]
## [1,] 0.7071068  0.7071068    0
## [2,] 0.5000000 -0.5000000    0
## [3,] 0.5000000 -0.5000000    1
  • Si existen trampas de telaraña (spider traps) entonces la matriz \(M\) es estocástica, pero las soluciones concentran toda la importancia en la trampa (en este caso consiste de los nodos \(1\) y \(2\)) (conclusión invalidada: el vector de importancias asociado al eigenvalor \(1\) es positivo).

## eigen() decomposition
## $values
## [1]  1.0000000+0.0000000i -1.0000000+0.0000000i  0.7937005+0.0000000i
## [4] -0.3968503+0.6873648i -0.3968503-0.6873648i
## 
## $vectors
##              [,1]          [,2]          [,3]                  [,4]
## [1,] 0.7071068+0i -0.7071068+0i  0.4794851+0i  0.0242710-0.1851728i
## [2,] 0.7071068+0i  0.7071068+0i  0.6041134+0i -0.2173362+0.0901689i
## [3,] 0.0000000+0i  0.0000000+0i -0.4470916+0i  0.6699710+0.0000000i
## [4,] 0.0000000+0i  0.0000000+0i -0.2816501+0i -0.2110276-0.3655106i
## [5,] 0.0000000+0i  0.0000000+0i -0.3548568+0i -0.2658782+0.4605145i
##                       [,5]
## [1,]  0.0242710+0.1851728i
## [2,] -0.2173362-0.0901689i
## [3,]  0.6699710+0.0000000i
## [4,] -0.2110276+0.3655106i
## [5,] -0.2658782-0.4605145i
  • La red puede ser disconexa. Por ejemplo, cuando hay dos componentes irreducibles, existe más de un vector propio asociado al valor propio \(1\) (conclusión invalidada: la solución es única y el valor propio \(1\) es simple), así que hay tantas soluciones como combinaciones lineales de los eigenvectores que aparecen:

##      [,1] [,2] [,3] [,4] [,5] [,6]
## [1,]    0    1    0  0.0  0.0    0
## [2,]    0    0    1  0.0  0.0    0
## [3,]    1    0    0  0.0  0.0    0
## [4,]    0    0    0  0.0  1.0    0
## [5,]    0    0    0  0.0  0.0    1
## [6,]    0    0    0  0.5  0.5    0
## attr(,"scaled:scale")
## [1] 1 1 1 1 1 2
## eigen() decomposition
## $values
## [1]  1.0+0.0000000i -0.5+0.8660254i -0.5-0.8660254i  1.0+0.0000000i
## [5] -0.5+0.5000000i -0.5-0.5000000i
## 
## $vectors
##              [,1]            [,2]            [,3]          [,4]
## [1,] 0.0000000+0i  0.5773503+0.0i  0.5773503+0.0i -0.5773503+0i
## [2,] 0.0000000+0i -0.2886751-0.5i -0.2886751+0.5i -0.5773503+0i
## [3,] 0.0000000+0i -0.2886751+0.5i -0.2886751-0.5i -0.5773503+0i
## [4,] 0.3333333+0i  0.0000000+0.0i  0.0000000+0.0i  0.0000000+0i
## [5,] 0.6666667+0i  0.0000000+0.0i  0.0000000+0.0i  0.0000000+0i
## [6,] 0.6666667+0i  0.0000000+0.0i  0.0000000+0.0i  0.0000000+0i
##                       [,5]                  [,6]
## [1,]  0.0000000+0.0000000i  0.0000000+0.0000000i
## [2,]  0.0000000+0.0000000i  0.0000000+0.0000000i
## [3,]  0.0000000+0.0000000i  0.0000000+0.0000000i
## [4,]  0.3535534+0.3535534i  0.3535534-0.3535534i
## [5,]  0.3535534-0.3535534i  0.3535534+0.3535534i
## [6,] -0.7071068+0.0000000i -0.7071068+0.0000000i
## [1]  1.0+0.00i -0.5+0.87i -0.5-0.87i  1.0+0.00i -0.5+0.50i -0.5-0.50i
##           [,1]       [,2]
## [1,] 0.0000000 -0.5773503
## [2,] 0.0000000 -0.5773503
## [3,] 0.0000000 -0.5773503
## [4,] 0.3333333  0.0000000
## [5,] 0.6666667  0.0000000
## [6,] 0.6666667  0.0000000

En términos de nuestra solución para dar importancia de páginas:

  • No es razonable que nuestra solución concentre toda la importancia en spider traps.
  • Si la gráfica es disconexa no podemos dar importancia relativa a las componentes resultantes.
  • Si hay callejones sin salida entonces nuestra formulación no sirve.

Para encontrar una solución, podemos pensar en el proceso estocástico asociado a esta formulación de pagerank.

6.6.3 El proceso estocástico (cadena de Markov) asociado al Pagerank, versión simple

Podemos interpretar este proceso mediante una cadena de Markov. Consideramos una persona que navega al azar en nuestra red (haciendo click en las ligas disponibles en cada nodo):

  • Comienza en una página tomada al azar (equiprobable).
  • Cada vez que llega a una página, escoge al azar alguna de las páginas ligadas en su página actual y navega hacia ella.
  • Suponemos por el momento que no hay callejones sin salida (estos evitan que pueda saltar a otro lado).

La pregunta que queremos contestar: ¿cuál es la probabilidad que en distintos momentos el navegador aleatorio se encuentre en una página dada? Claramente páginas que tienen muchas ligas de entrada (son importantes) tendrán más visitas, y más aún si estas ligas de entrada provienen de nodos con muchas ligas de entrada (es decir, a su vez son importantes). Sin embargo, es necesario hacer algunos refinamientos si queremos contestar de manera simple esta pregunta.

Denotamos por \(X_1, X_2,\ldots\) la posición del navegador en cada momento del tiempo. Cada \(X_i\) es una variable aleatoria que toma valores en los nodos \(\{1,2,\ldots,n\}\).

  • \(X_1, X_2,\ldots\) es un proceso estocástico discreto en tiempo discreto.
  • Para determinar un proceso estocástico, debemos dar la distribución conjunta de cualquier subconjunto \(X_{s_1},X_{s_2},\ldots, X_{s_k}\) de variables. En este caso, la posición en \(s+1\) sólo depende de la posición en el momento \(s\), de forma que basta con especificar \[P(X_{s+1}=j\vert X_s=i) = P_{ij}, \] para cada par de páginas \(i\) y \(j\).

6.6.4 Matriz de transición

Ahora podemos ver que

  • Si hay una liga de \(i\) a \(j\), entonces \(P_{ij}=1/k(i)\), donde \(k(i)\) es el número de ligas salientes de \(i\).
  • Si no hay liga de \(i\) a \(j\), entonces \(P_{ij}=0\).

Es claro que \(P\) es igual a la matriz \(M\) que definimos con anterioridad.

6.6.5 Distribución de equilibrio (versión simple)

La matriz \(P\) es estocástica. Si suponemos que \(P\) es irreducible (la gráfica es fuertemente conexa), entonces por la teoría que vimos arriba existe un vector \(\pi > 0\) tal que \(P^t\pi = \pi\).

Ahora podemos interpretar este vector en términos del navegador aleatorio:

  • En términos del modelo del navegador aleatorio, ¿ qué significa entonces que un vector \(\pi\) satisfaga \(P^t \pi = \pi\), con \(\pi \geq 0\)?

Suponemos \(\pi\) normalizado por la suma: \(\sum_i \pi_i=1\).

  • Significa que si escogemos un estado al azar con probabilidad \(\pi\), entonces, después de un salto, las probabilidades de encontrar al navegador en cada estado está dado también por \(\pi\).
  • Igualmente, la probabilidad de encontrar al navegador en cualquier momento en el estado \(i\) es igual a \(\pi_i\).
  • Por esta razón, a \(\pi\) se le llama una distribución de equilibro para el proceso del navegador aleatorio.

6.6.6 Distribución de equilibrio y probabilidades a largo plazo

Sin embargo, en un principio no conocemos la distribución de equilibrio \(\pi\). Lo que haríamos sería escoger un nodo al azar y comenzar a navegar desde ahí, o quizá empezaríamos en un nodo fijo, por ejemplo, el \(1\), y nuestra pregunta sigue siendo ¿cuál es la probabilidad que en distintos momentos el navegador aleatorio se encuentre en una página dada?

En primer lugar, solamente con el supuesto de conexidad fuerte (irreducibilidad) no podemos contestar esta pregunta de manera simple. Esto es porque si no existe conexidad, entonces claramente los lugares donde podemos encontrar al navegador depende de dónde empezó, y la respuesta es compleja. Veremos que además, necesitamos un supuesto de aperiodicidad.

Requerimos entonces:

  • Conexidad fuerte (irreducibilidad)
  • Aperiodicidad

Veremos ahora por qué la periodicidad puede ser un problema.

Ejemplo: periodicidad

Consideremos este ejemplo fuertemente conexo (irreducible), con un ciclo de tamaño \(3\):

##      [,1] [,2] [,3]
## [1,]    0    1    0
## [2,]    0    0    1
## [3,]    1    0    0
## attr(,"scaled:scale")
## [1] 1 1 1

Y notamos que si comenzamos en el estado uno, la probabilidad de estar en cada estado al tiempo \(2\) es

##      [,1]
## [1,]    0
## [2,]    1
## [3,]    0

En el tiempo \(3\):

##      [,1]
## [1,]    0
## [2,]    0
## [3,]    1

En el tiempo \(3\):

##      [,1]
## [1,]    1
## [2,]    0
## [3,]    0

y así sucesivamente, de manera que las probabilidades de visita a cada nodo dependen siempre fuertemente del tiempo. La solución a nuestra pregunta de dónde estará el navegador aleatorio al tiempo \(t\) no es tan simple de formular.

En este ejemplo, vemos que el problema son estructuras periódicas en la red del navegador aleatorio. Veremos ahora cómo lidiar con este problema.

6.6.7 Matriz de transición a \(k\) pasos

Recordamos que la matriz \((P)^k\) da las probabilidades de transición a \(k\) pasos.

Por ejemplo, para \(k=2\) tenemos la probabiildad de pasar de \(i\) a \(j\) en dos pasos es igual a (probabilidad total):

\[P(X_3=j|X_1=i) =\sum_k P(X_3=j|X_2=k, X_1=i) P(X_2=k|X_1=i)\]

Por la propiedad de Markov, podemos simplificar

\[P(X_3=j|X_1=i) =\sum_k P(X_3=j|X_2=k) P(X_2=k|X_1=i)\]

y si sustituimos \(P\)

\[P(X_3=j|X_1=i) =\sum_k P_{i,k} P_{k,j}. \]

Como el lado derecho es la componente \(i,j\) de \(P^2\), tenemos que \(P^2\) da las probabilidades de transición en \(2\) pasos.

Como ejercicio, calcula e interpreta \(P^2\) para el ejemplo anterior.

Cadenas aperiódicas

Decimos que \(P\) irreducible es aperiódica cuando \(P^{k_0}>0\) para alguna \(k_0\) suficientemente grande.

Nótese que en el ejemplo anterior \(P\) no es aperiódica. Con esta condición (no importa en qué estado estamos al tiempo \(k_0\) el navegador puede estar en cualquier estado), podemos dar una respuesta más simple a la pregunta acerca de las probabilidades de largo plazo de la cadena:

Distribución a largo plazo

Si \(P\) es una matriz irreducible y aperiódica, y \(\pi\) es su distribución de equilibrio, entonces \[\lim_{n\to \infty} P(X_n=i) = \pi_i,\] independientemente de la distribución inicial.

Se puede demostrar ahora que, independiente de la distribución inicial, la distribución de equilibrio es \(\pi\):

Sea \(v\) una distribución inicial sobre los estados (cualquiera). Entonces, si \(P\) es irreducible y aperiódica, \[(P^n)^t v \to \pi\] cuando \(n\to \infty\).

Lo cual nos da el algoritmo básico para encontrar la importancia de Pagerank dada por la distribución de equilibrio:

Método de potencias para pagerank simple

Tomamos \(v\) una distribución arbitraria (por ejemplo equidistribuida sobre los estados). Ponemos \(v_1=v\) e iteramos \[v_{n+1} = M^t v_{n}\] hasta que \(||v_{n+1} -v_{n}||<\epsilon.\)

Veremos que este algoritmo simple es escalable a problemas muy grandes, pues sólo involucra multiplicar por una matriz que típicamente es rala.

6.6.8 Pagerank: teletransportación/perturbación de la matriz \(M\)

Para que funcione este algoritmo, como vimos antes, tenemos que lidiar con los problemas que vimos arriba (spider traps, callejones sin salidas, falta de conexidad, periodicidad).

La solución es relativamente simple: fijamos una \(\alpha\) cercana a uno. A cada tiempo:

  • Con probabilidad \(\alpha\), el navegador escoge alguno de las ligas de salida y brinca (como en el proceso original),
  • Sin embargo, con probabilidad \(1-\alpha\), el navegador se teletransporta a un nodo escogido al azar (equiprobable), de todos los nodos posibles.
  • Si el navegador está en un callejón sin salida, siempre se teletransporta como en el inciso anterior.

Esta alteración del proceso elimina spider traps, callejones sin salidas, disconexiones y periodicidad.

Ahora construimos la matriz \(M_1\) de este proceso. Sea \(M\) la matriz original, que suponemos por el momento no tiene callejones sin salida.

¿Cómo se ven las nuevas probabildades de transición? Si \(i,j\) son nodos, \(n\) es el número total de nodos, tenemos simplemente (si \(i\) no es spider-trap):

\[(M_1)_{i,j} = \alpha M_{ij} + (1-\alpha)\frac{1}{n}\]

Esto es por probabilidad total: la probabilidad de ir de \(i\) a \(j\) dada teletransportación es \(1/n\), y la probabilidad de ir de \(i\) a \(j\) dado que no hubo teletransportación es \(M_{ij}\) (que puede ser cero). La probabilidad total se calcula promediando estas dos probabilidades según la probabilidad de teletransportación o no.

Si \(i\) es un spider-trap, entonces ponemos simplemente \[(M_1)_{i,j} = 1/n\]

  • Idea: La matriz \(M_1\) estocástica es positiva, de modo que automáticamente es irreducible y aperiódica.

Tomando \(\alpha=0.85\) obtenemos por ejemplo para nuestra matriz \(M\) anterior:

##       [,1]  [,2] [,3] [,4] [,5]
## [1,] 0.030 0.880 0.03 0.03 0.03
## [2,] 0.030 0.030 0.88 0.03 0.03
## [3,] 0.455 0.455 0.03 0.03 0.03
## [4,] 0.030 0.030 0.03 0.03 0.88
## [5,] 0.030 0.030 0.03 0.88 0.03
## attr(,"scaled:scale")
## [1] 1 2 2 1 1
## [1]  1.000+0.000i  0.850+0.000i -0.850+0.000i -0.425+0.425i -0.425-0.425i
## [1] 0.2828726 0.5233143 0.5106595 0.4389488 0.4389488

Ejercicio

Verifica que la matriz \(M_1\) construida arriba es en realidad una matriz estocástica.


No es buena idea preprocesar desde el principio la matriz \(M\) para evitar estos casos (la matriz \(M\) es típicamente rala, pues hay relativamente pocas ligas en cada página comparado con el total de nodos, y no queremos llenar los renglones igual a cero con una cantidad fija). En lugar de eso, podemos hacer los siguiente:

Supongamos entonces que queremos calcular \(x' = M_1 x\), tomando en cuenta callejones sin salida. Podemos hacer, para \(x\) distribución inicial:

  • Calcular \(y = \alpha M^t x\) (operación con matriz rala).
  • Nótese que los renglones de \(M\) que son iguales a cero deben ser sustituidos por \(1/N\) (callejones sin salida). Esto implica que necesitamos sumar la misma cantidad a todas las entradas de \(y\): \[\frac{1}{N}\sum_{j\,es\, callejon} x_j\].

  • Por otra parte, para los que no son callejones, tenemos que sumar la cantidad fija \[(1-\alpha)\frac{1}{N}\sum_{j\, no\, es\, callejon} x_j\]
  • En cualquier caso, a todas las entradas se les suma una cantidad fija \[\frac{1}{N}\sum_{j\,es\, callejon} x_j + (1-\alpha)\frac{1}{N}\sum_{j\, no\, es\, callejon} x_j,\] y las componentes del vector resultante deben sumar uno.
  • La estrategia de cálculo es entonces: una vez que tenemos \(y\), simplemente ajustamos \(x= y + (1-S)/N\), donde \(S=\sum_i y_i\), es decir: sumamos una cantidad fija para asegurar que suman uno las componentes de \(x\).

6.6.9 Pagerank para buscador

  • Usamos índice invertido (términos a documentos) para escoger las páginas que son relevantes al query.
  • Regresamos los resultados ordenados por el PageRank.

Consideramos las páginas de un solo sitio (universidad de Hollings):

##   V1 V2
## 1  1  2
## 2  8  2
## 3 16  2
## 4 18  2
## 5 20  2
## 6 23  2

Normalizamos y usamos estructura rala:

## [1] 6012 6012
## [1] 0.0006605496

Nótese que hacer los cálculos con la matriz rala es más eficiente:

## Unit: milliseconds
##              expr      min       lq      mean    median       uq      max neval
##  r_1 <- M_t %*% r 0.168343 0.168866 0.2712552 0.1702775 0.170955 1.164445    10
## Unit: milliseconds
##             expr      min       lq     mean  median      uq      max neval
##  r_1 <- MM %*% r 32.34131 39.79885 40.68215 40.9595 41.4152 49.33744    10

Así que podemos hacer nuestro algoritmo:

## [1] 0.4907346
## [1] 0.2554216
## [1] 0.1399171
## [1] 0.08249344
## [1] 0.05276466
## [1] 0.03433384
## [1] 0.02356974
## [1] 0.01614466
## [1] 0.01175786
## [1] 0.008488335
##     V1                                                              V2
## 1    2                                         http://www.hollins.edu/
## 2   37               http://www.hollins.edu/admissions/visit/visit.htm
## 3   38                     http://www.hollins.edu/about/about_tour.htm
## 4   61                         http://www.hollins.edu/htdig/index.html
## 5   52 http://www.hollins.edu/admissions/info-request/info-request.cfm
## 6   43               http://www.hollins.edu/admissions/apply/apply.htm
## 7  425 http://www.hollins.edu/academics/library/resources/web_linx.htm
## 8   27                http://www.hollins.edu/admissions/admissions.htm
## 9   28                  http://www.hollins.edu/academics/academics.htm
## 10  29                        http://www.hollins.edu/grad/coedgrad.htm
##       pagerank
## 1  0.020342191
## 2  0.009487376
## 3  0.008793044
## 4  0.008237781
## 5  0.008202176
## 6  0.007310231
## 7  0.006709038
## 8  0.006121904
## 9  0.005703552
## 10 0.004470490

Hacemos una búsqueda (simple, basada solamente en el nombre de la URL: esto normalmente se haría con un índice invertido sobre el contenido):

##   V1                                                              V2
## 1 37               http://www.hollins.edu/admissions/visit/visit.htm
## 2 52 http://www.hollins.edu/admissions/info-request/info-request.cfm
## 3 43               http://www.hollins.edu/admissions/apply/apply.htm
## 4 27                http://www.hollins.edu/admissions/admissions.htm
## 5 81          http://www.hollins.edu/admissions/financial/finaid.htm
## 6 80         http://www.hollins.edu/admissions/ugradadm/ugradadm.htm
##      pagerank
## 1 0.009487376
## 2 0.008202176
## 3 0.007310231
## 4 0.006121904
## 5 0.003147287
## 6 0.002187616
##      V1
## 58 1290
## 59 1442
## 60 1028
## 61 1854
## 62 1590
## 63 1591
##                                                                          V2
## 58      http://www.hollins.edu/admissions/ugradadm/horizon/apply/apply1.cfm
## 59                       http://www.hollins.edu/admissions/apply/login2.cfm
## 60                   http://www.hollins.edu/admissions/scholarship/work.htm
## 61 http://www.hollins.edu/admissions/ugradadm/horizon/apply/app_review2.cfm
## 62  http://www.hollins.edu/admissions/ugradadm/horizon/apply/app_review.cfm
## 63     http://www.hollins.edu/admissions/ugradadm/horizon/apply/apply1a.cfm
##        pagerank
## 58 6.680171e-05
## 59 6.569320e-05
## 60 6.452762e-05
## 61 6.236121e-05
## 62 6.193540e-05
## 63 6.193540e-05
##   V1                                                              V2
## 1  2                                         http://www.hollins.edu/
## 2 37               http://www.hollins.edu/admissions/visit/visit.htm
## 3 38                     http://www.hollins.edu/about/about_tour.htm
## 4 61                         http://www.hollins.edu/htdig/index.html
## 5 52 http://www.hollins.edu/admissions/info-request/info-request.cfm
## 6 43               http://www.hollins.edu/admissions/apply/apply.htm
##      pagerank
## 1 0.020342191
## 2 0.009487376
## 3 0.008793044
## 4 0.008237781
## 5 0.008202176
## 6 0.007310231
##      V1
## 1    82
## 2    26
## 3  5955
## 4  6005
## 5    18
## 6  6004
## 7  5877
## 8  5956
## 9   467
## 10  468
##                                                                                                                                          V2
## 1                                                                          http://www.hollins.edu/admissions/ugradadm/students/students.htm
## 2                                                                                                 http://www.hollins.edu/students/index.htm
## 3                                                       http://www1.hollins.edu/Docs/CampusLife/StudentAct/studentorgs/Habitat/moreInfo.htm
## 4                                                       http://www1.hollins.edu/Docs/CampusLife/StudentAct/studentorgs/Habitat/whatWeDo.htm
## 5                                                           http://www1.hollins.edu/Docs/CampusLife/StudentAct/studentorgs/SGA/default.html
## 6                                                   http://www1.hollins.edu/Docs/CampusLife/StudentAct/studentorgs/Habitat/homeBuilding.htm
## 7                                                             http://www1.hollins.edu/Docs/CampusLife/StudentAct/studentorgs/hhrc/index.htm
## 8                                                           http://www1.hollins.edu/Docs/CampusLife/StudentAct/studentorgs/hhrc/contact.htm
## 9  http://www1.hollins.edu/Docs/CampusLife/StudentAct/studentorgs/SGA/forms/SGA%20Short%20Term%20Scholarship%20Application%20for%202004.doc
## 10 http://www1.hollins.edu/Docs/CampusLife/StudentAct/studentorgs/SGA/forms/SGA%20Short%20Term%20Scholarship%20Application%20for%202004.pdf
##        pagerank
## 1  0.0012740467
## 2  0.0007685934
## 3  0.0004847083
## 4  0.0004338779
## 5  0.0004295892
## 6  0.0003905306
## 7  0.0003813615
## 8  0.0003796379
## 9  0.0002657994
## 10 0.0002657994

6.7 Pagerank en spark

Podemos usar con el paquete graphframes, que nos permite usar GraphX, la interfaz de Spark para hacer cálculo en redes de forma paralela.

Nota: graphframes no funciona todavía con Spark 2.4.0. Para esta corrida usamos spark 2.3.0:

## 
## Attaching package: 'sparklyr'
## The following object is masked from 'package:purrr':
## 
##     invoke

Copiamos las tablas a spark, creamos un dataframe con los vértices y otro con las aristas:

Convertimos a un objeto de spark GraphFrame y aplicamos pagerank:

Finalmente extraemos los resultados y los recolectamos en R:

## # A tibble: 6,012 x 2
##       id pagerank
##    <int>    <dbl>
##  1     2    122. 
##  2    37     58.1
##  3    38     53.8
##  4    61     50.6
##  5    52     50.2
##  6    43     44.7
##  7    27     37.7
##  8   425     37.6
##  9    28     34.7
## 10    29     27.6
## # … with 6,002 more rows
## # A tibble: 6,012 x 2
##       id pagerank
##    <int>    <dbl>
##  1     2  0.0203 
##  2    37  0.00966
##  3    38  0.00895
##  4    61  0.00841
##  5    52  0.00835
##  6    43  0.00744
##  7    27  0.00627
##  8   425  0.00626
##  9    28  0.00578
## 10    29  0.00459
## # … with 6,002 more rows

Esta gráfica es grande y es más difícil de visualizar de forma provechosa. Puedes empezar intentando:

## Joining, by = "name"

Y también podemos usar Gephi. En este caso, exportamos la gráfica a gml (un formato estándar para gráficas), y podemos importarla en Gephi.