Proyecto de grado para obtener el título de Matemática ...

39
Modelos de opiniones en redes: fluctuaciones y desacuerdos María Camila Peñaloza Rojas Proyecto de grado para obtener el título de Matemática Asesor: Mauricio José Junca Peláez Co-asesor: Tomás Rodriguez Barraquer Universidad de los Andes Facultad de Ciencias Departamento de Matemáticas Bogotá D.C. Diciembre 2019

Transcript of Proyecto de grado para obtener el título de Matemática ...

Page 1: Proyecto de grado para obtener el título de Matemática ...

Modelos de opiniones en redes: fluctuaciones y desacuerdos

María Camila Peñaloza Rojas

Proyecto de grado para obtener el título deMatemática

Asesor: Mauricio José Junca Peláez

Co-asesor: Tomás Rodriguez Barraquer

Universidad de los AndesFacultad de Ciencias

Departamento de MatemáticasBogotá D.C.

Diciembre 2019

Page 2: Proyecto de grado para obtener el título de Matemática ...

Agradezco a mi padre, madre y hermana por su inmenso apoyo durante toda la carrera, aMauricio Junca y Tomás Rodriguez por compartir sus conocimientos conmigo, por su ayuda en elpresente trabajo y paciencia durante todo el proceso.

Page 3: Proyecto de grado para obtener el título de Matemática ...

Índice

1. Introducción 4

2. Preliminares 6

3. Modelos determinísticos de opiniones en redes 93.1. El modelo de De Groot y consenso único . . . . . . . . . . . . . . . . . . . . . . . . . 93.2. El modelo de De Groot y consenso por grupos . . . . . . . . . . . . . . . . . . . . . . 12

4. Fluctuaciones de opinión y desacuerdos en redes 134.1. Modelo de evolución de creencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134.2. Convergencia en distribución de las creencias . . . . . . . . . . . . . . . . . . . . . . 164.3. Creencias esperadas y covarianza de las creencias . . . . . . . . . . . . . . . . . . . . 22

5. Simulaciones 295.1. Valores Esperados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

6. Conclusiones 39

Page 4: Proyecto de grado para obtener el título de Matemática ...

4 1. INTRODUCCIÓN

1. Introducción

La estructura social permea las interacciones de las personas. Es por esto que desde finales delsiglo XX, la economía ha estudiado cómo las redes sociales juegan un rol central en la difusiónde información e interacciones entre agentes, en ámbitos distintos a los mercados. La relevanciade este estudio recae en que estos mecanismos determinan componentes críticos en diferentes con-textos sociales y económicos. Entre estos, se encuentran la transmisión de oportunidades laborales,intercambio de bienes y servicios, transmisión de enfermedades, idiomas, decisiones que conllevan alcrimen y a la violencia, cuanta educación se recibe, la probabilidad de ser exitoso profesionalmente,entre otras. Por todo lo anterior, es vital entender cómo la estructura social afecta el comporta-miento y cuáles estructuras emergen en las diferentes sociedades. Una forma en que los académicosmodelaron la estructura social fue por medio de redes, grafos dirigidos, en los cuales los agentes sonlos nodos y los enlaces representan las interacciones de los agentes.

Uno de los pioneros en la utilización de estas herramientas fue el estadístico americano MorrisH. DeGroot, quien modeló el proceso de aprendizaje social con tiempos discretos. A este procesose le llamó aprendizaje ingenuo por la forma en que los agentes no tenían en cuenta las posiblesrepeticiones de información cuando interactuaban con sus vecinos. Partiendo de este modelo, Go-lub y Jackson en [6] estudian la convergencia de opiniones o creencias en una red de acuerdo conun aprendizaje ingenuo. En este modelo los agentes son homogéneos, es decir, solo hay un tipo deagente. Adicionalmente cada agente empieza con una creencia inicial y en cada tiempo actualizan sucreencia como un promedio ponderado de las creencias de sus vecinos. El proceso de actualización sedesarrolla según una matriz estocástica asociada al grafo que representa la red. Dependiendo de laspropiedades estructurales de la red, se puede llegar a un consenso entre los agentes. Siguiendo esteorden de ideas, se puede representar la influencia de los agentes como el vector propio por izquierdade la matriz estocástica asociado al valor propio 1. Por su parte, DeMarzo et al. en [3] tambiénestudian la influencia de los agentes en el modelo de DeGroot. A diferencia de Golub y Jackson,DeMarzo et al. le hacen pequeñas variaciones al proceso de actualización de creencias y a la red,las cuales permiten que se altere la velocidad de convergencia de las opiniones y la convergenciaa varias opiniones. Cabe resaltar que estas variaciones no afectan el aprendizaje ingenuo de losagentes, pues este es uno de los supuestos más importantes para los autores y los resultados queencontraron en su trabajo.

Sin embargo, cuando se habla de agentes en sociedades, lo más común es llegar a desacuerdosen opiniones. Por eso Acemoglu et al. en [1] estudian un modelo de opinión dinámica, que generadesacuerdos en el largo plazo y fluctuaciones persistentes de las opiniones. Este modelo contiene dostipos de agentes, unos tercos y otros regulares. La diferencia entre estos dos agentes es la forma enque actualizan sus creencias. Los tercos no escuchan a nadie, por lo cual siempre tienen la mismacreencia, mientras que los agentes regulares escuchan a sus vecinos, luego sus creencias dependende una ponderación entre su creencia y las de sus vecinos. A diferencia del modelo de DeGroot, estemodelo es estocástico y la actualización no es igual en todos los periodos para los agentes regulares.Una de las principales diferencias, es que el tiempo es continuo en este modelo. Luego a cada enlaceen el grafo se le asocia un reloj que sigue un proceso de poisson. Cada vez que cambia el reloj deuna pareja (v, v′) en la red, v actualiza su creencia con la de v′. Cada actualización es independientey la probabilidad de que dos relojes cambien al mismo tiempo es 0. Adicionalmente, se le asociauna cadena de Markov en tiempo continuo a la red, en donde los estados son los agentes. Acemoğlu

Page 5: Proyecto de grado para obtener el título de Matemática ...

5 1. INTRODUCCIÓN

et al. demuestran que si un agente regular es influenciado por mínimo dos opiniones diferentes deagentes tercos, su creencia es una variable aleatoria no degenerada y que la probabilidad de que seaigual a la de otro agente es 0. Similarmente, demuestran que el valor esperado de las creencias delos agentes regulares depende de la matriz generadora de la cadena de Markov y el valor esperadode las opiniones de los agentes. También estudian la covarianza de las creencias por medio de tuplasde cadenas de Markov.

En este proyecto se estudiaron los modelos de Golub y Jackson y de DeMarzo et al.. El enfoquede estudio de estos modelos fue el proceso de actualización de creencias o aprendizaje de los agentesde forma determinística. Dado que en estos modelos solo hay un tipo de agente, se demostró porqué, bajo ciertas condiciones estructurales de la red, se puede llegar a una convergencia de opiniónsocial o a una convergencia de opiniones entre clases conexas de la red. Adicionalmente, se estudióel modelo de Acemoğlu et al., en especial todo el proceso que conlleva a las fluctuaciones de lascreencias y los desacuerdos entre los agentes. El principal aporte de este trabajo fue transformarel modelo de Acemoğlu et al. a tiempo discreto. Por lo anterior, se utilizaron cadenas de Markoven tiempo discreto con los estados siendo los agentes y se determinó que en cada tiempo k ≥ 0,k ∈ Z se puede escoger un enlace en el grafo (v, v′) de tal forma que v actualice su creencia con lade v′. La probabilidad de escoger entre los enlaces se mantiene independiente, lo cual permite queel modelo siga siendo estocástico. En adición, se utilizó un método iterativo de matrices y vectoresaleatorios presentado en Diaconis y Freedman para entender el comportamiento estacionario delproceso de creencias. Se demostró que si un agente regular es influenciado por mínimo dos opinio-nes diferentes de dos agentes tercos, su opinión converge a una variable aleatoria no degenerada.También se demostró que la probabilidad de que la opinión de una agente regular sea diferente a laopinión de otro es mayor a 0. Lo anterior implica que las opiniones de los agentes regulares fluctúanen el tiempo y los desacuerdos entre ellos persisten. Similarmente, se hizo un estudio de los valoresesperados para cada agente y las covarianzas entre estas, para demostrar que el valor esperado delas creencias de los agentes es un promedio ponderado de las creencias esperadas de los vecinosque los influencian, determinado por la matriz de transición de la cadena de Markov. Por últimose simuló este proceso en python para mostrar la evolución de las creencias y sus comportamientosestacionarios, entender el comportamiento de las distribuciones, las probabilidades de absorción delos agentes tercos y los valores esperados de las creencias de los agentes regulares.

De acuerdo con lo anterior, en la sección 2 de este documento se encuentran los preliminares.En la sección 3 se encuentra el estudio de los modelos cuyo proceso de actualización de creencias sehace de forma determinística. En la sección 4 se desarrolla el modelo estocástico y en la sección 5las simulaciones con la evolución de las creencias del modelo con dos tipos de agentes. Por último,en la sección 6 se encuentran las conclusiones del trabajo.

Page 6: Proyecto de grado para obtener el título de Matemática ...

6 2. PRELIMINARES

2. Preliminares

En esta sección se utilizan principalmente [2], [6], [8] y [9] como fuentes de las definiciones. Parapoder desarrollar los resultados a partir de los modelos, es necesario definir las herramientas quese van a utilizar. En los modelos estudiados, la red que describe la sociedad es representada porun grafo dirigido. Un grafo dirigido es una pareja ordenada

−→G = (V,

−→E ) tal que V es el conjunto

de vértices y−→E ⊂ V × V es el conjunto de enlaces formado por parejas ordenadas de vértices i.e.

(i, j) ∈−→E donde i, j ∈ V . Adicionalmente al grafo se le puede asociar una matriz de la siguiente

forma: si |V | = n con n ∈ Z y M es una matriz cuadrada de dimensiones n×n, se dice que M es lamatriz de adyacencia del grafo

−→G si la entradaMij = 1 significa que hay un enlace dirigido entre los

nodos i y j, es decir, (i, j) ∈−→E . Similarmente, es importante entender las posibles conexiones que

hay entre los agentes en el grafo. Los principales conceptos para el desarrollo de los modelos son loscaminos, los ciclos y si el grafo (matriz de adyacencia) es fuertemente conexo o conectado. Siguiendoeste orden de ideas, un camino en una matriz M′ con entradas no negativas es una secuencia denodos i1, i2, · · · , ik, no necesariamente distintos, tales queM ′ijij+1

> 0 para cada j ∈ 1, · · · , k−1.La longitud del camino es k − 1. Un ciclo es un camino i1, i2, · · · , ik tal que i1 = ik. Un camino essimple si el único nodo que aparece dos veces es el del inicio. Se dice que una matriz de adyacenciade un grafo es fuertemente conectada o conexa si existe un camino de cualquier nodo a cualquiernodo. Por otra parte, es importante tener claridad en conceptos matriciales y de álgebra lineal, puesestos permiten analizar matrices asociadas y grafos. Para matrices cuadradas A ∈ Rn×n, el número

ρ(A) = maxλ∈σ(A)

|λ|

es el radio espectral de A y σ(A) es el espectro de A, es decir, el conjunto de los valores propios deA. En adición, se dice que A es reducible si existe una matriz de permutación Q tal que

QTAQ =

(X Y0 Z

)donde X y Z son matrices cuadradas. De lo contrario A es irreducible. También se dice que Aes una matriz estocástica si es no negativa y la suma de las entradas de cada fila es igual a 1. SiA es estocástica ρ(A) = 1. Similarmente, A es aperiódica si el máximo común divisor del tamañode sus ciclos simples es 1. Ahora es importante recordar el teorema de Perron-Frobenius para losresultados de la convergencia y a su vez definir una noción de convergencia.

Teorema 2.1. Perron-Frobenius: Sea A una matriz cuadrada, irreducible y no negativa. Seaρ(A) el radio espectral. Luego se tiene que

ρ(A) > 0

ρ(A) es un valor propio de A

Existe un vector positivo x tal que Ax = ρ(A)x

ρ(A) es un valor propio con multiplicidad algebraica simple

Definición 2.2. Una matriz T ∈ Rn×n es convergente si lımt→∞Ttp existe para todo p ∈ [0, 1]n.

Page 7: Proyecto de grado para obtener el título de Matemática ...

7 2. PRELIMINARES

Otras herramientas que se van a utilizar para analizar el proceso de las creencias de los agente,son procesos estocásticos, en especial las cadenas de Markov. Así, un proceso estocástico es unacolección de variables aleatorias X(k), k ∈ T definidas en un espacio de probabilidad común,indexadas por un conjunto T . También se denota Xk. En este trabajo, solo se van a considerarprocesos en tiempo discreto, es decir, T = N. Por su parte, una cadena de Markov es un procesoestocástico que cumple la propiedad de Markov :

P(Xk+1 = Sj |Xk = Sik , Xk−1 = Sik−1, · · · , X0 = Si0) = P(Xk+1 = Sj |Xk = Sik)

donde S es el conjunto de los estados. La cadena puede ser en tiempo continuo o discreto. Si lacadena de Markov es en tiempo discreto y el espacio de los estados es finito, n = |S|, entonces lacadena tiene una distribución inicial a0 ∈ Rn talque

∑i(a0)i = 1 que determina la probabilidad

de empezar en cualquier estado. Adicionalmente, tiene una matriz de transición de probabilidadP ∈ Rn×n donde Pij determina la probabilidad de pasar de un estado i a un estado j en un periodo.La dinámica de transición del periodo k al periodo k + 1 y del periodo 0 al periodo k + 1 se hacede la siguiente forma respectivamente:

at+1 = atP

at+1 = a0Pt

donde ak es la distribución en el tiempo k de la cadena de Markov. Esto se debe a que:

(at+1)i := P[Xt+1 = i] =∑j

P[Xt+1 = i|Xt = j]P[Xt = j] =∑j

(at)jpji

y que

(at+1)i := P[Xt = i] =∑j

P[Xt+1 = i|X0 = j]P[X0 = j] =∑j

(a0)jpt+1ji

En este documento, solo se va a considerar cadenas de Markov con estados finitos en tiempo discreto.Ahora, para todo k ≥ 0se tiene que

P ki,j = P[Xk = j|X0 = i]

es decir la entrada i, j de Pk es la probabilidad de empezar en i y llegar en k pasos al estado j. Porsu parte, la ecuación de Chapman-Kolmogorov establece que si m,n ≥ 0 entonces

Pn+m = PnPm

y por componentesPn+mi,j =

∑k

Pni,kPmk,j .

Ahora, dos estados i, j de una cadena de Markov se comunican i ↔ j si existe n,m ≥ 0 talque Pm(i, j) > 0 y Pn(j, i) > 0. Note que ↔ es una relación de equivalencia pues

es reflexiva: sea n = 0. Luego P 0(i, i) = 1 > 0 para todo i.

Page 8: Proyecto de grado para obtener el título de Matemática ...

8 2. PRELIMINARES

es simétrica por definición

es transitiva: si i↔ j y j ↔ k entonces existe m1, n1,m2, n2 > 0 tales quePm1(i, j) > 0, Pn1(j, i) > 0, Pm2(j, k) > 0, Pn2(k, j) > 0. Luego Pm1+m2(i, k) > 0,Pn1+n2(k, i) > 0 y i↔ k.

Luego, el espacio de los estados se puede partir en clases de comunicación. Si una cadena tieneuna única clase de comunicación, se dice que la cadena es irreducible. En adición, las clases decomunicación pueden ser cerradas. Se dice que un subconjunto de estados C ⊆ S es cerrado si paracualquier i ∈ C se tiene que la probabilidad de que, empezando en el estado i, el tiempo de llegadaal conjunto Cc sea infinito es igual a 1:

Pi[τCc =∞] = 1

donde τCc = ınft ≥ 0|Xt ∈ Cc es el tiempo de llegada al conjunto Cc y Pi[·] es la probabilidad deque empezando en el estado i ocurra el evento [·]. Similarmente, es importante saber que el periodode un estado i se define como:

d(i) := gdcn ≥ 1 : p(n)ii > 0

Si d(i) = 1 entonces el estado i se dice aperiódico. Este concepto es importante pues va a permitirestablecer condiciones necesarias para que una cadena de Markov tenga una distribución estacionariaúnica.

Para entender el comportamiento de las creencias es necesario tener conceptos de estacionarie-dad. Un proceso estocástico Yn, n ≥ 0 es estacionario si para cualquier número m ≥ 0 y n > 0 setiene

(Y0, · · · , Ym)d= (Yn, · · · , Yn+m)

Cuando hablamos de cadenas de Markov en particular, nos interesa es la distribución estacionariadel proceso. Siguiendo este orden de ideas, sea π = πj , j ∈ S una distribución de probabilidaddonde S es el espacio de los estados de una cadena de Markov con matriz de transición P . Se diceque π es una distribución estacionaria para la cadena de Markov si

π′ = π′P.

Por último, lo siguiente son conceptos y resultados importantes de convergencia y probabilidad.

Definición 2.3. Se dice que una secuencia Xnn∈N de variables aleatorias converge casi siemprea una variable aleatoria X si

P(

lımn→∞

Xn = X)

= 1

Definición 2.4. Sea Xnn∈N una secuencia de variables aleatorias. Se dice que la secuenciaconverge en distribución a una variable aleatoria X si para toda función continua y acotada φ setiene que

lımn→∞

E[φ(Xn)] = E[φ(X)]

Teorema 2.5 (Desigualdad de Markov). Si X es una variable aleatoria no negativa y a > 0,entonces

P(X ≥ a) ≤ E[X]

a.

Page 9: Proyecto de grado para obtener el título de Matemática ...

9 3. MODELOS DETERMINÍSTICOS DE OPINIONES EN REDES

Definición 2.6. Sea (An)n∈N una sucesión de eventos en un espacio de probabilidad Ω,A,P. Sedefine el

lım supAn :=⋂m∈N

⋃n≥m

An = An i.o

lım inf An :=⋃m∈N

⋂n≥m

An = An ev.

Lema 2.7. Borel-Cantelli:Sea (An)n∈N una sucesión de eventos tal que∑

n∈N

P(An) <∞

entoncesP(An i.o) = 0.

3. Modelos determinísticos de opiniones en redes

En esta sección se exponen dos tipos de modelos de opiniones de redes cuya actualización decreencias se hace de forma determinística. El propósito de esta sección es demostrar cuándo se puedetener sociedades que llegan a un consenso de opiniones o subconjuntos de los agentes que llegan aun consenso. El primer modelo que se presenta está basado en el trabajo de Golub y Jackson en[6] donde solo hay un tipo de agente. Los individuos actualizan sus creencias de la misma formatodos los periodos y tienen una aprendizaje ingenuo, es decir que los agentes no tienen en cuentalas repeticiones de información cuando actualizan sus creencias. En este modelo hay un consensoen el largo plazo entre los agentes. El segundo modelo se basa en el trabajo de DeMarzo et al.en [3] donde los agentes son homogéneos, tienen una aprendizaje ingenuo y hay convergencia deopiniones. No obstante, no se llega a un consenso sino que pueden existir grupos de individuosdentro de la sociedad que convergen a diferentes opiniones. Aunque en estos modelos no se utilizancadenas de Markov, los objetos matemáticos que utilizan son equivalentes a tener una cadena deMarkov en tiempo discreto y estados finitos. El punto de conexión es la matriz estocástica quedescribe las dinámicas de actualización de creencias y la matriz de transición de una cadena. Poresto las demostraciones van a utilizar herramientas probabilisticas asociadas a la teoría de cadenasde Markov.

3.1. El modelo de De Groot y consenso únicoSea V = 1, 2, ..., n un conjunto finito de agentes (nodos) en una red (grafo dirigido). Los

patrones de interacción de los agentes están dados según una matriz estocástica T de tamañon × n, la cual no es necesariamente simétrica. Si Ti,j > 0 significa que hay un enlace dirigido enel grafo de i a j. Los agentes en cada tiempo k ∈ N tienen una opinión o creencia dada por unvector p(k) ∈ Rn. En el tiempo 0, cada agente empieza con una creencia inicial dada, es decir,para todo agente i, p(0)i ∈ R es su creencia inicial. Adicionalmente, en cada periodo, los individuosactualizan sus creencias tomando un promedio ponderado de las creencias de sus vecinos. La formade actualización es determinística e invariante de periodo a periodo. El parámetro de confianza o

Page 10: Proyecto de grado para obtener el título de Matemática ...

10 El modelo de De Groot y consenso único

peso que le da un agente i a la opinión del agente j está dado por la matriz T, es decir el agente iconfía Tij en la opinión del agente j. Así, el proceso se lleva acabo de las siguiente forma

p(k) = Tp(k−1). (1)

Dado que en el proceso descrito anteriormente los agentes no tienen en cuenta las posibles repeti-ciones de creencias o de información, a esta forma de actualización se le llama aprendizaje ingenuoo ‘naïve learning’ y cumple con

p(k) = Tkp(0). (2)

Según este proceso de actualización se quiere estudiar el comportamiento del vector de creenciasen el largo plazo. Para esto es necesario establecer criterios de convergencia que permitan estudiarla evolución del vector. Se puede hacer una caracterización de la convergencia y establecer a quéconvergen las creencias cuando lo hacen. De acuerdo con [6] se tiene

Proposición 3.1. Si T es una matriz fuertemente conectada las siguientes son equivalentes:

1. T es convergente.

2. T es aperiódica

3. hay un único autovector a izquierda s de T que corresponde al autovalor 1, cuyas entradassuman 1, tal que para todo p ∈ [0, 1]n se tiene que para todo i(

lımk→∞

Tkp)i

= p · s

Demostración. 3. =⇒ 1. Por definición de convergencia.1. =⇒ 2. Se va a demostrar por contrapositiva. Suponga que T no es aperiódica y que tieneperiodo n. Luego solo las potencias Tm talque m ≡ 0 mod n tienen entradas positivas en ladiagonal Tii > 0, si m 6≡ 0 mod n entonces para todo i Tii = 0. Luego lımk→∞Tkp no existe y porlo tanto T no es convergente.2. =⇒ 3. Suponga que T es la matriz de transición de una cadena de Markov Xk con losagentes como estados. Note que el punto 3 es equivalente a decir que el vector s es una distribuciónestacionaria para la cadena de Markov. Considere primero el lema 2.13.3 en [9] el cual establece:

Lema 3.2. Si T es irreducible y aperiódica, entonces para cada i, j ∈ V , donde V es el conjuntode los estados, existe k0 = k0(i, j) ∈ N talque ∀k ≥ k0 : T kij > 0.

Ahora suponga que Yk es una cadena de Markov independiente de Xk con vector inicial s yP[Yk = j] = sj . Ahora sea ξk = (Xk, Yk) una cadena de Markov con V × V como estados y matrizde transición dada por

P[ξn+1 = (k, l)|ξn = (i, j)] = TikTjl

P[ξn = (k, l)|ξ0 = (i, j)] = TnikTnjl

De acuerdo con el lema anterior, para cada (k, l), (i, j) ∈ V × V se tiene que para un n ∈ Nsuficientemente grande existe que Tnik > 0, Tnjl > 0 y por lo tanto TnikT

njl > 0. Luego ξn

Page 11: Proyecto de grado para obtener el título de Matemática ...

11 El modelo de De Groot y consenso único

también es una cadena irreducible. Lo anterior implica que para cualquier estado i ∈ V el tiempode llegada para (i, i)

τ(i,i) = ınfn ≥ 0 : ξn = (i, i)

es finito con probabilidad uno. Ahora, veamos que s’k,l := sksl es un vector que cumple s’′ = s’′Ty por lo tanto una distribución estacionaria:∑

(i,j)∈V×V

s’i,jP[ξn+1 = (k, l)|ξn = (i, j)] =∑

(i,j)∈V×V

sisjTikTjl

=∑i

siTik∑j

sjTjl

= sksl = s’k,l.

Sea P una medida de probabilidad talque P[ξ0 = (k, l)] = δkisl, es decir, Xn comienza en i yYn comienza en l. Adicionalmente sea τ = τ(i0,i0) el primer tiempo en el cual las cadenas estánen el mismo estado. Luego,

P[Xn = j, τ ≤ n] =

n∑m=0

P[Xn = j, τ = m] =∑k

n∑m=0

P[ξn = (j, k), τ = m]

=∑k

n∑m=0

P[τ = m]Pi0i0 [ξn−m = (j, k)]

=∑k

n∑m=0

P[τ = m]Tn−mi0jTn−mi0k

=

n∑m=0

P[τ = m]Tn−mi0j

Similarmente,

P[Yn = j, τ ≤ n] =∑k

n∑m=0

P[ξn = (j, k), τ = m]

=∑k

n∑m=0

P[τ = m]Pi0i0 [ξn−m = (j, k)]

=∑k

n∑m=0

P[τ = m]Tn−mi0jTn−mi0k

=

n∑m=0

P[τ = m]Tn−mi0j

Así se concluye que después de que estén en el mismo estado las cadenas, la probabilidad de queestén en el mismo estado son idénticas:

P[Xn = j, τ ≤ n] = P[Yn = j, τ ≤ n]

Page 12: Proyecto de grado para obtener el título de Matemática ...

12 El modelo de De Groot y consenso por grupos

Siguiendo este orden de ideas:∣∣Tnij − sj∣∣ = |P[Xn = j]− P[Yn = j]|≤ |P[Xn = j, τ ≤ n]− P[Yn = j, τ ≤ n] + P[Xn = j, τ > n]− P[Yn = j, τ > n]|= |P[Xn = j, τ > n]− P[Yn = j, τ > n]|=∣∣E [1[Xn=j]1τ>n − 1[Yn=j]1τ>n

]∣∣≤ E[|1[Xn=j] − 1[Yn=j]|1τ>n] ≤ E[1[t>n]]

= P[τ > n]

Como P[τ <∞] = 1 entonceslımn→∞

P[τ > n] = 0

Se concluye que para n >> 0 ∣∣Tnij − sj∣∣ ≤ 0

y 2. =⇒ 3.

Ahora, sj se puede interpretar como la influencia del agente j en la red, es decir, como elpromedio ponderado de las influencias de los agentes que le prestan atención al agente j. Ahora, dellímite anterior se tiene que lımk→∞Tkp = lımk→∞Tk(Tp). Luego sp = sTp por lo cual s = sT ys es un vector propio a izquierda de T asociado al valor propio 1 y es la distribución estacionaria. Loque implica que si se tiene una matriz fuertemente conectada, el vector de opiniones de los agentesva a converger y el tercer punto de la proposición 3.1 establece exactamente a qué convergen.

3.2. El modelo de De Groot y consenso por gruposSuponga que se tiene el mismo planteamiento que en la sección anterior. V es el conjunto de

los agentes, se tiene un grafo dirigido que representa la red y T la matriz estocástica donde Tijrepresenta la confianza que le tiene el agente i al agente j y

p(k) = Tp(k−1)

p(k) = Tkp(0)

son las dinámicas del proceso de actualización de creencias de los agentes. Suponga que T no esfuertemente conectada. Suponga que T describe una cadena de Markov siendo el conjunto de losestados los agentes. Ahora, uno puede partir el espacio de agentes en clases de equivalencia. SeaB =

⋃j Bj un subconjunto de los agentes donde cada Bj es una clase de equivalencia cerrada.

Adicionalmente, sea R = V \B. El siguiente teorema permite caracterizar bajo que condicionestener un aprendizaje ingenuo permite tener un consenso dentro de las clases de equivalencias queson cerradas. A nivel social los grupos no tienen que tener la misma opinión. Ahora en lenguajealgebráico, una clase de equivalencia cerrada es lo mismo que un grupo cerrado y fuertementeconectado. De DeMarzo et al. se tiene:

Teorema 3.3. Sea T una matriz estocástica asociada a un grafo dirigido, B ∪ R una particiónde los agentes donde B =

⋃j Bj y cada Bj : j = 1, · · · , k son grupos cerrados y fuertemente

conectados y R es el conjunto de los agentes que no están en ningún grupo cerrado y fuertementeconectado. Luego T es convergente sí y solo sí existe un vector no negativo s ∈ Rn tal que

Page 13: Proyecto de grado para obtener el título de Matemática ...

13 4. FLUCTUACIONES DE OPINIÓN Y DESACUERDOS EN REDES

∑i∈Bj

si = 1 para cualquier grupo cerrado y fuertemente conectado Bj

si > 0 si i ∈ Bj para algún j y si = 0 si i ∈ R

sBj es un vector propio por izquierda de restringida a Bj, denotado por TBj , asociado alvalor propio 1

para cualquier vector p y i ∈ Bj, (lımk→∞

Tkp)i

= sBjpBj

y para cada agente i ∈ R existe wiBj≥ 0 para cada Bj tal que

∑j w

iBj

= 1 y(lımk→∞

Tkp)i

=∑j

wiBjsBj

pBj

donde wiBjes la influencia del grupo Bj en el agente i.

La demostración algebraica esta en [6] y una prueba análoga a la de la proposición 3.1 en[9]. Luego se tiene que bajo un aprendizaje ingenuo, los subconjuntos de los agentes cerrados yfuertemente conectados convergen a una misma opinión dada por la influencia de cada agente enel grupo por su creencia inicial. Adicionalmente, se tiene que las creencias de los agentes que nopertenecen a ningún grupo cerrado y fuertemente conectado, convergen a un promedio ponderadodel límite de las creencias de los grupos fuertemente conectados y cerrados.

4. Fluctuaciones de opinión y desacuerdos en redes

En esta sección se va a presentar el modelo de estudio del trabajo. Este modelo está basadoen el documento de Acemoğlu et al. [1], quienes utilizan como herramienta cadenas de Markov entiempo continuo para estudiar la evolución del vector de creencias según una red con dos tipos deagentes. El principal aporte de esta investigación es estudiar la evolución del vector de creencias pormedio de la utilización de cadenas de Markov en tiempo discreto, llegando a los mismos resultadoscon una simplificación de los cálculos involucrados.

4.1. Modelo de evolución de creencias

Sea−→G = (V,

−→E ) un grafo simple dirigido, que representa una red, donde V es el conjunto de

nodos (agentes), |V | = n y−→E ⊆ V × V \D y D := (v, v) : v ∈ V . En el tiempo k ≥ 0 cada agente

v ∈ V tiene una creencia sobre un estado del mundo denotado por Xv(k). El vector completo decreencias se denota X(k) = Xv(k) : v ∈ V . En el modelo hay dos tipos de agentes V = A ∪ S.Los agentes a ∈ A son los agentes regulares y los s ∈ S son los agentes tercos. La diferencia entreestos dos agentes es la forma de actualizar creencias. Los regulares actualizan creencias basándoseen la observación de la creencias de sus vecinos en

−→G , mientras que los tercos nunca cambian su

opinión. De esta forma las creencias de los agentes tercos están dadas por

Xs(k) = Xs(0) =: xs s ∈ S, k ≥ 0.

Page 14: Proyecto de grado para obtener el título de Matemática ...

14 Modelo de evolución de creencias

Al ser un grafo dirigido la topología indica cómo se comunican los agentes, es decir si (v, v′) ∈−→E

implica que existe un enlace dirigido de v y a v′ y que el agente v es influenciado por el agente v′.En cada tiempo k únicamente una pareja de agentes (v, v′) ∈

−→E se encuentran con probabilidad

pvv′ , luego solo el agente v actualiza sus creencias. Note que la pareja que se escoge siempre es de laforma (a, v) donde a ∈ A y v ∈ V pues los tercos no actualizan creencias y que la forma de escogeres independiente en cada tiempo. Adicionalmente pvv = 0, ∀v ∈ V . De esta forma en el tiempo kun agente regular actualiza su creencia de la forma

Xa(k) = (1− θav)Xa(k − 1) + θavXv(k − 1) (3)

donde θav ∈ [0, 1] es el parámetro que representa el peso que le da el agente a a la opinión delagente v.

Para el desarrollo de este documento, es importante establecer el siguiente supuesto sobre laestructura de la red. Primero, se define el conjunto Sa ⊆ S de los agentes tercos que influencian alagente regular a ∈ A, es decir, los agentes tercos para los cuales existe un camino dirigido desde a.Luego:

Supuesto 4.1. Todo agente regular es influenciado por al menos un agente terco, i.e. Sa 6= ∅,∀a ∈A.

Si se tiene un grafo−→G en el cual el supuesto 4.1 no se cumple, se define R := a ∈ A|Sa = ∅

para obtener dos componentes de interés del grafo: uno con los nodos de V \R y el otro de R.Así, se trabajaría con la subred que tiene los nodos V \R para tener los resultados expuestos enel documento. Por su parte, los agentes del conjunto R funcionarían como los agentes del modelopresentado en la sección 2.1 con un aprendizaje ingenuo. Esto se tiene por el teorema ergódico deBirkhoff, en especial el corolario 3.2 y el ejemplo 3.5 de [5].

A continuación se mostrará un ejemplo ilustrando el proceso descrito anteriormente y que cumpleel supuesto 4.1.

Ejemplo 4.2. Este ejemplo consiste de una red con un único agente regular A = a y dos agentestercos S = s0, s1 donde

−→E = (a, s0), (a, s1). Se tiene que pas0 = pas1 = 1

2 , θas0 = θas1 = 12 ,

xs0 = 0, xs1 = 1 y Xa(0) = 0. Siguiendo el proceso de actualización de creencias se tiene que

Xa(1) =1

2Xa(0) +

1

2Xsi1

(1) =1

2Xsi1

(1),

donde i1 es el agente con el cual el agente a actualiza sus creencias en el tiempo 1. Para k = 2 setiene:

Xa(2) =1

2Xa(1) +

1

2Xsi2

(2) =1

4Xsi1

(1) +1

2Xsi2

(2),

donde i2 es el agente con el cual el agente a actualiza sus creencias en el tiempo 2. Luego si se sigueiterando se obtiene que

Xa(k) =

k∑n=1

2n−k−1B(n),

donde B(n) : n ∈ N es una secuencia de variables aleatorias con distribución de Bernoulli( 12 )

mutuamente independientes. El siguiente histograma muestra mil simulaciones de la creencia delagente regular en el tiempo k=100000.

Page 15: Proyecto de grado para obtener el título de Matemática ...

15 Modelo de evolución de creencias

Figura 1: Simulación del proceso de actualización de creencias del agente regular Xa(100000)

0.0 0.2 0.4 0.6 0.8 1.0Opinión

0

5

10

15

20

25

30

35

Freq

uenc

ia

Agente regular único

El histograma muestra que Xa(k) fluctúa a lo largo del intervalo [0, 1]. En la siguiente subsecciónse va a demostrar por qué sucede esto. El teorema 4.7 establece que cuando un agente regular esinfluenciado por dos o más agentes tercos con opiniones distintas, su creencia converge en distri-bución a una variable aleatoria no degenerada. Por otro lado, Xa :=

∑∞i=1 2−iB(i) es una suma

creciente y acotada, luego para cada trayectoria va a converger. Considere el proceso

←−Xa(k) :=

k∑i=1

2−iB(i)

luego con probabilidad uno sucede que

lımk→∞

←−Xa(k) = Xa,

por lo anterior, también converge en distribución. Este proceso se considera, pues es más sencilloentender el comportamiento asintótico que el deXa(k). Adicionalmente, se escoge ese proceso en par-ticular porque para todo k positivo se tiene que las k-tuplas B(1), · · · , B(k) y B(k), · · · , B(1)tienen la misma distribución, Luego para cada k ≥ 0 Xa(k)

d=←−Xa(k). Lo anterior permite concluir

que Xa(k) converge en distribución a Xa.

Adicionalmente, a la red−→G se le asocia la matriz T ∈ RV×V de la forma

Tij = θi,jpi,j , Tii = 1−∑j∈V,j 6=i θi,jpi,j .

Esta matriz es estocástica y describe una cadena de Markov en V . Por consiguiente, en el ejemplo

Page 16: Proyecto de grado para obtener el título de Matemática ...

16 Convergencia en distribución de las creencias

4.2 la matriz de transición asociada es:

T =

12

14

14

0 1 00 0 1

En las sección 3.3 se va a demostrar que el valor esperado de la creencia del agente regular

depende de la matriz de transición y el valor esperado de las creencias de los demás agentes en lared.

4.2. Convergencia en distribución de las creenciasEl propósito de esta sección es estudiar las propiedades del vector de creencias X(k) : k ∈ N

para el modelo descrito en la sección 3.1. El objetivo es demostrar que este vector converge endistribución a un vector aleatorio estacionario de creencias X. Adicionalmente, si existen al menosdos agentes tercos con opiniones distintas, las creencias de los agentes regulares no convergen casiseguro, como se vio en el ejemplo 4.2. Para demostrar esto, se va a seguir la metodología descrita en[4]. En el artículo utilizan una iteración de transformaciones lineales para estudiar la convergenciadel proceso. Este método permite representar la ley de la distribución estacionaria en términos deunas matrices y vectores estocásticos.

Siguiendo la metodología de [4], para el instante k ≥ 0 se introduce el vector de proyecciónde creencias Y (k) ∈ RA donde, ∀a ∈ A, Ya(k) = Xa(k). Sea IA ∈ RA×A la matriz identidad ypara a ∈ A, e(a) ∈ RA, es el vector cuya posición a-ésima es 1 y en el resto tiene 0. Ahora seaA(k) ∈ RA×A y B(k) ∈ RA definidos de la siguiente forma:

Si en el tiempo k se activa el enlace (a, a′) ∈−→E con a, a′ ∈ A, entonces

A(k) = IA + θaa′(e(a)eT(a′) − e(a)e

T(a)), B(k) = 0.

Si en el tiempo k se activa el enlace (a, s) ∈−→E con a ∈ A y s ∈ S, entonces

A(k) = IA − θase(a)eT(a), B(k) = e(a)θasxs.

Ahora, sea

−→A (k, l) :=

A(l)A(l − 1) · · ·A(k + 1)A(k) si 1 ≤ k ≤ lIA si k > l,

(4)

luego para todo k ≥ 0

Y (k) =−→A (1, k)Y (0) +

∑1≤i≤k

−→A (i+ 1, k)B(i). (5)

Adicionalmente se tiene el proceso de las creencias con el tiempo en reversa

←−Y (k) :=

←−A (1, k)Y (0) +

∑1≤i≤k

←−A (i+ 1, k)B(i), (6)

Page 17: Proyecto de grado para obtener el título de Matemática ...

17 Convergencia en distribución de las creencias

donde←−A (k, l) :=

A(k)A(k + 1) · · ·A(l − 1)A(l) si 1 ≤ k ≤ lIA si k > l.

(7)

Así, se tiene el siguiente lema sobre la convergencia del vector proyección de creencias.

Lema 4.3. Para todo k ≥ 0 se tiene que Y (k) y←−Y (k) tienen la misma distribución de probabilidad.

Demostración. Se tiene que A(k), B(k)k∈N es una secuencia de variables aleatorias i.i.d. Luego∀l ∈ N :

A(k), B(k) : 1 ≤ k ≤ l d= A(l − k + 1), B(l − k + 1) : 1 ≤ k ≤ l

Luego por la ecuación (5) y la ecuación (6) se tiene que Y (k)d=←−Y (k)

Adicionalmente se tiene el siguiente lema sobre la convergencia casi segura del vector de tiempoen reversa de las creencias.

Lema 4.4. Suponga que se cumple el supuesto 4.1, luego para todo valor de creencia de los agentestercos xs ∈ RS , existe un vector aleatorio Y ∈ RA tal que

P

(lımk→∞

←−Y (k) = Y

)= 1,

para toda distribución inicial L(Y (0)) de las creencias de los agentes regulares.

Demostración. Para demostrar el lema 4.4 se quiere ver que

Y :=∑k≥1

←−A (1, k − 1)B(k)

converge absolutamente. Para esto note que

E[Aaa′(k)] = paa′θaa′ = Taa′ ,

E[Aaa(k)] =∑

a′∈A\a

paa′(1− θaa′) +∑s∈S

pas(1− θas) +∑

a′∈A\a

∑v∈V

pa′v1

=∑

v∈V \a

pav −∑

v∈V \a

pavθav +∑

a′∈A\a

∑v∈V

pa′v = 1−∑

v∈V \a

Tav = Taa,

E[Ba(k)] =∑s

Tasxs,

E[A(k)] es TA×A la matriz de transición de la cadena de Markov restringida a A × A y T es unamatriz estocástica su radio espectral es igual a 1. Por el supuesto 4.1 se tiene que al menos unagente regular ai está conectado directamente con un agente terco si, es decir, (ai, si) ∈

−→E . Luego∑

a∈A\ai

Taia < 1

lo anterior pasa para cualquier agente regular que tenga al menos un enlace directo con un agenteterco. Luego para todo k ≥ 0 se cumple E[A(k)] es una matriz subestocástica, es decir que la suma

Page 18: Proyecto de grado para obtener el título de Matemática ...

18 Convergencia en distribución de las creencias

de las filas son menores o iguales a 1, y por lo tanto el radio espectral E[A(k)] = ρ < 1. Ahora

‖E[←−A (1, k − 1)]‖∞ ≤ ‖E[A(1)]k‖∞

Por la descomposición canónica de Jordan y para k >> n, n fijo, se tiene que

‖E[←−A (1)]k‖∞ ≤

(k

0

)ρk +

(k

1

)ρk−1 + · · ·+

(k

n− 1

)ρk−n+1

≤ ρk(

1 +

(k

1

)ρ−1 + · · ·+

(k

n− 1

)ρ−n+1

)≤ Cρkkn−1

donde C es una constante. Ahora, para variables aleatorias no negativas Z,W se tiene que

E[maxZ,W] ≤ E[Z] + E[W ]

Luego

E[‖←−A (1, k)‖1] = E[max

a′

∑a

←−Aa,a′(1, k)] ≤

∑a,a′

E[←−Aa,a′(a, k)] ≤ n‖E[

←−A (1, k)]‖∞ ≤ Cnkn−1ρk.

Sea ν ∈ (ρ, 1), por la desigualdad de Markov, la propiedad de submultiplicatividad de la norma 1y A(k), B(k) son variables aleatorias i.i.d., se tiene que

P[‖←−A (1, k − 1)B(k)‖1 ≥ νk−1] ≤ E[‖

←−A (1, k − 1)B(k)‖1]

νk−1

≤ E[‖−→A (1, k − 1)‖1‖B(k)‖1]ν−k+1

= E[‖−→A (1, k − 1)‖1]E[‖B(k)‖1]ν−k+1

≤ Cnkn−1(ρν

)k−1donde C es una constante. Como ∑

k≥0

Cnkn−1(ρν

)k−1<∞,

la cota anterior y el lema de Borel-Cantelli implican que con probabilidad 1

‖←−A (1, k − 1)B(k)‖1 ≤ νk−1

para todos menos finitos valores de k ≥ 1. Luego con probabilidad 1 se tiene que

Y :=∑k≥1

←−A (1, k − 1)B(k)

es absolutamente convergente. Ahora se quiere ver que←−A (1, k)Y (0) converge casi siempre a 0

Page 19: Proyecto de grado para obtener el título de Matemática ...

19 Convergencia en distribución de las creencias

mientras que k →∞. Esto se ve de forma análoga a la anterior:

P[||←−A (1, k − 1)Y (0)||1 ≥ νk−1] ≤ E[||

←−A (1, k − 1)Y (0)||1]

νk−1

≤ E[||−→A (1, k − 1)||1||Y (0)||1]ν−k+1

= E[||−→A (1, k − 1)||1]||Y (0)||1ν−k+1

≤ Dnkn−1(ρν

)k−1Donde D es una constante. Como ∑

k≥0

Dnkn−1(ρν

)k−1<∞,

la cota anterior y el lema de Borel-Cantelli se tiene que con probabilidad 1

‖←−A (1, k − 1)Y (0)‖1 ≤ νk−1

para todos menos finitos valores de k ≥ 1. Así

P

(lımk→∞

←−A (1, k)Y (0) = 0

)= 1

Por último, lo siguiente sucede con probabilidad 1:

lımt→∞

←−Y (t) = lım

t→∞

←−A (1, k)Y (0) + lım

t→∞

∑1≤j≤k

←−A (1, j − 1)B(j) = Y

Usando los dos lemas anteriores se puede probar la convergencia en distribución de X(t) a X.

Teorema 4.5. Suponga que se cumple el supuesto 4.1. Luego para todo valor de las creencias delos agentes tercos xs ∈ RS existe una variable aleatoria X ∈ RV , tal que para toda distribucióninicial L(X(0)) que cumple P(Xs(0) = xs) = 1 para todo s ∈ S,

lımk→∞

E[φ(X(k))] = E[φ(X)],

toda función continua y acotada φ : RV → R. Adicionalmente, la ley de probabilidad del vector

estacionario X es invariante para el sistema, i.e. si X(0)d= X entonces para todo k ≥ 0, X(k)

d=

X.

Demostración. Del lema 4.4 se tiene que←−Y (k) converge a Y con probabilidad 1 para cualquier

vector de creencias inicial. Del lema 4.3 se tiene que Y (k) y←−Y (k) se distribuyen idénticamente

para cada k ≥ 0, luego Y (k) converge en distribución a Y y si Xa = Ya ∀a ∈ A y Xs = xs s ∈ Sentonces Xa(k) converge en distribución a Xa. Ahora, la segunda afirmación se sigue de queY =

∑k≥1←−A (1, k−1)B(k), es decir, es la suma de multiplicaciones de matrices y vectores aleatorios

Page 20: Proyecto de grado para obtener el título de Matemática ...

20 Convergencia en distribución de las creencias

i.i.d. y Y ′ = A(0)Y +B(0) sigue siendo la suma de multiplicaciones de matrices y vectores aleatoriosi.i.d., luego la distribución va a seguir siendo la misma sin importar el tiempo pues A(0), B(0) soncopias independientes de A(1), B(1) y así para cualquier k.

Motivado por el teorema anterior se va a denotar para todo agente v ∈ V Xv como su creenciaestacionaria. Adicionalmente se va a ver que los promedios de las funciones continuas de las creenciasde los agentes con valores esperados acotados, están dados por su valor esperado de la distribuciónlímite. La importancia de esto recae principalmente en poder expresar los promedios empíricos ycorrelaciones de las creencias en términos de los valores esperados de las distribuciones límites,según la escogencia apropiada de una función relevante.

Corolario 4.6. Suponga que se cumple el supuesto 4.1. Luego para cualquier valor de las creenciasde los agentes tercos xs ∈ R, con probabilidad uno se cumple que

lımk→∞

1

k

k−1∑i=0

φ(X(i)) = E[φ(X)],

donde X es el vector de creencias estacionarias y φ : RV → R es una función continua tal queE[φ(X)] existe y es finito.

Demostración. En el tiempo k ≥ 0 sea Y (k) el vector proyección de las creencias de los agentesregulares y Y el vector de las creencias estacionarias. Adicionalmente Y (0) ∈ RA independiente deY (0) y con L(Y (0)) = L(Y ). Sea Y como en (5) y

Y (k) =−→A (1, k)Y (0) +

∑1≤i≤k

−→A (i+ 1, k)B(i)

donde−→A (k, l) está definido como en (4). Luego Y (k) − Y (k) =

−→A (1, k)(Y (0) − Y (0)). Análogo al

razonamiento de la prueba del lema 4.4 se tiene que

P[||←−A (1, k − 1)(Y (0)− Y (0))||1 ≥ νk−1] ≤ E[||

←−A (1, k − 1)(Y (0)− Y (0))||1]

νk−1

≤ E[||−→A (1, k − 1)||1||(Y (0)− Y (0))||1]ν−k+1

= E[||−→A (1, k − 1)||1]E[||(Y (0)− Y (0))||1]ν−k+1

≤ Enkn−1(ρν

)k−1donde E es una constante. Como∑

k≥0

Enkn−1(ρν

)k−1<∞,

la cota anterior y el lema de Borel-Cantelli implican que con probabilidad 1 que

‖←−A (1, k − 1)(Y (0)− Y (0))‖1 ≤ νk−1

Page 21: Proyecto de grado para obtener el título de Matemática ...

21 Convergencia en distribución de las creencias

para todos menos finitos valores de k ≥ 1. Así lo siguiente sucede casi seguro:

lımk→∞

||Y (k)− Y (k)||1 = 0.

Ahora, sea k > 0 y los vectores X(k), X(k) definidos por Xa(k) = Ya(k), Xa(k) = Ya(k) para a ∈ Ay Xs(k) = Xs(k) = xs para s ∈ S. Así que con probabilidad 1 se tiene que

lımk→∞

X(k)−X(k) = 0

⇔lımk→∞

X(k) = lımk→∞

X(k).

De acuerdo al proceso de actualización de creencias de los agentes regulares, se tiene que estas soncombinaciones convexas de las creencias iniciales. Así se tiene

supk≥0

maxv

Xv(k) ≤ maxv

X(0) <∞,

supk≥0

maxv

Xv(k) ≤ maxv

X(0) <∞.

Entonces, para cada función continua φ : RV → R se cumple con probabilidad 1

φ( lımk→∞

X(k)) = φ( lımk→∞

X(k))

⇔lımk→∞

φ(X(k)) = lımk→∞

φ(X(k))

⇔lımk→∞

φ(X(k))− φ(X(k)) = 0

⇒lımk→∞

|φ(X(k))− φ(X(k))| = 0.

En adición, la estacionaridad del proceso X(k) permite aplicar el teorema ergódico de Birkhoff y elcorolario 5.3 en [7] mostrando que si existe E(φ(X)) <∞, entonces

lımk→∞

1

k

k−1∑i=0

φ(X(i)) = E[φ(X)].

Luego para cualquier función continua φ talque existe E(φ(X)) <∞ entonces con probabilidad 1∣∣∣∣∣1kk−1∑i=0

φ(X(i))− E[φ(X)]

∣∣∣∣∣ ≤∣∣∣∣∣1k

k−1∑i=0

φ(X(i))− E[φ(X)]

∣∣∣∣∣+1

k

k−1∑i=0

∣∣∣φ(X(i))− φ(X(i))∣∣∣ k→∞−−−−→ 0.

Page 22: Proyecto de grado para obtener el título de Matemática ...

22 Creencias esperadas y covarianza de las creencias

De esta forma se tiene que el teorema 4.5 y el corolario 4.6 muestran que las creencias de todoslos agentes convergen en distribución. No obstante, el siguiente teorema muestra que la creenciaestacionara de una agente regular que es influenciado (conectado) por al menos dos agentes tercoscon creencias diferentes es una variable aleatoria no degenerada. Como consecuencia, las creenciasde estos agentes continua fluctuando con probabilidad 1. En adición, el teorema muestra que ladiferencia entre la creencia de un agente de este estilo y la creencia de cualquier otro agente noconverge a 0 con probabilidad positiva. Lo anterior implica que los desacuerdos entre ellos persistenen el tiempo. Ahora para a ∈ A sea Xa := xs : s ∈ Sa el conjunto de creencias de los agentestercos que influencian a a. De esta manera se tiene:

Teorema 4.7. Suponga que se cumple el supuesto 4.1 y sea a ∈ A tal que |Xa| ≥ 2. Luego la creenciaestacionaria Xa es una variable aleatoria no degenerada. Adicionalmente, P(Xa 6= Xv) > 0 paratodo v ∈ V \a.

Demostración. Dado que la distribución del vector estacionario de creencias X no depende de ladistribución de las creencias iniciales de los agentes, sin pérdida de generalidad suponga que la

distribución inicial es la estacionaria, es decir, X(0)d= X. Luego por el teorema 4.5 se tiene que

para todo k ≥ 0 X(k)d= X. Para ver que se cumple la primera parte del teorema, sea a ∈ A un

agente regular tal que Xa es una variable degenerada. Luego los vecinos de a deben tener, conprobabilidad 1, la creencia constante igual a xa. Esta afirmación se debe a que si existe (a, v) ∈

−→E

y Xa(k) = xa es una variable aleatoria degenerada entonces en el evento que se escoja el enlace(a, v) en el tiempo k, Xv(k) = xa pues de otra forma de actualización de Xa(k) 6= xa. Suponga porcontradicción que k∗ := ınfk ≥ 0 : Xv(k) 6= xa tiene una probabilidad positiva de ser finito, esdecir, P(k∗ <∞) > 0. Luego por la independencia de la escogencia de los enlaces se tiene que

P(se active el enlace (a, v) después de k∗|k∗ <∞) > 0,

lo cual sería una contradicción pues Xv(k(a,v)) 6= xa. Así para todo v ∈ V, k ≥ 0, (a, v) ∈−→E :

Xv(k) = xa. Si se itera este argumento hasta llegar a los agentes tercos que pertenecen al conjuntoSa, entonces se tiene que para todo s ∈ Sa, xs = xa luego |Xa| = 1.

Ahora suponga que P(Xa = Xv) = 1 para a ∈ A y algún v ∈ V \a. Luego para todok ≥ 0, Xa(k) = Xv(k). Con probabilidad 1 se tiene que Xa(k) no es constante en k luego Xa(k) yXv(k) deberían cambiar al mismo tiempo. Por construcción del modelo esto tiene probabilidad 0de ocurrir, luego P(Xa = Xv) < 1 y por lo tanto P(Xa 6= Xv) > 0.

Por último, cabe resaltar que como consecuencia del corolario 4.6 y del teorema 4.7 se tiene quesi un agente regular es influenciado por dos o más agentes tercos con opiniones diferentes, entoncescon probabilidad 1 se tiene que esta creencia no va a llegar a un consenso asintótico con ningúnotro agente de la red.

4.3. Creencias esperadas y covarianza de las creenciasEn esta sección se va a hacer una caracterización de las creencias esperadas y las covarianzas de

las creencias. Primero se considera dos cadenas de Markov, la primera V (k) con espacio de estadosV y matriz T y la segunda F(k) con espacio de estados V × V y matriz de transición K cuyasentradas están dadas por:

Page 23: Proyecto de grado para obtener el título de Matemática ...

23 Creencias esperadas y covarianza de las creencias

K(v,v′)(w,w′) :=

Tvw si v 6= v′, v 6= w, v′ = w′

Tv′w′ si v 6= v′, v = w, v′ 6= w′

0 si v 6= v′, v 6= w, v′ 6= w′

Tvv − 1 + Tv′v′ si v 6= v′, v = w, v′ = w′

θvwTvw si v = v′, w = w′, v 6= w(1− θvw)Tvw si v = v′, v 6= w, v′ = w′

(1− θvw′)Tvw′ si v = v′, v = w, v′ 6= w′

0 si v = v′, w 6= w′, w 6= v, w 6= v′

2Tvv +∑v′′ 6=v θvv′′Tvv′′ − 1 si v = v′, v = w, v′ = w′

(8)

Ahora, una forma de interpretar K es considerar dos cadenas sobre V en donde las primeras cuatrolíneas muestran que la probabilidad de cambiar las dos componentes de estado al mismo tiempoa estados diferentes es 0. Adicionalmente la probabilidad de que una componente cambie de unestado a otro, mientras que la otra se mantiene quieta, es igual a la probabilidad de que cambie lacadena V (k). Mientras que cuando ambas componentes se quedan quitas, se suma la probabilidadde que el estado vuelva a su misma posición y se garantiza la estocasticidad, i.e. Tvv + Tv′v′ − 1.Por su parte, las últimas líneas establecen que cuando las componentes se encuentran, i.e. quedancondicionadas a F(k) = (v, v), se mueven como una sola a un nodo vecino w con una probabilidadθvwTvw. Aunque también tienen la posibilidad de saltar a nodos distintos. La importancia es quesi θvw = 1 para toda arista en

−→E las componentes se mueven como una única partícula y nunca se

separan.Veamos como quedaría la matriz del agente regular único del ejemplo 4.2.

Ejemplo 4.8. La matriz T que se mostró tenía primero al agente regular y después los dos agentestercos. Para construir la matriz K se va a tomar como base

T =

1 0 014

12

14

0 0 1

.En la cual están los agentes tercos en los extremos y en la mitad el agente regular. De esta forma

K =

1 0 0 0 0 0 0 0 014

12

14 0 0 0 0 0 0

0 0 1 0 0 0 0 0 014 0 0 2

4 0 0 14 0 0

14

18 0 1

8 0 18 0 1

814

0 0 14 0 0 2

4 0 0 14

0 0 0 0 0 0 1 0 00 0 0 0 0 0 1

412

14

0 0 0 0 0 0 0 0 1

.

Por otro lado, para v, w, v′, w′ ∈ V y k ≥ 0 se tiene que

Tkvw := Pv(V (k) = w), Kk

(v,v′)(w,w′) = Pvv′(F(k) = (w,w′))

Page 24: Proyecto de grado para obtener el título de Matemática ...

24 Creencias esperadas y covarianza de las creencias

las probabilidades marginales y conjuntas de las dos cadenas de Markov. Estas satisfacen siempresatisfacen las ecuaciones de Kolmogorov con la condición inicial

T0vw =

1 si v = w0 si v 6= w

, K0(v,v′)(w,w′) =

1 si (v, v′) = (w,w′)0 si (v, v′) 6= (w,w′)

Por su parte, el siguiente lema da una conexión entre la evolución del proceso de las creenciasestablecido en la sección 3.1 y las cadenas de Markov en pareja, pues muestra que los valoresesperados y las covarianzas satisfacen los mismos sistemas de ecuaciones lineales de ecuacionesdiferenciales ordinarias y las probabilidades de transición de F(k).

Lema 4.9. Para toda v, v′ ∈ V y t ≥ 0, se tiene que

E[Xv(k+1)] =∑w

TvwE[Xw(k)], E[Xv(k+1)Xv′(k+1)] =∑w,w′

K(v,v′)(w,w′)E[Xw(k)Xw′(k)], (9)

y por lo tanto

E[Xv(k + 1)] =∑w∈V

TkvwE[Xw(0)], E[Xv(t)Xv′(k + 1)] =

∑w,w′∈V

Kk(v,v′)(w,w′)E[Xw(0)Xw′(0)].

(10)

Demostración del lema 4.9. Para ver que se cumple la parte izquierda de la ecuación 9 se tiene que

E[Xv(k + 1)|Xk] = (1−∑w 6=v

pvw)Xv(k) +∑w 6=v

pvw[(1− θvw)Xv(k) + θvwXw(k)]

= Xv(k) +∑w 6=v

pvw(θwvXw(k))−∑w 6=v

pvw(θwvXv(k))

= Xv(k) +∑w 6=v

TvwXw(k)−∑w 6=v

TvwXv(k)

=∑w 6=v

TvwXw(k) +Xv(k)(1−∑w 6=v

Tvw)

=∑w

TvwXw(k).

Luego, por la ley de probabilidad total, tomando valor esperado se tiene que

E[Xv(k + 1)] =∑w

TvwE[Xw(k)].

Para ver que se cumple la parte derecha de la ecuación 9 se necesitan dos identidades. Primero,

Page 25: Proyecto de grado para obtener el título de Matemática ...

25 Creencias esperadas y covarianza de las creencias

notemos que

E[Xv(k + 1)Xv′(k + 1)|Xk] = (1−∑w 6=v

pvw −∑w′ 6=v′

pv′w′)Xv(k)Xv′(k)

+∑w 6=v

pvw(θvwXw(k)Xv′ + (1− θvw)Xv(k)Xv′(k))

+∑w′ 6=v′

pv′w′(θv′w′Xv(k)Xw′ + (1− θv′w′)Xv(k)Xv′(k))

= Xv(t)Xv′ +∑w 6=v

TvwXw(k)Xv′(k)−∑w 6=v

TvwXv(k)Xv′(k)

+∑w′ 6=v′

Tv′w′Xv(k)Xw′(k)−∑w′ 6=v′

Tv′w′Xv(k)Xv′(k)

=∑w,w′

K(v,v′)(w,w′)Xw(k)Xw′(k),

y de nuevo tomando valor esperado

E[Xv(k + 1)Xv′(k + 1)] =∑w,w′

K(v,v′)(w,w′)E[Xw(k)Xw′(k)].

Ahora, análogamente

E[X2v (k + 1)|Xk] = (1−

∑w 6=v

pvw)X2v (k) +

∑w 6=v

pvw(θvwXw(k) + (1− θvw)Xv(k))2

= X2v (k)(1−

∑w 6=v

pvw +∑w 6=v

pvw(1− 2θvw + θ2vw)

+∑w 6=v

pvw(θ2vwX2w(k) + 2(1− θvw)θvwXw(k)Xv(k)

= X2v (k)(Tvv −

∑w 6=v

(1− θvwTvw) +∑w 6=v

θvwTvwX2w(k)

+ 2∑w 6=v

Tvw(1− θvwXw(k)Xv(k)

=∑w,w′

K(v,v′)(w,w′)Xw(k)Xw′(k),

y por lo tantoE[X2

v (k + 1)] =∑w,w′

K(v,v′)(w,w′)E[Xw(k)Xw′(k)].

Page 26: Proyecto de grado para obtener el título de Matemática ...

26 Creencias esperadas y covarianza de las creencias

Así, quedan demostradas las dos igualdades de la ecuación 9. Con lo anterior e iterando se tiene 10

E[Xv(k)] =∑w1

Tvw1E[Xw1

(k − 1)] =∑w1

T1vw1

E[Xw1(k − 1)]

=∑w1,w2

Tvw1Tw1w2E[Xw2(k − 2)] =∑w2

T2vw2

(2)E[Xw1(k − 2)]

= · · ·

=∑

w1,w2,··· ,wk−1

Tvw1Tw1w2

· · ·Twk−2wk−1E[Xwk−1

(1)]

=∑

w1,w2,··· ,wk−1,w

Tvw1Tw1w2

· · ·Twk−2wk−1Twk−1wE[Xw(0)]

=∑w

TkvwE[Xw(0)]

lo cual prueba la igualdad izquierda de la ecuación 10. Para ver la igualdad derecha se tiene

E[Xv(k)Xv(k)] =∑w1,w′1

K(v,v′)(w1,w′1)E[Xw1(k − 1)Xw′1

(k − 1)]

=∑w1,w′1

K1(v,v′)(w1,w′1)

E[Xw1(k − 1)Xw′1

(k − 1)]

=∑

w1,w′1,w2,w′2

K(v,v′)(w1,w′1)K(w1,w′1)(w2,w′2)

E[Xw2(k − 2)Xw′2(k − 2)]

=∑w2,w′2

K2(v,v′)(w2,w′2)

E[Xw2(k − 2)Xw′2

(k − 2)]

= · · ·

=∑

w1,w′1,··· ,wk−1,w′k−1

K(v,v′)(w1,w′1)· · ·K(wk−2,w′k−2)(wk−1,w′k−1)

E[Xwk−1(1)Xw′k−1

(1)]

=∑

w1,w′1,··· ,wk−1,w′k−1,w,w′

K(v,v′)(w1,w′1)· · ·K(wk−1,w′k−1)(w,w

′)E[Xw(0)Xw′(0)]

=∑w,w′

Kk(v,v′)(w,w′)E[Xw(0)]

Gracias al lema 4.9, se puede probar el resultado principal de esta sección. Éste caracteriza losvalores esperados y las covarianzas de las creencias estacionarias de los agentes en términos de lasprobabilidades de absorción de las cadenas de Markov en pareja. Para esto sea KS y KS′ los tiemposde llegada de las cadenas de Markov V (k) y F(k) sobre el conjunto de los agentes tercos, los cualesse definen como

KS := ınfk ≥ 0 : V (k) ∈ S, K′s := ınfk ≥ 0 : F(k) ∈ S

Page 27: Proyecto de grado para obtener el título de Matemática ...

27 Creencias esperadas y covarianza de las creencias

El supuesto 4.1 indica que KS y K′S son finitos con probabilidad 1 para toda distribución inicial deF(0) y V (0). Luego se pueden definir las probabilidades de absorción como

T∞vs := Pv(V (KS) = s), s ∈ S,K∞(v,v′)(s,s′) := Pvv′(F(K′S) = (s, s′)), s, s′ ∈ S.

A continuación se va a mostrar los pasos para calcular las propiedades de absorción para la matrizT mostrados en [9], este método funciona para cualquier matriz de transición.

1. Se parte el conjunto de estados en clases de comunicación. Las clases cerradas van a nombrarseCi y los agentes que no pertenecen a clases cerradas van a conformar el conjunto B. Note queen el caso del modelo, cada agente terco va a ser una clase de comunicación cerrada, y losagentes regulares van a ser el conjunto B.

2. Se organiza la matriz de transición de la cadena de Markov de la siguiente forma:(Q R0 P2

)donde Q contiene las probabilidades de transición entre los agentes del conjunto B, la matrizR son las propiedades de transición de los agentes en B a los agentes en las clases cerradasy P2 es la matriz que muestra las probabilidades de transición entre las clases cerradas. Enparticular para T se tiene que:

T =

[P R0 I

]donde P = T|A×A es la matriz T restringida a los agentes regulares, R = T|A×S es la matrizT restringida a A× S y I es la matriz identidad en S × S.

3. La matriz U va a mostrar las probabilidades de absorción de las clases cerradas, la cual es dela forma U = (I−Q)−1R. Para el caso de la matriz T, se tiene que

U = (IA×A −T|A×A)−1T|A×S

Así, se tiene:

Teorema 4.10. Suponga que se tiene el supuesto 4.1. Luego para todo valor de las creencias de losagentes tercos xs ∈ RS

E[Xv] =∑s

T∞vsxs, E[XvXv′ ] =∑s,s′

K∞(v,v′)(s,s′)xSxs′ , s, s′ ∈ S (11)

Adicionalmente, se tiene que E[Xv] : v ∈ V y E[XvVv′ ] : v, v′ ∈ V son los únicos vectores enRV y en RV×V que cumplen

E[Xa] =∑v

TavE[Xv], E[Xs] = xs, ∀a ∈ A, ∀s ∈ S, (12)

Page 28: Proyecto de grado para obtener el título de Matemática ...

28 Creencias esperadas y covarianza de las creencias

E[XaXa′ ] =∑v,v′

K(a,a′)(v,v′)E[XvXv′ ], E[XvXv′ ] = E[Xv]E[Xv′ ], ∀a, a′ ∈ A,∀(v, v′) ∈ V 2\A2

(13)

Para poder demostrar el teorema, se necesita ayuda del siguiente lema.

Lema 4.11. Suponga que se cumple el supuesto 4.1. Luego

lımk→∞

Tkvs = T∞vs, lım

k→∞Tkva = 0, ∀s ∈ S, ∀a ∈ A

Demostración. Como el supuesto 4.1 se cumple, se tiene que KS es finito luego ∀k ≥ KS , Tkva = 0.

Por lo anterior lımk→∞Tkva = 0.

Sea s ∈ S y Ak = ω ∈ Ω : V (k) = s, luego Ak ⊆ Ak+1. Así

A = ∪kAk = ω ∈ Ω : V (k) = s para algún k.

Ahora, sea B = ω ∈ Ω : el primer valor que toma la cadena de S es s. Por la definición de B setiene que ∀ω ∈ B, ∃k : V (k)(ω) = s, luego B ⊆ A . Por otra parte, cuando se organiza la matrizT por bloques poniendo primero los agentes regulares y después los tercos, se tiene que T es de laforma

T =

[P R0 I

]donde las entradas de P muestran la probabilidad de pasar de un agente regular a otro, las entradasde R muestran la probabilidad de pasar de un agente regular a uno terco e I = IS×S . Luegopor I se tiene que A ⊆ B asi A = B. Ahora vea que P(ω ∈ Ak|V (0)(ω) = v) = Tk

vs y queP(ω ∈ B|V (0)(ω) = v) = T∞vs. Luego

lımk→∞

Tkvs = lım

k→∞P(ω ∈ Ak|V (0)(ω) = v) = P(ω ∈ A|V (0)(ω) = v) = P(ω ∈ B|V (0)(ω) = v) = T∞vs

De forma análoga al lema 4.11 se tiene que

lımk→∞

Kk(v,v′)(s,s′) = K∞(v,v′)(s,s′),

lımk→∞

Kk(v,v′)(a,a′) = lım

k→∞Kk

(v,v′)(a,s) = lımk→∞

Kk(v,v′)(s,a) = 0, ∀s, s′ ∈ S, ∀a, a′ ∈ A

Ahora sí la demostración del teorema 4.10

Demostración. Por el 4.9 se tiene que ∀v ∈ V, s ∈ S, a ∈ A

lımk→∞

E[Xv(k)] = lımk→∞

∑w

TkvwE[Xw(0)] = lım

k→∞

∑s

TkvsE[Xs(0)] + lım

k→∞

∑a

TkvaE[Xa(0)]

=∑s

T∞vsxs

y por el 4.5 se tiene quelımk→∞

E[Xv(k)] = E[Xv]

Page 29: Proyecto de grado para obtener el título de Matemática ...

29 5. SIMULACIONES

LuegoE[Xv] =

∑s

T∞vsxs

Ahora para ver la igualdad derecha de 11 se tiene que

lımk→∞

E[Xv(k)Xv′(k)] = lımk→∞

∑w,w′

Kk(v,v′)(w,w′)E[Xw(0)Xw′(0)], por 4.9

= lımk→∞

∑a,a′

Kk(v,v′)(a,a′)E[Xa(0)Xa′(0)] + lım

k→∞

∑s,s′

Kk(v,v′)(s,s′)E[Xs(0)Xs′(0)]

+ lımk→∞

∑s,a

Kk(v,v′)(s,a)E[Xs(0)Xa(0)] + lım

k→∞

∑a,s

Kk(v,v′)(a,s)E[Xa(0)Xs(0)]

=∑s,s′

K∞(v,v′)(s,s′)E[Xs(0)X ′s(0)] =∑s,s′

K∞(v,v′)(s,s′)xsxs′

Luego por el teorema 4.5lımk→∞

E[Xv(k)Xv′(k)] = E[XvXv′ ]

Así se concluyeE[XvXv′ ] =

∑s,s′

K∞(v,v′)(s,s′)xsxs′

Por otra parte, por la ecuación 9 del lema 4.9 se tienen las dos igualdades de la ecuación 12 y de13. La unicidad se sigue del supuesto 4.1, pues este implica que TA es una matriz subestocástica.Para al menos un agente regular a ∈ A y un agente terco s ∈ S se cumple que Tas > 0 conllevandoa que

∑a′∈A Taa′ < 1. De esta forma IA − TA es invertible y se cumple la primera igualdad.

Análogamente, la matriz KA2 también es subestocástica. La razón es la siguiente: sin pérdida degeneralidad, suponga que la cadena V ′(k) en el tiempo k0 está en el agente a, en este tiempo lacadena V (k) está en v 6= a y v ∈ A. Luego en el tiempo k0+1 existe una probabilidad positiva de queV (k) no cambie de estado y que V ′(k) cambie a s. Como K(v,a)(v,s) = Ta,s > 0 y K(v,a)(v,s) /∈ A2,entonces

∑a′,a′′ K(v,a)(a′,a′′) < 1 Adicionalmente, si v = a entonces K(v,a)(v,s) = (1− θas)Tas > 0 y

se obtiene el mismo resultado. De esta forma IA2 −KA2 invertible.

5. Simulaciones

En esta sección se va a tratar de entender qué es lo que hace que las creencias de los agentesconverjan a las distribuciones particulares. Para eso se van a generar 2 modelos con 200 agentesvariando únicamente el número de enlaces que hay. Se van a seleccionar 8 agentes y comprar lasdistribuciones de estos en los dos modelos. Por último, se van a calcular las probabilidades deabsorción y los valores esperados de las creencias.

Modelo 1La primera simulación consiste de un grafo dirigido con 200 agentes, numerados del 0 al 199.

Se utilizó un modelo estocástico por bloques para generar el grafo y así poder separar los tipos deagentes. Este consistió en 4 bloques. La matriz que se utilizó para determinar la probabilidad de

Page 30: Proyecto de grado para obtener el título de Matemática ...

30 5. SIMULACIONES

generar enlaces dirigidos entre los bloques fue:0 0 0 0

0,4 0,7 0,2 00 0,22 0,8 0,350 0 0 0

La matriz implica que el bloque 2 tiene probabilidades positivas de generar enlaces dirigidos con losbloques 1, 2 y 3, mientras que el bloque 3 con los bloques 2, 3, y 4. El primer bloque esta conformadopor 20 agentes tercos numerados 0 al 19 con creencia inicial 0. El segundo bloque esta conformadopor 70 agentes regulares, numerados del 20 al 89, los cuales empiezan con creencias cercanas al 0,es decir, menores a 0.4. El tercer bloque esta conformado por 80 agentes regulares, numerados del90 al 169, los cuales empiezan con creencias cercanas al 1, mayores a 0.6. Por último, el bloquerestante esta conformado por treinta agentes tercos, numerados del 170 al 199, con creencia inicial1. Dada esta estructura cabe resaltar que no hay ningún enlace dirigido desde los agentes regularescon creencias cercanas al 0 hacia los agentes tercos con creencias 1, ni desde los agentes regularescon creencia cercana al 1 a los agentes tercos con creencia 0. Se comprobó que se cumple el supuesto4.1 y los agentes son influenciados por los dos tipos de agentes.

Figura 2: Red 200 agentes

Para este modelo, las creencias cercanas al 0 fueron iniciadas siguiendo una aleatorización uni-forme del 0 al 0.4 mientras que las creencias de los agentes cercanos al 1 fueron del 0.6 al 1. Seutilizó la ley de los grandes números y el teorema 4.10 para determinar el número de iteraciones delproceso de las creencias para que el vector alcanzara su distribución estacionaria. Dado el tamañode la red, se estableció que con k = 200000 era suficiente. Luego se analizó la distribución del grado

Page 31: Proyecto de grado para obtener el título de Matemática ...

31 5. SIMULACIONES

de enlaces salientes de los agentes para determinar los agentes con mayor (46 y 165) y menor (77 y133) grado en cada grupo de agentes regulares. Adicionalmente se seleccionaron dos agentes al azaren cada grupo. Con esta información se simuló 5000 veces el proceso X(200000) para construir loshistogramas azules que se van a mostrar después de presentar el planteamiento del siguiente modelo.

Modelo 2Este modelo también consta de 200 agentes y se utilizó el mismo método para generar el grafo

cambiando la matriz de probabilidades de enlaces entre bloques a la siguiente:0 0 0 0

0,45 0,8 0,05 00 0,07 0,9 0,40 0 0 0

De esta forma, se aumento la probabilidad de enlaces entre los agentes regulares del mismo grupoy entre los regulares y los tercos más cercanos. Adicionalmente, se disminuyó la probabilidad deenlaces entre los agentes regulares de los dos grupos. El grafo quedo de la siguiente forma:

Lo anterior, se hizo con el fin de analizar cómo cambian las distribuciones de los agentes yaseleccionados en el modelo 1 (46, 66, 77, 80, 116, 133, 159 y 165). Los histogramas verdes son 5000simulaciones de X(200000) para cada agente de este modelo. Los agentes de este modelo tienen lasmismas creencias iniciales que los agentes del modelo 1.

Por último se utilizaron los mismos parámetros en ambos modelos para el proceso de actuali-

Page 32: Proyecto de grado para obtener el título de Matemática ...

32 5. SIMULACIONES

zación de creencias y la construcción de la matriz T. La probabilidad de escoger cualquier enlaceera 1

número enlaces en−→G. Los parámetros de confianza se van a mostrar por bloques pues eran iguales

para todos los agentes dentro del mismo grupo

θ21 = 0,9 θ22 = 0,9 θ23 = 0,2θ32 = 0,2 θ33 = 0,7 θ34 = 0,7

Histogramas

0.0 0.2 0.4 0.6 0.8 1.0Opinión

0

50

100

150

200

250

300

Frec

uenc

ia

Agente 46

0.0 0.2 0.4 0.6 0.8Opinión

0

50

100

150

200

250

Frec

uenc

ia

Agente 46

0.0 0.2 0.4 0.6 0.8Opinión

0

50

100

150

200

250

Frec

uenc

ia

Agente 66

0.0 0.2 0.4 0.6 0.8Opinión

0

50

100

150

200

250

300

Frec

uenc

ia

Agente 66

Page 33: Proyecto de grado para obtener el título de Matemática ...

33 5. SIMULACIONES

0.0 0.2 0.4 0.6 0.8Opinión

0

50

100

150

200

250

300

Frec

uenc

iaAgente 77

.pdf0.0 0.2 0.4 0.6 0.8

Opinión

0

50

100

150

200

250

300

Frec

uenc

ia

Agente 77

0.0 0.2 0.4 0.6 0.8Opinión

0

50

100

150

200

250

300

Frec

uenc

ia

Agente 80

0.0 0.2 0.4 0.6 0.8Opinión

0

50

100

150

200

250

300

Frec

uenc

ia

Agente 80

0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0Opinión

0

50

100

150

200

250

Frec

uenc

ia

Agente 116

0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0Opinión

0

50

100

150

200

250

300

Frec

uenc

ia

Agente 116

Page 34: Proyecto de grado para obtener el título de Matemática ...

34 5. SIMULACIONES

0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0Opinión

0

50

100

150

200

250

Frec

uenc

iaAgente 133

0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0Opinión

0

50

100

150

200

250

300

Frec

uenc

ia

Agente 133

0.2 0.4 0.6 0.8 1.0Opinión

0

50

100

150

200

250

300

Freq

uenc

ia

Agente 159

0.2 0.4 0.6 0.8 1.0Opinión

0

50

100

150

200

250

300

350

Freq

uenc

ia

Agente 159

0.2 0.4 0.6 0.8 1.0Opinión

0

50

100

150

200

250

300

Frec

uenc

ia

Agente 165

0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0Opinión

0

50

100

150

200

250

300

Frec

uenc

ia

Agente 165

Las gráficas anteriores muestran que la disminución de enlaces entre los grupos de los agentesregulares causan que las distribuciones de los agentes regulares sean más polarizadas, es decir, ladesconexión causa más desacuerdos a nivel social. Adicionalmente, se puede ver que en ambos casoslos agentes cercanos al cero, los del bloque 2, no tienen histogramas con frecuencias tan altas en

Page 35: Proyecto de grado para obtener el título de Matemática ...

35 5. SIMULACIONES

el 0 como lo tienen los agentes cercanos al 1, los del bloque 3, con el 1. Se puede intuir que unade las razones de este comportamiento se deben a las probabilidades de absorción de los agentestercos. Siguiendo ese orden de ideas, a continuación se calculan las probabilidades de absorción delos agentes tercos para ambos modelos.

Probabilidades de AbsorciónLas siguientes figuras muestran los mapas de calor de las probabilidades de absorción. Cabe

aclarar que en ninguno de los dos modelos la probabilidad de absorción para los agentes del bloque3 es 0, pero sí son bastantes cercanas al cero de orden 10−2.

Figura 3: Modelo 1

Acá se puede ver como las probabilidades de absorción de los agentes tercos con creencia 1 sonmás altas que los agentes tercos con creencia 0. Por su parte, las figuras 5 y 6 muestran en el ejehorizontal el promedio de las probabilidades de absorción de los agentes con creencia 0 y en el ejevertical el promedio de las probabilidades de absorción de los agentes con creencia 1. Los azules sonlos agentes del bloque 3 y los verdes del bloque 2.

Page 36: Proyecto de grado para obtener el título de Matemática ...

36 5. SIMULACIONES

Figura 4: Modelo 2

Figura 5: Modelo 1

Page 37: Proyecto de grado para obtener el título de Matemática ...

37 Valores Esperados

Figura 6: Modelo 2

5.1. Valores EsperadosPor último se utiliza el teorema 4.10 para calcular los valores esperados de las creencias de los

agentes, los cuales se muestran a continuación.

Page 38: Proyecto de grado para obtener el título de Matemática ...

38 Valores Esperados

Figura 7: Modelo 1

Figura 8: Modelo 2

Page 39: Proyecto de grado para obtener el título de Matemática ...

39 6. CONCLUSIONES

En ambos modelos se puede ver que las variaciones entre los agentes del bloque 3 son muy bajas,a comparación de la variación de los agentes del bloque 2.

6. Conclusiones

En este trabajo se estudiaron modelos determinísticos y estocásticos de opiniones en redessociales. Con respecto a los modelos determinísticos, se demostró bajo qué condiciones, por medio deun aprendizaje ingenuo, se puede llegar a un consenso social y cuál es la opinión a la cual convergen.Adicionalmente, se determinó cuando hay acuerdos grupales, a qué converge la opinión de los gruposy qué pasa con los agentes que no pertenecen a ningún grupo. Por su parte, se planteó el modeloestocástico con el fin de encontrar un posible mecanismo que explique las fluctuaciones de opinionesen las sociedades y los persistentes desacuerdos. Se planteó una dinámica de comunicación entreagentes que actualizan sus creencias, los regulares, y agentes que sin importar el tiempo siempretienen la misma opinión. En adición, se le asoció una cadena de Markov en tiempo discreto conespacio de estados los agentes y una cadena de Markov en tiempo discreto con espacio de estadossiendo el producto de los agentes. De esta forma, se demostraron las condiciones para que lascreencias de los agentes regulares converjan en distribución a variables aleatorias no degeneradas,es decir que fluctúen en el tiempo, y a demostrar que existe una probabilidad positiva de queno hayan creencias límites iguales. Similarmente, se utilizó la matriz de transición de la cadena deMarkov para determinar el valor esperado de las creencias estacionarias y las covarianzas entre estas.Por último se simuló el modelo estocástico con 200 agentes para mostrar los resultados probadosen el trabajo.

Referencias

[1] Acemoğlu, D., Como, G., Fagnani, F., and Ozdaglar, A. (2013). Opinion fluctuations anddisagreement in social networks. Math. Oper. Res., 38(1):1–27.

[2] Aldous, D. and Fill, J. A. (2002). Reversible Markov Chains and Random Walks on Graphs.http://www.stat.berkeley.edu/ aldous/RWG/book.html.

[3] DeMarzo, P. M., Vayanos, D., and Zwiebel, J. (2003). Persuasion Bias, Social Influence, andUnidimensional Opinions. The Quarterly Journal of Economics, 118(3):909–968.

[4] Diaconis, P. and Freedman, D. (1999). Iterated random functions. SIAM Rev., 41(1):45–76.

[5] Fagnani, F. and Zampieri, S. (2008). Randomized consensus algorithms over large scale networks.IEEE J.Sel. A. Commun., 26(4):634–649.

[6] Golub, B. and Jackson, M. O. (2010). Naive learning in social networks and the wisdom ofcrowds. American Economic Journal: Microeconomics, pages 112–149.

[7] Hairer, M. (2018). Lecture notes in ergodic properties of markov processes.

[8] Meyer, C. D., editor (2000). Matrix Analysis and Applied Linear Algebra. Society for Industrialand Applied Mathematics, Philadelphia, PA, USA.

[9] Resnick, S. I. (1992). Adventures in Stochastic Processes. Birkhauser Verlag, Basel, Switzerland,Switzerland.