Información Pontificia Universidad Católica del Perú Eduardo Massoni.
-
Upload
trini-pompa -
Category
Documents
-
view
226 -
download
0
Transcript of Información Pontificia Universidad Católica del Perú Eduardo Massoni.
Información
Pontificia Universidad Católica del Perú
Eduardo Massoni
Entropia Termodinamica
S
Leyes de la Termodinámica
Primera Ley
Segunda Ley
Conservación de la EnergíaEntropía del Universo siempre creceTercera LeyNo se puede Alcanzar el cero Absoluto
Ciclo de Carnot
Isotermico Eficiencia
Carnot
Adiabatico
Carnot: “Nadie Le Gana A Mi Motor”Motor reversible
Motor Refrigerador
C
C 2CM
C
2CM
PostuladoEs imposible un proceso cuyo único
resultado sea la transferencia de energía en forma de calor de un cuerpo de menor
temperatura a otro de mayor temperatura.Enunciado de Clausius
Carnot: “Nadie Le Gana A Mi Motor”Un motor reversible que trabaja a dos temperaturas tiene
la misma eficiencia que un motor de carnot
PostuladoEs imposible todo proceso cíclico cuyo
único resultado sea la absorción de energía en forma de calor procedente de un foco térmico (o reservorio o depósito térmico), y la conversión de toda ésta
energía en forma de calor en energía en forma de trabajo».
Enunciado de Kelvin-Planck.
Hay una cantidad asocianda al sistema que llamaremos S tal que :
Para el ciclo de Carnot
Para cualquier ciclo cerrado el cambio de entropia S es nulo
S es una funcion de estado
Segunda Ley
Universo es un sistema cerrado
S1
S2
S3
T1
T2
Q
T1
T2
Q
Procesos que no aumentan la
entropia del universo no son posibles
PostuladoEs imposible un proceso
cuyo único resultado sea la transferencia de energía en forma de calor de un cuerpo
de menor temperatura a otro de mayor temperatura.
Enunciado de Clausius
321 SSSS
0// 2121 TQTQSSS
0// 2121 TQTQSSS
¿ Que es esta variable S ?
Boltzmann
)ln(WKS
I D
W= # de formas
1) IIIIIIIIIIIIIII W=12) IIIIIIDIIIIIIII W=N
3) IDIDIDIDIDIDID W=2NI D
)1ln(1 KS )ln(2 NKS )2ln(2/
NN KS
ND /#
W
2/1
I D
Segunda Ley
•Procesos en el universo aumentan la entropia
•La entropia mide el desorden medido como el numero de estados posibles
I D
En este sistema aislado, cualquier configuracion o estado tiene la misma probabilidad WP /1
La Información es Fisica
Principio de Landauer (1961)
)2ln(KTQ El calor necesario para borrar un bit de informacion es:0 1 10
T T
)2ln()/ln( KTVVKTWQ if
La informacion se guarda en sistemas fisicos, por lo el manejo de informacion se rige bajo leyes fisicas
Demonio de Maxwell
¿Entropia decrece?
NO
)2ln(KTQ Univers
o
La entropia total del sistema +universo crece!!
Cuantificando la informacion
¿Como cuantificamos la informacion?
Codificador comprime la informacion y codifica la transmision
Teoria de la Informacion ( 1948) Lord Shannon
Canal
Codificador
Decodificador
Fuente
Receptor
A mathematical theory of communication
Medimos la cantidad de informacion por la cantidad de recursos que necesitamos para mandar un mensaje
¿Como cuantificamos la informacion?
Codificador comprime la informacion y codifica la transmision
Teoria de la Informacion ( 1948) Lord Shannon
Canal
Codificador
Decodificador
Fuente
Receptor
A mathematical theory of communication
Medimos la cantidad de informacion por la cantidad de recursos que necesitamos para manadr un mensaje
Redundancia“ Si hay redundancia podemos comprimir un mensaje” “La redundancia es buena en el sentido que permite corregir errores”
“ El idioma Ingles tiene un factor de compresion 2”
“ Mientras mayor redundancia , Mayor compresion y menor cantidad de recursos paraenviar la informacion ”
“ Mayor redundancia Menos informacion”
Ejemplo
Central de apuestas
Hipodromo
Codificador
# promedio de bits para mandar resultados en un año
C1 C2 C3 C4 C5 C6 C7 C8
Prob 1/2 1/4 1/8 1/16 1/64 1/64 1/64 1/64
Codigo en bits
0 01 101 1011 101011
011101
111110
101111
bits2)64/1(8)64/1(8)64/1(8)64/1(8
)16/1(4)8/1(3)4/1(2)2/1(1
¿Para ocho caballos necesitamos 3 bits?
C1 C2 C3 C4 C5 C6 C7 C8Prob 1/2 1/4 1/8 1/16 1/64 1/64 1/64 1/64Codigo en bits
0 01 101 1011 101011
011101
111110
101111
Con esta codificacion el numero promedio de bits se puede escribir como:
Con esta codificacion el numero promedio de bits se puede escribir como:
)/1(log
)64/1(8)64/1(8)64/1(8)64/1(8
)16/1(4)8/1(3)4/1(2)2/1(1
2 ii
i PP
AL numero promedio de bits necesario para mandar la informacion esta dada por
)/1(log2 ii
i PPH
Entropia de Shannon
Eventos menos frecuentes necesitan mas bits Eventos mas frecuentes necesitan menos bits
¿Como interpretamos la informacion en un evento?Si consideramos la variable aleatoria
MX ,....3,2,1
Con probabilidades MPPPP ,...,, 321
Diremos que la cantidad de informacion en el evento “i” estara dado por:
)/1(log2 iP
Que es consistente con:
)/1(log)( 2 ii
i PPXH
UnidadesBits o Nats
Source code theorem by shannon
avLxH )(
El maximo de compresion posible esta dado por
El maximo de compresion mide la cantidad de informacion
¿Hay alguna Relacion entre la entropia S y H?
)ln( 11 WKS
)ln( 22 WKS
Como en el estado inicial y final de equilibrio termico la probabilidad de cada estado es 1/W )(log)(log/1)/1(log 22
12
1
WWWPPHW
ii
W
ii
21 HH
Informacion del universo crece!!!
Informacion Cuantica
))log(( TrS
Entropia de Von Neumann
Quantum Information es mas complicada
•Q uantum bits
•Enmarañamiento
•Teleportacion
•Criptografia cuantica
•Decoherencia
•Informacion accesible
Conclusiones
Gracias!!
“Debes llamarlo entropía por dos razones. En primer lugar tu función de incertidumbre ha sido usada en mecánica estadística bajo ese nombre, por tanto, ya tiene un nombre. En segundo lugar, y más importante, nadie sabe realmente qué es la entropía, por tanto, en un debate siempre tendrás esa ventaja.
Von Newmann a Shannon
Las tres leyes de la termodinámica : 1) No puedes ganar. 2) No puedes empatar. 3) No puedes abandonar el juego.