SlideShare une entreprise Scribd logo
1  sur  38
Tema 2:
Teoría de la información y capacidad de canal
Dr. José Ramón Cerquides Bueno
Teoría de la Señal y Comunicaciones
Universidad de Sevilla
Transmisión Digital
Organización
• Introducción
• Fundamentos de teoría de la información
• Incertidumbre, información, entropía
• Teorema de codificación de fuente
• Entropía condicionada e información mútua
• Capacidad de un canal discreto
• Teorema de codificación de canal
• Capacidad de un canal analógico
• Entropía diferencial
• Información mútua entre variables continuas
• Teorema de Shannon
• Consecuencias e implicaciones
• Conclusiones
• Referencias
Introducción
• Trataremos de resolver dos preguntas:
• ¿Cuál es el nº mínimo de bits necesario para representar
una cierta cantidad de información?
TEOREMA DE CODIFICACIÓN DE FUENTE
• ¿Existe una velocidad de transmisión de información límite
para un cierto canal? ¿Cuál es?
TEOREMA DE CODIFICACIÓN DE CANAL
TEOREMA DE CAPACIDAD DE CANAL
• Necesitaremos introducir algunos conceptos de
Teoría de la Información:
• Entropía
• Información mutua
• Capacidad de canal
Definición del experimento
• Un experimento S tiene un conjunto de J posibles
resultados
S = {s0, s1,...,sJ-1}
cada uno de ellos con probabilidad pj
• EJEMPLOS:
• Lanzamiento de una moneda o un dado
S = {s0, s1} = {‘cara’,’cruz’} = {‘c’,’+’} {p0, p1} = {1/2, 1/2}
S = {s0, s1, s2, s3, s4,s5} = {‘1’,’2’,’3’,’4’,’5’,’6’}
{p0, p1, p2, p3, p4,p5} = {1/6, 1/6, 1/6, 1/6, 1/6, 1/6}
• Meteorología (lluvioso, nublado, soleado)
S = {s0, s1, s2} = {‘lluvioso’,’nublado’,’soleado’}
{p0, p1, p2} = {?, ?, ?} = {1/10, 1/5, 7/10}
• Transmisión de un símbolo QPSK
S = {s0, s1, s2, s3} = {‘1’,’j’,’-1’,’-j’}
{p0, p1, p2, p3} = {1/4, 1/4, 1/4, 1/4}
Incertidumbre, información y entropía
• Se va a realizar el experimento S
• Antes de conocer el resultado tenemos cierta incertidumbre:
¿cuánta?
• Una vez conocido el resultado ganamos cierta cantidad de
información: ¿cuánta?
• Cantidad de información al observar el evento sj es:
I(sj) = log2(1/pj) = -log2(pj) bits
• EJEMPLOS:
• Lanzamiento de una moneda  I(‘c’) = I(‘+’) = 1 bit
• Lanzamiento de un dado  I(‘sj’) = 2,58 bits
• Meteorología  I(‘lluvioso’) = 3,32 bits
I(‘nublado’) = 2,32 bits
I(‘soleado’) = 0,51 bits
• Transmisión QPSK  I(‘sj’) = 2 bits
Incertidumbre, información y entropía
• Propiedades de la información:
• I(sj) ≥ 0, cumpliendose la igualdad si y solo si pj=1
• “Cualquier evento nos da cierta cantidad de información, a
menos que sea seguro que va a ocurrir, en cuyo caso su
ocurrencia no nos da ninguna información”.
• EJEMPLO: Al tirar un dado sale un nº entre 1 y 6.
• I(sj) > I(si) si pj < pi
• “Un evento tiene más información cuanto menos probable es”
• EJEMPLO: Meteorología
• I(sj,si) ≤ I(sj) + I(si) cumpliéndose la igualdad si y solo si sj y
si son independientes.
• “La información del resultado de dos experimentos es menor o
igual que la suma de las informaciones por separado”.
• EJEMPLOS: I(‘lluvioso’,’2’) = 5.90 bits = I(‘lluvioso’) + I(‘2’)
I(‘transmito ‘0’,’recibo ‘0’) = 0.152 bits < 2 bits.
Incertidumbre, información y entropía
• Se define la entropía de S como:
• H(S) mide la incertidumbre ante el experimento S. O
también la información media que cabe esperar del
resultado.
• La entropía es máxima si todos los casos son equiprobables
0 ≤ H(S) ≤ log2(J)
• EJEMPLOS:
• Lanzamiento de una moneda  H(S) = 1 bit
• Lanzamiento de un dado  H(S) = 2,58 bits
• Meteorología  H(S) = 1.153 bits
• Transmisión QPSK  H(S) = 2 bits
( ) ( ){ } ( )
J 1 J 1
j j j j 2
j 0 j 0 j
1
H S E I s p I s p log
p
− −
= =
 
= = =  ÷ ÷
 
∑ ∑
Incertidumbre, información, entropía
• EJEMPLO: Fuente binaria
• S={s0, s1} = {‘0’,’1’} con probabilidades {p0,p1} = {p,1-p}
• H(S) = -p·log2(p) - (1-p)·log2(1-p)
• Nótese que:
• Si p=0 o p=1, H(S) = 0
• Si p=1/2, H(S) es máxima e igual a 1 bit.
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
p
H(S) Entropía de una fuente binaria
Teorema de codificación de fuente
• Dada una fuente S con J posibles símbolos decidimos
codificarla utilizando para cada símbolo sj una
palabra binaria bj de longitud Lj (digitos binarios).
• La longitud media de una palabra código (o número
medio de dígitos binarios por símbolo) será:
• El teorema de codificación de fuente (Shannon, 1948)
establece que
• La eficiencia de un codificador de fuente, η es:
J 1
j j
j 0
L p L
−
=
= ∑
( )SHL ≥
( )
L
SH
=η
Teorema de codificación de fuente
• EJEMPLO:
• Considere el conjunto S de posibles resultados de un
examen
S={NP, SU, AP, NO, SO, MH}
con probabilidades asociadas {0.1,0.15,0.4,0.2,0.1,0.05}
• La entropía de fuente es:
H(S) = 2.28 bits
• Si codificamos de la forma siguiente:
NP SU AP NO SO MH
000 001 010 011 100 011
obtenemos L = 3 y η=76%.
• De la forma siguiente:
NP SU AP NO SO MH
110 111 0 101 1001 1011
obtenemos L = 2.35, y η=97%.
Entropía condicionada
• Consideremos un conjunto posible de símbolos
emitidos S={sj}, j=0..J-1 y otro conjunto posible de
símbolos recibidos R = {rk}, k=0..K-1.
• Definimos H(S|rk) de la forma siguiente:
como entropía de S condicionada a la recepción del
símbolo rk (incertidumbre que queda respecto a S
una vez recibido rk).
• EJEMPLO
• S={carta baraja (40 posibilidades)}, R={figura, no figura},
• H(S) = 5.32 H(R)=0.88
• H(S|figura) =3.58 H(S|no figura) = 4.8
( ) ( )
( )
J 1
k j k 2
j 0 j k
1
H S| r p s | r log
p s | r
−
=
 
 ÷=
 ÷
 
∑
Entropía condicionada
• Definimos la entropía de S condicionada a R como:
es decir, como incertidumbre promedio que queda
respecto a S una vez recibido R.
• EJEMPLO:
• S={carta baraja (40 posibilidades)}, R={figura, no figura},
• H(S) = 5.32 H(R)=0.88
• H(S|figura) =3.58 H(S|no figura) = 4.8
• H(S|R) = p(figura)·H(S|figura) + p(no figura)·H(S|no figura)
• H(S|R) = 0.3·3.58 + 0.7·4.8 = 4.43
( ) ( )
( )
K 1 J 1
j k 2
k 0 j 0 j k
1
H S| R p s ,r log
p s | r
− −
= =
 
 ÷=
 ÷
 
∑∑
( ) ( ){ } ( ) ( )
( )
K 1 J 1
k k j k 2
k 0 j 0 j k
1
H S| R E H S| r p r p s | r log
p s | r
− −
= =
 
 ÷= =
 ÷
 
∑ ∑
Información mutua
• Consideremos dos experimentos S y R:
• Antes de conocer R nuestro desconocimiento de S es
H(S)
• Conocida R nuestro desconocimiento de S es
H(S|R)
• Luego R aporta
H(S) – H(S|R)
información sobre S.
• La información mútua entre S y R se define como:
I(S;R) = H(S) - H(S|R)
y mide la cantidad de información que R tiene sobre
S (o S sobre R).
• EJEMPLO:
• Cartas y figuras  I(S;R) = 5.32 – 4.43 = 0.89 bits
Información mutua
• Propiedades de la información mutua:
• I(S;R) = I(R;S)
• I(S;R) ≥ 0, con igualdad si y solo si S y R independientes
• I(S;R) = H(S)–H(S|R) = H(R)–H(R|S) = H(S)+H(R)-H(S;R)
siendo H(S;R) la entropía conjunta de S y R
( ) ( )
( )
K 1 J 1
j k 2
k 0 j 0 j k
1
H S;R p s ,r log
p s ,r
− −
= =
 
 ÷=
 ÷
 
∑∑
( ) ( )
( )
( )
( )
J 1 K 1 J 1
j 2 j k 2
j 0 k 0 j 0j j k
1 1
I S;R p s log p s ,r log
p s p s | r
− − −
= = =
   
 ÷  ÷= −
 ÷  ÷
   
∑ ∑∑
( ) ( )
( )
( )
( )
K 1 J 1
j k 2 j k 2
k 0 j 0 j j k
1 1
I S;R p s ,r log p s ,r log
p s p s | r
− −
= =
   
 ÷  ÷= −
 ÷  ÷
   
∑∑
( ) ( )
( )
( )
K 1 J 1
j k
j k 2
k 0 j 0 j
p s | r
I S;R p s ,r log
p s
− −
= =
 
 ÷=
 ÷
 
∑∑
Información mútua
• Otra forma de calcular la información mútua:
I(S;R) = H(S) + H(R) - H(S;R) =
( )
( )
( )
( )
( )
( )
J 1 K 1 K 1 J 1
j 2 k 2 j k 2
j 0 k 0 k 0 j 0kj j k
1 1 1
p s log p r log p s ,r log
p rp s p s ,r
− − − −
= = = =
    
 ÷  ÷= + − = ÷ ÷ ÷  ÷    
∑ ∑ ∑∑
( )
( )
( ) ( )
( )
( )
K 1 J 1
j k 2 j k 2 j k 2
k 0 j 0 kj j k
1 1 1
p s ,r log p s ,r log p s ,r log
p rp s p s ,r
− −
= =
    
 ÷  ÷= + − = ÷ ÷ ÷  ÷    
∑∑
( )
( ) ( ) ( )
K 1 J 1
j k 2 2 2
k 0 j 0 kj j k
1 1 1
p s ,r log log log
p rp s p s ,r
− −
= =
     
 ÷ ÷  ÷= + − = ÷ ÷ ÷  ÷ ÷     
∑∑
( )
( )
( ) ( )
( )
K 1 J 1
j k
j k 2
k 0 j 0 j k
p s ,r
p s ,r log I S;R
p s p r
− −
= =
 
 ÷= =
 ÷
 
∑∑
Información mutua
• EJEMPLO: Transmisión Y-QAM equiprobable:
p(sj) = ¼
p(r0) = ¼ (0.55+0.1+0.1+0.1) = 0.2125
p(r1) = ¼ (0.15+0.8+0.05+0.05) = p(r2) = p(r3) = 0.2625
H(S)=2 H(R) = 1.99
H(S;R)=3,19
I(S;R) = 2 + 1.99 – 3.19 = 0.8
H(S|R) = H(S) – I(S;R) = 1.2
H(R|S) = H(R) – I(R;S) = 1.19
( )k j
0.55 0.15 0.15 0.15
0.1 0.8 0.05 0.05
P r | s
0.1 0.05 0.8 0.05
0.1 0.05 0.05 0.8
 
 
 =
 
 
 
Re
Im
-j
s3
s0
s2 s1
j/2
3
2
3
2
−
Capacidad de un canal discreto
• Deseamos que la información mutua sea máxima.
• El canal está fijado, luego lo único que podemos
modificar son las probabilidades de los diferentes
símbolos transmitidos.
• Cuando se maximiza I(S;R) respecto a las
probabilidades de los diferentes sj j={0..J-1}, al valor
máximo lo denominamos capacidad del canal:
• Para obtener C será preciso tener en cuenta que:
P(sj) ≥0 ∀j
( )
( )
jp s
C max I S;R=
( )
J 1
j
j 0
p s 1
−
=
=∑
• Ejemplo: Canal binario simétrico
• p(r0|s0)=1-pe
• p(r0|s1)=pe
• p(r1|s0)=pe
• p(r1|s1)=1-pe
• p(r0,s0)=p(r0|s0)p(s0)=(1-pe)p(s0)
• p(r1,s0)=pep(s0)
• p(r0,s1)=pep(s1)=pe(1-p(s0))
• p(r1,s1)=(1-pe)(1-p(s0))
Capacidad de un canal discreto
0
1
0
1
1-pe
1-pe
pe pe
Ejemplo: Canal binario simétrico (2)
• p(r0)= p(r0,s0)+p(r0,s1)=(1-pe)p(s0) + pe(1-p(s0))
• p(r1)= 1-p(r0) =pep(s0) +(1-pe)(1-p(s0))
I(S;R) = H(R)–H(R|S)
( )
( )
( )
( )
( )
( )
0
0 0 0
I S,R I S,R p r
0
p s p r p s
∂ ∂ ∂
= =
∂ ∂ ∂
( )
( )
jp s
C maxI S;R=
( )
( )
( )
( )
( )
( )
( )
( )
0
0 0 0 0
I S,R H R H R | S p r
0
p s p r p r p s
 ∂ ∂ ∂ ∂
= − = ÷ ÷∂ ∂ ∂ ∂ 
( ) ( )
( )
( )
( )0 2 1 2
0 1
1 1
H R p r log p r log
p r p r
   
= + ÷  ÷
   
( )
( ) ( ) ( )2 2
0 0 0
H R 1 1
log log
p r p r 1 p r
    ∂  
= − ÷  ÷  ÷  ÷∂ −     
Ejemplo: Canal binario simétrico (3)
( )
( )0
H R | S
0
p r
∂
=
∂
( ) ( )
( )
K 1 J 1
k j 2
k 0 j 0 k j
1
H R | S p r ,s log
p r | s
− −
= =
 
 ÷=
 ÷
 
∑∑
( ) ( )
( )
( )
( )
( )
( )
( )
( )
0 0 2 0 1 2
0 0 0 1
1 0 2 1 1 2
1 0 1 1
1 1
H R | S p r ,s log p r ,s log
p r | s p r | s
1 1
p r ,s log p r ,s log
p r | s p r | s
   
= + + ÷  ÷ ÷  ÷
   
   
+ + ÷  ÷ ÷  ÷
   
( ) ( ) ( ) ( )( )
( ) ( ) ( )( )
e 0 2 e 0 2
e e
e 0 2 e 0 2
e e
1 1
H R | S 1 p p s log p 1 p s log
1 p p
1 1
p p s log 1 p 1 p s log
p 1 p
   
= − + − + ÷  ÷
−   
   
+ + − − ÷  ÷
−   
Ejemplo: Canal binario simétrico (4)
p(r0)= p(r0,s0)+p(r0,s1)=(1-pe)p(s0) + pe(1-p(s0))
( )
( ) ( ) ( )
( )2 2 e
0 0 0
I S,R 1 1
log log 1 2p 0
p s p r 1 p r
    ∂  
= − − = ÷  ÷  ÷  ÷∂ −     
( )
( )
( )
( )
( )
( )
( )
( )
0
0 0 0 0
I S,R H R H R | S p r
0
p s p r p r p s
 ∂ ∂ ∂ ∂
= − = ÷ ÷∂ ∂ ∂ ∂ 
( )
( ) ( ) ( )2 2
0 0 0
H R 1 1
log log
p r p r 1 p r
    ∂  
= − ÷  ÷  ÷  ÷∂ −     
( )
( )0
H R | S
0
p r
∂
=
∂
( )
( )
0
e
0
p r
1 2p
p s
∂
= −
∂
Ejemplo: Canal binario simétrico (y 5)
• La solución implica p(r0) = 1 – p(r0), luego p(r0) = ½
• Por tanto p(s0) = ½ , como cabía esperar.
• La capacidad es:
( )e 2 e 2
e e
1 1
C 1 p log 1 p log
p 1 p
   
= − − − ÷  ÷
−   
( )
( ) ( ) ( )
( )2 2 e
0 0 0
I S,R 1 1
log log 1 2p 0
p s p r 1 p r
    ∂  
= − − = ÷  ÷  ÷  ÷∂ −     
• Fuente S
• Genera símbolos de fuente a una velocidad Rs (símbolos de
fuente/segundo)
• Entropía de S es H(S) (bits información/símbolo de fuente)
• Canal
• Capacidad C (bits/símbolo de canal transmitido)
• Transmite símbolos a un régimen Rc (símbolos de canal
transmitidos/segundo)
• Teorema de codificación de canal (Shannon, 1948)
• Es posible enviar (con el código adecuado) con una
probabilidad de error arbitrariamente pequeña si y solo si:
H(S)·Rs ≤ C·Rc
Teorema de codificación de canal
S Cod.
canal
Canal
Rs Rc Rc
Decod.
canal
Destino
Rs
EJEMPLOS
• EJEMPLO: Canal binario simétrico
• pe = 0.03  C = 0.8 bits / símbolo de canal
• Fuente S binaria equiprobable (H(S)=1 bit/símbolo de
fuente) con velocidad Rs = 1 símbolo de fuente/segundo
H(S)Rs ≤ CRc
1 bit/segundo ≤ 0.8 Rc
Rc ≥ 1.25 símbolos de canal transmitidos / segundo
• EJEMPLO: Modem V.90
• Modo 56 kbps
• peb = 10-3
 C = 0.988
• Permitiría transmitir datos con una probabilidad de error
tan pequeña como se quiera siempre que la velocidad de
información de la fuente sea inferior a 56000· 0.988 = 55361
bits información / segundo (y se haga uso de la codificación
apropiada).
Entropía diferencial
• ¿Podríamos trasladar los resultados obtenidos a
señales analógicas?
• Calculemos la entropía de una variable aleatoria
continua X como límite de una discreta con infinitos
niveles:
X = {xj} j = 0..J-1
( ) ( ){ } ( )
J 1 J 1
j j j j 2
j 0 j 0 j
1
H X E I x p I x p log
p
− −
= =
 
= = =  ÷ ÷
 
∑ ∑
x
fX(x)
x0 x1 x2 . . . xJ-1
Δx
p(x1) ≈ fX(x1)Δx
Entropía diferencial
Al hacer tender J a infinito
p(xj) ≈ fX(xj)Δx
x
fX(x)
x0 x1 x2 . . . xJ-1
Δx
-∞ ∞dx
( ) ( )
( )X j 2
x 0
j X j
1
H X lim f x xlog
f x x
∞
∆ →
=−∞
 
 ÷= ∆
 ÷∆ 
∑
Entropía diferencial (continuación)
( ) ( )
( )
( ) ( )X j 2 X j 2
x 0
j jX j
1
H X lim f x xlog f x xlog x
f x
∞ ∞
∆ →
=−∞ =−∞
   
 ÷= ∆ − ∆ ∆ 
 ÷   
∑ ∑
( ) ( )
( )
( ) ( )X 2 X 2
x 0
X
1
H X f x log dx f x dx lim log x
f x
∞ ∞
∆ →
−∞ −∞
   
= − ∆ ÷  ÷
  
∫ ∫
( ) ( )2
x 0
H X h(X) lim log x
∆ →
= − ∆
( ) ( )
( )X 2
X
1
h X f x log dx
f x
∞
−∞
 
=  ÷
 
∫
( ) ( )
( )X j 2
x 0
j X j
1
H X lim f x xlog
f x x
∞
∆ →
=−∞
 
 ÷= ∆
 ÷∆ 
∑
( ) ( )
( )
( )X 2 2
x 0
X
1
H X f x log dx lim log x
f x
∞
∆ →
−∞
 
= − ∆ ÷
 
∫
Entropía diferencial
• CONSIDERACIONES:
• Cualquier variable aleatoria tiene infinita información
• La entropía diferencial va a servir para compararlas entre sí
• EJEMPLO: Distribución uniforme
fX(x) = 1/a·[u(x) – u(x-a)]
h(X) = log2(a)
• EJEMPLO: Distribución gaussiana
• Dada una varianza σ2
, la variable gaussiana tiene la mayor
entropía diferencial de todas las posibles v.a.
• La entropía diferencial es independiente de la media µ.
( )
( )2
2
x
2
X
1
f x e
2
−µ
−
σ
=
πσ
( ) ( )2
2
1
h X log 2 e
2
= π σ
Información mútua entre variables continuas
• Partiendo de la expresión de la información mútua
para variables discretas:
• Información mútua entre X e Y
• Propiedades
• I(X,Y) = I(Y,X)
• I(X,Y) ≥ 0
• I(X,Y) = h(X)+h(Y)– h(X;Y) = h(X)–h(X|Y) = h(Y)–h (Y|X)
( ) ( )
( )
( ) ( )
XY
XY 2
X Y
f x, y
I X,Y f x, y log dxdy
f x f y
∞ ∞
−∞ −∞
 
=  ÷ ÷
 
∫ ∫
( ) ( )
( )XY 2
XY
1
h X;Y f x, y log dxdy
f x, y
∞ ∞
−∞ −∞
 
=  ÷ ÷
 
∫ ∫
( ) ( )
( )
( ) ( )
K 1 J 1
j k
j k 2
k 0 j 0 j k
p s ,r
I S;R p s ,r log
p s p r
− −
= =
 
 ÷=
 ÷
 
∑∑
Teorema de capacidad de canal
• Dado un canal con las características
• Ancho de banda B (ideal dentro de la banda)
• Ruido gaussiano de potencia Pn
• Señal recibida de potencia Ps
¿cuál es la máxima velocidad de transmisión de
información alcanzable?
• Sea cual sea el esquema de codificador(es),
modulador, etc. … acabaremos emitiendo una señal
de ancho de banda B.
• Por el teorema de Nyquist
“Cualquier señal de ancho de banda B Hz puede representarse
por un conjunto de muestras tomadas a frecuencia 2B”
• CONCLUSIÓN: La señal emitida (y la recibida)
pueden representarse con 2B muestras/segundo.
Teorema de capacidad de canal
Xk
Nk
Yk
… k-1 k k+1 …
Ruido
Señal emitida
Señal recibida
Teorema de capacidad de canal
• ¿Cuánta información podrá transportar cada
muestra?
Tendremos que obtener la capacidad del canal
• La relación entre muestras emitidas y recibidas es:
Yk = Xk + Nk
• La capacidad de canal se obtiene maximizando la
información mútua (potencia emitida limitada):
C=max{I(Xk,Yk), E{Xk
2
}= Ps}
I(Xk,Yk) = h(Yk) – h(Yk|Xk)
h(Yk|Xk) = h(Xk+Nk|Xk) = h(Nk)
pero el ruido es gaussiano  h(Nk) = ½log2(2πePn)
I(Xk,Yk) = h(Yk) – h(Nk) = h(Yk) - ½log2(2πePn)
que será máxima cuando Yk sea gaussiana.
Teorema de capacidad de canal
• Como Yk tiene potencia Ps+Pn, su entropía será:
h(Yk) = ½log2(2πe[Ps+Pn])
• Por tanto, la capacidad de canal será:
C = ½log2(2πe[Ps+Pn]) - ½log2(2πePn)
C = ½log2(1+Ps/Pn)
bits/muestra transmitida
El número máximo de muestras independientes
transmisibles es 2B muestras /segundo, luego
C = B·log2(1+Ps/Pn) bits/segundo
C = B·log2(1+SNR)
Para el caso más habitual (ruido térmico) de
densidad espectral N0/2
C = B·log2(1+Ps/(BN0))
Teorema de capacidad de canal
• EJEMPLO: Canal teléfónico: Centralitas digitales
• B < 4000 Hz
• SNR < 48 dB (6,02 dB/bit x 8 bits)
C < 4000·log2(1+104.8
) = 63781 bps
• Centralitas analógicas
• B < 3100 Hz (300 Hz – 3400 Hz)
• SNR < 30 dB (estudios de canal telefónico)
C < 3100·log2(1+103
) = 30898 bps
• Canal TV analógico
• B  5 MHz
• SNR  38 dB (canal regular)
C  5·106
·log2(1+103.8
) = 63,1 Mbps
Implicaciones del teorema
• Consideremos un sistema ideal que transmite a la
máxima velocidad
Rb= C
Ps = EbRb = CEb
C = B·log2(1+Ps/(BN0))
Si B  ∞,
Eb/N0 = ln(2) = 0.693 = -1.6 dB
Por debajo de esa relación Eb/N0 es absolutamente
imposible la transmisión sin errores.
b
2
0
EC C
log 1
B N B
 
= + ÷
 
C
Bb
0
E B
2 1
N C
 
 ÷
 
 
= − ÷
 ÷
 
Implicaciones del teorema
• Si el sistema transmite a una velocidad Rb < C
• CONCLUSIONES:
• Compromiso entre la relación Eb/N0 (relación SNR) y Rb/B
(eficiencia)
• Existen zonas en las que resulta posible/imposible la
transmisión sin errores.
• Se establece así el límite de Shannon o cota de capacidad de
canal.
b b
2
0
E R
Blog 1 C
N B
 
+ ≤ ÷
 
Compromiso Eb/N0 y Rb/B
-5 0 5 10 15 20 25
10
-1
10
0
10
1
Eb/No dB
Rb/B
Relació n Eb/No y Rb/B
Zona
posible
Zona
imposible
Referencias
• Communication Systems, 3rd
.ed.
• Simon Haykin, John Wiley & Sons, 1994.
• Páginas 614 a 622 y 631 a 656.
• Digital Communications, 4th
ed.
• John G. Proakis, McGraw-Hill, 2000.
• Páginas 381 a 387
• An Introducction to Digital Communications
• Jack Kurzweil, John Wiley & Sons, 1999.
• Páginas 366-380
• Digital Transmission Engineering
• John B. Anderson, 1999.
• Páginas 268-272.

Contenu connexe

Tendances

Lecture 17 probabilidad de error para señales en awgn parte 2
Lecture 17 probabilidad de error para señales en awgn parte 2Lecture 17 probabilidad de error para señales en awgn parte 2
Lecture 17 probabilidad de error para señales en awgn parte 2
nica2009
 
Modulacion y frecuenca comunicacion analogicas 2
Modulacion y frecuenca  comunicacion analogicas 2Modulacion y frecuenca  comunicacion analogicas 2
Modulacion y frecuenca comunicacion analogicas 2
Velmuz Buzz
 
Modulación por desplazamiento de fase (psk) exposicion
Modulación por desplazamiento de fase (psk) exposicionModulación por desplazamiento de fase (psk) exposicion
Modulación por desplazamiento de fase (psk) exposicion
Alieth Guevara
 
Lecture 16 probabilidad de error para señales en awgn parte 1
Lecture 16 probabilidad de error para señales en awgn parte 1Lecture 16 probabilidad de error para señales en awgn parte 1
Lecture 16 probabilidad de error para señales en awgn parte 1
nica2009
 
Lecture 13 modulacion digital parte 1
Lecture 13  modulacion digital   parte 1Lecture 13  modulacion digital   parte 1
Lecture 13 modulacion digital parte 1
nica2009
 
Capacidad de un canal
Capacidad de un canalCapacidad de un canal
Capacidad de un canal
arquitectura5
 
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
nica2009
 

Tendances (20)

Ejercicios Modulación Análoga & Digital resultados(fam)-rev3
Ejercicios Modulación Análoga & Digital resultados(fam)-rev3Ejercicios Modulación Análoga & Digital resultados(fam)-rev3
Ejercicios Modulación Análoga & Digital resultados(fam)-rev3
 
Modulacion ask
Modulacion askModulacion ask
Modulacion ask
 
CI19 - Presentación 2: Principios básicos de modulación y demodulación
CI19 - Presentación 2: Principios básicos de modulación y demodulación CI19 - Presentación 2: Principios básicos de modulación y demodulación
CI19 - Presentación 2: Principios básicos de modulación y demodulación
 
Sistemas de Telecomunicaciones cap 2
Sistemas de Telecomunicaciones cap 2Sistemas de Telecomunicaciones cap 2
Sistemas de Telecomunicaciones cap 2
 
4.TDM Multiplexacion por division de tiempo
4.TDM Multiplexacion por division de tiempo4.TDM Multiplexacion por division de tiempo
4.TDM Multiplexacion por division de tiempo
 
Lecture 17 probabilidad de error para señales en awgn parte 2
Lecture 17 probabilidad de error para señales en awgn parte 2Lecture 17 probabilidad de error para señales en awgn parte 2
Lecture 17 probabilidad de error para señales en awgn parte 2
 
Lab 02 - Análisis de señales - UNTECS
Lab 02 - Análisis de señales - UNTECSLab 02 - Análisis de señales - UNTECS
Lab 02 - Análisis de señales - UNTECS
 
Modulación pcm
Modulación pcmModulación pcm
Modulación pcm
 
Modulacion y frecuenca comunicacion analogicas 2
Modulacion y frecuenca  comunicacion analogicas 2Modulacion y frecuenca  comunicacion analogicas 2
Modulacion y frecuenca comunicacion analogicas 2
 
Receptor de FM
Receptor de FMReceptor de FM
Receptor de FM
 
Modulación por desplazamiento de fase (psk) exposicion
Modulación por desplazamiento de fase (psk) exposicionModulación por desplazamiento de fase (psk) exposicion
Modulación por desplazamiento de fase (psk) exposicion
 
Lecture 16 probabilidad de error para señales en awgn parte 1
Lecture 16 probabilidad de error para señales en awgn parte 1Lecture 16 probabilidad de error para señales en awgn parte 1
Lecture 16 probabilidad de error para señales en awgn parte 1
 
Lecture 13 modulacion digital parte 1
Lecture 13  modulacion digital   parte 1Lecture 13  modulacion digital   parte 1
Lecture 13 modulacion digital parte 1
 
2.Datos y señales en comunicaciones electrónicas
2.Datos y señales en comunicaciones electrónicas2.Datos y señales en comunicaciones electrónicas
2.Datos y señales en comunicaciones electrónicas
 
Modulacion-digital
 Modulacion-digital Modulacion-digital
Modulacion-digital
 
Capacidad de un canal
Capacidad de un canalCapacidad de un canal
Capacidad de un canal
 
Tema 2: Large-scale path loss
Tema 2: Large-scale path lossTema 2: Large-scale path loss
Tema 2: Large-scale path loss
 
BANDA LATERAL UNICA
BANDA LATERAL UNICABANDA LATERAL UNICA
BANDA LATERAL UNICA
 
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
 
Codificacion BCH
Codificacion BCHCodificacion BCH
Codificacion BCH
 

Similaire à Tema 2 teoría de la información y capacidad de canal

El trazador cúbico
El trazador cúbicoEl trazador cúbico
El trazador cúbico
Kike Prieto
 
Calculo 3 1_ (1)
Calculo 3 1_ (1)Calculo 3 1_ (1)
Calculo 3 1_ (1)
deiver1981
 
Coordenadas polares y gráficas polares
Coordenadas polares y gráficas polaresCoordenadas polares y gráficas polares
Coordenadas polares y gráficas polares
Iván Ordiozola
 

Similaire à Tema 2 teoría de la información y capacidad de canal (20)

Cap3
Cap3Cap3
Cap3
 
1pii13-res.pdf
1pii13-res.pdf1pii13-res.pdf
1pii13-res.pdf
 
El trazador cúbico
El trazador cúbicoEl trazador cúbico
El trazador cúbico
 
examen inf-164
examen inf-164examen inf-164
examen inf-164
 
Ejercicios detallados del obj 4 mat iii 733
Ejercicios detallados del obj 4 mat iii  733 Ejercicios detallados del obj 4 mat iii  733
Ejercicios detallados del obj 4 mat iii 733
 
4) Física Atómica
4) Física Atómica4) Física Atómica
4) Física Atómica
 
El método del lugar de las raíces
El método del lugar de las raícesEl método del lugar de las raíces
El método del lugar de las raíces
 
Tangentes en coordenadas polares
Tangentes en coordenadas polaresTangentes en coordenadas polares
Tangentes en coordenadas polares
 
Calculo 3 1_ (1)
Calculo 3 1_ (1)Calculo 3 1_ (1)
Calculo 3 1_ (1)
 
Clase lugar geometrico ciclo 2014 3
Clase lugar geometrico  ciclo 2014 3Clase lugar geometrico  ciclo 2014 3
Clase lugar geometrico ciclo 2014 3
 
Probabilidad y LR
Probabilidad y LRProbabilidad y LR
Probabilidad y LR
 
Lugar geométrico de las raices control 1
Lugar geométrico de las raices control 1Lugar geométrico de las raices control 1
Lugar geométrico de las raices control 1
 
Angulo en posicion normal
Angulo en posicion normalAngulo en posicion normal
Angulo en posicion normal
 
Pagr0
Pagr0Pagr0
Pagr0
 
Splines
SplinesSplines
Splines
 
CIRCUITOS DE SEGUNDO ORDEN RLC.pdf
CIRCUITOS DE SEGUNDO ORDEN RLC.pdfCIRCUITOS DE SEGUNDO ORDEN RLC.pdf
CIRCUITOS DE SEGUNDO ORDEN RLC.pdf
 
Coordenadas polares y gráficas polares
Coordenadas polares y gráficas polaresCoordenadas polares y gráficas polares
Coordenadas polares y gráficas polares
 
Sistemas Difusos
Sistemas DifusosSistemas Difusos
Sistemas Difusos
 
2.pdf
2.pdf2.pdf
2.pdf
 
Trabajocoordenadas
TrabajocoordenadasTrabajocoordenadas
Trabajocoordenadas
 

Plus de José Ramón Cerquides Bueno

Control de polución en smart cities mediante aplicaciones en fiware
Control de polución en smart cities mediante aplicaciones en fiwareControl de polución en smart cities mediante aplicaciones en fiware
Control de polución en smart cities mediante aplicaciones en fiware
José Ramón Cerquides Bueno
 
Sustitución de sistemas st bs propietarios por raspberry pis en la red de pan...
Sustitución de sistemas st bs propietarios por raspberry pis en la red de pan...Sustitución de sistemas st bs propietarios por raspberry pis en la red de pan...
Sustitución de sistemas st bs propietarios por raspberry pis en la red de pan...
José Ramón Cerquides Bueno
 
Análisis y evaluación de las ténicas utilizadas para la transmisión de video ...
Análisis y evaluación de las ténicas utilizadas para la transmisión de video ...Análisis y evaluación de las ténicas utilizadas para la transmisión de video ...
Análisis y evaluación de las ténicas utilizadas para la transmisión de video ...
José Ramón Cerquides Bueno
 
Diseño y resolución de prácticas para el laboratorio de televisión 3 d
Diseño y resolución de prácticas para el laboratorio de televisión 3 dDiseño y resolución de prácticas para el laboratorio de televisión 3 d
Diseño y resolución de prácticas para el laboratorio de televisión 3 d
José Ramón Cerquides Bueno
 
Detección de anuncios de televisión mediante software presentación
Detección de anuncios de televisión mediante software   presentaciónDetección de anuncios de televisión mediante software   presentación
Detección de anuncios de televisión mediante software presentación
José Ramón Cerquides Bueno
 
Comparación de técnicas de detección de cambios de plano sobre vídeo comprido...
Comparación de técnicas de detección de cambios de plano sobre vídeo comprido...Comparación de técnicas de detección de cambios de plano sobre vídeo comprido...
Comparación de técnicas de detección de cambios de plano sobre vídeo comprido...
José Ramón Cerquides Bueno
 
Presentacion unidad móvil virtual para eng sobre hsupa
Presentacion unidad móvil virtual para eng sobre hsupaPresentacion unidad móvil virtual para eng sobre hsupa
Presentacion unidad móvil virtual para eng sobre hsupa
José Ramón Cerquides Bueno
 
Campaña de benchmarking cobertura de telefonía móvil en entornos indoor
Campaña de benchmarking cobertura de telefonía móvil en entornos indoorCampaña de benchmarking cobertura de telefonía móvil en entornos indoor
Campaña de benchmarking cobertura de telefonía móvil en entornos indoor
José Ramón Cerquides Bueno
 
147755331 presentacion-sistema-de-mensajeria-electronica-del-centro-de-calculo
147755331 presentacion-sistema-de-mensajeria-electronica-del-centro-de-calculo147755331 presentacion-sistema-de-mensajeria-electronica-del-centro-de-calculo
147755331 presentacion-sistema-de-mensajeria-electronica-del-centro-de-calculo
José Ramón Cerquides Bueno
 
Integración de kits arduinos enlazados mediante xbee para aplicaciones de car...
Integración de kits arduinos enlazados mediante xbee para aplicaciones de car...Integración de kits arduinos enlazados mediante xbee para aplicaciones de car...
Integración de kits arduinos enlazados mediante xbee para aplicaciones de car...
José Ramón Cerquides Bueno
 

Plus de José Ramón Cerquides Bueno (20)

Desarrollo de una herramienta para la medida de calidad de vídeo
Desarrollo de una herramienta para la medida de calidad de vídeoDesarrollo de una herramienta para la medida de calidad de vídeo
Desarrollo de una herramienta para la medida de calidad de vídeo
 
Sistema de seguimiento de la acción en eventos deportivos
Sistema de seguimiento de la acción en eventos deportivosSistema de seguimiento de la acción en eventos deportivos
Sistema de seguimiento de la acción en eventos deportivos
 
Medidas de calidad en vídeo
Medidas de calidad en vídeoMedidas de calidad en vídeo
Medidas de calidad en vídeo
 
Presentacion hbbtv
Presentacion hbbtvPresentacion hbbtv
Presentacion hbbtv
 
Sira tv
Sira tvSira tv
Sira tv
 
Sistema inteligente de Reconocimiento de Anuncios de Televisión
Sistema inteligente de Reconocimiento de Anuncios de TelevisiónSistema inteligente de Reconocimiento de Anuncios de Televisión
Sistema inteligente de Reconocimiento de Anuncios de Televisión
 
Control de polución en smart cities mediante aplicaciones en fiware
Control de polución en smart cities mediante aplicaciones en fiwareControl de polución en smart cities mediante aplicaciones en fiware
Control de polución en smart cities mediante aplicaciones en fiware
 
Presentacion carmenppt
Presentacion carmenpptPresentacion carmenppt
Presentacion carmenppt
 
Sustitución de sistemas st bs propietarios por raspberry pis en la red de pan...
Sustitución de sistemas st bs propietarios por raspberry pis en la red de pan...Sustitución de sistemas st bs propietarios por raspberry pis en la red de pan...
Sustitución de sistemas st bs propietarios por raspberry pis en la red de pan...
 
Análisis y evaluación de las ténicas utilizadas para la transmisión de video ...
Análisis y evaluación de las ténicas utilizadas para la transmisión de video ...Análisis y evaluación de las ténicas utilizadas para la transmisión de video ...
Análisis y evaluación de las ténicas utilizadas para la transmisión de video ...
 
Presentación pfc susana carrasco perez v2
Presentación pfc susana carrasco perez v2Presentación pfc susana carrasco perez v2
Presentación pfc susana carrasco perez v2
 
Diseño y resolución de prácticas para el laboratorio de televisión 3 d
Diseño y resolución de prácticas para el laboratorio de televisión 3 dDiseño y resolución de prácticas para el laboratorio de televisión 3 d
Diseño y resolución de prácticas para el laboratorio de televisión 3 d
 
Detección de anuncios de televisión mediante software presentación
Detección de anuncios de televisión mediante software   presentaciónDetección de anuncios de televisión mediante software   presentación
Detección de anuncios de televisión mediante software presentación
 
Comparación de técnicas de detección de cambios de plano sobre vídeo comprido...
Comparación de técnicas de detección de cambios de plano sobre vídeo comprido...Comparación de técnicas de detección de cambios de plano sobre vídeo comprido...
Comparación de técnicas de detección de cambios de plano sobre vídeo comprido...
 
Presentacion unidad móvil virtual para eng sobre hsupa
Presentacion unidad móvil virtual para eng sobre hsupaPresentacion unidad móvil virtual para eng sobre hsupa
Presentacion unidad móvil virtual para eng sobre hsupa
 
Campaña de benchmarking cobertura de telefonía móvil en entornos indoor
Campaña de benchmarking cobertura de telefonía móvil en entornos indoorCampaña de benchmarking cobertura de telefonía móvil en entornos indoor
Campaña de benchmarking cobertura de telefonía móvil en entornos indoor
 
Presentacion pfc
Presentacion pfcPresentacion pfc
Presentacion pfc
 
147755331 presentacion-sistema-de-mensajeria-electronica-del-centro-de-calculo
147755331 presentacion-sistema-de-mensajeria-electronica-del-centro-de-calculo147755331 presentacion-sistema-de-mensajeria-electronica-del-centro-de-calculo
147755331 presentacion-sistema-de-mensajeria-electronica-del-centro-de-calculo
 
Integración de kits arduinos enlazados mediante xbee para aplicaciones de car...
Integración de kits arduinos enlazados mediante xbee para aplicaciones de car...Integración de kits arduinos enlazados mediante xbee para aplicaciones de car...
Integración de kits arduinos enlazados mediante xbee para aplicaciones de car...
 
Intensificación
IntensificaciónIntensificación
Intensificación
 

Tema 2 teoría de la información y capacidad de canal

  • 1. Tema 2: Teoría de la información y capacidad de canal Dr. José Ramón Cerquides Bueno Teoría de la Señal y Comunicaciones Universidad de Sevilla Transmisión Digital
  • 2. Organización • Introducción • Fundamentos de teoría de la información • Incertidumbre, información, entropía • Teorema de codificación de fuente • Entropía condicionada e información mútua • Capacidad de un canal discreto • Teorema de codificación de canal • Capacidad de un canal analógico • Entropía diferencial • Información mútua entre variables continuas • Teorema de Shannon • Consecuencias e implicaciones • Conclusiones • Referencias
  • 3. Introducción • Trataremos de resolver dos preguntas: • ¿Cuál es el nº mínimo de bits necesario para representar una cierta cantidad de información? TEOREMA DE CODIFICACIÓN DE FUENTE • ¿Existe una velocidad de transmisión de información límite para un cierto canal? ¿Cuál es? TEOREMA DE CODIFICACIÓN DE CANAL TEOREMA DE CAPACIDAD DE CANAL • Necesitaremos introducir algunos conceptos de Teoría de la Información: • Entropía • Información mutua • Capacidad de canal
  • 4. Definición del experimento • Un experimento S tiene un conjunto de J posibles resultados S = {s0, s1,...,sJ-1} cada uno de ellos con probabilidad pj • EJEMPLOS: • Lanzamiento de una moneda o un dado S = {s0, s1} = {‘cara’,’cruz’} = {‘c’,’+’} {p0, p1} = {1/2, 1/2} S = {s0, s1, s2, s3, s4,s5} = {‘1’,’2’,’3’,’4’,’5’,’6’} {p0, p1, p2, p3, p4,p5} = {1/6, 1/6, 1/6, 1/6, 1/6, 1/6} • Meteorología (lluvioso, nublado, soleado) S = {s0, s1, s2} = {‘lluvioso’,’nublado’,’soleado’} {p0, p1, p2} = {?, ?, ?} = {1/10, 1/5, 7/10} • Transmisión de un símbolo QPSK S = {s0, s1, s2, s3} = {‘1’,’j’,’-1’,’-j’} {p0, p1, p2, p3} = {1/4, 1/4, 1/4, 1/4}
  • 5. Incertidumbre, información y entropía • Se va a realizar el experimento S • Antes de conocer el resultado tenemos cierta incertidumbre: ¿cuánta? • Una vez conocido el resultado ganamos cierta cantidad de información: ¿cuánta? • Cantidad de información al observar el evento sj es: I(sj) = log2(1/pj) = -log2(pj) bits • EJEMPLOS: • Lanzamiento de una moneda  I(‘c’) = I(‘+’) = 1 bit • Lanzamiento de un dado  I(‘sj’) = 2,58 bits • Meteorología  I(‘lluvioso’) = 3,32 bits I(‘nublado’) = 2,32 bits I(‘soleado’) = 0,51 bits • Transmisión QPSK  I(‘sj’) = 2 bits
  • 6. Incertidumbre, información y entropía • Propiedades de la información: • I(sj) ≥ 0, cumpliendose la igualdad si y solo si pj=1 • “Cualquier evento nos da cierta cantidad de información, a menos que sea seguro que va a ocurrir, en cuyo caso su ocurrencia no nos da ninguna información”. • EJEMPLO: Al tirar un dado sale un nº entre 1 y 6. • I(sj) > I(si) si pj < pi • “Un evento tiene más información cuanto menos probable es” • EJEMPLO: Meteorología • I(sj,si) ≤ I(sj) + I(si) cumpliéndose la igualdad si y solo si sj y si son independientes. • “La información del resultado de dos experimentos es menor o igual que la suma de las informaciones por separado”. • EJEMPLOS: I(‘lluvioso’,’2’) = 5.90 bits = I(‘lluvioso’) + I(‘2’) I(‘transmito ‘0’,’recibo ‘0’) = 0.152 bits < 2 bits.
  • 7. Incertidumbre, información y entropía • Se define la entropía de S como: • H(S) mide la incertidumbre ante el experimento S. O también la información media que cabe esperar del resultado. • La entropía es máxima si todos los casos son equiprobables 0 ≤ H(S) ≤ log2(J) • EJEMPLOS: • Lanzamiento de una moneda  H(S) = 1 bit • Lanzamiento de un dado  H(S) = 2,58 bits • Meteorología  H(S) = 1.153 bits • Transmisión QPSK  H(S) = 2 bits ( ) ( ){ } ( ) J 1 J 1 j j j j 2 j 0 j 0 j 1 H S E I s p I s p log p − − = =   = = =  ÷ ÷   ∑ ∑
  • 8. Incertidumbre, información, entropía • EJEMPLO: Fuente binaria • S={s0, s1} = {‘0’,’1’} con probabilidades {p0,p1} = {p,1-p} • H(S) = -p·log2(p) - (1-p)·log2(1-p) • Nótese que: • Si p=0 o p=1, H(S) = 0 • Si p=1/2, H(S) es máxima e igual a 1 bit. 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 p H(S) Entropía de una fuente binaria
  • 9. Teorema de codificación de fuente • Dada una fuente S con J posibles símbolos decidimos codificarla utilizando para cada símbolo sj una palabra binaria bj de longitud Lj (digitos binarios). • La longitud media de una palabra código (o número medio de dígitos binarios por símbolo) será: • El teorema de codificación de fuente (Shannon, 1948) establece que • La eficiencia de un codificador de fuente, η es: J 1 j j j 0 L p L − = = ∑ ( )SHL ≥ ( ) L SH =η
  • 10. Teorema de codificación de fuente • EJEMPLO: • Considere el conjunto S de posibles resultados de un examen S={NP, SU, AP, NO, SO, MH} con probabilidades asociadas {0.1,0.15,0.4,0.2,0.1,0.05} • La entropía de fuente es: H(S) = 2.28 bits • Si codificamos de la forma siguiente: NP SU AP NO SO MH 000 001 010 011 100 011 obtenemos L = 3 y η=76%. • De la forma siguiente: NP SU AP NO SO MH 110 111 0 101 1001 1011 obtenemos L = 2.35, y η=97%.
  • 11. Entropía condicionada • Consideremos un conjunto posible de símbolos emitidos S={sj}, j=0..J-1 y otro conjunto posible de símbolos recibidos R = {rk}, k=0..K-1. • Definimos H(S|rk) de la forma siguiente: como entropía de S condicionada a la recepción del símbolo rk (incertidumbre que queda respecto a S una vez recibido rk). • EJEMPLO • S={carta baraja (40 posibilidades)}, R={figura, no figura}, • H(S) = 5.32 H(R)=0.88 • H(S|figura) =3.58 H(S|no figura) = 4.8 ( ) ( ) ( ) J 1 k j k 2 j 0 j k 1 H S| r p s | r log p s | r − =    ÷=  ÷   ∑
  • 12. Entropía condicionada • Definimos la entropía de S condicionada a R como: es decir, como incertidumbre promedio que queda respecto a S una vez recibido R. • EJEMPLO: • S={carta baraja (40 posibilidades)}, R={figura, no figura}, • H(S) = 5.32 H(R)=0.88 • H(S|figura) =3.58 H(S|no figura) = 4.8 • H(S|R) = p(figura)·H(S|figura) + p(no figura)·H(S|no figura) • H(S|R) = 0.3·3.58 + 0.7·4.8 = 4.43 ( ) ( ) ( ) K 1 J 1 j k 2 k 0 j 0 j k 1 H S| R p s ,r log p s | r − − = =    ÷=  ÷   ∑∑ ( ) ( ){ } ( ) ( ) ( ) K 1 J 1 k k j k 2 k 0 j 0 j k 1 H S| R E H S| r p r p s | r log p s | r − − = =    ÷= =  ÷   ∑ ∑
  • 13. Información mutua • Consideremos dos experimentos S y R: • Antes de conocer R nuestro desconocimiento de S es H(S) • Conocida R nuestro desconocimiento de S es H(S|R) • Luego R aporta H(S) – H(S|R) información sobre S. • La información mútua entre S y R se define como: I(S;R) = H(S) - H(S|R) y mide la cantidad de información que R tiene sobre S (o S sobre R). • EJEMPLO: • Cartas y figuras  I(S;R) = 5.32 – 4.43 = 0.89 bits
  • 14. Información mutua • Propiedades de la información mutua: • I(S;R) = I(R;S) • I(S;R) ≥ 0, con igualdad si y solo si S y R independientes • I(S;R) = H(S)–H(S|R) = H(R)–H(R|S) = H(S)+H(R)-H(S;R) siendo H(S;R) la entropía conjunta de S y R ( ) ( ) ( ) K 1 J 1 j k 2 k 0 j 0 j k 1 H S;R p s ,r log p s ,r − − = =    ÷=  ÷   ∑∑ ( ) ( ) ( ) ( ) ( ) J 1 K 1 J 1 j 2 j k 2 j 0 k 0 j 0j j k 1 1 I S;R p s log p s ,r log p s p s | r − − − = = =      ÷  ÷= −  ÷  ÷     ∑ ∑∑ ( ) ( ) ( ) ( ) ( ) K 1 J 1 j k 2 j k 2 k 0 j 0 j j k 1 1 I S;R p s ,r log p s ,r log p s p s | r − − = =      ÷  ÷= −  ÷  ÷     ∑∑ ( ) ( ) ( ) ( ) K 1 J 1 j k j k 2 k 0 j 0 j p s | r I S;R p s ,r log p s − − = =    ÷=  ÷   ∑∑
  • 15. Información mútua • Otra forma de calcular la información mútua: I(S;R) = H(S) + H(R) - H(S;R) = ( ) ( ) ( ) ( ) ( ) ( ) J 1 K 1 K 1 J 1 j 2 k 2 j k 2 j 0 k 0 k 0 j 0kj j k 1 1 1 p s log p r log p s ,r log p rp s p s ,r − − − − = = = =       ÷  ÷= + − = ÷ ÷ ÷  ÷     ∑ ∑ ∑∑ ( ) ( ) ( ) ( ) ( ) ( ) K 1 J 1 j k 2 j k 2 j k 2 k 0 j 0 kj j k 1 1 1 p s ,r log p s ,r log p s ,r log p rp s p s ,r − − = =       ÷  ÷= + − = ÷ ÷ ÷  ÷     ∑∑ ( ) ( ) ( ) ( ) K 1 J 1 j k 2 2 2 k 0 j 0 kj j k 1 1 1 p s ,r log log log p rp s p s ,r − − = =        ÷ ÷  ÷= + − = ÷ ÷ ÷  ÷ ÷      ∑∑ ( ) ( ) ( ) ( ) ( ) K 1 J 1 j k j k 2 k 0 j 0 j k p s ,r p s ,r log I S;R p s p r − − = =    ÷= =  ÷   ∑∑
  • 16. Información mutua • EJEMPLO: Transmisión Y-QAM equiprobable: p(sj) = ¼ p(r0) = ¼ (0.55+0.1+0.1+0.1) = 0.2125 p(r1) = ¼ (0.15+0.8+0.05+0.05) = p(r2) = p(r3) = 0.2625 H(S)=2 H(R) = 1.99 H(S;R)=3,19 I(S;R) = 2 + 1.99 – 3.19 = 0.8 H(S|R) = H(S) – I(S;R) = 1.2 H(R|S) = H(R) – I(R;S) = 1.19 ( )k j 0.55 0.15 0.15 0.15 0.1 0.8 0.05 0.05 P r | s 0.1 0.05 0.8 0.05 0.1 0.05 0.05 0.8      =       Re Im -j s3 s0 s2 s1 j/2 3 2 3 2 −
  • 17. Capacidad de un canal discreto • Deseamos que la información mutua sea máxima. • El canal está fijado, luego lo único que podemos modificar son las probabilidades de los diferentes símbolos transmitidos. • Cuando se maximiza I(S;R) respecto a las probabilidades de los diferentes sj j={0..J-1}, al valor máximo lo denominamos capacidad del canal: • Para obtener C será preciso tener en cuenta que: P(sj) ≥0 ∀j ( ) ( ) jp s C max I S;R= ( ) J 1 j j 0 p s 1 − = =∑
  • 18. • Ejemplo: Canal binario simétrico • p(r0|s0)=1-pe • p(r0|s1)=pe • p(r1|s0)=pe • p(r1|s1)=1-pe • p(r0,s0)=p(r0|s0)p(s0)=(1-pe)p(s0) • p(r1,s0)=pep(s0) • p(r0,s1)=pep(s1)=pe(1-p(s0)) • p(r1,s1)=(1-pe)(1-p(s0)) Capacidad de un canal discreto 0 1 0 1 1-pe 1-pe pe pe
  • 19. Ejemplo: Canal binario simétrico (2) • p(r0)= p(r0,s0)+p(r0,s1)=(1-pe)p(s0) + pe(1-p(s0)) • p(r1)= 1-p(r0) =pep(s0) +(1-pe)(1-p(s0)) I(S;R) = H(R)–H(R|S) ( ) ( ) ( ) ( ) ( ) ( ) 0 0 0 0 I S,R I S,R p r 0 p s p r p s ∂ ∂ ∂ = = ∂ ∂ ∂ ( ) ( ) jp s C maxI S;R= ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 0 0 0 0 0 I S,R H R H R | S p r 0 p s p r p r p s  ∂ ∂ ∂ ∂ = − = ÷ ÷∂ ∂ ∂ ∂  ( ) ( ) ( ) ( ) ( )0 2 1 2 0 1 1 1 H R p r log p r log p r p r     = + ÷  ÷     ( ) ( ) ( ) ( )2 2 0 0 0 H R 1 1 log log p r p r 1 p r     ∂   = − ÷  ÷  ÷  ÷∂ −     
  • 20. Ejemplo: Canal binario simétrico (3) ( ) ( )0 H R | S 0 p r ∂ = ∂ ( ) ( ) ( ) K 1 J 1 k j 2 k 0 j 0 k j 1 H R | S p r ,s log p r | s − − = =    ÷=  ÷   ∑∑ ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 0 0 2 0 1 2 0 0 0 1 1 0 2 1 1 2 1 0 1 1 1 1 H R | S p r ,s log p r ,s log p r | s p r | s 1 1 p r ,s log p r ,s log p r | s p r | s     = + + ÷  ÷ ÷  ÷         + + ÷  ÷ ÷  ÷     ( ) ( ) ( ) ( )( ) ( ) ( ) ( )( ) e 0 2 e 0 2 e e e 0 2 e 0 2 e e 1 1 H R | S 1 p p s log p 1 p s log 1 p p 1 1 p p s log 1 p 1 p s log p 1 p     = − + − + ÷  ÷ −        + + − − ÷  ÷ −   
  • 21. Ejemplo: Canal binario simétrico (4) p(r0)= p(r0,s0)+p(r0,s1)=(1-pe)p(s0) + pe(1-p(s0)) ( ) ( ) ( ) ( ) ( )2 2 e 0 0 0 I S,R 1 1 log log 1 2p 0 p s p r 1 p r     ∂   = − − = ÷  ÷  ÷  ÷∂ −      ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 0 0 0 0 0 I S,R H R H R | S p r 0 p s p r p r p s  ∂ ∂ ∂ ∂ = − = ÷ ÷∂ ∂ ∂ ∂  ( ) ( ) ( ) ( )2 2 0 0 0 H R 1 1 log log p r p r 1 p r     ∂   = − ÷  ÷  ÷  ÷∂ −      ( ) ( )0 H R | S 0 p r ∂ = ∂ ( ) ( ) 0 e 0 p r 1 2p p s ∂ = − ∂
  • 22. Ejemplo: Canal binario simétrico (y 5) • La solución implica p(r0) = 1 – p(r0), luego p(r0) = ½ • Por tanto p(s0) = ½ , como cabía esperar. • La capacidad es: ( )e 2 e 2 e e 1 1 C 1 p log 1 p log p 1 p     = − − − ÷  ÷ −    ( ) ( ) ( ) ( ) ( )2 2 e 0 0 0 I S,R 1 1 log log 1 2p 0 p s p r 1 p r     ∂   = − − = ÷  ÷  ÷  ÷∂ −     
  • 23. • Fuente S • Genera símbolos de fuente a una velocidad Rs (símbolos de fuente/segundo) • Entropía de S es H(S) (bits información/símbolo de fuente) • Canal • Capacidad C (bits/símbolo de canal transmitido) • Transmite símbolos a un régimen Rc (símbolos de canal transmitidos/segundo) • Teorema de codificación de canal (Shannon, 1948) • Es posible enviar (con el código adecuado) con una probabilidad de error arbitrariamente pequeña si y solo si: H(S)·Rs ≤ C·Rc Teorema de codificación de canal S Cod. canal Canal Rs Rc Rc Decod. canal Destino Rs
  • 24. EJEMPLOS • EJEMPLO: Canal binario simétrico • pe = 0.03  C = 0.8 bits / símbolo de canal • Fuente S binaria equiprobable (H(S)=1 bit/símbolo de fuente) con velocidad Rs = 1 símbolo de fuente/segundo H(S)Rs ≤ CRc 1 bit/segundo ≤ 0.8 Rc Rc ≥ 1.25 símbolos de canal transmitidos / segundo • EJEMPLO: Modem V.90 • Modo 56 kbps • peb = 10-3  C = 0.988 • Permitiría transmitir datos con una probabilidad de error tan pequeña como se quiera siempre que la velocidad de información de la fuente sea inferior a 56000· 0.988 = 55361 bits información / segundo (y se haga uso de la codificación apropiada).
  • 25. Entropía diferencial • ¿Podríamos trasladar los resultados obtenidos a señales analógicas? • Calculemos la entropía de una variable aleatoria continua X como límite de una discreta con infinitos niveles: X = {xj} j = 0..J-1 ( ) ( ){ } ( ) J 1 J 1 j j j j 2 j 0 j 0 j 1 H X E I x p I x p log p − − = =   = = =  ÷ ÷   ∑ ∑ x fX(x) x0 x1 x2 . . . xJ-1 Δx p(x1) ≈ fX(x1)Δx
  • 26. Entropía diferencial Al hacer tender J a infinito p(xj) ≈ fX(xj)Δx x fX(x) x0 x1 x2 . . . xJ-1 Δx -∞ ∞dx ( ) ( ) ( )X j 2 x 0 j X j 1 H X lim f x xlog f x x ∞ ∆ → =−∞    ÷= ∆  ÷∆  ∑
  • 27. Entropía diferencial (continuación) ( ) ( ) ( ) ( ) ( )X j 2 X j 2 x 0 j jX j 1 H X lim f x xlog f x xlog x f x ∞ ∞ ∆ → =−∞ =−∞      ÷= ∆ − ∆ ∆   ÷    ∑ ∑ ( ) ( ) ( ) ( ) ( )X 2 X 2 x 0 X 1 H X f x log dx f x dx lim log x f x ∞ ∞ ∆ → −∞ −∞     = − ∆ ÷  ÷    ∫ ∫ ( ) ( )2 x 0 H X h(X) lim log x ∆ → = − ∆ ( ) ( ) ( )X 2 X 1 h X f x log dx f x ∞ −∞   =  ÷   ∫ ( ) ( ) ( )X j 2 x 0 j X j 1 H X lim f x xlog f x x ∞ ∆ → =−∞    ÷= ∆  ÷∆  ∑ ( ) ( ) ( ) ( )X 2 2 x 0 X 1 H X f x log dx lim log x f x ∞ ∆ → −∞   = − ∆ ÷   ∫
  • 28. Entropía diferencial • CONSIDERACIONES: • Cualquier variable aleatoria tiene infinita información • La entropía diferencial va a servir para compararlas entre sí • EJEMPLO: Distribución uniforme fX(x) = 1/a·[u(x) – u(x-a)] h(X) = log2(a) • EJEMPLO: Distribución gaussiana • Dada una varianza σ2 , la variable gaussiana tiene la mayor entropía diferencial de todas las posibles v.a. • La entropía diferencial es independiente de la media µ. ( ) ( )2 2 x 2 X 1 f x e 2 −µ − σ = πσ ( ) ( )2 2 1 h X log 2 e 2 = π σ
  • 29. Información mútua entre variables continuas • Partiendo de la expresión de la información mútua para variables discretas: • Información mútua entre X e Y • Propiedades • I(X,Y) = I(Y,X) • I(X,Y) ≥ 0 • I(X,Y) = h(X)+h(Y)– h(X;Y) = h(X)–h(X|Y) = h(Y)–h (Y|X) ( ) ( ) ( ) ( ) ( ) XY XY 2 X Y f x, y I X,Y f x, y log dxdy f x f y ∞ ∞ −∞ −∞   =  ÷ ÷   ∫ ∫ ( ) ( ) ( )XY 2 XY 1 h X;Y f x, y log dxdy f x, y ∞ ∞ −∞ −∞   =  ÷ ÷   ∫ ∫ ( ) ( ) ( ) ( ) ( ) K 1 J 1 j k j k 2 k 0 j 0 j k p s ,r I S;R p s ,r log p s p r − − = =    ÷=  ÷   ∑∑
  • 30. Teorema de capacidad de canal • Dado un canal con las características • Ancho de banda B (ideal dentro de la banda) • Ruido gaussiano de potencia Pn • Señal recibida de potencia Ps ¿cuál es la máxima velocidad de transmisión de información alcanzable? • Sea cual sea el esquema de codificador(es), modulador, etc. … acabaremos emitiendo una señal de ancho de banda B. • Por el teorema de Nyquist “Cualquier señal de ancho de banda B Hz puede representarse por un conjunto de muestras tomadas a frecuencia 2B” • CONCLUSIÓN: La señal emitida (y la recibida) pueden representarse con 2B muestras/segundo.
  • 31. Teorema de capacidad de canal Xk Nk Yk … k-1 k k+1 … Ruido Señal emitida Señal recibida
  • 32. Teorema de capacidad de canal • ¿Cuánta información podrá transportar cada muestra? Tendremos que obtener la capacidad del canal • La relación entre muestras emitidas y recibidas es: Yk = Xk + Nk • La capacidad de canal se obtiene maximizando la información mútua (potencia emitida limitada): C=max{I(Xk,Yk), E{Xk 2 }= Ps} I(Xk,Yk) = h(Yk) – h(Yk|Xk) h(Yk|Xk) = h(Xk+Nk|Xk) = h(Nk) pero el ruido es gaussiano  h(Nk) = ½log2(2πePn) I(Xk,Yk) = h(Yk) – h(Nk) = h(Yk) - ½log2(2πePn) que será máxima cuando Yk sea gaussiana.
  • 33. Teorema de capacidad de canal • Como Yk tiene potencia Ps+Pn, su entropía será: h(Yk) = ½log2(2πe[Ps+Pn]) • Por tanto, la capacidad de canal será: C = ½log2(2πe[Ps+Pn]) - ½log2(2πePn) C = ½log2(1+Ps/Pn) bits/muestra transmitida El número máximo de muestras independientes transmisibles es 2B muestras /segundo, luego C = B·log2(1+Ps/Pn) bits/segundo C = B·log2(1+SNR) Para el caso más habitual (ruido térmico) de densidad espectral N0/2 C = B·log2(1+Ps/(BN0))
  • 34. Teorema de capacidad de canal • EJEMPLO: Canal teléfónico: Centralitas digitales • B < 4000 Hz • SNR < 48 dB (6,02 dB/bit x 8 bits) C < 4000·log2(1+104.8 ) = 63781 bps • Centralitas analógicas • B < 3100 Hz (300 Hz – 3400 Hz) • SNR < 30 dB (estudios de canal telefónico) C < 3100·log2(1+103 ) = 30898 bps • Canal TV analógico • B  5 MHz • SNR  38 dB (canal regular) C  5·106 ·log2(1+103.8 ) = 63,1 Mbps
  • 35. Implicaciones del teorema • Consideremos un sistema ideal que transmite a la máxima velocidad Rb= C Ps = EbRb = CEb C = B·log2(1+Ps/(BN0)) Si B  ∞, Eb/N0 = ln(2) = 0.693 = -1.6 dB Por debajo de esa relación Eb/N0 es absolutamente imposible la transmisión sin errores. b 2 0 EC C log 1 B N B   = + ÷   C Bb 0 E B 2 1 N C    ÷     = − ÷  ÷  
  • 36. Implicaciones del teorema • Si el sistema transmite a una velocidad Rb < C • CONCLUSIONES: • Compromiso entre la relación Eb/N0 (relación SNR) y Rb/B (eficiencia) • Existen zonas en las que resulta posible/imposible la transmisión sin errores. • Se establece así el límite de Shannon o cota de capacidad de canal. b b 2 0 E R Blog 1 C N B   + ≤ ÷  
  • 37. Compromiso Eb/N0 y Rb/B -5 0 5 10 15 20 25 10 -1 10 0 10 1 Eb/No dB Rb/B Relació n Eb/No y Rb/B Zona posible Zona imposible
  • 38. Referencias • Communication Systems, 3rd .ed. • Simon Haykin, John Wiley & Sons, 1994. • Páginas 614 a 622 y 631 a 656. • Digital Communications, 4th ed. • John G. Proakis, McGraw-Hill, 2000. • Páginas 381 a 387 • An Introducction to Digital Communications • Jack Kurzweil, John Wiley & Sons, 1999. • Páginas 366-380 • Digital Transmission Engineering • John B. Anderson, 1999. • Páginas 268-272.