Entropia relativa quàntica

En la teoria de la informació quàntica, l'entropia relativa quàntica és una mesura de la distinció entre dos estats quàntics. És l'anàleg de la mecànica quàntica de l'entropia relativa.[1]

Motivació

Per simplificar, s'assumeix que tots els objectes de l'article són de dimensions finites.[2]

Primer parlem del cas clàssic. Suposem que les probabilitats d'una successió finita d'esdeveniments ve donada per la distribució de probabilitats P = { p1... pn }, però d'alguna manera hem suposat erròniament que era Q = { q1... qn }. Per exemple, podem confondre una moneda injusta amb una de justa. D'acord amb aquesta suposició errònia, la nostra incertesa sobre l'esdeveniment j-è, o equivalent, la quantitat d'informació proporcionada després d'observar l'esdeveniment j-è, és [3]

log q j . {\displaystyle \;-\log q_{j}.}

La incertesa mitjana (assumpta) de tots els esdeveniments possibles és llavors

j p j log q j . {\displaystyle \;-\sum _{j}p_{j}\log q_{j}.}

D'altra banda, l'entropia de Shannon de la distribució de probabilitat p, definida per

j p j log p j , {\displaystyle \;-\sum _{j}p_{j}\log p_{j},}

és la quantitat real d'incertesa abans de l'observació. Per tant, la diferència entre aquestes dues quantitats

j p j log q j ( j p j log p j ) = j p j log p j j p j log q j {\displaystyle \;-\sum _{j}p_{j}\log q_{j}-\left(-\sum _{j}p_{j}\log p_{j}\right)=\sum _{j}p_{j}\log p_{j}-\sum _{j}p_{j}\log q_{j}}

és una mesura de la distingibilitat de les dues distribucions de probabilitat p i q. Aquesta és precisament l'entropia relativa clàssica, o divergència de Kullback-Leibler:

D K L ( P Q ) = j p j log p j q j . {\displaystyle D_{\mathrm {KL} }(P\|Q)=\sum _{j}p_{j}\log {\frac {p_{j}}{q_{j}}}\!.}

Definició

Com amb molts altres objectes de la teoria de la informació quàntica, l'entropia relativa quàntica es defineix estenent la definició clàssica des de les distribucions de probabilitat a les matrius de densitat. Sigui ρ una matriu de densitat. L'entropia de von Neumann de ρ, que és l'anàleg de la mecànica quàntica de l'entropia de Shannon, ve donada per [4]

S ( ρ ) = Tr ρ log ρ . {\displaystyle S(\rho )=-\operatorname {Tr} \rho \log \rho .}

Per a dues matrius de densitat ρ i σ, l'entropia relativa quàntica de ρ respecte a σ es defineix per

S ( ρ σ ) = Tr ρ log σ S ( ρ ) = Tr ρ log ρ Tr ρ log σ = Tr ρ ( log ρ log σ ) . {\displaystyle S(\rho \|\sigma )=-\operatorname {Tr} \rho \log \sigma -S(\rho )=\operatorname {Tr} \rho \log \rho -\operatorname {Tr} \rho \log \sigma =\operatorname {Tr} \rho (\log \rho -\log \sigma ).}

Veiem que, quan els estats estan relacionats clàssicament, és a dir, ρσ = σρ, la definició coincideix amb el cas clàssic, en el sentit que si ρ = S D 1 S T {\displaystyle \rho =SD_{1}S^{\mathsf {T}}} i σ = S D 2 S T {\displaystyle \sigma =SD_{2}S^{\mathsf {T}}} amb D 1 = diag ( λ 1 , , λ n ) {\displaystyle D_{1}={\text{diag}}(\lambda _{1},\ldots ,\lambda _{n})} i D 2 = diag ( μ 1 , , μ n ) {\displaystyle D_{2}={\text{diag}}(\mu _{1},\ldots ,\mu _{n})} .

Relació amb altres magnituds d'informació quàntica

Una de les raons per les quals l'entropia relativa quàntica és útil és que diverses altres quantitats importants d'informació quàntica en són casos especials. Sovint, els teoremes s'especifiquen en termes d'entropia relativa quàntica, que condueixen a corol·laris immediats sobre les altres magnituds.

Referències

  1. «PHYS 7895: Quantum Information Theory» (en anglès). [Consulta: 11 febrer 2024].
  2. «[https://arxiv.org/pdf/1611.08802.pdf Relative entropies and their use in quantum information theory]» (en anglès). [Consulta: 11 febrer 2024].
  3. «Relative Entropy in Quantum Information Theory» (en anglès). [Consulta: 11 febrer 2024].
  4. Vedral, V. «The role of relative entropy in quantum information theory». Reviews of Modern Physics, 74, 1, 08-03-2002, pàg. 197–234. DOI: 10.1103/RevModPhys.74.197.