Entropia (informazio-teoria): berrikuspenen arteko aldeak

Ezabatutako edukia Gehitutako edukia
Orri berria: «{{DISPLAYTITLE:Entropia (informazio-teoria)}} Informazio-teoriaren alorrean '''entropia'''k, '''informazio-entropia''' eta '''Shannon-en entropia''' (Claude Shannon|Claude...»
 
Oharrak eta erreferentziak gehituta. Kanpoko loturak txertatuak. Argazkia txertatuta. Ikus, gainera atala idatzita.
12. lerroa:
 
== Definizio formala ==
Suposatu zorizko aldagai baten hasierako indeterminazio maila<math>k</math> dela (<math>k</math> egoera posible daude). Gainera, probabilitate bereko egoera guztiak suposatuko ditugu. Orduan, suposatutako konbinazio bat gertatzeko probabilitatea <math>p=1/k</math>izango da. Beraz, <math>c_i</math>adierazpena horrela idatz dezakegu:<ref group="lower-alpha">Ikusi daitekenez, 2 oinarria duen logaritmoa erabiltzen da informazioa kode bitarrean adieraziko dela kontsideratzen delako.
 
Informazioa adierazteko <math>a</math>oinarria duten balioak erabiltzekotan, <math>a</math>oinarria duen logaritmoa erabiltzea egokia izango litzateke.</ref>
 
<math>c_i= \log_2(k)= \log_2[1/(1/k)]= \log_2(1/p) = \underbrace{\log_2(1)}_{= 0}-\log_2(p) =- \log_2(p)</math>
 
<math>k</math> egoera bakoitzak <math>p_i</math> probabilitatea badu, entropia informazio-kantitateen batuketa haztatua erabiliz kalkulatuko da:<ref>Cuevas Agustín, Gonzalo, "Teoría de la información, codificación y lenguajes", Ed. SEPA (Sociedad para Estudios Pedagógicos Argentinos), Serie Informática 1986</ref><ref group="lower-alpha">Kontuan izan kantitate adimentsionalak direla, hau da, ez dute unitaterik.</ref>
 
<math>H=-p_1 \log_2(p_1)-p_2 \log_2(p_2)-....-p_k \log_2(p_k)=- \sum_{i=1}^{k}p_i \log_2(p_i)</math>
28 ⟶ 30 lerroa:
=== Adibidea ===
Adibide bezala txanpon baten jaurtiketa hartuko dugu. Txanpona jaurtitzean aurpegia ala gurutzea lortuko dugunaren probabilitateak ezagunak dira, baina txanponak ez du zertan txanpon zintzoa izan. Hau [[Bernoulli prozesu|Bernouilli prozesu]] bat bezala irudika dezakegu.
[[Fitxategi:Binary entropy plot.svg|thumb|X [[Bernoulli saiakuntza|Bernouilli-ren saiakuntzan]] informazioaren entropia (Xak 0 edo 1 balioak hartu ditzakeen ausazko saiakuntza). Entropia X aldagaiak 1 balioa hartzearen P(X=1) probabilitatearen araberakoa da. P(X=1)=0,5 denean, emaitza guztiek probabilitate bera dute, beraz, ziurgabetasun-maila altua da eta entropia maximoa.]]
 
 
 
Jaurtiketaren emaitzaren entropia maximizatuko da txanpon zintzoa bada, hau da, probabilitate bera badago aurpegia edo gurutzea lortzeko (P = 0,5). Egoera hau ziurgabetasun maximoko egoera da, hurrengo jaurtiketaren emaitza aurreikustea ia ezinezkoa da eta.
36 ⟶ 41 lerroa:
\\ &= -\sum_{i=1}^2 {\frac{1}{2} \cdot (-1)} = 1
\end{align}</math>
 
Bestetik, hartu dezagun zintzoa ez den txanpona, izan ere, aurpegia lortzeko probabilitatea p da eta gurutzea lortzekoa, ordez, q, non p≠q. Egoera honetan ziurgabetasuna txikiagoa da. Jaurtitzen den bakoitzean, txanponaren alde bat lortzearen probabilitatea bestea lortzearena baino handiagoa izango da. Ziurgabetasuna murriztean, entropia ere murrizten da. Adibidez, p=0,7 denean:
 
<math>\begin{align}
\Eta(X) &= - p \log_2 (p) - q \log_2 (q)
93 ⟶ 100 lerroa:
 
<math>H(X|Y)=-\sum_{y} p(y) \sum_{x} p(x|y) \log_2 p(x|y)</math>
 
== Ikus, gainera ==
 
* [[Informazio kantitate|Informazio kantitatea]]
 
== Oharrak eta erreferentziak ==
{{Erreferentzia zerrenda|1|zabalera=30em|taldea=lower-alpha|erreferentziak={[a],[b]}}<br />
 
=== Erreferentziak ===
<references />
 
=== Bibliografia ===
 
* Jorge Ramió Aguirre, Aplicaciones criptográficas. Libro guía de la asignatura de Seguridad Informática. Escuela Universitaria de Informática. Universidad Politécnica de Madrid. Enero de 1998.
 
== Kanpoko loturak ==
 
* [http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html Komunikazioaren Matematikaren teoria] (ingelesez)
* [http://www.shannonentropy.netmark.pl/ Shannon-en entropia kalkulatzeko kalkulagailua] (ingelesez)
* [http://ncomputers.org/entropytest Fitxategientzako Shannon-en entropia kalkulatzeko kalkulagailua] (ingelesez)
{{DEFAULTSORT:Entropia (informazio-teoria)}}