Autor Tema: Duda

0 Usuarios y 1 Visitante están viendo este tema.

02 Agosto, 2009, 04:57 pm
Leído 3076 veces

jcgra2

  • $$\Large \color{#5e8d56}\pi\,\pi\,\pi$$
  • Mensajes: 153
  • Karma: +0/-0
  • Sexo: Masculino
Una pregunta la entropia es la cantidad de informacion en promedio, que da una variable, aleatoria, o es es la cantidad promedio de bits que se necesitan para codificar una variable aleatoria? o ninguna de las dos cosas?:(

30 Agosto, 2009, 03:40 pm
Respuesta #1

jorgen

  • $$\Large \color{#5372a0}\pi\,\pi$$
  • Mensajes: 55
  • Karma: +0/-0
  • Sexo: Masculino
entropia simple
 un  "dado"octaedre con sus lados con digitos de 1 a 8
  corresponed  un v.a. con valores 1 a 8 cada P= un octavo=0,125. cada digito.
yo cubre el resultado del "dado"
tu tienes que deducir  cual numero  con preguntas(inteligentes) a mi.  contesto con si o no.
1 pregunta  esta entre 1 y 4 ? y ecaso que si
2. es en el conjunto (3 , 4) en caso que no
3 es 1  ? en caso no tien que ser 2
tu haz igual todos los casos.

asi ves que 3 preguntas es suficiente Entropia= 3 = ld(8 )  (logaritmus dualis) o logaritmo binario .  la definicion  da el mismo resultado.
es la catidad de icertitumbre. un dado nor mal tien entropia
ld6 entre 2 y 3

llegare con mas informacion