Según la definición de más arriba \( N(A,\epsilon)\approx{C\epsilon^{-D}} \) significa que:
\( \displaystyle\lim_{\epsilon \to{0}}{\displaystyle\frac{\log(N(A,\epsilon))}{\log(C\epsilon^{-D})}}=1 \)
Esto claramente equivale a escribir
\( \displaystyle\lim_{\epsilon \to{0}}{\displaystyle\frac{\log(N(A,\epsilon))}{log(C)+D \log(\epsilon^{-1)}}=1 \)
También se puede escribir esto ''al revés'', tomando recíprocos:
\( \displaystyle\lim_{\epsilon \to{0}}{\displaystyle\frac{log(C)+D \log(\epsilon^{-1)}}{\log(N(A,\epsilon))}=1 \)
Distribuimos respecto el cociente:
\( \displaystyle\lim_{\epsilon \to{0}}\Bigg({\displaystyle\frac{log(C)}{\log(N(A,\epsilon))}+D \frac{\log(\epsilon^{-1})}{\log(N(A,\epsilon))}\Bigg)=1 \)
Ahora bien, \( \log(N(A,\epsilon) \) es una función no creciente respecto de \( \epsilon \), debido a que cuanto más pequeño es el radio \( \epsilon \) de las bolas, más grande es el número de bolas necesarias para cubrir el conjunto A (analizarlo con calma).
Por lo tanto \( \log(N(A,\epsilon) \) tiende, o bien a un número finito que acota a la función para todo \( \epsilon \), o bien tiende a \( +\infty \).
En el primer caso, la cantidad \( \displaystyle\frac{log(C)}{\log(N(A,\epsilon))} \) tiende a un número finito porque C es contante, y en el segundo caso tiende a 0.
En cualquiera de los dos casos el límite es finito, y por lo tanto es válido separar ese término, escribiendo límites separadamente, así:
\( \displaystyle\lim_{\epsilon \to{0}}{\displaystyle\frac{log(C)}{\log(N(A,\epsilon))}+D \displaystyle\lim_{\epsilon \to{0}}\frac{\log(\epsilon^{-1})}{\log(N(A,\epsilon))}=1 \).
De aquí sí que puede despejarse D. No sé si da lo que se supone que tiene que dar, pero bueno...
Sigo un poco más.
Paso el término izquierdo a la derecha de la igualdad y reacomodo:
\( D \displaystyle\lim_{\epsilon \to{0}}\frac{\log(\epsilon^{-1})}{\log(N(A,\epsilon))}=1-\displaystyle\lim_{\epsilon \to{0}}{\displaystyle\frac{log(C)}{\log(N(A,\epsilon))}=\displaystyle\lim_{\epsilon \to{0}}{\displaystyle\frac{\log(N(A,\epsilon))-\log(C)}{\log(N(A,\epsilon))} \)
Asumamos por el momento que D > 0.
Observemos que el lado derecho es el mismo término que habíamos probado que tenía límite finito.
Esto quiere decir que el lado izquierdo también es finito, y en particular el límite de \( \displaystyle\lim_{\epsilon \to{0}}\frac{\log(\epsilon^{-1})}{\log(N(A,\epsilon))} \) existe y debe ser finito.
Recordemos esta conclusión.
Ahora podemos multiplicar y dividir por \( {\log(\epsilon^{-1})} \), y nos quedaría:
\( D \displaystyle\lim_{\epsilon \to{0}}\frac{\log(\epsilon^{-1})}{\log(N(A,\epsilon))}=\displaystyle\lim_{\epsilon \to{0}}{\displaystyle\frac{\log(\epsilon^{-1})}{\log(\epsilon^{-1})}\displaystyle\frac{\log(N(A,\epsilon))-\log(C)}{\log(N(A,\epsilon))}=\displaystyle\lim_{\epsilon \to{0}}{\displaystyle\frac{\log(N(A,\epsilon))-\log(C)}{\log(\epsilon^{-1})}\cdot\displaystyle\frac{{\log(\epsilon^{-1})}}{\log(N(A,\epsilon))} \)
Como el factor de más a la derecha tiene límite finito, podemos separar los límites del producto, escribiendo:
\( D \displaystyle\lim_{\epsilon \to{0}}\frac{\log(\epsilon^{-1})}{\log(N(A,\epsilon))}=\displaystyle\lim_{\epsilon \to{0}}{\displaystyle\frac{\log(N(A,\epsilon))-\log(C)}{\log(\epsilon^{-1})}\cdot\displaystyle\lim_{\epsilon\to0}\displaystyle\frac{{\log(\epsilon^{-1})}}{\log(N(A,\epsilon))} \)
Si el susodicho límite del factor de más a la derecha fuera no nulo, podríamos simplificar, y obtendríamos la igualdad buscada.
¿Será cierto que es distinto de 0?
¿Y si no, qué pasa?
A lo mejor en algún paso cometí el mismo error que me paso criticando... ojo