No. La serie converge uniformemente en todos los intervalos de la forma \( [a,+\infty) \) con \( a>0 \), pero no en \( (0,+\infty) \). Para verlo, usando la notación \[ S_m(x)=\sum_{k=1}^m f_k(x), S = \sum_{k=1}^\infty f_k(x) \], tienes que para cada \( m \in \Bbb N \), \[ \sup_{x \in (0,+\infty)} |S_m(x) - S(x)| = \sup_{x \in (0,+\infty)} \left| \sum_{k=m}^\infty f_k(x) \right| = +\infty \], pues tomando \( x \) suficientemente próximo a cero puedes hacer la suma tan grande como quieras.
Esto quiere decir que la sucesión de sumas parciales \( S_n \) no converge uniformemente a \( S \), que es lo mismo que decir que la serie no converge uniformemente.
El criterio M no funciona aquí porque en \( (0,+\infty) \) solo puedes acotar las funciones por \( 1 \), pero \( \sum_n 1 \) diverge.