Bien, tengo poco tiempo. Asi que espero que
me entiendan.
Que f'' <= 0 implica que f' es decreciente.
Sea x fijo, para z > x tenemos que f'(z) <= f'(x).
Si y > x entonces f(y) - f(x) = f'(e)(y - x) con
x < e < y, usando la desigualdad anterior
nos queda f(y) - f(x) <= f'(x) (y - x).
O mejor aun f(y) <= f'(x)(y - x) + f(x)
Ahora como f(y) >= 0, tenemos que
f'(x)(y - x) + f(x) >= 0, y ahora si despejo f'(x)
f'(x) >= -f(x) / (y - x).
Esto vale para todo y > x, entonces si tomamos el limite
cuando y -> infty, tenemos que f'(x) >= 0.
Repitiendo lo mismo del otro lado, es decir
cuando y < x nos queda que f'(x) <= 0.
Luego la unica posibilidad es f'(x) = 0. O lo que es lo
mismo f = c.
Los veo pronto.