Encontramos la respuesta a esta inconveniente, o por lo menos eso creemos. Si presentas inquietudes dínoslo, que con gusto te responderemos
Solución:
Que el reclamo es false incluso en $[0,1]$ se puede ver considerando una función $ f_n $ que es cero en todas partes excepto por un pico entre $ (n-1) / n $ y $ 1 $, con un máximo de $ 1 $ y $ f_n (1) = 0 $.
Probar o refutar esta afirmación (más de $ mathbb R $, si mal no recuerdo) fue la tarea que se me asignó para mi proyecto de matemáticas de primer año hace muchos años. El contraejemplo que se me ocurrió fue básicamente el mismo que dio Mike: una secuencia de funciones lineales por partes apoyadas en un intervalo de reducción:
$$ f_n (x) = max left (1- | 1-nx |, 0 right) = begin cases nx & text if 0 Claramente, todas estas funciones son idénticamente cero para todos $ x le 0 $. Por el contrario, si $ x> 0 $, entonces $ f_n (x) = 0 $ para todos $ n ge frac2x $, entonces $ f_n (x) a 0 $ puntualmente para todos $ x in mathbb R $. Sin embargo, para todo $ n $, $ f_n ( frac1n) = 1 $, por lo que las funciones $ f_n $ no pueden converger uniformemente a cero. Hay varias formas sencillas de modificar este contraejemplo. Por ejemplo, puede reemplazar el $ f_n $ lineal por partes de arriba con funciones de relieve suaves para que no solo sean continuas sino también $ C ^ infty $. O puede escalar cada $ f_n $ por $ n $ para hacer que la distancia $ sup_x | f_n (x) -0 | $ diverja hasta el infinito en lugar de ser idénticamente $ 1 $, sin dejar de conservar la convergencia puntual. En cuanto a por qué falla su “prueba”, lo primero que me gustaría señalar es que es bastante difícil hacer un seguimiento de lo que realmente está sucediendo, ya que no marca claramente qué variables dependen de qué otras. Por ejemplo, en el párrafo: Ahora establecemos $ varepsilon> 0 $, y supongamos que no existe un $ N $ tal que para $ n> N $, entonces $ sup_ x in X d (f_n (x), f ( x)) < varepsilon $. Esto significa que siempre podemos elegir algo $ x_0 en X $ tal que $ d (f_n (x_0), f (x_0)) geq varepsilon $. su “$ x_0 $” puede ser diferente para cada $ n $ (y $ varepsilon $), aunque eso no es nada obvio a simple vista. Sería mucho más claro, digamos, denotarlo por $ x_n $ (o incluso $ x_ n, varepsilon $) en su lugar, de modo que sería inmediatamente obvio que su valor puede depender de $ n $. Normalmente no pondría tanto énfasis en un simple punto “estilístico” como este, si no fuera por el hecho de que un error muy común en pruebas como esta es obtener sus dependencias variables mixed y, digamos, convertir accidentalmente un enunciado existencial dependiente como $ para todos los n existe x: dotsc $ en el enunciado universal mucho más fuerte $ existe x para todos los n: dotsc $ al olvidar que $ x $ puede depender de $ n $. Parece que algo similar pudo haber sucedido en su prueba. Marcar explícitamente tales dependencias (por ejemplo, con subíndices como $ forall n exist x_n: dotsc $) es un buen hábito, ya que hace que estos errores sean mucho más fáciles de detectar y evitar. (Ya que estamos en el tema de un buen estilo de nomenclatura de variables, también me gustaría señalar que tener $ N $, $ N_x $ y $ N (x) $ en la misma prueba puede no ser la opción más óptima, especialmente cuando el del medio no tiene nada que ver con los otros dos $ N $ s. Intente encontrar otra letra para usar en su lugar). Otro problema que detecté es que el paso desde el que vas: $$ d (f_n (x_0), f (x_0)) leq d (f_n (x_0), f_n (x)) + d (f_n (x), f (x)) + d (f (x), f (x_0)) $$ para: $$ d (f_n (x_0), f (x_0)) no es válido. En realidad, no creo que este sea el principal error en tu demostración, pero ciertamente lo es a error. Lo máximo que puede derivarse de la desigualdad anterior (observando que el primer y último término en el RHS se pueden hacer arbitrariamente pequeños eligiendo $ x $ cerca de $ x_0 $) es: $$ d (f_n (x_0), f (x_0)) le d (f_n (x), f (x)) + varepsilon ^ * $$ para algunos $ varepsilon ^ * $ arbitrariamente pequeños pero positivos, que en realidad no dicen mucho; es perfectamente posible que $ d (f_n (x), f (x)) $ de hecho alcance su máximo (local) en $ x = x_0 $. (Además, nuevamente, el nombre de la variable es bastante confuso aquí; si tuviera que reescribir esto, cambiaría el nombre de $ x_0 $ a $ x_n $ y $ x $ a, digamos, $ x’_n $ o incluso $ x’_ n, varepsilon ^ * $, y asegúrese de distinguir $ varepsilon ^ * $ de los $ varepsilon $ s anteriores (de ahí el $ ^ * $).) Finalmente, me gustaría señalar un mecanismo de verificación general muy útil: si cree que tiene una prueba y un contraejemplo para la misma afirmación, intente aplicar la prueba, paso a paso, al contraejemplo específico y vea qué sale mal. Por lo general, encontrará que: La prueba falla en algún paso específico; luego puede dar un paso atrás y ver si la prueba es completamente insalvable, o si sería posible rescatar parte de ella imponiendo algunas restricciones adicionales necesarias para que el paso realmente funcione. El contraejemplo resulta no ser un contraejemplo después de todo. Esto tiende a ser menos común, ya que los contraejemplos suelen ser más simples y más concretos que las pruebas generales, pero a veces sucede. Te confundes y pierdes la pista de lo que realmente sucede en tu contraejemplo cuando intentas aplicarle la prueba. Esto puede ser una señal de que su prueba (o, posiblemente, el contraejemplo) está mal escrita y la estructura confusa oculta alguna suposición oculta u otro defecto. En tales casos, intente reescribir la prueba hasta que pueda seguirla usted mismo. En realidad, esta puede ser una estrategia útil incluso cuando no sin embargo, tenga en mente una prueba o un contraejemplo completamente formado. Básicamente, si tiene una afirmación tan abstracta que no tiene una buena intuición de por qué es o no es generalmente true, trate de dar un ejemplo concreto y trabaje con él primero. Esto a menudo le dará al menos algo de intuición sobre el caso general, que luego puede usar para intentar esbozar una prueba. Luego, si puede convencerse a sí mismo de que la afirmación es válida al menos con ciertas suposiciones, intente encontrar un nuevo ejemplo que rompa esas suposiciones y vea qué sucede allí. Para el primer ejemplo, a menudo puede simplificar un lote: un espacio topológico general $ X $ puede ser $ X = mathbb R $; una función arbitraria $ f $ puede ser $ f (x) = x $, o $ f (x) = 0 $; un número arbitrario $ n $ puede ser, digamos, $ n = 1 $. Si tiene un parámetro libre $ x $, vea qué sucede cuando $ x $ está muy cerca de cero, o muy, muy grande. Simplemente elija algo lo suficientemente simple como para poder realizar un seguimiento de todos los detalles, y lo suficientemente familiar para que pueda aplicar su conocimiento e intuición existentes. He descubierto que esta es una técnica particularmente útil para seguir conferencias, en las que no siempre tienes tiempo para sentarte y trabajar en tu tiempo libre por qué la afirmación escrita en la pizarra realmente es válida. Varias veces, también me ha ayudado a detectar errores de los profesores o suposiciones no declaradas; es bastante notable la frecuencia con la que se afirma que aspecto como debería sostenerse en general puede fallar en un muy contraejemplo simple. El ejemplo de Mike, de hecho, se generaliza significativamente. Teorema: Sea $ X $ un espacio métrico. Si hay una secuencia disjunta $ U_n $ de conjuntos abiertos en $ X $, hay una secuencia $ (f_n: X to Bbb R) $ de funciones continuas que converge a una función continua, pero no de manera uniforme. Sea $ V_n subseteq U_n $ un conjunto cerrado dentro de $ U_n $; no es demasiado difícil demostrar que uno debe existir. Dado que $ X $ es un espacio métrico, es normal, por lo que el Lema de Urysohn garantiza la existencia de una función continua $ f_n $ que es $ 1 $ en $ V_n $ y $ 0 $ en $ (U_n) ^ c $. Evidentemente, $ f_n a 0 $, ya que cada punto se asigna a cero por todas las funciones excepto posiblemente una. Sin embargo, también está claro que $ max_x | f_n-f | = 1 $, por lo que la convergencia no es uniforme. (Creo que puede reemplazar la condición de secuencia disjunta de conjuntos con $ | X | = infty $: relajarla para que sea una secuencia de puntos, y luego estoy bastante seguro de que la secuencia es discreta o tiene una subsecuencia de Cauchy. Si es discreto, expandimos los puntos para separar conjuntos abiertos y estamos bien. Si tiene una subsecuencia de Cauchy, pase a esa subsecuencia y podemos construir los conjuntos inductivamente colocando un conjunto cerrado alrededor del punto límite para que haya solo se deben considerar un número finito de conjuntos. La normalidad comienza y todavía estamos bien). EDITAR: También puede generalizarse en otra dirección. El concepto de convergencia uniforme generalmente tiene sentido en espacios uniformes. En general, un espacio uniforme no necesita ser normal, pero debe ser Tychonoff, y esta pregunta muestra que el Lema de Urysohn casi se mantiene en ese entorno. Dado que los singleton son compactos en los espacios de Tychonoff, deberíamos poder repetir el argumento. Pero no he trabajado mucho con espacios uniformes y por eso puede que me falten algunas sutilezas. Acuérdate de que tienes la capacidad de agregar una reseña si te fue de ayuda.
Reseñas y puntuaciones del tutorial