Saltar al contenido

¿Cómo se relaciona la información con la energía en física?

Indagamos en distintos espacios para regalarte la respuesta a tu duda, si tienes inquietudes deja tu duda y contestamos con mucho gusto.

Solución:

Si se mide la falta de información por la entropía (como es habitual en la teoría de la información) y la equipara con la entropía en termodinámica, entonces las leyes de la termodinámica dicen todo lo contrario: en un sistema aislado mecánica, química y térmicamente descrito en la aproximación hidrodinámica, la energía se conserva mientras que se puede crear entropía, es decir, la información se puede perder. (En una descripción hamiltoniana microscópica exacta, el concepto de información no tiene sentido, ya que asume una descripción burda en la que no se sabe todo).

La visión principal de la física (aparte de las especulaciones sobre la física futura que aún no se pueden verificar mediante experimentos) es que en el nivel más fundamental se conserva la energía (como consecuencia de la simetría de traducción del universo), mientras que la entropía es un concepto de la mecánica estadística. eso es aplicable sólo a los cuerpos macroscópicos y constituye una aproximación, aunque a escala humana muy buena.

A diferencia de @ArnoldNeumaier, yo diría que el contenido de información del mundo podría Sea constante: es casi seguro que no puede hacerse más pequeño y cómo y si se agranda depende de la resolución de preguntas sobre la interpretación correcta de lo que sucede exactamente cuando se hace una medición cuántica. Dejaré a un lado lo último (resolución de la interpretación cuántica) y, en su lugar, discutiré situaciones en las que la información es realmente constante. Vea aquí la definición de “información”: la información en una cosa es esencialmente el tamaño en bits del documento más pequeño que uno puede escribir y aún así definir de manera única esa cosa. Para el caso especial de un estadísticamente independiente string de símbolos, la información de Shannon es la media de los logaritmos negativos de sus probabilidades $ p_j $ de aparición en un infinito string:

$ H = – sum_j p_j log p_j $

Si la base del logaritmo es 2, H está en bits. ¿Cómo se relaciona esto con el documento de definición más pequeño para el string se define en el teorema de codificación silenciosa de Shannon.

En la interpretación de MaxEnt de la segunda ley de la termodinámica, promovida por ET Jaynes (también del modelo de Jaynes-Cumming para el átomo de dos niveles con una fama de interacción de modo de campo electromagnético), la entropía “observable” o “experimental” habitual $ S_ exp $ (esto es lo que produce la fórmula de Boltzmann H) de un sistema comprende lo que yo llamaría true Información de Shannon, o complejidad de Kolmogorov, $ S_ Sha $, más la información mutua $ M $ entre los estados desconocidos de subsistemas distinguibles. En un gas, $ M $ mide la predictibilidad de estados de partículas condicionada al conocimiento sobre los estados de otras partículas, es decir es una medida logarítmica de correlación estadística entre partículas:

$ S_ Exp = S_ Sha + M $ (consulte esta referencia, así como muchos otros trabajos de ET Jaynes sobre este tema)

$ S_ Sha $ es la información mínima en bits necesaria para describir un sistema, y ​​es constante porque las leyes básicas de la física son reversibles: el Mundo, por lo tanto, tiene que “recordar” cómo deshacer cualquier evolución de su estado. $ S_ Sha $ no se puede medir en general y, de hecho, incluso dada una descripción completa del estado del sistema, $ S_ Sha $ no es computable (es decir, no se puede calcular la compresión máxima reversible de esa descripción). La fórmula de la entropía de Gibbs calcula $ S_ Sha $ donde se conoce la función de densidad de probabilidad conjunta para el estado del sistema.

La entropía experimental (Boltzmann) permanece constante en un proceso reversible y aumenta en uno irreversible. La “prueba” de Jaynes de la segunda ley asume que un sistema comienza con todos sus subsistemas no correlacionados y, por lo tanto, $ S_ Sha = S_ exp $. En este estado supuesto, los subsistemas son todos perfectamente independientes estadísticamente. Después de un cambio irreversible (por ejemplo, se permite que un gas se expanda a un recipiente más grande abriendo un grifo, las partículas ahora están sutilmente correlacionadas, de modo que su información mutua $ M> 0 $. Por lo tanto, se puede ver que la entropía observable $ S_ exp $ debe subir. Esto pone fin a la prueba de Jaynes.

Consulte también esta respuesta, para obtener una excelente descripción de los cambios de entropía un cambio irreversible. La pregunta también es relevante para ti.

La energía casi no tiene relación con la información, sin embargo, existe un límite inferior en el trabajo que se debe hacer para “olvidar” la información en un algoritmo no reversible: este es el límite de Landauer y surge para mantener la segunda ley de la termodinámica simplemente porque cualquier información debe estar codificado en el estado de un sistema físico: no hay otra “tinta” para escribir en el mundo material. Por lo tanto, si deslizamos la memoria de la computadora, la complejidad de Kolmogorov del estado anterior de la memoria debe ser empujada hacia el estado del mundo circundante.

Epílogo: Debo declarar parcialidad diciendo que suscribo muchas de las ideas de la interpretación de MaxEnt, pero no estoy de acuerdo con la “prueba” de Jaynes de la segunda ley. No hay problema con la lógica de Jayne, pero (Autor, es decir, Mi opinión): después de un cambio irreversible, los subestados del sistema están correlacionados y uno tiene que describir cómo se desvinculan de nuevo antes de poder aplicar el argumento de Jaynes nuevamente. Entonces, lamentablemente, no creo que tengamos una prueba de la segunda ley aquí.

La energía es la relación entre los regímenes de información. Es decir, la energía se manifiesta, en cualquier nivel, entre estructuras, procesos y sistemas de información en todas sus formas, y todas las entidades de este universo están compuestas de información. Para comprender la información y la energía, considere un universo hipotético que consta solo de la nada. En este universo, imagina la presencia de la más pequeña y fundamental instancia de deformación posible que constituye una partícula en este prístino firmamento de la nada. Imagine que solo hay una instancia de esta partícula fundamental y llamémosla PP de Partícula de Planck. No se sabe qué causó la existencia de este PP, pero la existencia del PP constituye la existencia de un Planck-Bit (PB) de información. Resista la tentación de declarar que la energía es lo que hizo que existiera nuestro único PP. En esta analogía, como en nuestra realidad, el ‘big’ bang que produjo nuestro único PP no es diferente del big bang que causó nuestro universo conocido en que ninguno puede describirse en términos de ninguna relación o régimen energético conocido por las leyes de la física. en este universo.

Este PB representa la manifestación más fundamental de información posible en este universo. Por lo tanto, la única energía que existe en este universo conceptual será descrita por la relación (existe esa palabra nuevamente) entre el PP solitario y el resto del firmamento de la nada que describe su universo. Llame a esta energía un cuanto de Planck (PQ). Tenga en cuenta que este PQ de energía en este universo solo existe en virtud de la existencia del PP solo en relación con la nada circundante. Con un solo PP hay pocas descripciones de energía que se puedan describir. No hay energía cinética, no hay energía potencial, no hay gravedad, no hay energía atómica o nuclear, no hay entropía, no hay termodinámica, etc. Sin embargo, habrá algunas relaciones muy fundamentales pertenecientes a los grados de libertad definidos por nuestro PP en comparación con el entorno sombrío que puede describirse como energía.

Si ahora introducimos un segundo PP en nuestro universo disperso, ahora puede definir más regímenes de relaciones y energía dentro de nuestro universo conceptual en crecimiento, y formular teorías y ecuaciones dignas de un Nobel que describan estas relaciones. La energía cinética se manifiesta repentinamente cuando la relación de distancia entre nuestros PP solitarios surge repentinamente. Asimismo, la energía tal como la conocemos describe las relaciones manifestadas entre los regímenes de información que pueden describirse mediante el lenguaje de las matemáticas.

Aquí tienes las reseñas y puntuaciones

Si sostienes algún recelo y disposición de arreglar nuestro sección puedes añadir una aclaración y con placer lo ojearemos.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *