viernes, 12 de febrero de 2016

Homeostasis

La homeostasis (del griego homos (ὅμος), ‘similar’,1 y stasis (στάσις), ‘estado’, ‘estabilidad’)2 es una propiedad de los organismos vivos que consiste en su capacidad de mantener una condición interna estable compensando los cambios en su entorno mediante el intercambio regulado de materia y energía con el exterior (metabolismo). Se trata de una forma de equilibrio dinámico que se hace posible gracias a una red de sistemas de control realimentados que constituyen los mecanismos de autorregulación de los seres vivos. Ejemplos de homeostasis son la regulación de la temperatura y el balance entre acidez y alcalinidad (pH).
El concepto fue aplicado por Walter Cannon en 1926,3 en 19294 y en 1932,5 6 para referirse al concepto de medio interno (milieu intérieur), publicado en 1865 porClaude Bernard, considerado a menudo el padre de la fisiología.


Tradicionalmente se ha aplicado en biología pero, dado el hecho de que no solo lo biológico es capaz de cumplir con esta definición, otras ciencias y técnicas han adoptado también este término.7

Entropía

En el ámbito de la teoría de la información la entropía, también llamada entropía de la información y entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de información.
La entropía también se puede considerar como la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información; por ejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabras frecuentes como "que", "el", "a" aportan poca información, mientras que palabras menos frecuentes como "corren", "niño", "perro" aportan más información. Si de un texto dado borramos un "que", seguramente no afectará a la comprensión y se sobreentenderá, no siendo así si borramos la palabra "niño" del mismo texto original. Cuando todos los símbolos son igualmente probables (distribución de probabilidad plana), todos aportan información relevante y la entropía es máxima.


El concepto entropía es usado en termodinámicamecánica estadística y teoría de la información. En todos los casos la entropía se concibe como una "medida del desorden" o la "peculiaridad de ciertas combinaciones". La entropía puede ser considerada como una medida de la incertidumbre y de la información necesarias para, en cualquier proceso, poder acotar, reducir o eliminar la incertidumbre. Resulta que el concepto de información y el de entropía están básicamente relacionados entre sí, aunque se necesitaron años de desarrollo de la mecánica estadística y de la teoría de la información antes de que esto fuera percibido.

Informacion



La información es un conjunto organizado de datos procesados, que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe dicho mensaje. Existen diversos enfoques para el estudio de la información:
  • En biología, la información se considera como estímulo sensorial que afecta al comportamiento de los individuos
  • En computación y teoría de la información, como una medida de la complejidad de un conjunto de datos.
  • En comunicación social y periodismo, como un conjunto de mensajes intercambiados por individuos de una sociedad con fines organizativos concretos.
Los datos sensoriales una vez percibidos y procesados constituyen una información que cambia el estado de conocimiento, eso permite a los individuos o sistemas que poseen dicho estado nuevo de conocimiento tomar decisiones pertinentes acordes a dicho conocimiento.
Desde el punto de vista de la ciencia de la computación, la información es un conocimiento explícito extraído por seres vivos o sistemas expertos como resultado de interacción con el entorno o percepciones sensibles del mismo entorno. En principio la información, a diferencia de los datos o las percepciones sensibles, tienen estructura útil que modificará las sucesivas interacciones del que posee dicha información con su entorno.

Sistema

Un sistema es un objeto complejo cuyos componentes se relacionan con al menos algún otro componente; puede ser material o conceptual. Todos los sistemas tienen composición, estructura y entorno, pero sólo los sistemas materiales tienen mecanismo, y sólo algunos sistemas materiales tienen figura.