Energiefluß und Informationsfluß als komplementäre Anteile jeder Wechselwirkung zwischen Organismus und Umwelt

Helgoland Marine Research, Dec 1966

One can formulate the statement contained in the title in two different ways, the one having a physical meaning only, the other having a biological meaning too. By using ideas of information theory the second sentence reads: In each interaction between an organism and its environment a flow of energy and a flow of information may be distinguished as different aspects of the same process. In connection with the proposed formulation of a new definition for “stimulus” it is to be recognized the use of the above sentence is advantageous. This will be illustrated by two ecological examples.

A PDF file should load here. If you do not see its contents the file may be temporarily unavailable at the journal website or you do not have a PDF plug-in installed and enabled in your browser.

Alternatively, you can download the file locally and open with any standalone PDF reader:

https://link.springer.com/content/pdf/10.1007%2FBF01611624.pdf

Energiefluß und Informationsfluß als komplementäre Anteile jeder Wechselwirkung zwischen Organismus und Umwelt

Energiefluf und Informationsfluf als komplement ire Anteile jeder Wechselwirkung zwischen Organismus und Umwelt 0 Biophysikalische Forschungsstelle Wien , Wien, Osterreich Energy flow and information flow as complementary parts of every interaction between organism and environment. One can formulate the statement contained in the title in two different ways, the one having a physical meaning only, the other having a biological meaning too. By using ideas of information theory the second sentence reads: In each interaction between an organism and its environment a flow of energy and a flow of information may be distinguished as different aspects of the same process. In connection with the proposed formulation of a new definition for "stimulus" it is to be recognized the use of the above sentence is advantageous. This will be illustrated by two ecoIogicaI examples. - D E F I N I T I O N E N I n f o r m a t i o n s t h e o r e t i s c h e G r u n d b e g r i f f e Ffir eine Reihe der abiotischen Faktoren ist die aufgestellte Behauptung auch in ihrer sch~trferen Formulierung relativ leicht verst~ndlich. Zur sachgerechten Behandlung dieser Frage erscheint es aber wichtig, die Begriffe ,,Nachricht", ,,Zeichen", ,,Informationsgehalt", ,,Informationsflul~" (fiir deren eingehendere Behandlung vor aliem auf ZeMANEK1959 und MOLTER1964 verwiesen sei) und einige ~ihnliche einerseits und den Begriff ,,Reiz" andererseits n~iher zu betrachten. Betont sei, daf~ es sich bei der ersten Gruppe nur um Erl~iuterungen handeln kann, die ftir den vorliegenden Zwe& voraussi&tli& ausreichen. Eine ,Nachricht" ist eine Kombination yon ,,Zeichen" (eine ,,Zei&enserie") aus einem ,,Alphabet" (oder einer ,,Liste der Zei&en"), die zur Ubermittlung zwischen einem ,Referenten" und einem ,,Empfiinger" bestimmt ist. Als Referent wird hierbei das verstanden, worauf im Zeichen verwiesen wird, also entweder was es anzeigt (,,Quelle") oder was es bezeichnet (,,Bedeutung"). Unter Empf~inger wird ein Bewuf~tsein oder ein ~iquivalentes (bewufgtseinsanaloges) System verstanden. Als Zei&en zu verstehen sind die verschiedensten Arten yon Buchstaben, Ziffern, Satzzeichen, Figuren, Mustern oder Rhythmen beziehungsweise ganz allgemein alle raumzeitlichen Strukturen, die der Empf~inger zu unterscheiden und zu ordnen vermag. Das Alphabet oder die Liste der Zeichen ist die dutch Obereinkommen festgetegte Gesamtheit der Zeichen. Die dur& ein Zei&en iibertragene ,,Information" (sein ,,Informationsgehalt") h~ingt ab yon der Wahrscheinlichkeit beziehungsweise Unwahrs&einlichkeit seines Auftretens an einer bestimmten Stelle (also yon der HS.ufigkeit seines Auftretens in den Zei&enserien oder - ha& M~yrr,-Evvrt~r. [1959, p. 62] - seiner Belegungsdichte) . Der ha& MrYrR-EPvLER einem b e s t i m m t e n Zei&en zuzuordnende ,,partielle Informationsgehalt" H(b) hat also der Beziehung zu geniigen: H(b) = f ( 7 ) wobei Pb die Wahrscheinlichkeit (relative H~tufigkeit, Belegungsdichte) des bestimmten Zeichens und f eine monoton wachsende Funktion sei. Aus verschiedenen Grtinden wird atlgemein eine togarithmis&e Funktion als ad~iquat empfunden, und zwar wird heute praktisch ansschlie~lich der Logarithmus zur Basis 2 (Logarithmus dualis = ld) verwendet: H ( b ) = l d 1 _ ldpb Pb (vgl. auf~er MeYEt-EvvLERauch M/2LLER1964, Stichwort ,,Information"). Wird nach dem ,,(mittleren) Informationsgehalt" eines b eli e b i g e n Zeichens H(Z) gefragt, so gilt natSrlich (wenn das Alphabet k-Zeichen umfaf~t) : 1 -1 Pi 1 P~ " l n W H ( Z ) = Pi" ld k Z i = 1 k Z i = 1 P i " ldpi n . k 27 p~. ldp~ i = 1 Der Informationsgehait einer aus n-Zeichen bestehenden Nachridat (Zeichenserie) betdigt dann: k H ( n Z ) = n - Z Pi" ld i = 1 Da die BOLTZ~aANNSCheEntropieformel S = k tauter (wobei In = Logarithmus naturalis, W = thermodynamische Wahrscheinlichkeit, das heii~t die Anzahl von gleichwahrscheinIichen mikroskopischen Realisierungsm/Sglichkeiten eines makroskopischen Zustandes [WrsTVHAL1952, Stichwort ,,BoltzmannPrinzip"], k = Boltzmann-Konstante) , wird ,,Information" h~iufig mit ,,Entropie" in Verbindung gesetzt. Da zunehmende Entropie ein Mat~ fiJr zunehmende Ungeordnetheit, zunehmende Information ein Maig fiir zunehmende Ordnung ist, wurde yon BI~ILLOUIN(1956) der Informationsgehalt mit der negativen Entropie oder Negentropie gleichgesetzt. Auch WIENEr, (1963) sagt (p. 100): . . . . und diese Information stellt . . . eine negative Entropie dar." Ebenso sagt WALLIS(1963 , p. 74): ,,Entscheidend ist die Aquivalenz yon Information und negativer Entropie, Br,ILLOUINS ,Negentropieprinzip'." Leider setzte SHANNON, der nach ZEMANrK (1959, p. 48) ,,die Ungeordnetheit der Informationsquelle im Auge" hatte, ,,Informationsgehak" mit ,,Entropie" gleich (was auch von ZEMANEKbedauert wird). Natiirlich folgten vor allem die amerikanischen Nachrichtentechniker in breiter Front, so dafg MrYEr,-EvvrEr, (1959, p. 61) resigniert: ,,Da die Bezeichnung (Entropie) sich jedoch in der Na (...truncated)


This is a preview of a remote PDF: https://link.springer.com/content/pdf/10.1007%2FBF01611624.pdf

Helmut Knötig. Energiefluß und Informationsfluß als komplementäre Anteile jeder Wechselwirkung zwischen Organismus und Umwelt, Helgoland Marine Research, 1966, pp. 279-290, Volume 14, Issue 1-4, DOI: 10.1007/BF01611624