Energiefluß und Informationsfluß als komplementäre Anteile jeder Wechselwirkung zwischen Organismus und Umwelt
Energiefluf und Informationsfluf als komplement ire Anteile jeder Wechselwirkung zwischen Organismus und Umwelt
0 Biophysikalische Forschungsstelle Wien , Wien, Osterreich
Energy flow and information flow as complementary parts of every interaction between organism and environment. One can formulate the statement contained in the title in two different ways, the one having a physical meaning only, the other having a biological meaning too. By using ideas of information theory the second sentence reads: In each interaction between an organism and its environment a flow of energy and a flow of information may be distinguished as different aspects of the same process. In connection with the proposed formulation of a new definition for "stimulus" it is to be recognized the use of the above sentence is advantageous. This will be illustrated by two ecoIogicaI examples.
-
D E F I N I T I O N E N
I n f o r m a t i o n s t h e o r e t i s c h e
G r u n d b e g r i f f e
Ffir eine Reihe der abiotischen Faktoren ist die aufgestellte Behauptung auch in
ihrer sch~trferen Formulierung relativ leicht verst~ndlich. Zur sachgerechten
Behandlung dieser Frage erscheint es aber wichtig, die Begriffe ,,Nachricht", ,,Zeichen",
,,Informationsgehalt", ,,Informationsflul~" (fiir deren eingehendere Behandlung vor aliem
auf ZeMANEK1959 und MOLTER1964 verwiesen sei) und einige ~ihnliche einerseits und
den Begriff ,,Reiz" andererseits n~iher zu betrachten. Betont sei, daf~ es sich bei der
ersten Gruppe nur um Erl~iuterungen handeln kann, die ftir den vorliegenden Zwe&
voraussi&tli& ausreichen.
Eine ,Nachricht" ist eine Kombination yon ,,Zeichen" (eine ,,Zei&enserie") aus
einem ,,Alphabet" (oder einer ,,Liste der Zei&en"), die zur Ubermittlung zwischen
einem ,Referenten" und einem ,,Empfiinger" bestimmt ist. Als Referent wird hierbei
das verstanden, worauf im Zeichen verwiesen wird, also entweder was es anzeigt
(,,Quelle") oder was es bezeichnet (,,Bedeutung"). Unter Empf~inger wird ein
Bewuf~tsein oder ein ~iquivalentes (bewufgtseinsanaloges) System verstanden.
Als Zei&en zu verstehen sind die verschiedensten Arten yon Buchstaben, Ziffern,
Satzzeichen, Figuren, Mustern oder Rhythmen beziehungsweise ganz allgemein alle
raumzeitlichen Strukturen, die der Empf~inger zu unterscheiden und zu ordnen
vermag. Das Alphabet oder die Liste der Zeichen ist die dutch Obereinkommen
festgetegte Gesamtheit der Zeichen.
Die dur& ein Zei&en iibertragene ,,Information" (sein ,,Informationsgehalt")
h~ingt ab yon der Wahrscheinlichkeit beziehungsweise Unwahrs&einlichkeit seines
Auftretens an einer bestimmten Stelle
(also yon der HS.ufigkeit seines Auftretens in den
Zei&enserien oder - ha& M~yrr,-Evvrt~r. [1959, p. 62] - seiner Belegungsdichte)
. Der
ha& MrYrR-EPvLER einem b e s t i m m t e n Zei&en zuzuordnende ,,partielle
Informationsgehalt" H(b) hat also der Beziehung zu geniigen:
H(b) = f ( 7
)
wobei Pb die Wahrscheinlichkeit (relative H~tufigkeit, Belegungsdichte) des bestimmten
Zeichens und f eine monoton wachsende Funktion sei.
Aus verschiedenen Grtinden wird atlgemein eine togarithmis&e Funktion als
ad~iquat empfunden, und zwar wird heute praktisch ansschlie~lich der Logarithmus
zur Basis 2 (Logarithmus dualis = ld) verwendet:
H ( b ) = l d 1 _ ldpb
Pb
(vgl. auf~er MeYEt-EvvLERauch M/2LLER1964, Stichwort ,,Information").
Wird nach dem ,,(mittleren) Informationsgehalt" eines b eli e b i g e n Zeichens
H(Z) gefragt, so gilt natSrlich (wenn das Alphabet k-Zeichen umfaf~t) :
1
-1
Pi
1
P~
" l n W
H ( Z ) =
Pi" ld
k
Z
i = 1
k
Z
i = 1
P i " ldpi
n .
k
27 p~. ldp~
i = 1
Der Informationsgehait einer aus n-Zeichen bestehenden Nachridat (Zeichenserie)
betdigt dann:
k
H ( n Z ) = n - Z Pi" ld
i = 1
Da die BOLTZ~aANNSCheEntropieformel
S = k
tauter
(wobei In = Logarithmus naturalis, W = thermodynamische Wahrscheinlichkeit,
das heii~t die Anzahl von gleichwahrscheinIichen mikroskopischen
Realisierungsm/Sglichkeiten eines makroskopischen Zustandes [WrsTVHAL1952, Stichwort
,,BoltzmannPrinzip"], k = Boltzmann-Konstante)
, wird ,,Information" h~iufig mit ,,Entropie"
in Verbindung gesetzt. Da zunehmende Entropie ein Mat~ fiJr zunehmende
Ungeordnetheit, zunehmende Information ein Maig fiir zunehmende Ordnung ist, wurde
yon BI~ILLOUIN(1956) der Informationsgehalt mit der negativen Entropie oder
Negentropie gleichgesetzt. Auch WIENEr, (1963) sagt (p. 100): . . . . und diese
Information stellt . . . eine negative Entropie dar." Ebenso sagt
WALLIS(1963
, p. 74):
,,Entscheidend ist die Aquivalenz yon Information und negativer Entropie, Br,ILLOUINS
,Negentropieprinzip'." Leider setzte SHANNON, der nach ZEMANrK (1959, p. 48) ,,die
Ungeordnetheit der Informationsquelle im Auge" hatte, ,,Informationsgehak" mit
,,Entropie" gleich (was auch von ZEMANEKbedauert wird). Natiirlich folgten vor allem
die amerikanischen Nachrichtentechniker in breiter Front, so dafg MrYEr,-EvvrEr, (1959,
p. 61) resigniert: ,,Da die Bezeichnung (Entropie) sich jedoch in der Na (...truncated)