1.1. Was ist eigentlich Information? history menue Letztmalig dran rumgefummelt: 19.08.13 08:29:59

Der Informationsbegriff zählt zu einem der abstraktesten und am schwersten zugänglichen Sachverhalte überhaupt. Das Problem wird schon bei der philosophischen Einordnung, dem Versuch der K1assifizierung, sichtbar. Demnach steht die Information innerhalb des Materiebegriffes neben Stoff und Energie, ist aber in keiner Weise mit beiden vergleichbar. Keine Einigung kann dabei erzielt werden, ob die Information
  • kein Objekt (VÖLZ 1976),
  • ein Objekt neben der Materie (KRESCHNAK 1968)
  • eine Eigenschaft der Materie (URSUL 1970) oder eine Beziehung der Materie (MASER 1972)

ist. Informationstheoretiker betrachten sie mehr von der mathematischen Seite als ein Maß für die Zunahme der Wahrscheinlichkeit des Eintreffens eines bestimmten Ereignisses. Als erschwerend kommt hinzu, dass fast alle Wissenschaften mit dem Begriff der Information umgehen und sich dazu eine eigene Anschanungperspektive geschaffen haben. Das könnte die Vermutung aufkommen lassen, dass es verschiedene Informationshegriffe gibt. Dies ist nicht der Fall versuchen doch die einzelnen Wissenschaftsdisziplinen nur, den „umfassenden Informationsbegriff“ auf ihre Spezifik hin zu präzisieren.

Rost 1982

lat. informare „bilden“, „eine Form geben“ - weitläufig verwendeter, schwer abzugrenzender Begriff (Semiotik, Informatik, Philosophie, ...)
Allgemeine Definition: Information ist handlungsorientiertes Wissen über vergangene, gegenwärtige und zukünftige Zustände und Ereignisse in der Wirklichkeit. Sie drückt einen Sachverhalt aus, dient einem Zweck oder löst eine Aktion aus. Sie umfasst eine Nachricht zusammen mit ihrer Bedeutung für ihren Empfänger.
Definition aus Nachrichtentechnik (Claude E. Shannon, 1948) bedeutsam für Computertechnik
Shannon begründete mathematische Informationstheorie Nachrichtentechnik: Information als Wahrscheinlichkeit des Auftretens bestimmter Folgen von Elementen aus einer Menge.
Information als quantitatives Maß der Wahrscheinlichkeit des Auftretens von Ereignissen

1. Definitionsversuch
2. ... wir einigen uns für die Informatik
3. Informationstheorie nach Shannon
4. Informationsdarstellung
5. Verwandte Themen

die Informatikseiten

Logo für den Informationsbegriff

inhaltlich auf korrektem Stand - evtl. partiell unvollständig ;-)

Wissen für Fortgeschrittene der Informatik

Quellen:
Und ein weiterer Blick hierauf
Information war schon immer auch von politischer und/oder finanzieller Bedeutung, denn zu wissen, wo was am billigsten verkauft wird, spart ja echt Geld, andererseits hat zum Beispiel das Entschlüsseln der Funksprüche der Wehrmacht im II. Weltkrieg durch die Briten kriegsentscheidende Bedeutung gehabt. Ein zu wenig an Information ist immer schädlich, aber auch ein "zu viel" Information kann schädlich sein! Andererseits kann man sicher vorhandene Informationen auch "fehlinterpretieren" - siehe Agathe Bauer-Songs ;-)

Zeitschrift LOGIN

Informationsbegriff für Anfänger

Basiswissen der Informatik

vom Binärsystem zu den HEX-Zahlen für Afänger

Basiswissen der Informatik

Zahlensysteme für Fortgeschrittene

Wissen für Fortgeschrittene der Informatik


1. Definitionsversuche history menue scroll up

Der Versuch einer Definition kann nichts weiter sein, als aus dem Gesagten so etwas wie einen Extrakt herauszufiltern, was insofern schon schwer, da es sich jeweils schon um Kerngedanken und Leitbemerkungen handelt. Unter 2. gehen wir dieses dann an.
„Information ist zwar stets an Stoff und Energie gebunden, stellt aber eine neue Qualität derselben dar. Die Lebensmöglichkeit ist mit dem Austausch von Stoff und Energie verknüpft, während zur Schaffung und Aufrechterhaltung des organisierten Systems der Austausch von Informationen notwendig ist.“
... und:
„Auch in der anorganischen Natur gibt es einen Informationsaustausch, jedoch unterliegt er dort keiner Dechiffrierung.“
... und weiter:
„Bisher ist es nicht gelungen, einen einheitlichen, für alle Bereiche unserer Umwelt gültigen Informationsbegriff zu finden, so dass es in den einzelnen Wissenschaftsdisziplinen, wie z. b. in der Psychologie, der Soziologie, der Physik, der Mathematik oder der Technik zweckmäßige Einschränkungen und Ergänzungen dazu gibt, die sich in der Praxis bewährt und damit bestätigt haben.“ /1/ S. 15ff.
„Der Informationsbegriff ist heute noch nicht festlegbar, seine Bestimmung aber notwendig! Mit Hilfe philosophischer Kategorien müssen seine kausalen und funktionalen Zusammenhänge bestimmt werden.“ ... und: „Information ist Träger und Getragenes.“ /2/
„Information ist eine zielgerichtete, für den Empfänger verständliche Mitteilung, insbesondere über Werte von Größen.“ /3/
„Information ist eine notwendige Beziehung, die Menschen unter sich oder zu anderen Objekten eingehen, um Erkenntnisse über objektive Zusammenhänge zu erlangen, entsprechende Verhaltensweisen anzunehmen, und bewusst sowie zielgerichtet Veränderungen in Natur und Gesellschaft herbeiführen zu können.“ ... und: „Information realisiert sich nur als Prozess.“ /4/ S. 16 ff.
„Information ist ein neues Wissen über ein Ereignis (einen Tatbestand, eine Entscheidung), das einem Empfänger in verständlicher Form mitgeteilt wird und eine zielgerichtete Reaktion auslöst. Die Übertragung der Information kann durch Stoff oder Energie erfolgen. Informationen kann man speichern, übertragen und verarbeiten.“ /5/ S. 32
"Nach der klassischen Informationstheorie (SHANNON) stellt die Information beseitigte Ungewissheit in Bezug auf mögliche Zustände des Senders dar und durch den Informationszuwachs erfolgt beim Empfänger eine Zunahme der Wahrscheinlichkeit für das Auftreten eines bestimmten Ereignisses.“ /6/ S. 69
„Information erfasst als Begriff eine allgemeine Eigenschaft der Materie, ihre Wiederspiegelungseigenschaft. es gibt mehrere Zugänge zum Begriff Information: Philosophische, historische, technische, sprachliche usw. Information ist ein historisch eigenständiger Begriff:
  • Entwicklung des Informationsbegriffes im 20. Jahrhundert
  • vor 1925: Information ist alles, was formt und bildet im Sinne von unterweisen
  • um 1925: in der Journalistik gebraucht, Information ist alles, was Unwissen und Nichtwissen beseitigt
  • 1945 in der Kybernetik ist Information alles, was kybernetische Systeme beeinflusst.“
  • um 1965 in der Philosophie: das Verhältnis Materie-Information wird untersucht.“

/7/

„Als Information wird zweckbezogenes Wissen bezeichnet, das ein Handelnder im Hinblick auf die Erreichung eines Zieles benötigt. Er benötigt Informationen über alle Tatsachen, die im Zusammenhang mit seinem Ziel stehen, den zur Zielerreichung einzuschlagenden Wegen, Mitteln, Verfahren und Methoden, den Größen, die auf die Zielerreichung einen Einfluss haben, damit er eine Entscheidung fällen kann, wie er das Ziel am günstigsten erreichen kann (Informationszweck). Man bezeichnet darüber hinaus auch nichtzweckbezogenes Wissen als Information, da dieses Wissen jederzeit zu zweckbezogenem Wissen werden kann, wenn sich die Beziehungen zwischen ihm und den Zielen erkennen lassen, die bisher unbekannt waren. Information stellt eine Abbildung der den Menschen umgebenden Welt und ihrer einzelnen Bestandteile und Abläufe dar, die der Mensch verwendet, um sich in ihr zurechtzufinden, sie zu erkennen und, wenn er dies auf Grund seiner Vorstellungen wünscht, den Versuch zu unternehmen, sie auch zu verändern. Die Erlangung von Information erfolgt auf zweierlei Art:
  1. Originärer Wissenserwerb durch eigene Erfahrungen
  2. Derivater Wissenserwerb durch mündliche oder schriftliche Kommunikation.

Dabei wird deutlich, dass sich originärer und derivativer Wissenserwerb nicht immer klar voneinander trennen lassen. Solange Information von individuellem Wissen in der Verfügung verbleibt, hat sie keine eigene physische Existenz. Die erhält sie erst durch die Wiedergabe eines Menschen, der sein Wissen sprachlich formuliert. Durch die sprachliche Formulierung, vor allem in der schriftlichen Form, erlangt die Information eine physische Existenz und kann auch außerhalb der Person, die sie erzeugt hat, verwendet werden. Dabei gelten für die Verwendung die gleichen Formen, die auch als Grundfunktionen der Datenverarbeitung bekannt sind, nämlich Erfassung, Übertragung in räumlicher (Transport) und zeitlicher Dimension (Speicherung) sowie Ordnung und Umformung. Ein wesentliches Merkmal der Information, das sie deutlich von Materie und Energie unterscheidet, ist der Umstand, dass Information ohne großen Aufwand dupliziert werden kann. Die Entnahme einer Information aus einem Buch, aus einem Speicher oder durch die Erklärung eines anderen Menschen lässt die Information beim Empfänger neu entstehen, ohne dass sie beim Sender verschwindet.
Allerdings werden durch die Eigenschaften der natürlichen Sprache die Grundlage jeder Informationsverselbständigung außerhalb eines menschlichen Gehirns ist, eine Reihe von Problemen verursacht, die dazu führen, dass jede sprachlich formulierte Information den Gegenstand, den sie abbilden soll, nur unvollkommen abbilden kann, da sich die Gegenstände in allen ihren Aspekten nicht vom Menschen erfassen und noch weniger sprachlich formulieren lassen. Hierfür ist im wesentlichen das Unvermögen des Menschen verantwortlich, vollständige Erkenntnisse zu gewinnen, wie z. B. die Frage, wie der Mensch Erkenntnis gewinnt, trotz intensivster Bemühungen der Philosophen und Wissenschaftstheoretiker seit mehreren tausend Jahren bis heute nicht klar beantwortet werden konnte. Das der Mensch Erkenntnis gewinnen kann ist ein Faktum, das trotz der Einwendungen der Skeptiker sonst allgemein anerkannt wird. Wie der Mensch zu Erkenntnissen kommt, hängt mit seiner Intelligenz, seiner Fähigkeit zum denken, zu lernen und Wissen zu formulieren, zusammen. Dass die Erkenntnis letztlich über die dem Menschen gegebenen fünf Sinne zustande kommt, scheint auch allgemein anerkannt zu sein, jedoch sind die Vorgänge, die im Gehirn ablaufen, wo Sinnesreize gespeichert, in bewusstes Wissen umgesetzt, in vielfältiger Weise miteinander verknüpft und schließlich in sprachliche Ausdrücke umgesetzt werden - Prozesse, die die Grundlage des menschlichen Handelns darstellen, im wesentlichen unerforscht und unbekannt. Insofern stellt die Information, so sehr der Mensch sie benötigt, um pragmatisch in seiner Umgebung handeln zu können, selbst ein nicht voll-ständig bekanntes Phänomen dar, mit dessen Verwendung eine Reihe von Problemen verbunden sind. Die einzige Möglichkeit, Information in ihrem vollen Bezug zur Realität zu verarbeiten, ist derzeit durch das menschliche Gehirn gegeben Es ist eindeutig festzuhalten, dass Rechner, die Daten, Bilder, Texte und sogar Sprache verarbeiten den Zugang zur Information nicht haben. Rechner können nur einen bestimmten Aspekt der Sprache, durch die Information außerhalb des menschlichen Gehirns darstellbar ist, nämlich mit den Zeichen arbeiten, aus denen sich Daten, Bilder, Texte und Sprache im Rechner aufbauen. sie können dies allerdings schneller und präziser als das menschliche Gehirn.
Jedoch bleibt dem Rechner trotz der Tatsache, dass er Zeichen lesen, unterscheiden, sie manipulieren, speichern und wieder ausgeben kann, der informatorische Gehalt und damit die eigentliche Information (Semantik) unzugänglich. Dies ist eine Folge der Tatsache, dass der Rechner nur mit Phänomenen umgehen kann, die eindeutig beschreibbar sind, wie das die äußere Form der Zeichen tatsächlich ist. Auch die Abläufe, die ein Rechner absolvieren kann, müssen durch Algorithmen jeweils eindeutig beschrieben werden. Das lässt sich nur hinsichtlich der Zeichen realisieren, nicht dagegen mit der Information selbst, da sie sich wegen der semantischen Unschärfe der Sprache nicht durch Algorithmen vollständig beschreiben lässt. Insofern bleibt mit der Information, die so intensiv mit unserem Wissen und unserer Erfahrung verknüpft ist, ein bisher von Menschen nicht gelöstes Geheimnis verbunden. Der Stand unserer Erkenntnis über Information, Erkenntnis, Sprache, Lernen, Intelligenz wurde durch Ludwig Wittgenstein durch den letzten Satz seiner logisch-philosophischen Abhandlung recht präzise beschrieben: "Wovon man nicht sprechen kann, darüber muss man schweigen».“ /8/ S. 1493

Informationsgehalt ist meßbar, denn nicht jedes Zeichen enthält das gleiche Maß an Information; vielmehr ist es abhängig von der Auftrittswahrscheinlichkeit. Je seltener ein Zeichen vorkommt, desto größer ist der Überraschungswert und damit auch der Informationsgehalt. Da eine Elementarentscheidung stets binär ist, wird der Informationsgehalt in Bit gemessen. Die Formel dafür lautet

wobei Pi die auf 1 bezogene Auftrittswahrscheinlichkeit darstellt. Für ein Zeichen mit 10% Auftrittswahrscheinlichkeit ist pi = 0,1 und damit der Informationsgehalt 3,322 Bit. Entscheidend ist aber nicht der Wert für ein einzelnes Zeichen, sondern der des gesamten Alphabets. Dazu sind die gewichteten Werte zu summieren, also

Auftrittswahrscheinlichkeit der einzelnen Zeichen im Deutschen

Dieser Wert heißt mittlerer Informationsgehalt oder Entropie. Der aus der Thermodynamik stammende Begriff Entropie mag in diesem Zusammenhang etwas verwundern, beschreibt aber den gleichen Sachverhalt, nämlich das Maß der Unordnung - dort bei Molekülen hier bei Zeichen in einem Text. Je gleichmäßiger die Zeichen verteilt sind, desto größer ist die Entropie und desto mehr Platz wird auch für die Kodierung benötigt. Die Entropie einer EXE-Datei liegt zwischen 6 und 7 Bit, in Texten zwischen 4 und 6 Bit und in Grafikdateien zum Teil weit darunter. Damit ist auch vorgegeben, welche Ergebnisse bei der Kompression erreicht werden können, denn unter das Maß der wirklich enthaltenen Information (und gerade das gibt die Entropie als Durchschnitt pro Zeichen an) kann nicht komprimiert werden. Die Abweichung des Kompressionsergebnisses von der errechneten Entropie stellt damit das Maß für die Güte der Kodierung dar. /9/ S. 8

das folgende verwenden auch die Kryptoanalytiker

Durchschnittliche Auftrittswahrscheinlichkeit der Buchstaben in deutschen Texten nach Bauer und Goos

Zeichen

Auftrittswahrscheinlichkeit

Leerzeichen

0,1515

e

0,1470

n

0,0884

r

0,0686

i

0,0638

s

0,0539

t

0,0473

d

0,0439

h

0,0436

a

0,0433

u

0,0319

f

0,0293

c

0,0267

g

0,0267

m

0,0213

o

0,0177

b

0,0160

z

0,0142

w

0,0142

f

0,0136

k

0,0096

v

0,0074

ü

0,0058

p

0,0050

ä

0,0049

ö

0,0025

j

0,0016

y

0,0002

q

0,0001

x

0,0001

Durchschnittliche Auftrittswahrscheinlichkeit der Bigramme in deutschen und englischen Texten nach Bauer und Goos

Bigramm engl.

Häufigkeit in %

 

Bigramm dt.

Häufigkeit in %

th

3,15

 

en

3,88

he

2,51

 

er

3,75

an

1,72

 

ch

2,75

in

1,69

 

te

2,26

er

1,54

 

de

2,00

re

1,48

 

nd

1,99

on

1,45

 

ei

1,88

es

1,45

 

ie

1,79

ti

1,28

 

in

1,67

at

1,24

 

es

1,52

Durchschnittliche Auftrittswahrscheinlichkeit der Bigramme in deutschen und englischen Texten nach Bauer und Goos

deutsch

Häufigkeit in %

 

englisch

Häufigkeit in %

ein

1,22

 

the

3,53

ich

1,11

 

ing

1,11

nde

0,89

 

and

1,02

die

0,87

 

ion

0,75

und

0,87

 

tio

0,75

der

0,86

 

ent

0,73

che

0,75

 

ere

0,69

... und häufige Tetragramme:

deutsch

icht, keit, heit, chon, chen, cher, urch, eich, ...

Aufschluss über den Ursprung des Textes kann auch die mittlere Wortlänge geben:

deutsch

5,9

 

italienisch

4,5

englisch

4,5

 

spanisch

4,4

französisch

4,4

 

russisch

6,3

... aber auch die zehn häufigsten Wörter:

deutsch

die, der, und, den, am, in, zu, ist, dass, es

englisch

the, of, and, to, a, in, that, it, is, I

französisch

de, il, le, et, que, je, la, ne, on, les

italienisch

la, di, che, il, non, si, le, una, lo, in

spanisch

de, la, el, que, en, no, con, un, se, sa

1.  Lehrmaterial zur Ausbildung von Diplomlehrern Polytechnik, Automatisierugstechnik Pädagogische Hochschule „Theodor Neubauer“ Erfurt Mühlhausen 1975
2.  Vorlesungsreihe Prof. Völz
3.  TGL 14 591 (DDR)
4.  Wissensspeicher „Grundlagen der Datenverarbeitung“, Verlag Die Wirtschaft; 1974
5.  Semrad/Otto: „Grundlagen der BMSR-Technik“, Verlag Technik Berlin 1970
6.  Heynert: „Grundlagen der Bionik“; Verlag der Wissenschaften, Berlin 1969
7.  Hering: „Technische Semiotik - Informationswissenschaften“; Lehrmaterial der Ingenieurhochschule Wismar
8.  Hans Herbert Schulze: „Computer ENZYKLOPÄDIE LEXLKON und Fremdwörterbuch für die Datenverarbeitung und Telekommunikation; Rowolth Taschenbuch-Verlag GmbH Hamburg 1993
9.  Uwe Schulze: „Datenkornpression“; Zeitschrift Miktoprozessortechnik; Verlag Technik GmbH; Heft 5/1992; S. 6 ff.


2. ... wir einigen uns auf eine Definition für die Informatik history menue scroll up

Das ist gar nicht so einfach, wie es aussieht - Problem bei der Sache: jede naturwissenschaftliche Disziplin kommt mehr oder weniger (oft mehr als sie denkt!) beim Informationsbegriff an! Aber was machen wir daraus? Jeder erwartet klare Antworten von der Informatik - es scheint ja deren Problem zu sein; Irrtum - dies betrifft uns alle!
nachteilig stellt sich dar, dass wir bis heute nicht genau wissen, was Information ist - jede Wissenschaftsdisziplin bezeichnet eine andere Definition!
Information ist eine zielgerichtete Mitteilung, welche man
  • gewinnen
  • transportieren
  • speichern
  • verarbeiten

kann!

PS: der ungeklärte Begriff lautet hier "Mitteilung"

Information ist beseitigtes Nichtwissen, welches man
  • gewinnen
  • transportieren
  • speichern
  • verarbeiten

kann, aber nicht zwingend muss!

PS: hier allerdings bleibt der Begriff "Wissen" kritisch

vorteilhaft ist, dass wir ab dieser Stelle einen alten Hauptsatz der Wissenschaft verwenden können: eine Annahme kann solange als richtig gelten, bis eindeutig nachgewiesen wurde, dass sie falsch ist!

Informationsübertragungskanal

Dowload als DigCad-Datei

     

Pioneer 10-Plakette

Informationsverlust

Informationsvorhaltezeit

Informationsverarbeitungsprozess

Wenn Informationsverarbeitung falsch, dann richtig!!!

Agahthe Bauer-Songs


3. Shannons Informationstheorie history menue scroll up
 

Claude Shannon

 


4. Informationsdarstellung history menue scroll up
Unsere heutigen Möglichkeiten zur Darstellung von Informationen sind extrem breit gefächert (das war nicht immer so), aber auch extrem empfindlich gegenüber Störeinflüssen oder meist an das Funktionieren irgendwelcher Geräte gebunden.
für Informationen existieren 4 Betrachtungsebenen
  1. Codierung
  2. Syntax
  3. Semantik
  4. Pragmatik
Groß und klein schreiben

Die Spinnen .....
Die spinnen .....

Er hat liebe Genossen!
Er hat Liebe genossen!

Wäre er doch nur Dichter!
Wäre er doch nur dichter!

Der gefangene Floh ...
Der Gefangene floh.

Manchmal auch die Betonung:

"Wollten Kevin und Chantal nicht heiraten?"
"Er wollte sie nicht." oder "Er wollte, sie nicht."


5. Verwandte Themen history menue scroll up
Überall ist es mir bisher eigentlich gelungen, zu den Verwandtschaften einen dummen Satz zu schreiben, welcher in etwa auch den Kern des Problems trifft - geht hier nicht - 's gibt keinen. Der Begriff ist derart zentral und so absolut unklar, dass es einfach keinen Blödsinn gibt, um ihn zu beschreiben. Und nun ist eigentlich wirklich alles irgendwie mit diesem Begriff verwandt.
Bereich Begriffswelt der Informatik

Signale

Nachrichten

Wissen

Systembegriff

Modellbegriff

Simulation

Denken und Sprache

Zahlen, Daten und Datentypen

Gegenläufigkeit und Verklemmung

Pattern-Matching

   
Bereich Datenfernübertragung

Datenübertragungsverfahren

OSI Referenz-Schichtenmodell

die RS232-Schnitttstelle

Tabelle des UNICODES

Kryptologie

Digitale Signale

Information, Nachricht und Signalbegriff

 

   
Daten- und Computerorganisation

Speicherung von Daten

Data Storages

Redundanz

Datenkompression

Computerviren

 
Bereich Netzwerke und Datensicherheit

Secuirty-Syteme in Netzwerken

Server-Management

Local Area Network - kurz: LAN

Netzwerkdienste

Netzwerk-Management

OSI Referenz-Layer

Netzwer-Topologie

Terminalserver

Ethernets

Bereich Kryptologie

Grundlagen der Kryptologie

Allgemeines zur Verschlüsselung

Steganografie

CÄSAR-Chiffre

Vigenère-Chiffre

der Babbage bzw. Kasiski-Test

Angriff auf den ENIGMA-Chiffre: Projekt ULTRA- oder Shark

   
Bereich Programmierungstechnik

Programme

Programmierung

Programmiersprachen

Software-Engeneering

Datentypen - sind ja auch besond're Typen gewesen ;-)

Logo der Struktogramme

EVA-Prinzip & Objekt-, Attribut-, Operatiosnbeziehung

Modultechnik

Intel-Interrupt

Problemstellungen aus dem bereich der Informatik

Worst-Case-Denken

Algorithmentheorie

Komplexität, Mächtigkeit und Aufwand

Praktische Elementaralgorithmen

Lösbarkeit und Problemlösungsstrategien

Zufall und Computer

Graphentheorie

Petri-Netze

Rekursion

Bereich Mikroprozessor- und Controllertechnik

der LC-80

POLYCOMPUTER

Z80-CPU

Mnemonic-Code-Notation

höhere Programmierwerkzeuge

... und so funktioniert ein Computer

 

die beliebte alphabetisch sortierte Schnell-Liste

die beliebte numerisch sortierte Schnell-Liste

Allgemeine FLAG-Wirkung

FLAG-Wirkung auf OP-Code-Gruppen

Alphabetisch sortierte Dokumentation

FLAG Teile I

FLAG Teile 2

Allgemeine Funktionssymbolik

Der LC-80 Simulator

Microcontroller

   


zur Hauptseite
© Samuel-von-Pufendorf-Gymnasium Flöha © Frank Rost März 1985

... dieser Text wurde nach den Regeln irgendeiner Rechtschreibreform verfasst - ich hab' irgendwann einmal beschlossen, an diesem Zirkus nicht mehr teilzunehmen ;-)

„Dieses Land braucht eine Steuerreform, dieses Land braucht eine Rentenreform - wir schreiben Schiffahrt mit drei „f“!“

Diddi Hallervorden, dt. Komiker und Kabarettist

Diese Seite wurde ohne Zusatz irgendwelcher Konversationsstoffe erstellt ;-)