Natur
Viel Natürlichkeit im Wisentgehege bei Springe (Fotos Christel Wolter)
Für die Deutschen spielte der Wald schon immer eine bedeutende Rolle. Eng verwoben war er mit der Romantik. Wald bedeutete Einsamkeit, Natürlichkeit, Unberührtheit. In den Wäldern durfte die Natur wirklich Natur sein. Heute ist das anders. Natürliche Wälder gibt es in Deutschland so gut wie gar nicht mehr. Forstwälder beherrschen die Landschaft. Leider oft monotone Fichten- und Kiefernwälder. Und nur die allerwenigsten Bäume dürfen in deutschen Wäldern noch alt werden. Doch gerade diese sind...