kolonie: Bedeutung und Definitionen

DeutschTippen Sie ein Wort ein

Was heißt kolonie?

Was heißt kolonie?

  • Politik Land oder Gebiet, das von einem (europäischen) Staat beherrscht wird eine ehemalige deutsche Kolonie
  • Biologie große Gruppe von Tieren oder Pflanzen, die eng zusammenleben Auf der Insel brüten zahlreiche Vogelkolonien.

Wörter suchen

Verbessern Sie Ihr Erlebnis