anatomie-Anatomie: Bedeutung, Definitionen und Übersetzungen

Französisch-Wörterbuch%dictionary_xs%Niederländisch

Was heißt anatomie?anatomie heißt Anatomie

Was heißt Anatomie?

  • Science qui a pour objet l'étude de la forme et de la structure des êtres organisés, et celle des rapports des organes qui les constituent : Anatomie humaine, anatomie végétale.
    Wetenschap die de vorm en structuur van de georganiseerde wezens wil bestuderen, en die van de relaties van de organen die ze maken: menselijke anatomie, planten anatomie.
  • Forme extérieure du corps considéré sous son aspect esthétique ou athlétique : Une belle anatomie.
    --