anatomie: Bedeutung und Definitionen

FranzösischTippen Sie ein Wort ein

Was heißt anatomie?

Was heißt anatomie?

  • Science qui a pour objet l'étude de la forme et de la structure des êtres organisés, et celle des rapports des organes qui les constituent : Anatomie humaine, anatomie végétale.
  • Forme extérieure du corps considéré sous son aspect esthétique ou athlétique : Une belle anatomie.

Wörter suchen

Verbessern Sie Ihr Erlebnis