anatomie: signification et définitions

FrançaisSaisir un mot

Qu'est-ce qu'un anatomie?

  • Science qui a pour objet l'étude de la forme et de la structure des êtres organisés, et celle des rapports des organes qui les constituent : Anatomie humaine, anatomie végétale.
  • Forme extérieure du corps considéré sous son aspect esthétique ou athlétique : Une belle anatomie.