anatomie-Anatomy: signification, définitions et traductions

Français dictionnaire%dictionary_xs%Anglais

Qu'est-ce qu'un anatomie? anatomie est Anatomy

Qu'est-ce qu'un Anatomy?

  • Science qui a pour objet l'étude de la forme et de la structure des êtres organisés, et celle des rapports des organes qui les constituent : Anatomie humaine, anatomie végétale.
  • Forme extérieure du corps considéré sous son aspect esthétique ou athlétique : Une belle anatomie.

Rechercher des mots

Améliorez votre expérience