anatomie-Anatomie: Bedeutung, Definitionen und Übersetzungen

Französisch-Wörterbuch%dictionary_xs%Deutsch

Was heißt anatomie? anatomie heißt Anatomie

Was heißt Anatomie?

  • Science qui a pour objet l'étude de la forme et de la structure des êtres organisés, et celle des rapports des organes qui les constituent : Anatomie humaine, anatomie végétale.

    Wissenschaft, deren Gegenstand das Studium der Form und Struktur der organisierten Wesen und der Beziehungen der Organe, aus denen sie bestehen, ist: die menschliche Anatomie, die pflanzliche Anatomie.

  • Forme extérieure du corps considéré sous son aspect esthétique ou athlétique : Une belle anatomie.

    Äußere Form des Körpers in seiner ästhetischen oder sportlichen Aspekt: Eine schöne Anatomie.

Wörter suchen

Verbessern Sie Ihr Erlebnis