anatomía: significado y definiciones

EspañolEscribe una palabra

Qué es anatomía?

  • f. biol. y med. Ciencia que estudia la forma y estructura externa e interna de los seres vivos, y especialmente del cuerpo humano: anatomía humana, comparada.