biologie: signification et définitions

FrançaisSaisir un mot

Qu'est-ce qu'un biologie?

  • Ensemble de toutes les sciences qui étudient les espèces vivantes et les lois de la vie.
  • Plus particulièrement,étude scientifique du cycle reproductif des espèces animales et végétales, du déroulement de la vie individuelle, par opposition à la physiologie , qui étudie les lois constantes du fonctionnement des êtres.