anatomie

anatomie

Définition

Du grec ancien ana, "vers le haut" et tom, "couper", l'anatomie est la science de l'intérieur du corps, basée sur la dissection des organismes.

On y retrouve notamment l'étude des organes et des tissus.

  • {{name}}

    {{#street_number}}{{street_number}}, {{/street_number}}{{#route}}{{route}}{{/route}}
    {{postal_code}} {{town}}

    {{#phone}}{{phone}}{{/phone}}{{^phone}}-{{/phone}}