Plastie

Définition 

Terme désignant l'intervention chirurgicale ayant pour but de réparer un tissu (ensemble de cellules constituant un organe), un organe, une partie du corps dans son fonctionnement ou sa morphologie (forme, conformation, aspect général).

Aucun commentaire pour "Plastie"

Commentez l'article "Plastie"