Qu’est-ce qu’une carie dentaire ?

Qu’est-ce qu’une carie dentaire ?

Définition   La carie est une maladie infectieuse d’origine bactérienne qui détruit progressivement la dent par déminéralisation de ses tissus durs. Elle évolue toujours de l’extérieur vers l’intérieur de la dent en formant une cavité. Qu’est-ce...