Accéder au contenu principal

Articles

Affichage des articles du mai 29, 2018

Définition du positivisme

Qu'est ce que le positivisme? Le positivisme désigne un ensemble de courant qui considère que seules l'analyse et la connaissance des faits vérifiés par l'expérience peuvent expliquer les phénomènes du monde. La certitude est fournie exclusivement par l'expérience scientifique. Il rejette  l'introspection, l'intuition et toute approche métaphysique pour expliquer la connaissance des phénomènes.