Définition : Médecine du travail

La médecine du travail est une branche de la médecine qui vise à prévenir les risques professionnels et à protéger la santé des salariés au sein de leur environnement de travail. Elle est également chargée de veiller à l’adaptation du travail aux capacités physiques et mentales des employés, ainsi qu’à la prévention des accidents du travail et des maladies professionnelles. Les médecins du travail sont en charge de réaliser des visites médicales régulières et de conseiller les employeurs sur les mesures à prendre pour garantir la santé et la sécurité des salariés. La médecine du travail est donc un élément essentiel de la gestion des ressources humaines au sein d’une entreprise.

Trouvez une définition RH

Generic filters
Exact matches only
Search in title
Search in content
Search in excerpt