Définition : Contrat de travail

Un contrat de travail est un document écrit qui définit les conditions d’emploi entre un employeur et un salarié. Il précise notamment la nature du poste, la durée du travail, la rémunération, les avantages sociaux, les responsabilités et les obligations de chacune des parties. Le contrat de travail est obligatoire pour tout salarié et doit être signé avant le début de l’activité professionnelle. Il peut être à durée déterminée ou indéterminée, selon les besoins de l’entreprise et les accords entre les deux parties. En cas de modification des conditions de travail, un avenant au contrat de travail peut être rédigé et signé par les deux parties. Le contrat de travail est un élément essentiel pour garantir les droits et les devoirs de l’employeur et du salarié dans le cadre de leur relation professionnelle.

Trouvez une définition RH

Generic filters
Exact matches only
Search in title
Search in content
Search in excerpt