Le contrat de travail : ce qu’il faut savoir

Le contrat de travail établit les termes de la relation d’un employé avec son employeur. Il est la justification écrite des obligations qui lient un salarié à son employeur et inversement. Découvrez ici davantage le contrat de travail et son utilité.

Le contrat de travail doit-il toujours être écrit ?

Le contrat de travail doit respecter le droit des cadres

The post Le contrat de travail : ce qu’il faut savoir appeared first on Destination Bretagne.