Le droit du travail est la branche du droit qui régit les rapports individuels et collectifs entre
employeurs et travailleurs. Il a pour objectifs de protéger les travailleurs contre les abus du
patronat, de garantir leurs droits et d’affermir leur sécurité dans le travail.
