Définition
responsabilités(nom, féminin) Obligation ou devoir de répondre de ses actes et d'en assumer les conséquences, ainsi que de s'acquitter des tâches qui nous sont confiées
La responsabilité implique la conscience de l'impact de nos actions sur les autres et sur notre environnement
- "Les élèves ont la responsabilité de faire leurs devoirs"
- "Le capitaine d'équipe assume la responsabilité des décisions prises"
- "Chaque citoyen a des responsabilités envers la société"