Définition
responsabilité(nom, féminin) Obligation ou devoir de répondre de ses actes et d'en assumer les conséquences, notamment dans le cadre de ses engagements ou de ses fonctions
La responsabilité implique la conscience de l'impact de nos actions sur les autres et sur l'environnement
- "En tant que délégué de classe, il assume ses responsabilités avec sérieux"
- "Les parents ont la responsabilité de l'éducation de leurs enfants"
- "Prendre soin de son animal de compagnie est une grande responsabilité"