Terre des Hommes France - pour le droit à vivre dignes
Créée en 1963, Terre des Hommes France est une association de solidarité internationale reconnue d’utilité publique, indépendante de toute appartenance philosophique, religieuse ou politique qui agit pour « le droit à vivre dignes ».
« Vivre dignes » passe par le respect des droits économiques, sociaux et culturels conformément à la Déclaration universelle des droits de l’Homme : droit au travail, droit à la protection sociale, droit à un niveau de vie suffisant, droit à la santé, droit à l’éducation, droit à la culture.
Terre des Hommes France mise sur le partenariat, en Asie, Afrique, Amérique latine, avec des associations et des réseaux d’associations qui améliorent les conditions de vie des populations les plus défavorisées et les forment à la défense de leurs droits.