¿Qué piensan de la educación financiera, es un tema que se debe dar desde el colegio?
Digamos a lo que voy seria, ¿por qué en los colegios nos enseñar solo a estudiar y luego ir a la facultad para tener un titulo y trabajar para alguien y a eso lo llaman buena vida? ¿Qué piensan ustedes de eso?