Tengo entendido que la aparición de los sindicatos tenían como fín el ayudar a los trabajadores para que los dueños de las empresas no se aprovecharan de ellos y fueran la voz cantante para exigir que se les pagaran salarios justos y demás prestaciones.
Sin embargo y viendo hoy en día que lo único que hacen los sindicatos es aprovecharse mucho más de los trabajadores que las mismas empresas e hinchándose del dinero de ellos, me pregunto qué pasaría si desaparecieran lo sindicatos, si hay alguna autoridad que pueda hacer ésto y qué repercusiones habría en el país.
Gracias.
Sin embargo y viendo hoy en día que lo único que hacen los sindicatos es aprovecharse mucho más de los trabajadores que las mismas empresas e hinchándose del dinero de ellos, me pregunto qué pasaría si desaparecieran lo sindicatos, si hay alguna autoridad que pueda hacer ésto y qué repercusiones habría en el país.
Gracias.
Comment