In Deutschland schreiben die Menschen dem Beruf immer weniger Bedeutung zu. Für die meisten ist das Geldverdienen wichtiger, geht aus der Studie des Versicherers HDI hervor. Aber viele würden auch nach der Rente arbeiten.
Video
Studie
Geld ist wichtiger: Die Bindung an den Beruf lässt in Deutschland nach
© 1&1 Mail & Media/spot on news