Deutsche Männer werden immer fraulicher. Durch Genderismus zerstörte, manikürte Weicheier, Schlappschwänze, Feiglinge und Nichtstuer, die nichts mehr auf die Reihe kriegen.… weiterlesen.
Tag Archives: Männer
Sind Frauen noch »Frauen»?
Deutsche Frauen werden immer männlicher. Egoismus, Freiheitsstreben und Selbstverwirklichung zerstören mehr und mehr Familien und Beziehungen.… weiterlesen.