Hi , ich habe mal eine Frage. Habe im Unterricht gelernt das die USA ein ganz anderes Gesundheitssystem als in Deutschland existiert. Aber warum ist das so? Ich meine klar, es gibt Verbesserung hier und da. Aber ist das nicht total blöd, wenn du mal Krebs haben solltest, bist du doch bereits zum Tode verurteilt? Außer du verdienst gut. Die Kosten musst du ja komplett selber zahlen. Ist doch totaler Schwachsinn, da ist es doch besser, wenn die Kosten auf alle verteilt werden, als auf einzelne?
Gesundheitssystem
-
-
So ein System entwickelt sich über Jahre. das kann man nicht einfach von einem Land übernehmen. Zudem muss es irgendwie finanziert werden. Und das deutsche ist auch nicht perfekt...
-
Es gab als Obama (Demokrat) regierte "Obamacare" in den USA. Trump hat das wieder abgeschafft.
Der Grund warum das Gesundheitssystem (besser "Erkrankungssystem") dort nicht auf die Bedürftigen bzw. sozial Schwachen eingerichtet ist, liegt sicher in den Anfängen der Besiedelung dieses Kontinentes.
Einheimische wurden von weißen Männern - die schon mit Besitz ankamen, worunter auch ihre weißen Frauen und Kinder fallen - kolonialisiert d. h. versklavt und seitdem durch weitere Bürgerkriege kamen immer mehr Unterdrückte und Unterdrücker hinzu. Heute ist Amerika nur "Staatsmacht" aufgrund weißer Männer, die sich als Supremacisten (Anhänger der White Supremacy = Weißen Vorherrschaft) sehr ausbeuterisch gegen alles was weiblich, schwarz, behindert, alt und tierisch ist verhalten.
Die USA sind einer der schlimmsten Vaterstaaten (Patristaaten) überhaupt und Vorbild vieler Nicht-Amimänner. Der andere Rest nimmt sich Vaterstaaten wie Russland, China oder gleich den Jemen zum Vorbild.
Deutschland ist nicht besser, sondern aufgrund von Kriegen geschädigt und selbst von Siegermächten kolonialisiert/ ausgebeutet worden. Von rechtsorientierten als "Sozialstaat" betitelt oder "Hier muss niemand arbeiten hier gibt es Hartz4" ist Deutschland heute einfach ein Amerika-Light. Wir haben hier mit 85 Millionen Menschen aufwärts, von denen die Mehrheit weiße Männer sind und domestizierte weiße Frauen (Antifeministinnen und Opfer von Menschenhandel) genauso Lookismus (Bodyshaming, Rassismus, Ableismus,) Speziesismus, Antifeminismus, Adultismus... usw.
Es gibt große Armut und Sklaverei ("Prostitution" ist Menschenhandel) die euphemisiert und gefördert werden, ähnlich wie in den USA. Das einzige was es in Deutschland nicht gibt, sind bekannte Stimmen die dagegen vorgehen.
Deutschland hatte nie eine eigenständige Frauenrechtsbewegung und nie eine Lesbenrechtsbewegung. Durch die Herrschaft der weißen Nazimänner (zweite Welle der Hexenverfolgung) sind weiter viele Frauen in Klapsen, Krankenhäusern, in der Wohnung, Bordellen, Gaskammern oder sogar im Militär körperlich verletzt und umgebracht worden.
Nach Hitlers Fall kamen dazu noch die Siegermächte (Männer marschierten ein) und vergingen sich an den Rest der Frauen (daher kommt der Spruch "Achtung die Russen kommen"). BRD und DDR waren für Frauen auch keine Erholungsorte.
Die deutschen Frauen wurden also sowohl von den Männern im eigenen Land umgebracht als auch von den Männern fremder Staaten. Das führte zu einer Überbevölkerung an Männern, die bis heute anwächst was zu mehr Ungerechtigkeit und Armut beiträgt. Denn Männer interessieren sich normalerweise nicht für die Rechte ihrer Opfer.
Die einzigen die sich hier außer den weißen Männern Ressoucen aufbauen sind einige Slawenmänner, Asiatenmänner, schwarze Männer, Schwule und Transfrauen (umoperierte, östrogenisierte Männer). Die Queere Ideologie ist stark geworden und beruht wie der Glaube an Geistekrankheiten auf biologischem Determinismus, daher ist sie als antifeministischer Teil der Allgemeinheit zu betrachten.Sowohl in Amerika als auch in Deutschland existieren weiterhin Klapsen ("Psychiatrien") und haben sich immens ausgebaut. Es gibt in der Verfolgung von Frauen, in beiden Ländern kaum Unterschiede, bis auf den, dass die weißen Amerikanerinnen (Suffragetten) doch eine Gegenbewegung iniziierten und einige der deutschen Frauen das mitbekamen. Auch weiterhin stammt Feminismus (die Theorien) überhäufig aus englischen Sprachraum.
Heute schaut die ganze Welt auf Amerika als sei es das heilige Idealland. In Deutschland gibt es viele amerikanische Importartikel. Oftmals beinflussen amerikanische bzw. englische Unterhaltungsmedien unser aller Lebensplanung und daher auch unsere Sprache, die heute voller Anglizismen ist.
Der stärkste Patriarchalismus scheint daher definitiv von Amerika auszugehen. Alle Europamänner wurden von Amerika in irgendeiner Form beeinflusst. Wenn hier die "Schere zwischen Arm und Reich" größer wird, und auch andere Unterdrückungsstrukturen größer werden, haben nicht zuletzt Männer daran Schuld, die ihre perversen Ideen aus amerikanischen, englischen Raum beziehen. Dort existiert nun auch schon seit langer Zeit der Kukkluxklan.
-
Das es Hollywood in Amerika gibt, ist auch kein Zufall.
Allerdings gibt es Großmächte wie China (Spielzeug,), Japan (Animation) und Indien (Bollywood) die noch patriarchaleren Unterhaltungsmüll fabrizieren können und wollen. Für Deutschland sind diese Vaterstaaten immer wichtiger geworden, um patriarchalere Werte schon den Kleinsten zu vermitteln und als natürlich und gut zu verkaufen.