Hollywood – Raum ohne Rassismus? Mar20

Tags

Verwandte Artikel

Share

Hollywood – Raum ohne Rassismus?

Hollywood ist nicht mehr nur für Filme bekannt.

Jeder, wirklich jeder, kennt Hollywood. Ob wegen Filmen, Festivals, oder dem neuesten Promi-Tratsch, es gibt keinen Deutschen, der sich unter dem Namen nichts vorstellen kann. Aber ist die Stadt des Glamours und Blitzlichtgewitters wirklich so progressiv und modern, wie man sich gerne vorstellt?

Wer die Oscar-Verleihung dieses Jahres verfolgt hat, hat sicherlich gemerkt, dass alle nominierten Schauspieler auffällig weiß waren – und das nicht zum ersten Mal. Dies ist nicht nur ein Problem der Academy Awards, wie die Oscars auch oft genannt werden. In großen Filmen und erfolgreichen TV-Serien gibt es oft wenige Rollen für schwarze Schauspieler oder andere Minderheiten. Selbst wenn solche Rollen auftauchen, sind diese oft eher unauffällig und manchmal sogar rassistisch. Selbst wenn sich ein Film um Personen aus ethnischen Minderheiten dreht, werden diese Rollen trotzdem oft durch weiße Schauspieler besetzt, wie zuletzt in dem Blockbuster „Gods of Egypt“, ein Film der nicht nur in Hollywood wegen seiner mangelnden Diversität kritisiert wurde.

Obwohl der Druck auf das Filmparadies groß ist, bleibt es ungewiss, ob sich in Hollywood tatsächlich etwas ändern wird.

(Visited 127 times, 1 visits today)