
KI: Wenn der Algorithmus Vorurteile hat
Künstliche Intelligenz ist nicht objektiv: Sie übernimmt die Vorurteile des Menschen. KI kann deshalb rassistisch, sexistisch oder anderweitig diskrimierend sein. Je nach Einsatzbereich wird das zum …
Spektrum-Podcast · detektor.fm – Das Podcast-Radio
April 15, 202216m 53s
Audio is streamed directly from the publisher (flex2.acast.com) as published in their RSS feed. Play Podcasts does not host this file. Rights-holders can request removal through the copyright & takedown page.
Show Notes
Künstliche Intelligenz ist nicht objektiv: Sie übernimmt die Vorurteile des Menschen. KI kann deshalb rassistisch, sexistisch oder anderweitig diskrimierend sein. Je nach Einsatzbereich wird das zum Problem.
➡️ Artikel zum Nachlesen: https://detektor.fm/wissen/spektrum-podcast-ki-rassismus-vorurteile
[00:00] Intro und Begrüßung
[04:07] Wo emotionale KI schon eingesetzt wird
[06:44] KI ist nicht neutral
[10:53] Zukünftige Einsatzgebiete und Probleme
[14:08] Wie kann man KI besser machen?
[16:01] Verabschiedung
➡️ Artikel zum Nachlesen: https://detektor.fm/wissen/spektrum-podcast-ki-rassismus-vorurteile
Topics
WissenschaftSpektrumScienceForschungWissenNaturwissenschaft