Neu Delhi (IQNA)- Die in Indien zum Trainieren von KI-Systemen verwendeten Datenbanken sind voreingenommen in Bezug auf Kaste, Geschlecht, Religion und sogar Standort, wodurch Vorurteile und Diskriminierung ihnen gegenüber aufrechterhalten werden. Kritiker sagen beispielsweise, dass der Einsatz von Gesichtserkennungstechnologie die Gefahr einer verstärkten Überwachung von Muslimen, niederen Kasten, indigenen Adivasi und anderen marginalisierten sozialen Gruppen und Minderheiten mit sich bringt.
Nachrichten-ID: 3009056 Datum der Veröffentlichung : 2023/09/18