IQNA

Al-Azhar-Observatorium warnt vor Missbrauch künstlicher Intelligenz gegen Muslime

12:58 - October 23, 2025
Nachrichten-ID: 3013795
IQNA- Das Al-Azhar Observatorium für Bekämpfung des Extremismus warnte vor Gefahren des Einsatzes künstlicher Intelligenz zur Anstiftung zum Hass gegen Muslime in Indien.

Das Al-Azhar Observatorium für Bekämpfung des Extremismus äußerte sich besorgt über den Einsatz künstlicher Intelligenz durch die Bharatiya Janata Party (BJP) im indischen Bundesstaat Assam zur Produktion eines aufrührerischen Wahlvideos gegen Muslime , berichtete Al-Fath News.

Das Video wurde am 15. September 2025 auf dem offiziellen Twitter-Account der Partei veröffentlicht.

Al-Azhar Watch erklärte: Das Video präsentiert ein irreführendes Bild von Muslimen als „demografische Bedrohung“ und verbreitet gefährliche Behauptungen die darauf abzielen Angst und Hass in der Gesellschaft zu schüren. Dies ist eine klare Form von Islamophobie und Hassreden, die den menschlichen Werten und einer auf Staatsbürgerschaft und Gerechtigkeit basierenden Verfassung widerspricht.

Die Institution betonte, dass der Missbrauch künstlicher Intelligenz zur Produktion erfundener Werbeinhalte und Fehlinformationen eine falsche Glaubwürdigkeit verleihen einen gefährlichen Präzedenzfall im Wahlkampf schafft und eine ernste Gefahr für den bürgerlichen Frieden und religiöses Zusammenleben darstellt.

Der Al-Azhar-Oberver forderte die indische Wahlkommission auf dringend eine Untersuchung der Rechtmäßigkeit des Videos einzuleiten, strenge digitale Gesetze zu erarbeiten, um den Einsatz künstlicher Intelligenz in politischen Kampagnen zu regulieren und die Überwachung digitaler Inhalte durch Technologieplattformen zu verstärken, um die Verbreitung von Hassreden einzudämmen.

Am Ende ihrer Erklärung betonte die Institution, dass moderne Technologien dazu eingesetzt werden sollten der Menschheit zu dienen und sozialen Frieden zu entwickeln und zu fördern, statt zu einem Instrument der Spaltung und Aufwiegelung zu werden.

 

4311687

captcha