Meta in der Kritik: KI-Chatbot verbreitet Falschinformationen nach Trump-Attentat
Der KI-Chatbot von Meta hat nach dem versuchten Attentat auf den republikanischen Präsidentschaftskandidaten Donald Trump für erhebliche Kontroversen gesorgt. Die Ereignisse rund um den Vorfall und die Reaktionen des Chatbots haben den Technologiekonzern in Erklärungsnot gebracht.
Verwirrung und Kritik nach Chatbot-Aussagen
Die Bilder des versuchten Attentats auf Donald Trump bei einer Wahlkampfveranstaltung in Pennsylvania gingen um die Welt und sorgten für großes Aufsehen. Doch als Nutzer den KI-Chatbot von Meta zu dem Vorfall befragten, entstand Verwirrung. Zunächst bestritt der Chatbot den Angriff auf Trump, später behauptete er sogar, das Attentat habe nie stattgefunden.
Diese widersprüchlichen Aussagen führten zu heftiger Kritik, insbesondere von Trump-Unterstützern. In sozialen Medien wurden Screenshots von Unterhaltungen mit Meta AI geteilt, die die Weigerung des Chatbots, Fragen zum Attentat zu beantworten, dokumentierten.
Meta rechtfertigt sich: „Halluzinationen“ der KI
Meta erklärte in einem Blogeintrag, dass man den Chatbot zunächst absichtlich nicht über das Attentat habe sprechen lassen. Rund um schlagzeilenträchtige Ereignisse gebe es häufig widersprüchliche Angaben und unbegründete Spekulationen, so der Konzern. Doch auch nachdem der Chatbot mit Informationen über das Attentat gefüttert worden sei, habe er „in wenigen Fällen“ behauptet, es sei nicht passiert. Meta führte dies auf sogenannte „Halluzinationen“ der KI zurück.
„Halluzinationen“ sind ein bekanntes Problem bei KI-Softwares, bei dem Sprachmodelle falsche Informationen erfinden. Auch wenn sie mit korrekten Daten trainiert wurden, können Bots teils falsche Antworten liefern. Diese Problematik brachte Meta in erhebliche Erklärungsnot.
Fehlerhafte Faktenchecks und manipulative Bilder
Ein weiteres Problem trat auf, als ein Foto von Trump und seinen Leibwächtern unmittelbar nach dem Attentat fälschlicherweise mit einem Faktencheck-Label versehen wurde. Ursprünglich war eine manipulierte Version des Bildes markiert worden, in der ein Lächeln auf den Gesichtern der Bodyguards ergänzt wurde. Metas automatisierte Systeme konnten den Unterschied zwischen den Bildern jedoch nicht erkennen und fügten das Faktencheck-Label auch zum Originalfoto hinzu.
Trumps Reaktion: Vorwürfe der Wahlmanipulation
Donald Trump selbst äußerte sich auf seiner Plattform Truth Social über Meta AI. „Da haben wir es wieder, ein weiterer Versuch, die Wahl zu manipulieren!!!“, schrieb der 78-Jährige. Er forderte: „GO AFTER META AND GOOGLE.“ Auch Google musste sich gegen Behauptungen wehren, die Autovervollständigung habe Suchergebnisse über das versuchte Trump-Attentat zensiert. Der Konzern veröffentlichte auf X eine Richtigstellung.
Das Attentat ereignete sich am 13. Juli bei einem Wahlkampfauftritt. Ein Mann schoss auf Trump. Die Kugeln töteten einen Zuschauer und verwundeten zwei weitere Personen. Trump selbst wurde am Ohr getroffen.
Die Debatte um die Rolle von Künstlicher Intelligenz in der Verbreitung von Informationen und die damit verbundenen Risiken bleibt weiterhin brisant. Angesichts der bevorstehenden Wahlen in den USA wird der Druck auf Tech-Konzerne wie Meta und Google weiter zunehmen.
⚡ Einmalige Verlängerung ⚡ Die Stunde Null Sichern Sie sich nur noch heute bis 23:59 Uhr unsere Freiheits-Pakete die Dominik Kettner exklusiv für Sie zusammengestellt hat
- Kettner Edelmetalle News
- Finanzen
- Wirtschaft
- Politik