-
Frage gestellt agee35dug am 24 Feb 2026.0
Frage: Wie sehen sie den allgemeinen Missbrauch von KI in sozialen Netzwerken?
- Stichworte:
-
Thomas Hoppe Beantwortet am 24 Feb 2026:
Eigentlich ist deine Frage unabhängig von KI. Generell kann man Technologien zum Guten nutzen als auch zum Schlechten mißbrauchen. Atomkraft kann sowohl dafür benutzt werden Elektrizität zu produzieren (Ok, da fällt natürlich Atommüll an), als auch um Bomben zu bauen. Raketen kann man zur Weltraumforschung und zum Transport nutzen oder um Krieg zu führen.
Soziale Medien können natürlich auch mißbraucht werden, z.B. um Menschen zu beinflußen oder Fake News, Verschwörungstheorien oder extremistische Ansichten zu verbreiten. Allein schon durch TikTok zu swipen reicht dazu schon aus. Ein Bekannter hat dazu mal gesagt, dass man die Inhalt dabei immer wahrnimmt: „man kann sie einfach nicht nicht-sehen“.
Für KI-Systeme in sozialen Medien gilt das gleiche. Vielleicht kriegen wir es irgendwann mal hin das KI-Systeme auch „Fake News, Verschwörungstheorien oder extremistische Ansichten“ gut erkennen kann. Wahrscheinlicher aber, glaube ich, wird KI eher dazu gebraucht sie immer perfekter zu machen und zu verbreiten
-
Verónica Mota Galindo Beantwortet am 24 Feb 2026:
Das ist ein wichtiges Thema. Vor allem für die Jüngeren unter uns. KI kann das Leben vieler Menschen grundlegend verändern, und das kann manchmal auch nicht so positiv sein. Es gibt Leute, die KI in TikTok als Instrument gegen die Demokratie einsetzen oder um Hass und Rassismus zu verbreiten. Außerdem tauchen da noch andere Probleme mit der Online-Identität auf. Ich forsche als Wissenschaftlerin und Philosophin an genau diesen Problemen und setze mich dafür ein, dass KI reguliert wird.
-
Heinke Hihn Beantwortet am 24 Feb 2026:
Äußerst kritisch. Man sieht sehr viele Fake-News, Deepfakes und leider auch sehr viele Menschen, die das glauben. Das ist an sich nichts neues, man konnte auch vorher schon Fake-News erstellen. Aber wir erleben es gerade in einer noch nie dagewesenen Menge.
Hier muss es klare Gesetze geben, z.B. eine Kennzeichnungspflicht für KI-generierte Inhalte. Ebenso ist jeder gefragt, damit kritisch umzugehen.
-
Tim Menzner Beantwortet am 24 Feb 2026: last edited 24 Feb 2026 15:24
Als jemand, der sich in seiner Forschung mit der Schnittstelle von Propaganda und KI beschäftigt, sehe ich natürlich vor allem die Flut an automatisiertem „Propaganda-Slop“ kritisch, die wir heute schon beobachten können. Allerdings gab es Propaganda ja bereits lange vor der KI, ich habe dazu in einer Antwort auf eine andere Frage bereits etwas geschrieben. Da ich im Prinzip dasselbe nochmal sagen würde, kopiere ich das einfach nochmal hier drunter:
„Ich beschäftige mich in meiner Forschung ja zum Beispiel explizit damit, wie wir KI nutzen können, um einseitige Berichterstattung oder gar Propaganda zu erkennen und den Usern zu erklären, in der Hoffnung, dass wir so beim Medienkonsum kritisch bleiben und uns nicht so einfach manipulieren lassen. Neben diesem Ansatz experimentieren wir auch mit einer Suchmaschine, die wir gebaut haben und die mit derselben KI versucht, automatisch propagandistische Inhalte zu erkennen und in der Reihenfolge der Ergebnisse nach unten zu verschieben. Man kann also auch mit KI gegen KI-Missbrauch vorgehen.
Letztendlich ist es aber zu kurz gedacht, das Ganze als rein technisches Problem (mit einer rein technischen Lösung) zu betrachten. Misinformation bzw. Desinformation (was Absicht voraussetzt) gab es ja auch schon lange vor KI. Wenn man wirklich dagegen vorgehen will, kommt man nicht drum herum, sich das Phänomen unabhängig von der Technik anzusehen.
Also zum Beispiel, wie unser marktwirtschaftliches System einen Anreiz schafft, solche Inhalte zu produzieren, da durchaus von Nutzerseite eine Nachfrage nach sensationalistischen, emotionalisierenden, das eigene Weltbild bestätigenden Inhalten besteht, und seien diese Inhalte noch so realitätsfern. So stecken tatsächlich hinter vielen Accounts, die solche Inhalte auf Social Media pushen, nicht einmal Akteure, die ein politisches Ziel verfolgen. Oft sind es Menschen aus einkommensschwachen Ländern, denen Politik mehr oder weniger egal ist, für die es aber einfach eine lukrative Einkommensquelle ist, die Nachfrage nach Polarisierung in den reichen Industrieländern zu bedienen.
Daneben gibt es ja auch genug sehr reiche Menschen, die ihre Ressourcen explizit dafür einsetzen, mit ihren Medienhäusern und Plattformen für ihre politischen Ziele Stimmung zu machen. Man denke da zum Beispiel an Rupert Murdoch mit seinem Medienimperium (unter anderem „Fox News“), Elon Musk mit seinem Einfluss auf den Twitter- (bzw. „X“-)Algorithmus oder hierzulande Frank Gotthardt, der maßgeblich „Nius“ finanziert. Ist natürlich auch die Frage, wie sehr dieser Einfluss einiger weniger Mächtiger am Ende im Sinne einer demokratischen Gesellschaft ist.
Misinformation, Bias und Propaganda lassen sich nicht aus diesem Kontext herauslösen. Und wenn man das wirklich als Problem ansieht, gegen das man vorgehen muss, geht das nicht, ohne sich Gedanken über das Rahmenwerk, völlig unabhängig von der Technologie, zu machen.“
-
Anne Reinhardt Beantwortet am 24 Feb 2026:
Ich sehe den Einsatz von KI in sozialen Netzwerken gerade vor allem als Turbo für drei Dinge: (1) Täuschung, (2) Masse/Überflutung, (3) gezielte Beeinflussung.
Täuschung: Mit KI kann man sehr schnell Deepfakes (Bild/Video/Audio) bauen oder Texte schreiben, die echt und überzeugend klingen. Das wird z. B. für Rufschädigung, Mobbing oder politische Fakes genutzt. Deshalb gibt es in der EU inzwischen Transparenzpflichten: Bei realistisch wirkenden synthetischen Inhalten (Deepfakes) soll klar gemacht werden, dass sie künstlich erzeugt/manipuliert sind.
Masse („AI slop“): KI macht es billig und leicht, Content in riesigen Mengen zu produzieren. Ein paar Stichworte hier sind Kommentar-Bots, Clickbait-Posts oder Fake-Accounts. Das Problem ist hier nicht nur mangelnde Qualität, sondern auch: Die schiere Menge gewinnt Aufmerksamkeit.
Gezielte Beeinflussung: Plattform-Algorithmen pushen oft das, was viele Emotionen in dir auslöst („OMG, hast du gesehen dass…??!“). KI kann solche Inhalte perfekt zuschneiden. Das ist demokratietechnisch heikel, weil Desinformation und Manipulation so schneller Reichweite bekommen. Darum verpflichtet der Digital Services Act (DSA) sehr große Plattformen, systemische Risiken wie Desinformation und Wahlmanipulation zu bewerten und zu mindern.
Was kannst du selbst dagegen tun?
–> Wenn dich ein Post extrem wütend/schockiert macht: gönn dir 5 Sekunden Pause, bevor du auf weiterleiten klickst, und überleg kurz, was du da genau gesehen hast
–> Quellen-Check (Wer sagt das? + Gibt’s das auch bei 1–2 seriösen Quellen?)
–> überprüfen, ob es ein KI-Label gibt
–> Nicht weiterleiten: KI-Fakes leben von Shares (also: lieber den Post melden als ihn durch ein Like zu boosten)
Verwandte Fragen
Wenn man heutzutage KI sagt ist das mittlerweile ein ziemlich leerer Begriff, da er für so viele verschiedene Dinge
Was kann gegen den Missbrauch (z.B. gezielte Missinformation) von KI getan werden?
Was sind ihre Tipps zum effizienten und verantwortungsvollen Nutzen von KI?
Was ist die größte Gefahr für die zukünftige Entwicklung von Künstlicher Intelligenz, und wie könnte man diese
Wie stehen Sie dazu, dass künstliche Intelligenz auch für negative Zwecke wie z.B. Kriegsführung eingesetzt wird?
Kürzlich gestellte Fragen
-
Wenn man heutzutage KI sagt ist das mittlerweile ein ziemlich leerer Begriff, da er für so viele verschiedene Dinge
-
Wie würden Sie die breite Zugänglichkeit generativer KI in anbetracht der riesigen Verbreitung sogennanten AI-Slops (1 Kommentar)
-
Wie viel Handybildschirmzeit haben sie durchschnittlich an einem Tag?
-
Wann wird RAM günstiger?
-
Was kann gegen den Missbrauch (z.B. gezielte Missinformation) von KI getan werden?





Kommentare