Eine schwierige Frage: Dass generative KI für alle zugänglich ist, ist natürlich den kommerziellen Interessen von Unternehmen geschuldet. Einerseits hat das den guten Effekt, dass die KI-Forschung, die es als KI bezeichnet seit 1956 gibt, einen neuen Schub erhalten hat, andererseits werden mit generativer KI Hoffnung geweckt, die sich so schnell nicht verwirklichen werden lassen (z.B. allegmeine KI, AGI).
Problematisch ist, dass viele Nutzende nicht wirklich verstehen was in den Systemen passiert und damit überzogene Hoffnungen und Erwartungen haben. Was einige aber herausgefunden haben, dass man mit generierten AI-Slops aufsehen erregen kann.
Und da wird es dann gefährlich auf mindestens drei Wegen:
1. Der Unterschied zwischen Wirklichkeit und gefakter Welt (also zwischen Wahrheit und Lücke) wird verwischt. Damit arbeiten insbesondere Populisten …
2. Wenn generierte Informationen in das weitere Training von KI-Modellen einfliessen, verschlechtert sich deren Qualität durch verzerrte Informationen.
3. Solche Inhalte können dann dazu verwendet werden Menschen zu manipulieren. Das war schon mit Fotos möglich, erforderte damals aber einen großen Aufwand. Jetzt aber wird das zu einem „Massenprodukt“.
Alle drei Aspekte sind, aus meiner Perspektive, eher moralisch problematisch.
Thomas hat schon einige wichtige Aspekte genannt, die moralisch sehr problematisch sind. Aus meiner Sicht gibt es aber weitere Aspekte, wie sich AI-Slop langfristig auf die Gesellschaft negativ auswirken könnte:
1. Wenn massenhaft mittelmäßige oder irreführende Inhalte auftauchen, werden gute Informationen schlechter auffindbar, und Menschen verlieren schneller das Vertrauen in das, was sie online sehen.
2. Wenn etwas Schlimmes passiert, ist oft unklar, wer für die Schäden haftet: die Person, die etwas gepostet hat, die Plattform oder die Firma hinter dem Modell. Klare gesetzliche Regelungen gibt es hier bisher nur teilweise.
3. Wenn KI-Inhalte überall sind, sinkt bei vielen die Erwartung an Quellen, Sorgfalt und Originalität. Das kann langfristig die Qualität öffentlicher Debatten und von Bildung beeinflussen.
4. Fact-Checking und die Moderation einer so großen Menge an Inhalten können von Menschen allein kaum noch bewältigt werden und werden deshalb zunehmend an KI-Tools übergeben. Das kann langfristig zu einer Abwärtsspirale bei der Qualität führen.
5. Wer Geld, Reichweite und Infrastruktur hat, kann Inhalte in riesigem Maßstab produzieren und Meinungen stärker beeinflussen. Das macht es für kleinere, unabhängige und seriöse Stimmen schwerer, gehört zu werden.
Kommentare
Dennis commented on :
Thomas hat schon einige wichtige Aspekte genannt, die moralisch sehr problematisch sind. Aus meiner Sicht gibt es aber weitere Aspekte, wie sich AI-Slop langfristig auf die Gesellschaft negativ auswirken könnte:
1. Wenn massenhaft mittelmäßige oder irreführende Inhalte auftauchen, werden gute Informationen schlechter auffindbar, und Menschen verlieren schneller das Vertrauen in das, was sie online sehen.
2. Wenn etwas Schlimmes passiert, ist oft unklar, wer für die Schäden haftet: die Person, die etwas gepostet hat, die Plattform oder die Firma hinter dem Modell. Klare gesetzliche Regelungen gibt es hier bisher nur teilweise.
3. Wenn KI-Inhalte überall sind, sinkt bei vielen die Erwartung an Quellen, Sorgfalt und Originalität. Das kann langfristig die Qualität öffentlicher Debatten und von Bildung beeinflussen.
4. Fact-Checking und die Moderation einer so großen Menge an Inhalten können von Menschen allein kaum noch bewältigt werden und werden deshalb zunehmend an KI-Tools übergeben. Das kann langfristig zu einer Abwärtsspirale bei der Qualität führen.
5. Wer Geld, Reichweite und Infrastruktur hat, kann Inhalte in riesigem Maßstab produzieren und Meinungen stärker beeinflussen. Das macht es für kleinere, unabhängige und seriöse Stimmen schwerer, gehört zu werden.