Crossgeposted von: https://discuss.tchncs.de/post/453970
Im Mittelpunkt der Debatte über künstliche Intelligenz (KI) steht auch die Sorge vor automatisch generierter Falschinformation. Wie berechtigt diese ist, untermauert eine aktuelle Studie, wonach KI-generierte Texte in sozialen Netzwerken oft glaubwürdiger erscheinen als jene von Menschen. Ein heimischer Experte plädiert für eine strenge Regulierung – in Österreich gebe es generell großen Aufholbedarf.
In einer Studie zeigen Schweizer Forscherinnen und Forscher, dass …
die fast 700 Probandinnen und Probanden nicht in der Lage waren, die KI-Tweets zuverlässig von den Texten realer Personen zu unterscheiden.
Außerdem zeigte sich, dass …
die vom Sprachmodell GPT-3 generierten Texte oft leichter verständlich waren als die Texte von realen Twitter-Nutzerinnen und -Nutzern – auch wenn der Inhalt nicht der Wahrheit entsprach. Die „Fake News“ der KI wirkten laut den Probandinnen und Probanden oft überzeugender als falsche Informationen, die von Menschen geschrieben wurden.
Schwieriges Thema und vorallem schwierig hier eine sinnvolle Reglementierung zu finden, ohne zuweit einzugreifen. Vorallem ist es technisch schwer, da solche Systeme in der Entscheidungsfindung grundsätzlich eine BlackBox darstellen, aber dadurch auch interessant wie man solche Gefahren in Zukunft mitigieren will.
Die vermeintlich einfachste Lösung ist der Einsatz des menschlichen Verstandes. 
Dinge hinterfragen, verstehen, verbinden. Das große Ganze sehen. Zusammenhänge verstehen. Auswirkungen eruieren. Selbstreflektion. Dinge ins Verhältnis setzen. Usw.
Ist vermutlich zu viel verlangt.
Viele verstehen ja auch nicht, dass ChatGPT keine Suchmaschine ist, sondern schlicht Texte generiert. Von daher…
Jain. Ich habe ChatGPT schon mehrfach anstelle von Google benutzt und war sehr zufrieden, Antworten zu erhalten anstelle von Links.
Natürlich bekommst du antworten. Mit ein wenig Glück taugt die Antwort sogar etwas, kann aber halt auch genausogut Blödsinn mit überzeugend aussehenden Quellen sein. Als Suchmaschine taugt es entsprechend nicht.
Absolut. Das ist aber ein generelles Problem der Gesellschaft und der verrückt schnellen Entwicklung der Online-Medienkultur und weniger bezogen auf das hier beschriebene, eher technische, Problem.
Sprich: Man sollte es nicht ignorieren weil jeder selbst genug Verstand haben muss Fake News zu erkennen und wenn nicht Pech gehabt ;) Noch dazu sind die generierten anscheinend qualitativ besser formuliert, im Sinne von schwerer als Falschmeldung identifizierbar für viele, digital weniger kompetente Menschen. Es fehlt schon an Kompetenz, wie du sagst, aber das zu verbessern wird ein paar Generationen brauchen, wenn überhaupt. Viele gute Ansätze sehe ich im Bildungsystem dafür ja nicht.