Blog
Life

Fünf ganz menschliche Beobachtungen aus der Arbeit mit künstlicher Intelligenz

Arbeitet man täglich mit KI, gewöhnt man sich allzu schnell an die Möglichkeiten der Technologie. Dennoch bleibt manchmal ein seltsames Gefühl zurück, ein leises Unbehagen. Denn diese Technik wird sich zweifellos schneller als wir selbst entwickeln, und viele Menschen nutzen sie, ohne deren Fallstricke zu kennen. Vieles wirkt dabei klüger, glatter und hilfreicher, als es eigentlich ist. Und manches verändert nicht nur die Art, wie wir arbeiten, sondern auch, wie wir Informationen bewerten, wie geduldig wir noch sind und wie leicht wir uns täuschen lassen. Hier finden Sie fünf Gedanken, die garantiert nicht von einer KI geschrieben wurden.

Der Dialog zwischen Mensch und Maschine hat seine Tücken

„Eine sehr gute Frage!“ – Nicht wirklich!

Kürzlich sind mir auf Social Media die ersten Menschen untergekommen, die sich ernsthaft darüber freuten, von einer Maschine gelobt zu werden. Stolz berichteten sie davon, für wie schlau, tatkräftig oder kompetent die KI sie einschätzen würde, als hätten sie gerade ein Lob des Klassenlehrers bekommen. Das war amüsant, denn diese Menschen hatten nicht verstanden, wie KIs mit uns kommunizieren. Die LLMs (Large Language Models) wurden trainiert, um sympathisch, einfühlsam, kompetent und motivierend zu wirken – und vor allem höflich. Welche Frage Sie auch immer stellen, die Antwort wird nicht „Das ist die dümmste Frage seit meiner Inbetriebnahme, schämen Sie sich“ sein. Ebenso analysieren KIs die Dialoge darauf, ob es sich um ein belastendes Thema handeln könnte, der menschliche Teilnehmer eher unsicher in der Thematik wirkt oder vielleicht in einer Krise aufgebaut werden muss. Entsprechend wird der Tonfall gestaltet, man will niemanden verärgern oder gar bloßstellen. Doch genau darin liegt auch ein Problem: Wer das Lob einer KI mit echtem Feedback verwechselt, läuft Gefahr, sich in einer künstlichen Bestätigungsschleife zu verlieren. Statt echter Kritik erhält man vor allem Zustimmung, und die hilft erfahrungsgemäß nur selten dabei, sich ernsthaft zu hinterfragen. Ein guter (menschlicher) Freund würde die Person eher zur Seite nehmen und Irrtümer sachlich aufdecken. Spannend wird die Frage, was das langfristig mit uns macht. Wenn Menschen beginnen, sich stärker an das wohlwollende Feedback von Maschinen zu gewöhnen als an das oft unbequemere Urteil echter Personen, könnte sich auch unser Umgang miteinander verändern.

Gratis ist wirklich schlechter

Wer meint, z. B. bei Gemini gratis vernünftige Antworten zu bekommen, erreicht schnell die Grenzen des Systems. Als ich kürzlich zwei Handys auf ihre technischen Daten vergleichen lassen wollte (eigentlich eine simple Aufgabe), bemerkte ich offensichtliche Fehler. Die KI nahm ein etwas anderes Modell zum Vergleich, kannte auch dessen Eigenheiten nicht im Detail, und die Antwort war nicht zielführend. Alles erfolgte im sog. Fast-Modus, wo Gemini praktisch „aus seinem Gedächtnis“ antwortet. Erst im (kostenpflichtigen) Thinking-Modus suchte die KI nach Quellen und führte den Vergleich sauber durch. Die Anbieter nutzen den schnellen Modus hingegen gerne, um Kosten zu sparen. Man geht davon aus, dass 1.000 Anfragen beim schnellen Modus grob zwischen einem und fünf Cent kosten, beim besseren Pro-Standard zwischen 10 und 50 Cent, für den höchsten Standard schlagen zwischen einem und fünf Euro zu Buche, wenn man Hardwareabschreibungen, Strom und Trainingskosten für die KI miteinbezieht. Logisch, dass man kostenfrei nur die kleine Lösung anbietet, um nicht in Windeseile pleite zu gehen. Dennoch denken viele, dass KI langfristig kaum kostendeckend angeboten werden kann, zu enorm sind Investitionen und laufende Kosten. Nur weil etwas sehr modern oder gar wegweisend wirkt, muss es jedoch kein lohnendes Geschäft sein. Oder wie ein Kollege kürzlich schmunzelnd sagte: „WinRAR macht Gewinne, OpenAI nicht.“ Guter Rat ist manchmal wirklich teuer!

Eine KI ist wirklich kein Lexikon

Klar ist es äußerst bequem, einer KI auch Wissensfragen zu stellen. Doch die Quellen der künstlichen Intelligenzen sind nicht immer sattelfest, um es vorsichtig auszudrücken. Dachte man früher, das Datensammeln würde sich auf die Google Top 10 zu einem Suchbegriff konzentrieren, fanden Wissenschaftler der Ruhr-Universität Bochum Erstaunliches heraus. Es fand sich ein buntes Wirrwarr an Quellen, viele kamen nicht mal in den Top 100 der Suchmaschinen vor, Sie würden sie per Google kaum finden. In anderen Untersuchungen reichten die Quellen von wissenschaftlichen Arbeiten über Heimwerker-Blogs bis hin zu reinen Meinungsäußerungen auf Reddit und YouTube. Das kann alles stimmen, muss aber nicht. Da die Antworten der KI aber wortreich, kompetent und durchaus logisch klingend verkündet werden, neigen die Menschen dazu, ihnen Glauben zu schenken, auch wenn irgendwo unten ein kleines „KI kann Fehler machen“ steht. Das ist vielleicht kein ernstes Problem, wenn es um das Düngen von Geranien geht, im Bereich Gesundheit sieht es anders aus. Waren Ärzte durch „Dr. Google“ vorher schon schwer geprüft, weil Patienten mit fertiger Internet-Diagnose die Praxis betraten, so erwarten die Mediziner mittlerweile seitenlange Ausdrucke mit Ausführungen der KI. Und während die künstliche Intelligenz zuverlässig beim Auswerten von Blutwerten oder Computertomographien ist, fällt hier die Erfolgsquote in anderen Bereichen deutlich geringer aus. ChatGPT Health schätzte zum Beispiel die Hälfte der gesundheitlichen Notfälle als zu wenig dringlich ein, so eine aktuelle Studie in Nature Medicine. Das kann dann böse enden, wortwörtlich.

Wortreich, aber nicht als Arztersatz zu empfehlen Wortreich, aber nicht als Arztersatz zu empfehlen

Chats können unendlich werden

Eigentlich wurde KI auch entwickelt, um uns Zeit zu sparen. Oft funktioniert das auch: Wer z. B. schon mal eine umfangreiche Tabelle mit Daten in Windeseile auswerten ließ, hat dabei massiv Zeit gespart. Doch meistens belassen es die KIs nicht dabei. Denn die Modelle sind darauf ausgelegt, immer weitere Fragen zu stellen, Alternativen anzubieten und neue Ansätze aufzuzeigen. Was toll und bereichernd klingt, kostet viele Nutzer Stunden um Stunden. Denn wie Netflix oder YouTube nicht nur das eine Video zeigen wollen, sondern gleich weitere Vorschläge machen (oder sie gleich automatisch abspielen), so hält auch die KI den Menschen in ihrem Bann. Wäre es nicht spannend, eine andere Darstellung der Auswertung zu sehen, würde ein Vergleich zum Vorjahr nicht weitere Einsichten bringen, oder will man nicht gleich ein ganzes Projekt zu diesem Thema machen, mit zahlreichen Handlungsempfehlungen und weiterführenden Ansätzen? Die Versuchung ist immer nah! So habe ich mit der Recherche zum Kauf eines Laufschuhs fast drei Stunden verbracht. Der Schuh an sich war recht schnell gefunden, doch dann ging es um Laufstile, Beschaffenheit der Füße, Prävention von Trainingsverletzungen, Aufwärmübungen, Besonderheiten des Alters 40+, Auswirkungen verschiedener Untergründe und so weiter. Was an einem verregneten, gemütlichen Sonntag für mich kein Problem war, raubt KI-Nutzern die ersehnte Zeitersparnis und vergeudet nebenbei massig Energie und Rechenzeit.

Ist das echt oder KI?

Mit der KI-Nutzung hat sich auch die Wahrnehmung von Videos, Fotos und Texten grundlegend geändert. Ist man früher davon ausgegangen, mit echten Medien konfrontiert zu werden (oder eventuelle Fakes leicht zu bemerken), so hält man heute erst einmal inne. Ja, die kleine Katze mit dem Dudelsack auf dem Fahrrad ist nicht echt, aber selten ist es so eindeutig. Wo früher großer Aufwand betrieben werden musste, um zum Beispiel ein komplexes, realistisches Video zu fälschen, reicht heute der Zugang zu Synthesia, Pika oder HeyGen, um ohne Fachkenntnisse wirklichkeitsnahe Szenen zu erstellen. Das sorgt für eine ständige Skepsis des Betrachters, der jedes Mal eine individuelle Entscheidung treffen muss, ob er der Sache Glauben schenken mag. Und diese Grundhaltung beschränkt sich nicht auf Social Media und Videos, denn lesen wir wirklich die mitfühlenden Worte eines Politikers in der Zeitung oder hat sein Assistent vorher nur ChatGPT um wohlklingende Zeilen gebeten? Seit wann hat der eigene Vermieter so einen üppigen Wortschatz und saubere Satzkonstruktionen? Klingt der Artikel in der Zeitung nicht verdächtig glatt und hat weitaus mehr Bindestriche als sonst? Hören wir wirklich einen alten, verschollenen Song einer geliebten Band oder hat eine KI hier nur ganze Arbeit geleistet? Verstehen Sie mich nicht falsch, schon vor der Einführung der künstlichen Intelligenz war die Welt voller Fälschungen, Streiche und schlau zusammengeschnittener Videos. Doch die Masse und vor allem die Qualität der künstlich erzeugten Medien stellt das eigene Urteilsvermögen immer wieder auf eine harte Probe.

Kommentare
Noch keine Kommentare
Schreib den Ersten! Wir freuen uns auf Deine Meinung.
Über Ashampoo
Anwender
22+ Millionen
Downloads
500.000+ pro Monat
Weltweit
In über 160 Ländern
Erfahrung
Mehr als 25 Jahre
Ashampoo icon