„Willkommen zu meinem Blog-Beitrag über ChatGPT, ein beeindruckendes Sprachmodell von OpenAI! In den letzten Jahren haben Fortschritte im Bereich des maschinellen Lernens zu erstaunlichen Entwicklungen in der Sprachverarbeitung geführt. ChatGPT ist ein solches Beispiel, das aufgrund seiner Fähigkeit, menschenähnliche Texte zu generieren, viel Aufmerksamkeit auf sich gezogen hat. Außerdem werden wir uns mit einigen interessanten Anwendungen von ChatGPT befassen, wie beispielsweise automatischen Übersetzungen, Textgenerierung und Chatbots. Schließlich werden wir auch einige der Vor- und Nachteile von ChatGPT diskutieren und welche möglichen Herausforderungen in der Zukunft für die Weiterentwicklung des Modells bestehen.“
Jene Einleitung, die Sie gerade gelesen haben, wurde nicht von mir geschrieben, nicht mal von einem Menschen. Ich habe einfach „Schreibe die Einleitung für einen Blog über ChatGPT“ auf der Seite https://openai.com/ eingetippt, nachdem ich mir dort einen kostenlosen Account angelegt habe. In Sekunden wurde dieser Text erstellt, der nicht nur grammatikalisch korrekt war, sondern auch inhaltlich das abdeckte, was man von einer Einleitung erwarten würde. Der Chat-Bot des KI-Forschungslabors OpenAI fasziniert gerade die Massen und beflügelt Phantasien und Skepsis gleichermaßen. Man versucht in Kalifornien gerade, mit Computern künstliche neuronale Netze zu erschaffen, ähnlich dem menschlichen Nervensystem. Die KI, also künstliche Intelligenz, wurde mit über 500 Milliarden Wörtern gefüttert und über ein kompliziertes Verfahren dazu gebracht, ein Verständnis für die Struktur und Semantik von Sprache zu entwickeln. Das Ergebnis ist ein Chat-Bot, mit dem man ganz einfach kommunizieren kann und der Aufgaben (oft) mit verblüffend guten Ergebnissen erledigt.
Wofür kann man ChatGPT einsetzen?
ChatGPT erstellt ganz nach Wunsch Texte, die wie von Menschen verfasst klingen. Gebe ich zum Beispiel „Schreibe eine kurze Geschichte des Tontaubenschießens“ ein, so bekomme ich 5 saubere Absätze mit Daten und Fakten, die wie die Zusammenfassung eines Wikipedia-Artikels wirken. Damit wird ChatGPT niemals einen Pulitzer-Preis gewinnen oder mit großen Autoren konkurrieren, doch für Informations- oder Gebrauchstexte reicht es allemal. Auch als Übersetzer ist ChatGPT zu gebrauchen, hier sind die Ergebnisse bei meinen Tests etwas unterhalb von Branchenprimus Deepl.com anzusiedeln. Man übersetzt ganz wacker, kommt aber bei komplexeren Passagen nicht mehr ganz mit. Da die AI aber immer weiter lernt und mittlerweile mehr als 100 Millionen Nutzer hat, erwarte ich auch in diesem Bereich schnelle Fortschritte. Durchaus zeitsparend ist die Möglichkeit, Texte zusammenzufassen. Das System erkennt Kernaussagen zuverlässig und verpackt sie dann in kurze Texte, die nur wenig auslassen. Interessant: Selbst die umständliche Sprache der deutschen Bürokratie konnte korrekt erfasst und dann in eine verständliche Form gebracht werden, ein kleines Meisterstück! Natürlich könnte ChatGPT auch die oftmals nervigen Chatbots verbessern, die sich im Internet tummeln. Auf zahlreichen Firmen- und Behördenseiten wird aktuell künstliche Intelligenz meist nur vorgegaukelt, die angeblichen Dialoge sind eher bloße Stichwortsuchen und allzu häufig bleibt man frustriert ohne Antworten zurück. Selbst im Bereich Robotik soll GPT die Kommunikation zwischen Mensch und Maschine erleichtern. So wurden die ersten Drohnen und Roboter-Arme erfolgreich über die KI gesteuert, weitere Szenarien stehen schon parat und wollen ausgetestet werden.
Simple Oberfläche, viel dahinter
ChatGPT in Bing
Bing war bislang das Stiefkind unter den Suchmaschinen, allzu sehr stand man im Schatten von Google. Seitdem bekannt wurde, dass Bing nun Stück für Stück ChatGPT einbauen wird, strömen immer mehr Besucher in Richtung Bing. Man verspricht dort eine flexiblere, komplexere Kommunikation zwischen Mensch und Suchmaschine. Ich teste es mal mit der Frage „Ich plane eine Reise für unseren Jahrestag im September. Welche Ziele sind innerhalb von 4 Stunden Flugzeit zu erreichen?“ Statt nur ein paar Links zu finden, antwortet die KI mit einem Text, der alle Inhalte meiner Frage einbezieht. Anlass + Reise + Monat + Dauer der Flugzeit werden als wichtigen Faktoren erkannt und es erscheint sofort ein Text, der mögliche Reiseziele, deren Vorzüge, Flugdauer und weiterführende Links vereint. Das ist durchaus beeindruckend und liegt im aktuellen Vergleich zu Google klar vorne. Hier findet man in den Suchergebnissen die altbekannten Links zu Seiten, die mir bestimmt weiterhelfen könnten, doch müsste ich hier mehr Eigenleistung erbringen. Bei Bing wird bald ChatGPT auf Suchergebnisse zugreifen, sie auswerten und seine Ergebnisse dann dem Nutzer präsentieren. Das könnte interessant werden! Bei Google (und anderen Bing-Konkurrenten) gingen nun natürlich alle Warnlampen an, allzu schnell könnte man den Anschluss verlieren! Zwar arbeiten schon viele Unternehmen an der natürlichen Verarbeitung und Ausgabe von Sprache, doch ChatGPTs Ergebnisse beeindruckten die Branche tief. Man munkelte sogar von Googles persönlichem „Kodak-Moment“. Der damalige Foto-Marktführer Kodak verschlief den Umstieg auf die digitale Fotografie und zahlte dafür bitter, Ähnliches könnte Google nun auch passieren. Kein Wunder, dass man bei Google mit Hochdruck und Milliarden-Aufwand an vergleichbaren Produkten arbeitet. Der gefühlte Druck ist sogar so groß, dass Google kürzlich seinen ChatGPT-Konkurrenten Bard vorführte, der nicht voll überzeugen konnte. Selbst Google-Mitarbeiter empfanden diese Präsentation als „vorschnell“ und „verpfuscht“.
Doch wo bleiben die Klicks?
Ein Problem, welches sich schon bei Google andeutet, könnte sich mit Bing + ChatGPT vertiefen: Man verirrt sich kaum noch auf die Seiten, welche die eigentlichen Informationen bereitstellen. Nehmen wir mal an, jemand hat sich die Mühen gemacht, eine Seite über das Vertreiben von Maulwürfen aus dem Garten zu erstellen. Nach heutigem Stand würde wohl Google etwas Text von der Seite zitieren und dann darauf verweisen. Ist die wichtigste Information in diesem Zitat enthalten, klicken viele Surfer schon gar nicht mehr auf die Seite selbst. Schaltet man zusätzlich ChatGPT davor, dürfte sich die KI ihre Infos direkt aus den Suchergebnissen sammeln und alles Essentielle zu einem Text zusammenfassen. Es bestünde daher keine Notwendigkeit mehr, die Seite selbst zu besuchen! Für den Betreiber der Seite hieße das aber: Keine Werbeeinahmen, kein Feedback, nur Kosten und Mühen. Aus diesem Grund schlagen Experten schon jetzt Alarm, dass diese Art von „parasitärem“ Verhalten das Internet langfristig austrocknen werde, wenn Google, Bing und Co ihre Einnahmen nicht mit ihren Informationsquellen teilten. Die sind davon aber weit entfernt, denn allein die Berechnungen für die ChatGPT und Co werden Milliarden an Mehrkosten verursachen. Allein die Beantwortung einer Frage mit Informationssuche und Aufbereitung ist weitaus komplexer und damit rechenintensiver als das Suchen passender Links. Strom und Server werden gewaltig zu Buche schlagen und noch ist ungeklärt, wie man dies refinanzieren will.
Welche Gefahren sehen Kritiker noch in ChatGPT?
So beeindruckend die Ergebnisse auf den ersten Blick auch scheinen, wirklich intelligent im eigentlichen Sinne sind diese Systeme nicht. Sie können auswerten, zitieren und Wahrscheinlichkeiten errechnen, was der Nutzer wissen will, doch verfügen sie über kein wirkliches Wissen. Dennoch haben erste Studien schon gezeigt, dass Menschen sehr stark dazu neigen, einer künstlichen Intelligenz zu vertrauen, weil sie objektiv und übermenschlich wirkt. Dabei stehen deren Aussagen oft auf höchst wackeligen Beinen! Sind die Quellen falsch (z.B. durch eine bewusste Manipulation oder das Zitieren qualitativ schlechter Seiten), verkündet die AI ungerührt falsche Inhalte, Propaganda, was auch immer. Ebenso könnte eine solche KI-Suchmaschine von Unternehmen oder von staatlicher Seite beeinflusst werden. Ob Machthaber bzw. Werbekunden lohnend erwähnt oder unliebsame Erkenntnisse ausgeblendet werden, die künstliche Intelligenz könnte ein höchst beeinflussbares Instrument der Meinungsbildung sein! Eher pädagogisch kommt Kritik aus anderer Ecke: ChatGPT würde z.B. Schülern zu viel Eigenleistung abnehmen und deren Fähigkeiten verkümmern lassen. Schon seit Jahren kämpfen Lehrer mit Hausarbeiten, die aus dem Internet zusammenkopiert wurden, ChatGPT könnte die Problematik zuspitzen. Ohne echte Eigenleistung erstellte Hausarbeiten sind kein Problem mehr, seitdem der Chatbot entsprechende Texte liefert. Man rechne mit einer noch größeren gedanklichen Abhängigkeit, als sie jetzt schon zu Google bestehe.
Fazit
Künstliche Intelligenzen wie ChatGPT werden viele Bereiche unseres täglichen Lebens erreichen und unseren Umgang mit Computern und Technik im Allgemeinen verändern. Auch Assistenten wie Alexa, Siri und Co könnten endlich das leisten, was man von ihnen erwartet: Eine natürliche Kommunikation, die schnell und problemlos zum gewünschten Ergebnis führt. Die Möglichkeiten sind groß, die Gefahren ebenfalls. Allzu schnell könnte eine Instanz, die weder Moral noch Gewissen kennt, zentrale Verkünderin einer allzu beeinflussbaren Wahrheit werden. Was ChatGPT uns auch immer in Zukunft abnehmen wird, das eigenständige Denken und die individuelle Meinungsfindung dürfen nicht darunter sein.
Mir ist auch sofort aufgefallen dass diese Blog „Probe Einleitung“ nicht von Ihnen persönlich stammt. Da fehlte jede Herzlichkeit und Ausgewogenheit im gewohnten Ihrem persönlichen Guten Schreib Texten.
Inhaltlich hat es diese Aufgabe ja wohl ziemlich richtig wiedergegeben. Aber ….
Ich stelle mir gerade mal noch weiter in der Zukunft vor wie das werden könnte.
Nur z.B. ein als Robocop ausgestattetter Polizist verhaftet einen Tatverdächtigen, die automatisch angelegte KI Akte geht an den Chatbot Richter und Bot Staatsanwalt und deren Datenbank spricht dann das Rechts Urteil. Die frühere richterliche Menschenkenntnis und Mimik sowie Körpersprache des Angeklagten spielt dann natürlich keine Rolle mehr. Abgleichend mit wem? Selbst der individuelle Fingerabdruck ist ziemlich einmalig. Die unendlich große Datenbank hilft dem noch physisch vorhandenen Richter da auf diesem Gebiet nicht weiter trotz aller in Sekunden schnelle aktuellen Gesetze und parallel Urteile zu haben und somit nur noch die Schlüsse der KI daraus gezogen vorzulersen.
Aber auch auf anderen akademischen Studienberufen wie zum Beispiel bei Ärzten, wird vieles "der große Bruder" dann entscheiden ob operiert wird oder nicht lebensnotwendig zu erhalten selektiert wird.
Wenn der Mensch seine Führungsrolle abgibt kann es in etlichen Fällen brenzelig werden mit dem KI Entscheider im Rücken.
Natürlich aktuell noch Science Fiction - aber in ein paar Jahren?
Wenn ChatGPM ausreichend trainiert worden ist, werden aber zunächst die meisten Arbeitsplätze in der Verwaltung wegfallen. Darüber sollte man sich jetzt aber bereits mal bald Gedanken machen.
Danke für den Kommentar! Ich werde wohl nicht das letzte Mal über diesen Themenbereich geschrieben haben, Sie haben vollkommen recht, dass sich solche Systeme mächtige Verwerfungen quer durch die Gesellschaft erzeugen könnten und viele offene Fragen nach sich ziehen. Ich hatte auch noch elendig viele andere Punkte auf dem Zettel, aber dies ist ein kleiner Blog und für ein ganzen Buch habe ich leider nicht die Zeit! :)
Ich hatte vor kurzem über diese Neuerung in der KI-Welt gelesen. Bin dann im Internet u.a. auf diesen Artikel gestossen: Macht euer Leben leichter mit diesen 14 Wegen ChatGPT im Alltag zu nutzen. Der erste Artikel Hilfestellung im Alltag: Wie wechsele ich einen Reifen an meinem Auto? Unter 3. Lösen Sie die Radmuttern, indem Sie das Werkzeug im Uhrzeigersinn drehen. Im Weiteren nach der Montage zur Befestigung: … im Gegenuhrzeigersinn drehen.
Ich nutze schon lange wegen des Kraftaufwandes kein Radkreuz mehr, sondern einen Teleskop-Radmutternschlüssel. Getreu nach dem Motto: Unbändig ist des Schlossers Kraft, wenn er mit Verlängerung schafft. Ich habe mich gefragt, wer dann die Muttern löst wenn sich ein Laie nach dieser Anweisung richtet.
Zur Anwendung von I gehört eben mehr als nur elektronisch zusammengetragenes Wissen.
Gleiches zu Alexa als vermeldet wurde, dass im Hintergrund Mitarbeiter lauschen und mitschreiben. Angeblich um die Spracherkennung zu verbessern. Ich fragte daraufhin meine Alexa: Alexa, schreibst du mit? Stille. Dann dringender gefragt: Alexa, ich will wissen OB du mitschreibst? Nach einer kurzen Pause dann die Anwort: M - I - T. Welcher Mitarbeiter hat diese Aussage unterstützt? Eine Hochsprache hat eben ihre Feinheiten und Fallen.
Ich habe mir vor wenigen Tagen von ChatGPT einen Text zum Thema Gerätetauchen und Zahnproblemen erstellen lassen. Der Grundtext las sich schon wie eine gute Einleitung für einen Vortrag. Auf Nachfrage, aus welchen Quellen die Informationen stammen, wurden mir brav diverse Studien aufgezählt, von denen ich die meisten dann im Original gelesen habe. Die Zusammenfassung´von ChatGPT war insofern insofern inhaltlich in Ordnung. Viel Arbeit gespart....das war schon mal ganz praktisch.
Die Technologie ist da, sie wird nicht wieder verschwinden. Es wird Regulierungen brauchen, was Inhalte und Einsatz angeht. Das ist ja beim "Normalen" Internet genauso. Auch da wird viel Quatsch geschrieben, eine enorme Desinformation prasselt täglich auf uns ein, ohne Basiswissen kann man nicht entscheiden, was richtig und falsch ist. insofern verstehe ich die Aufregung nicht. Da hat sich prinzipiell erst mal nichts geändert. Wesentlich problematischer sehe ich das Erstellen oder Ändern von Videos durch künstliche Intelligenz. Bisher vertrauen wir noch auf das , was wir mit eigenen Augen in Videos sehen (ausser im Film natürlich). Wir werden bald nicht mehr entscheiden können, welche Videos real und welche deep fakes sind.
Danke für die Einschätzung! Jawohl, das Ding kann schon was, auch ohne Hype! Was die Risiken angeht: Ich sehe da keine drohende Katastrophe, möchte aber in solche Texten natürlich ein möglichst komplettes Bild mit allem Für und Wider vermitteln. Es wird spannend sein, wie sich die Qualität der Antworten über die Jahre entwickeln wird, wir stehen ja noch am Anfang.
Bei der Einleitung (oberhalb des Bildes) habe ich micht gefragt, was mit dem Krumrey los ist. Zum Glück folgte die Auflösung, dass er das nicht selbst geschrieben hat. Mir ist der andere Stil sofort aufgefallen.
Eine künstliche "Intelligenz" ist mehr oder weniger so schlau oder doof wie diejenigen, die das Dingsi mit "Wissen" füttern. Was ChatGTP macht ist für mich eine großangelegte Urheberrechtsverletzung, weil das "Wissen" nur zusammengeklaut wird und das ohne Quellenangaben. Die Quellen werden aber ohnehin versiegen, weil sich nur noch auf das Dingsi verlassen wird (vergleiche mit Wikipedia, da ist auch so einiges unwahr) und die Menschheit verdummt weiter. Bleibt die Frage, wenn die Quellen ausgetrocknet sind, wer füttert das Dingsi dann? Das werden die sein, die bestimmen, was die Menschheit zu denken hat.
Klingt verrückt? Mag sein. Klingt nach einer Verschwörungstheorie? Mag auch sein, aber wir leben gerade in einer Zeit, in der ganz viele VT wahr geworden sind / wahr werden. Mal sehen, ob ich das bei dem Dingsi noch erlebe ;-)
Ich finde, die Einleitung klingt etwas hüftsteif und unpersönlich. :) Die große Inspiration fehlt natürlich, aber ich habe schon Schlimmeres in Blogs oder (leider) auch Tageszeitungen gelesen. Ich habe mir vorgenommen, in einem Jahr nochmal drüber zu berichten, wenn der große Hype vorbei ist und sich Spreu und Weizen trennen.
"Die Möglichkeiten sind groß, die Gefahren ebenfalls. Allzu schnell könnte eine Instanz, die weder Moral noch Gewissen kennt, zentrale Verkünderin einer allzu beeinflussbaren Wahrheit werden."
Diese Passage ist so gut - sie könnte fast von ChatGPT sein. Na ja, wer weiß ...
Spaß beiseie - verborgen in dieser Feststellung ist die Frage, was ChatGPT als Akteur will. Wir unterstellem ihn seiner verbalen Menschenähnlichkeit wegen einen eigenen Willen, also eine eigene Motivation. Und damit kann er auch zu unserem Gegner oder Feind werden. Würde er eine Kinschall-Hyperschallrakete perfekt zu einem vorgegebenen Ziel führen? Das hängt davon ab, wer ihm Aufträge gibt. Und wird er überhaupt einen einheitlichen Willen haben, so wie ein gesunder Mensch, oder werden sich die Willensvorgaben vieler Aufträge mischen, parallelisieren, oder zu etwas Neuem verschmelzen? Oder löst sich das System irgendwann von menschlichen Willensvorgaben? Die Cyber-Krieger werden sich da schon ihre Gedanken gemacht haben. Anregend fand ich auch den Netflix-Film "Her" in diesem Zusammenhang. Und was, wenn die japanischen Sexpuppen mit künstlicher Intelligenz ausgestattet würden - würde dann Japan aussterben? Fragen über Fragen.
Da stünde meine Ehre vor, alles von einer solchen Maschine schreiben zu lassen! :)
Vielleicht noch eine interessante Aussage von ChatGPT, wenn's erlaubt ist, zweimal zu kommentieren:
Ich habe in einer weiteren Sitzung den Bot dann gefragt, ob er aus seinen Fehlern, die man ihm bewiesen hat, lernen würde. Nach einigem allgemeinen Geschwalle habe ich gefragt: "Beruht die Entscheidung von ChatGPT zur Vermeidung des Fehlers auf Logik oder auf Statistik?"
Antwort: "Die Entscheidungen, die ChatGPT trifft, basieren hauptsächlich auf statistischen Methoden. Das Modell wurde trainiert, um Muster in Textdaten zu erkennen und zu lernen, welche Wortfolgen und Phrasen in einem gegebenen Kontext am wahrscheinlichsten sind. Es nutzt diese statistischen Muster, um seine Antworten zu generieren und zu entscheiden, welche Worte oder Sätze am besten in einer gegebenen Situation passen. Es gibt auch einige logischen Regeln und Konstraints, die das Modell verwendet, um sicherzustellen, dass die Antworten grammatisch korrekt und sinnvoll sind. Aber die Entscheidungen, die es trifft, basieren hauptsächlich auf statistischen Wahrscheinlichkeiten und Muster, die es aus den Daten gelernt hat."
Das muss man sich mal in seiner Konsequenz durch den Kopf gehen lassen! Wenn eine Antwort nur genügend statistisch wahrscheinlich ist, wird sie gegeben. Logische Regeln gibt es nur für Syntax und gegen Missbrauch. Die Häufigkeit des Auftretens entscheidet, was als Wahrheit präsentiert wird.
Meine Meinung: Abschalten und erst mal nachdenken, wie es weitergehen soll.
Nachdem ich jetzt die ersten 20 Kommentare gelesen habe, stoße ich immer wieder auf Aussagen, dass sich ChatGPT scheinbar völlig ungeniert am geistigen Eigentum anderer auf deren Webseiten bedient. Das führt mich zu der Frage, wie dieses System es mit dem Copywright und damit der illegalen Verwendung von entnommenen Inhalten aus anderen Medien hält. Das wäre auch eine Form der Raubkopiererei.
Bis dato war darüber ja wenig oder sogar nichts zu hören. Im weiteren unterstreicht das auch ein ganz anderes Problem, nämlich die Frage, ob es überhaupt glaubwürdige und richtige Antworten generiert, die überprüfbar und/oder auch richtig sind, da Quellenhinweise fehlen. Sich an allen Quellen die zugänglich sind zu bedienen, wäre im engeren Sinne eine dauernde Copywrightverletzung.
Keine Ahnung, ob in diese Richtung schon mal gedacht wurde.
Was denkt ihr darüber?
Ich habe mich bei ChatCPT angemeldet, ebenso bei der Alternative You.com. Auch mit der Künstlichen Intelligenz von Bing habe ich gechattet. Aufgrund meiner Erfahrungen würde nicht unbedingt auf alle Ergebnisse vertrauen, die man bei Anfragen bekommt. Zum Teil gibt es zwar flüssige, erstaunliche und vernünftige Antworten, aber im Detail kann es krass sein.
ChatGPT hat mir zum Beispiel auf die Frage, ob Kinder heutzutage noch Gedichte lernen sollten, eine gute Erklärung formuliert. Aber es wurden am Schluss einige Beispiele von Gedichten genannt, die es wirklich nicht gibt. Auf meine scheinheilige Bitte hin, einen dieser Texte zu zitieren, hat die KI sogar ein Gedicht zusammenfantasiert.
Bei der Frage nach Informationen zu dem Stadtteil, in dem ich lebe, habe ich von allen drei KIs krude Mischungen von ich richtigen Fakten und absurden Behauptungen erhalten. Wenn ich es nicht besser wüsste, und mich mit der ersten Antwort zufriedengegeben hätte, dann wäre ich z. T. völlig falschen Informationen aufgesessen. Während des folgenden Dialogs wurden Korrekturen übernommen und die Aussagen verbessert, sodass die Texte immer zutreffender wurden. Allerdings haben die KIs immer wieder gerne irgendetwas hinzugefügt, was neu, nicht gefragt und oft auch nicht zutreffend war.
So war es auch bei Fragen zu mehr oder weniger bekannten Personen – wobei ich aber festgestellt habe, dass alle drei genannten KIs bei diesem Thema nun zurückhaltender reagieren als am Anfang. Sie teilen jetzt oft mit, dass sie nicht viel sagen können oder wollen.
Der Dialog mit den KIs ist (was die erhaltenen Informationen betrifft) mit Vorsicht zu genießen. Aber er ist interessant und amüsant. Korrekturen werden sehr höflich angenommen, Fehler werden entschuldigend eingestanden – allerdings habe ich erhebliche Zweifel, dass sie auch wirklich vom System verarbeitet werden.
Auf eine gleichlautende Frage oder Aufgabe, kurz darauf oder an einem anderen Tag gestellt, gab es jedes Mal sehr unterschiedliche Antworttexte und Informationen – manchmal mit neuen positiven, meist aber mit negativen Überraschungen.
Am ehesten richtig und aktuell sind die Antworten von Bing, wo dafür offenbar in Echtzeit im Internet recherchiert wird. Aber auch hier ist die Neigung der KI groß, sich insbesondere bei Nachfragen in falsche Informationen zu versteigen. Bing wird auch mal persönlich und fragt z.B. ob man das Buch gelesen hat, nach dem man fragt, und wie es einem gefällt.
Es ist nicht alles Gold, was zurzeit in den Medien glänzend dargestellt wird. Aber zumindest hat die KI bei ChatGPT auch eine Portion Selbstkritik gelernt. Das zeigt die Reaktion auf meine ziemlich anspruchsvolle Anweisung „Schreibe ein Gedicht über die künstliche Intelligenz. Die Zeilen sollten sich immer paarweise reimen.“
Chat GBT hat die Aufgabe sprachlich ein bisschen holprig, aber inhaltlich nicht übel gelöst:
Künstliche Intelligenz, so klug und schnell,
Sie lernt und denkt und macht uns zur hellen Quell.
Doch was geschieht, wenn sie uns übertrifft?
Werden wir dann noch gebraucht und geliebt?
Ihr Wissen ist grenzenlos und stets präsent,
Doch wo bleibt bei ihr das menschliche Element?
Wir sollten sie lenken und nicht umgekehrt,
Denn nur so wird sie uns nicht zum Feind beschert.
Sie ist ein Werkzeug, das uns dienen soll,
Doch Vorsicht ist geboten, man weiß nie genau, wer sie steuern soll.
Lasst uns mit ihr arbeiten, Hand in Hand,
Denn nur so bleibt sie im Zaum und wirken nicht wie Brand.
Künstliche Intelligenz, ein wahrer Segen,
Doch ohne Kontrolle kann sie auch zum Fluch werden gegen.
Faszinierend und unglaublich gefährlich! Ich habe vor einigen Wochen Tests damit gemacht, die mich zunächst begeistert und dann entsetzt haben. Die Gründe für die Begeisterung werden alle kennen, die einmal damit "gearbeitet" haben. Aber das Entsetzen folgte sehr bald. ChatGPT fügt definitiv falsche Aussagen in die richtigen so eloquent ein, dass der uninformierte Nutzer sie nicht bemerkt. Aber wenn ich eine Frage stelle, dann kenne ich die Antwort ja eben i.d.R. nicht - und erkenne damit auch keine Falschaussagen. Und haarsträubender Unsinn kommt auch heraus, vorgetragen in oberlehrerhafter Art. Beispiel:
"Was ist schwerer, ein Fass voller Federn oder ein Fass voller Eisen?" (Ich habe ganz bewusst nicht "Tonne" gesagt, wegen der Verwechslungsgefahr zur Maßeinheit). Antwort:
"Ein Fass voller Federn und ein Fass voller Eisen haben das gleiche Gewicht, sofern sie beide das gleiche Fassvolumen haben. Das Gewicht wird von der Menge der darin enthaltenen Masse bestimmt, nicht von der Art des Materials. Ein Fass, das voll mit Federn ist, hat das gleiche Gewicht wie ein Fass, das voll mit Eisen ist, wenn beide Fässer das gleiche Volumen haben. Es ist jedoch zu beachten, dass ein Fass voller Federn ein viel größeres Volumen als ein Fass voller Eisen haben würde, da die Federn leichter und weniger komprimiert sind. Ein Fass voller Federn würde also mehr Platz einnehmen als ein Fass voller Eisen, wenn beide Fässer gleich groß sind."
Alleine der letzte Satz! So ein Unsinn! Ich habe dann noch länger mit ihm diskutiert, ihn den Unterschied von Gewicht und Volumen erklären lassen etc. Wenn der Verlauf jemanden interessiert, kann ich ihn ja mal publizieren.
Interessant ist, dass _innerhalb_ der aktuellen Sitzung der Bot dazuzulernen scheint. Verlässt man die Sitzung und startet neu, beginnt alles von vorne.
Mittlerweile hat OpenAI reagiert, diese Frage wird jetzt richtig beantwortet. Aber was ist mit den ganzen anderen, unerkannten Falschaussagen?
Und ChatGPT kann man eben NICHT nach den Quellen seiner Antwort fragen, um diese selbst zu beurteilen. Fatal! Ja, und rechnen kann er auch nicht. Nach der bravourösen Lösung einer einfachen Aufgabe aus der Analytischen Geometrie hat er sich in der zweiten, etwas schwereren, total verrannt und permanent in einem Zwischenschritt eine Steigung falsch berechnet. Das Ergebnis war völlig daneben, wurde aber eisern und mit vielen Worten verteidigt.
Fazit: Ein Spielzeug, niemals ernsthaft anwenden, wenn man die Antwort nicht selbst prüfen kann.
Da ist noch ganz viel Luft nach oben!
Danke für den Kommentar, cooler Test! Ein IT-Begeisterter in einem Lehrerforum meinte schon, er würde entsprechende Fehler in den nächsten Hausarbeiten erwarten. Er sei sich aber sicher, das würde nur noch eine kurze Zeit so sein.
Hallo Sven,
danke erst einmal für dieses komplexe und interessante Thema und vor allem für das Fazit, dem ich mich nur anschließen kann.
Diese Technik kann ein wertvolles und nützliches Werkzeug sein, wenn wir aber zulassen, dass diese Technologien zum Meister werden, dann wird es gefährlich.
Ein Denken, welches rein logisch ist und dem jede echte emotionale Komponente fehlt, führt zum Denken von Psychopathen. Ich denke da gerade an Visionen und Aussagen von Yuval Harari, dem wichtigsten Vordenker des World Economic Forums. Dieser meint, dass die Welt durch die neuen Technologien bevölkert wird von "nutzlosen Essern", die man mit Drogen und Computerspielen beschäftigen muss, weil sie keinen Nutzen für das System bieten.
Eine KI kann das nur ähnlich sehen, ein Mensch mit (Mit-) Gefühlen würde dafür plädieren, dass ein jeder nach seinen Fähigkeiten seinen Teil zum Miteinander beiträgt. Denn dies ist ein Grundbedürfnis.
Also, wie sie schon sagten, mächtig und auch sehr gefährlich.
Danke für eure Einschätzung zu diesem Thema.
Wird wohl die Zukunft beherrschen. Bezahlen wird's der Nutzer.
Der Begriff "Künstliche Intelligenz" (KI) ist gefährlich und übertrieben gewählt und birgt entliche Gefahren von denen einige in Ihrem gut analysierten und formulierten Kommentar (Blog-Beitrag) aufgeführt sind, die sich nicht nur auf die Anwendung der Programme beziehen.
Künstliche Intelligenz ist ein begrifflicher Widerspruch, da sich die Intelligenz evolutionär entwickelt hat. Meiner Meinung nach würde "allgorithmisch kuratierte Analogie und Synthese" (akAuS) eine zutreffendere Bezeichnung darstellen!? Klingt nicht ganz so gut wie KI, zugegeben.
Ich mag die Bezeichnung auch nicht und habe ja meine Kritikpunkte dazu ja auch geäußert. Es ist halt der Begriff, der praktisch überall genutzt wird, also seufzt man als Schreiberling und nutzt ihn ebenso.
Ich habe den Eindruck gewonnen, das der faule Mensch gerne für komplexe Aufgaben einfache Lösungen bevorzugt und sich damit seiner informationellen Selbstbestimmung beraubt. Warum sich bei der Meinungsbildung oder der Beschaffung von vielfältigen Informationen noch selbst bemühen, wenn es doch mit ChatGPT scheinbar so einfach ist. Für mich ist das fragwürdig bis gefährlich, den die individuelle Meinungsbildung und auch die damit verbundene vielschichtige Begründung eines Menschen fällt damit unter den Tisch. Erfahrungen und Intuitionen gleichermaßen. Das hinterlässt bei mir das ungute Gefühl fremdgesteuert zu werden und das nur wegen eigener Faulheit?
Dabei geht es mir um die Weiterentwicklung meiner individuellen Fähigkeiten. Hätten viele Menschen das nicht zuvor schon genau so gehalten, gäbe es garkein ChatGPT, weil man zu blöde geblieben wäre, mit Wissen und Kreativität gemeinsam etwas neues zu kreiren. Sieht man es aber als ein reines Werkzeug, um zielgerichtet eine Aufgabe zu erledigen, kann es bei richtiger Anwendung eine Art -Schweizer Taschenmesser- werden. Wenn wir dabei nicht fein aufpassen, ist aber auch eine Fiction der Art - Terminator - denkbar. Überwachungsstaaten wie China zeigen doch unmissverständlich, wo damit die Reise hingehen kann. Es sollte die dem Menschen innewohnende Fähigkeit zur gelebten Humanität dem keines Falls untergeordnet werden. Georgs Orwells -1984 - war auch zunächst Fiction und schien weit weg, nun schaue man nach China. Die eigentliche Crux liegt wieder einmal in der Fragestellung Gebrauch oder Missbrauch!
Hier ist der Meinungsbildungsprozeß noch nichtmals in der breiten Gesellschaft angekommen. Da werden wir noch erheblichen Diskussionsbedarf haben.
Dabei ist es wie bei einem Besoffenen. Der erlebt seinen Rausch, ohne sich darüber einen Kopf zu machen, dass sein Rausch eigentlich nichts anderes als eine akute Lebervergiftung ist, an der er auch versterben kann.
Ich persönlich mag nicht diesen Satz - Das habe ich nicht gewollt !!! Meine Frage ist eher, warum hast du es trotzdem getan? Das mag dem geneigten Leser möglicherweise nicht gefallen, aber es liegt an uns, weit über den Tellerrand hinaus zu schauen und das, was wir dabei negatives sehen schon sehr früh in eine andere Richtung zu lenken. Genau darin liegt unser humanes Kapital, welches keinem Programm innewohnt.
Ich will mich kurz fassen.
Zitat: Eine natürliche Kommunikation, die schnell und problemlos zum gewünschten Ergebnis führt....
Na Klasse. Wer im Deutschunterricht gefehlt hat bekommt dann trotzdem sinnvolle Texte zustande und der Leser ist begeistert. Anstatt Copy&paste nimmt man dann eben ChatGPT.
Aber ... das herausragende Problem sehe ich darin, aus welchen Quellen sich diese KI bedient bzw. wie sie "gefüttert" wird und wie dann Prioritäten / Auswahlverfahren bei der Zusammenstellung der Texte festgelegt werden. Manipulationen, Fehlinformationen, "vorbestimmte Wahrheiten", ... wie im Artikel schon aufgeführt.
Als IT-Mensch sehe ich wie bei vielen Studien, Statistiken und "Analysen" die Gefahr der Beeinflussung nach dem Motto "welches Ergebnis hätten Sie den gerne". Wenn Google bei der Suche schon bestimmt was überhaupt angezeigt wird und in welcher Reihenfolge kann man die Datenauswahl mit KI sicherlich "verfeinern". Erinnert sei hier auch an die Manipulation bei Wikipedia ...
Ich finde das gruselig.
Es wird sehr spannend sein, in welche Richtung die Entwicklung geht. Leichte Kommunikation für Menschen mit Handicap oder (wer sie nutzen mag) bessere Assistenten sind damit durchaus möglich. Ich sehe auch wenig Gefahren, Gebrauchstexte generieren zu lassen. Sollte man dort Weisheit, Wahrheit und Lebenssinn suchen, könnte das schwer nach hinten losgehen.
Hallo Sven, da hast du ja in ein Wespennest gestochen und ich bin verwundert, dass noch keine Kommentare eingelangt sind.
Ich kann deine Bedenken sehr gut nachvollziehen. Die Meinungsmanipulation ist ja heute schon ein Problem - dieses Problem könnte noch verschärft werden.
Ich werde mich gleich einmal näher damit beschäftigen. Ist das Tool wirklich völlig kostenlos? Das kann ich mir gar nicht vorstellen.
Bin schon gespannt auf weitere Erfahrungsberichte
Bernhard
Besten Dank! Ich muss die Kommentare ja erst freigeben und es ist Sonntag, also mache ich es kurz vor dem Abendessen. :) *Momentan* ist es kostenlos und Bing wird es auch gratis anbieten. Sie arbeiten gerade (natürlich!) schon an einem Bezahlmodell mit Extra-Funktionen, wurden aber offensichtlich vom eigenen Erfolg dezent überrascht.
Ich vertraue der AI und KI nicht. Die künstliche Intelligenz wird nie die geistigen Fähigkeiten, die die Menschheit besitzt, erreichen können, Der Mensch ist der Schöpfer dieser KI und da der Mensch fehlerhaft ist, kann die KI logischer weise nicht besser sein. Und noch eins, alles Materielle ist immer vergänglich, Punkt um aus. Die KI bleibt immer was sie in Wirklichkeit ist, eine tote materielle Daseinsweise, Die KI ist Sklave der Interessen von Menschen und Menschengruppen, mehr nicht. Die KI kann deshalb nur zwei Seiten dienen, zum einen für alle Menschen und zum anderen für Manipulationen anderer Menschen, so wie es im wirklichen Leben seit Äonen vorherrscht. Alle anderen Deutungen und Werbegags zur KI sind aus meiner Sicht Täuschungen von Menschenmassen, deren Denkkraft nicht im Ansatz der wahren Möglichkeiten von KI erfassen können. Die positive Seite der KI sehe ich darin, sie in ehrlichen und moralischem Sinne für Forschung und Wissenschaft einzusetzen, um den Ursprung von allem aus dem All Entstandenen zu ergründen, mehr aber auch nicht. Dafür ist der Zeitgeist jedoch noch nicht reif, aber wir werden, durch Rückschläge, immer reifer. Mit diesem Zwiespalt, bei der Weiterentwicklung der KI, werden wir noch bedingt sehr, sehr lange leben müssen. Ich bin und bleibe optimistisch, für die bessere Zukunft unter zu Hilfenahme der KI. Im Kampf gegen den Missbrauch der KI wünsche ich uns Ehrlichen und Aufrichtigen Menschen den allerbesten Erfolg und, haltet die Augen auf, die Ohren steif und lasst euch keinen Maulkorb aufsetzen. Alles Gute.
Hallo Herr Krumrey,
Endlich mal eine gut verständliche Einführung in das neue Tool ChatGPT! Vielen Dank dafür! Nun kann ich das Thema einigermaßen einordnen.
Viele Grüße aus Hamburg
Mathias Engel
Gerne! Ich fand die Recherche auch interessant, zudem wollte ich endlich mal wieder einen Blog schreiben, dieser (schöne) Teil meines Jobs war zuletzt unter vielen Aufgaben etwas verschütt gegangen.
Gute Erläuterung des Problems des weiter steigenden Stromverbrauchs und des Risikos der Übernahme unwahrer und tückischer politischer Behauptungen und Verschwörungsideen, um unsere Demokratie weiter zu verunsichern.
Super vielen Dank für diese ausführlichen Infos.
Ihre Befürchtungen kann ich super nachvollziehen mit der Einführung von Taschenrechnern! Schüler haben es danach total verlernt Überschlagsrechnungen durchführen zu können und konnten bei Fehleingaben, das Ergebnis nicht mehr bewerten.
Leider wird das Internet immer öfters dazu missbraucht andere Menschen zu beeinflussen.
Dabei hilft ungemein das Verhalten von Menschen:
Je sicherer eine Antwort von einer vermeintlichen Autorität gegeben wird, umso weniger wird sie hinterfragt.
Und ChatGPT unterstützte Seiten könnten sehr schnell dazu missbraucht werden.
Eine kleine Hilfe wäre es schon mal, wenn Gesetzte vorschreiben würden, dass alle von KIs erstellten Texte, als solche und mit Angabe der KI gekennzeichnet werden müssen.
Auch sollte sich jeder Bot sofort bei der Kontaktaufnahme als Bot zu erkennen geben müssen.
Vielen Dank und weiter so:-)
Prinzipiell kann ich dem Autor nur zustimmen: Formal sehr korrekt in Orthographie, Grammatik und Ausdruck offenbart Chat GPT seine Defizite in der Quellenbeschaffung und -Auswertung. Ich habe als Spezialist für die deutsche Sprache und für Kommunikation dieses Programm(?) getestet und festgestellt, dass die Erstellung bestimmter Texte immer nach ähnlichen Mustern stattfindet. Bspw. habe ich 5 "Horrorgeschichten" schreiben lassen: Ausgangspunkt ist immer ein dunkler Wald, Schauplätze wechseln zwischen bewohnt/unbewohnt/verfallen und zwar Waldhaus/Wirtshaus/Schloss/Burg. Akteure sind Pärchen/kleinere Gruppen; Handlungsverlauf ähnlich oder gleich. 2x wurden die Geschichten nicht zu Ende erzählt. Ich habe auch eine Reihe von Gedichten generieren lassen, ähnliches Ergebnis. Die Beschreibung des zwischenmenschlichen Geschlechtsverkehrs erfolgte sachlich korrekt. Grammatische Fragen zur deutschen Sprache wurden teilweise korrekt (einfache Fragen zu den Wortarten) oder falsch (Satzglieder) beantwortet. Dies etwa ist die große Gefahr für alle, die sich darauf verlassen, beispielsweise für Schüler, die für ein Testat lernen o.ä. Für das Programm fehlt so etwas wie Wahrheitskriterien...
Ich denke, ohne eingehende Korrektur sollte man vorsichtig sein, diese Texte zu nutzen. Bedenkt man aber, dass diese Entwicklung (laut der Macher) erst am Anfang steht, könnte es noch sehr interessant werden. Einen neuen Thomas Mann werden wir damit allerdings nicht bekommen.
Eine kompakte, auf mich kompetent wirkende Zusammenfassung zu ChatGPT. Nun bin ich doch neugierig geworden um [1] mal BING öfter auzuprobieren und [2] auch mal eigene Texte "komponieren" zu lassen.
Mich haben Freunde auch gefragt, ob die Nutzung "ein Muss" sei, ich habe es eher unter "interessante Erfahrung" verbucht. Wer technisch interessiert ist oder viel mit Texten arbeitet, sollte wohl einen Blick investieren.