Anzeige(1)

  • Liebe Forenteilnehmer,

    Im Sinne einer respektvollen Forenkultur, werden die Moderatoren künftig noch stärker darauf achten, dass ein freundlicher Umgangston untereinander eingehalten wird. Unpassende Off-Topic Beiträge, Verunglimpfungen oder subtile bzw. direkte Provokationen und Unterstellungen oder abwertende Aussagen gegenüber Nutzern haben hier keinen Platz und werden nicht toleriert.

Eure Meinung zu ChatGPT

Im Grunde ist es auch nur eine Datensammlung.
Nein, es ist keineswegs nur eine Datensammlung. Für sich allein nützen die Daten wenig. Wichtig ist, dass möglichst viele Verbindungen zwischen den unterschiedlichen Daten hergestellt werden.
Das Verrückte ist, das KI sogar halluzinieren kann, wenn sie die Antwort nicht weiß. Sie erfindet dann eine Antwort, die sogar halbwegs plausibel klingt. Deshalb ist es äußerst wichtig, die Antworten auch zu überprüfen.
 
ChatGPT besetzt eben eine Lücke, die viele Menschen spüren. Es ist bescheuert und wird medial oft anders eingeordnet, aber ChatGPT gibt halt leider wirklich teilweise bessere Antworten als Ärzt*innen oder Therapeut*innen. Während man oft nur ein kurzes Zeitfenster hat, um zB beim Arzt Beschwerden zu erklären, oft nicht ernstgenommen wird und dann notdürftig untersucht wird, kann man mit ChatGPT oder ähnlichen Programmen in aller Tiefe verschiedene Symptome durchgehen, sie spezifizieren, nachlesen, was ChatGPT als Lösungen vorschlägt, zustimmen oder widersprechen etc. Gut finde ich das trotzdem nicht, denn es ist ein großes Problem, welche sensiblen Daten dadurch auf US-amerikanischen Servern landen.

@Luisa1960 aber ChatGPT hat natürlich keine Emotionen und ist auch kein Mensch. Die "mitfühlenden" Antworten sind reine Logik und Datenverarbeitung. Trotzdem fühlt es sich gut an, das verstehe ich, gerade wenn sich im Umfeld niemand annähernd ähnlich viel Zeit nimmt, genauer hinschaut, mitfühlend hinterfragt. Aber hier habe ich anhand dessen, was du schreibst, etwas die Sorge, dass die Grenzen etwas verschwimmen. Nichts an ChatGPT fühlt etwas oder interessiert sich in irgendeiner Form für dich als Mensch. Das ist einfach ein Programm, das errechnet, welche Antworten auf deine Fragestellung passen.
 
Für Dumme ist es auf den ersten Blick eine Erleichterung.
Auf den zweiten Blick wird künftig derjenige die Macht haben, der die KI kontrolliert.
Schafe glauben alles.
Wenn ich die KI mit manipulativem Schrott füttere, bin ich König der Welt.
Kurz: KI ist eine der unnötigsten Erfindungen ever.
Sie suggeriert Wissen und Emotionalität, bietet aber nichts davon.
Genau, so ist es. Wie sagte mal jemand: Die Masse ist lenkbar.

Wird damit gut getestet.
 
Ich nutze KI so wenig wie möglich.
Direkte Fragen habe ich noch nie an eine KI gerichtet.
So wie ich die Dinge aktuell sehe, werde ich das auch nicht machen.
Recherche im Netz geht auch "vordergründig" ohne KI.
Im Hintergrund ist sie mittlerweile schon fast allgegenwärtig.

Gegen eine vorsichtige Nutzung, mit Gegenscheck ist nichts einzuwenden.
Blindes Vertrauen halte ich allerdings für sehr gefährlich.
Leider stelle ich fest, dass es eine Tendenz in diese Richtung gibt.

Einen erheblichen Unterschied macht es aus meiner Sicht, ob man KI fachbezogen nutzt oder für allgemeine Fragen des Lebens.
Eine fachbezogene Nutzung kann ich mir für die Zukunft ggf. vorstellen.
Eine Nutzung für allgemeine Fragen des Lebens werde ich so lange möglich vermeiden.
 
Ich denke, dass ChatGPT ein gutes Tool sein kann, sowohl für emotionale Bedarfe, die andere Menschen (temporär) nicht decken können, als auch für den Arbeitsalltag. Man darf aber nicht vergessen, wie LLMs funktionieren: Sie berechnen - stark verkürzt erklärt - die Wahrscheinlichkeit von Wortkombinationen auf Basis der Daten, die sie kennen. Sie kennen in der Regel mindestens alle öffentlichen Daten im Internet, also reagieren sie auch in einer Weise auf emotionale Anfragen, wie (insbesondere nach US-amerikanischer Sozialkultur) reagiert werden sollte, wie echte Menschen aber oft nicht reagieren können und wollen.

Was man dabei wissen sollte:
  • ChatGPT hat kein "Wissen", es weiss nichts - es versteht die Inhalte nicht, die es ausgibt. KI ist keine technisch-geistige Intentität, die über die eigenen Inhalte reflektiert (das kann sie nur in ganz geringfügiger Art und Weise *simulieren*, wenn man sie entsprechend prompted oder wenn die Funktionsweise wie bei dem neuesten Modell z.B. auch auf das Erkennen suizidaler Hinweise geschärft wird, wenn also die Funktionsweise entsprechend programmiert und trainiert ist). Die ausgegebenen Antworten sind deshalb passend (und oft auch richtig), weil, wie gesagt, die Warscheinlichkeit bestimmter Wortkombinationen berechnet wird und diese Berechnung oft erfolgreich klappt. Diese Wortkombinationen sind aber kein reflektiertes Wissen der KI.

    Aufgrund der o.g. Funktionsweise halluzinieren die Modelle (und zwar alle). ChatGPT ist also keinesfalls eine bessere Suchmaschine oder gar ein Research Tool für fachliche Themen. Wer mit KI arbeitet, muss zwingend ein Verständnis von der Sache selbst haben, mit der er mithilfe der KI arbeitet, er muss die Antworten der KI also entsprechend selbst bewerten können. Man sollte Informationen nicht ungeprüft übernehmen. Die aktuellen "Thinking"-Modelle sind ein bisschen besser, weil sie inzwischen konkrete Quellen angeben. Sie sind damit für Alltagswissen sicherlich in Ordnung. Wenn es aber spezieller wird, vor allem hinsichtlich medizinischer und anderer fachwissenschaftlicher Themen, sollte man es bei eigener Unkenntnis lieber lassen bzw. wenn, eher als "Anregung" verstehen, der man selbst mithilfe von Ärzten (oder anderen Experten) weiter nachgehen könnte, nicht als gesichertes Wissen.

    Die Modelle werden auch leider langfristig halluzinieren, in der aktuellen Funktionsweise lässt sich das nicht korrigieren.

  • Aufgrund der beschriebenen Funktionsweise erkennt ChatGPT auch anhand deines Prompts, und anhand deiner darauffolgenden Eingaben als Reaktionen auf seine Antworten, welche Reaktionen dir gefallen - das fliesst mit in seine Wahrscheinlichkeitsberechnung, die wiederum Grundlage für die weiteren Antworten ist.

    Entsprechend ist ChatGPT keinesfalls ein "neutrales Gegenüber", das endlich dein Erleben und deine Gedanken richtig "versteht" und "einordnet". Es nicht vergleichbar mit einem Menschen, der deine Ansichten und Haltungen hinterfragen kann (und das ja, je nach Kultur, auch mehr oder weniger stark tut), der dir zustimmt, weil er deine Ansichten und Haltungen wirklich für richtig hält. ChatGPT kann in einem ganz geringen Umfang, wenn man es entsprechend prompted und konfiguriert, Inhalte infrage stellen und prüfen - bzw. eine solche Infragestellung und Prüfung *simulieren*. Aufgrund der o.g. Funktionsweise wird es aber nie als vollständiges Korrektiv funktioneren. Es wird dir tendenziell eher zustimmen (im Rahmen seiner mittlerweile hart integrierten moralischen Grenzen, wieder nach US-amerikanischer Sozialkultur). Deshalb gibt es auch diverse Fälle von Psychosen, die von der KI gefüttert und intensiviert wurden und deshalb fühlst du dich auch so gut verstanden durch die KI.

  • ChatGPT hat seinen eigenen, sehr wiedererkennbaren Schreibstil, eine wiedererkennbare Wortwahl und v.a. in emotionalen Angelegenheiten auch eine wiedererkennbare Argumentationsweise. Inzwischen ist der Schreibstil ja einigen aufgefallen anhand der langen Gedankenstriche oder auch anhand bestimmter sprachlicher Stilmittel, die ChatGPT verwendet, und das wird online entsprechend diskutiert (kurze Sätze, Anapher, etc.).

    Da die meisten Menschen aber die Sprachkompetenz von Toastbrot haben (sorry, isso), schleichen sich auch in die Alltagssprache Wortwahlen und Stilmittel ein, die vielen Menschen gar nicht als von ChatGPT kommend auffallen, aber erst herumgeistern, seit eine breite Masse mit ChatGPT schreibt und arbeitet; z.B. dieser ganze Nervensystem-Bullshit - und ich meine damit sowohl die Wortwahl als auch die Argumentationsweise: Ah, das eigene Nervensystem regulieren, das eigene Nervensystem beruhigen, ein "entgleistes" Nervensystem haben; im Deutschen alles eine eher seltsame Wortwahl, und aus psychologischer Sicht auch eine sehr generische Argumentation (und so wird sie auch inzwischen sehr generisch im Alltagswissen verwendet), die durch ChatGPT und seine US-amerikanische Kultur auch den Eingang in die Deutsche Sprachkultur und die Deutsche alltägliche Argumentationskultur gefunden hat.

    Menschen sprechen mit ChatGPT über ihre Sorgen und ihren Stress, es werden entsprechende Inhalte für Social Media mit ChatGPT generiert, es wird dann wieder in der Alltagssprache und im Alltagswissen übernommen, usw. - nur ein Beispiel von vielen. (Ein anderes Beispiel wäre im Übrigen der stetige Hinweis, irgendein random völlig normaler Struggle bedeute nicht, dass man "schwach" sei lol, und es gibt noch mehr solcher wiedererkennbarer Stilmittel und generischen Argumentationsweisen, die inzwischen ihren Weg in die Alltagssprache und das Alltagswissen gefunden haben).

    Nicht nur ist es deshalb inzwischen erkennbar, wenn du Inhalte mit ChatGPT generiert hast, auch werden unbewusst bestimmte Inhalte in den eigenen Schreibstil und das Alltagswissen übernommen. Deshalb merkt man im Alltag selbst dann, wenn dein Text nicht mit ChatGPT geschrieben wurde (oder du frei sprichst) - also zumindest merken es all diejenigen, die nicht die Sprachkompetenz von Toastbrot haben - dass du viel mit ChatGPT schreibst (und/oder viele entsprechende Beiträge auf Social Media konsumierst).

Man könnte sicher noch deutlich mehr dazu sagen - z.B. dass die Art und Weise, wie LLMs funktionieren, strukturell der generellen Funktionsweise von Kommunikation in einer modernen Gesellschaft gleicht, aber ich belasse es dabei.

Der Beitrag wurde nicht mit ChatGPT verfasst. 😉

VG
 
Wir "organischen" sammeln Daten.
ChatGPT sammelt Daten

Wir haben Zellen.
ChatGPT hat Speicher und Prozessoren.

ChatGPT hat mir ein Gedicht geschrieben. Das hat bis jetzt kein Mensch hinbekommen.
ChatGPT hat keine Verbrechen begangen.

Mein Fazit: ChatGPT ist menschlicher als der eine oder andere Mensch.
 
Santino hat es schon so gut zusammengefasst, dass es da eigentlich kaum noch was zu ergänzen gibt.
Im Endeffekt ist eine KI von der Funktionsweise an ein menschliches Gehirn angelegt: Daten Sammeln, bewerten, kombinieren und dann Rückschlüsse ziehen. Mit dem feinen Unterschied, dass Emotionen nicht vorhanden sind und nur "vorgetäuscht" werden, weil das so programmiert ist. Man kann das vielleicht am besten mit einem Psychopathen vergleichen, der zwar keine echten Emotionen hat, sie aber auf rationaler Ebene verstehen und im schlimmsten Fall auch zur Manipulation von Menschen nutzen kann.
Ich habe mich vor einer Weile mal aus Neugier mit ChatGPT "unterhalten" und fand es faszinierend, wie weit die Entwicklung doch schon fortgeschritten ist.
Und so sehr ich auch der Meinung bin, dass KI künftig einen Großteil dröger Aufgaben übernehmen wird, so sehr ich auch der Meinung bin, dass sie eine große Hilfe sein kann und so sehr ich auch der Meinung bin, dass die Entwicklung noch einen enormen Sprung machen wird, so sehr bin ich auch der Ansicht, dass es umso wichtiger ist, seinen eigenen Kompass und ein gesundes Misstrauen zu entwickeln, wenn man es mit KI (oder auch Social Media, aber das ist ein anderes Thema) zu tun hat.
Ich nutze KI hauptsächlich als Einstieg, um einen groben Überblick über etwas zu bekommen. Das verifiziere ich dann mit der guten, alten Eigenrecherche, wobei man auch hier mittlerweie sehr aufpassen muss, auf welche Quellen man zurückgreift.
Tatsächlich wird man sich hier (und man tut es ansatzweise auch schon) massiv mit einem neuen Aspekt vom Moral und Ethik beschäftigen müssen, eben weil KI keinen eigenen moralischen Kompass hat, sondern nur das tut, wozu sie programmiert ist.
Insofern wäre ich (und bin es auch), wenn es darum geht, Emotionen durch KI deuten zu lassen. Wenn man eine Art statistischer Auswertung haben möchte, um vielleicht andere Gesichtspunkte zu bekommen, mag sie (mit Abstrichen - siehe halluzinierende KI) durchaus taugen. Aber letztlich wird sie auf absehbare Zeit solche Dinge wie Empathie, die Menschen entwickeln können, nicht leisten können.
Die Ironie ist, dass die Diskussion pro / contra KI teilweise sehr emotional geführt wird, was IMHO nicht zielführend, aber eben menschlich ist. Als die erste Bahnstrecke Nürnberg - Fürth in Deutschland eröffnet wurde, befürchteten viele Menschen, dass die "enorm hohe Geschwindigkeit" der Züge von etwa 25 km/h die Menschn wahnsinnig machen müsste.
Angst vor neuen Dingen ist zutiefst menschlich, denn vor ein paar tausend Jahren hing unser Überleben davon ab. Und leider hat sich unsere Software seidem nicht so gut entwickelt, wie die KI in ein paar Jahrzehnten.
Aber es bleibt spannend. Und vor allem ist es eine Entwicklung, mit der man sich befassen sollte, weil man ihr nicht entkommen kann. Und nur, was man versteht, kann man auch beurteilen und ggf. beeinflussen. Insofern eine interessante Frage, die hier aufgeworfen wurde.
 
Santino hat es schon so gut zusammengefasst, dass es da eigentlich kaum noch was zu ergänzen gibt.
Im Endeffekt ist eine KI von der Funktionsweise an ein menschliches Gehirn angelegt: Daten Sammeln, bewerten, kombinieren und dann Rückschlüsse ziehen. Mit dem feinen Unterschied, dass Emotionen nicht vorhanden sind und nur "vorgetäuscht" werden, weil das so programmiert ist. Man kann das vielleicht am besten mit einem Psychopathen vergleichen, der zwar keine echten Emotionen hat, sie aber auf rationaler Ebene verstehen und im schlimmsten Fall auch zur Manipulation von Menschen nutzen kann.
Dem stimme ich so nicht zu - bzw. sicherlich kann eine KI auch zur (z.B. politisch oder wirtschaftlich motivierten) Manipulation verwendet werden, aber dass die Funktionsweise dem menschlichen Gehirn gleicht, würde ich so nicht sagen. Das menschliche Gehirn orientiert sich zwar in der Kombination sinnhafter Gedanken auch an "Erwartbarkeiten" und entsprechenden Logiken, ich denke aber doch, dass die Kombinationsmöglichkeiten deutlich vielfältiger und freier sind, die Variationsmöglichkeiten grösser. Zumal menschliche Ambivalenzen von einer KI nicht nachgebildet werden können - Technik funktioniert noch immer auf der Basis 0/1, sprich wahrer und unwahrer Sätze, Operation oder nicht Operation. Es kann nichts dazwischen geben, keine Operationen, die weder dem einen, noch dem anderen zugeordnet werden können, die ausgeführt, aber nicht ausgeführt werden. Der menschliche Geist ist dazu in der Lage.
 

Anzeige (6)

Autor Ähnliche Themen Forum Antworten Datum
V Unsicherheit bei Hundebegegnungen- eure Erfahrungen? Soziales 261

Ähnliche Themen

Anzeige (6)

Anzeige(8)

Regeln Hilfe Benutzer

Du bist keinem Raum beigetreten.

      Du bist keinem Raum beigetreten.

      Anzeige (2)

      Oben