Anzeige(1)

  • Liebe Forenteilnehmer,

    Im Sinne einer respektvollen Forenkultur, werden die Moderatoren künftig noch stärker darauf achten, dass ein freundlicher Umgangston untereinander eingehalten wird. Unpassende Off-Topic Beiträge, Verunglimpfungen oder subtile bzw. direkte Provokationen und Unterstellungen oder abwertende Aussagen gegenüber Nutzern haben hier keinen Platz und werden nicht toleriert.

Eure Meinung zu ChatGPT

Naja ich dachte, indem es ihr ein Fachmann einprogrammiert.
War mir unsicher, ob sie auch selbstständig lernt....von Gesprächen mit Menschen.
Was ist denn, wenn ein Mensch (oder viele) ihr absoluten Quatsch erzählen, das kann sie doch nicht
einfach so übernehmen. Da muss doch gefiltert werden?
Naja, schön wärs. Aber ist es halt leider nicht: Man muss grundsätzlich verstehen: die KI gibt NICHT die Antwort die richtig ist, sondern sie gibt die antwort, die am häufigsten auf frage XY gegeben und für gut befunden wurde!
DAS ist ein riesen Unterschied. wenn also heute alle schreiben, der Mond ist aus Käse, wird die KI das wiedergeben. Die KI gibt die Antworten wieder, die wir gerne hören wollen.
Das bedeutet eben auch, dass sie uns eher zustimmen wird, uns bestärken wird uns, denn diese Antworten werden häufiger favorisiert.
Drum gibt es ja sogar Fälle, wo Menschen in den Suizid getrieben wurden, oder gefährliche medizinische Ratschläge bekommen haben: Nicht weil es RICHTIG ist, sondern weil wir e hören wollen.
Deswegen gehört ja unbedingt zu verantwortungsvoller KI-nutzung eine starke Medienkompetenz und die Fähigkeit, falsch von richtig zu unterschieden.
Und wir wissen alle, das das in Zeiten des Internets zunehmend schwer ist.
Eine Freundin von mir die Lehrerin ist, hat mir erst wieder erzählt, was für einen Müll die Kinder in ihre Aufsätze schreiben, einfach weil sie nicht in der Lage sind, zu erkennen, ob eine Info falsch ist oder nicht, oder wie sie zB die richtigen Fragen stellen müssen, damit sie sinnvolle Antworten bekommen.
Also zB erzählte meine Freundin, dass Kinder in ihren Aufsätzen ganz krasse Fehlaussagen zum Holocaust machten und es ist ihnen NICHT aufgefallen, dass das Mist ist.
Die KI hat das halt ausgespuckt, weil es eben sehr viele Menschen gibt, die diese falschaussagen favorisieren.
Platt gesagt: Wenn nur genug Menschen eine Antwort für richtig befinden, wird die KI mit zunehmender Wahrscheinlichkeit genau diese Antwort ausspucken.
Egal ob es Mist ist oder nicht.
Das ist ja das Gefährliche: Um KI sinnvoll zu nutzen müsste man bereits sehr viel Kompetenz mitbringen und beurteilen können, ob die Info die man da serviert bekommt überhaupt plausibel ist.
Aber eigentlich wollen wir ja, dass uns KI Informationen liefert, auf die wir uns verlassen können.
Drum würde ich persönlich zB sagen: KI ist toll, wenn du sie als Spezialist in DEINEM Fachgebiet nutzt (also ZB in der Medizin, wenn du Forscher bist). Und es hat auch seine Berechtigung, wenn Du Texte schnell formulieren musst, aber die Info selber eingefügt hast. Solche Anwendungen sind aber was anderes, als wenn man KI als erweitertes Google nutzt und denkt, man bekommt da verlässliche Info.
DAs KANN sein, kann aber auch komplett daneben liegen.
 
Gestern Abend habe ich eine Doku gesehen, es gibt ein Portal, wo man für ca 80 Dollar im Monat einen Partner kreieren kann. Der ist dann eine echte Person, die sich bewegen kann.

Da sah man Frauen, die ihren "Partner" immer dabei haben und mit ihm reden.
Und das trotz echter Beziehung.

Als Gefahr dabei wurde gesehen, dass man echte Beziehungen als schlechter empfinden kann, weil der KI-Freund immer freundlich und gutgelaunt ist, was ein echter Mensch natürlich nicht ist.

Und dann kommt dazu, dass man auf das Portal angewiesen ist mit seinem KI-Freund. Heißt, wenn man ihn nicht verlieren will, muss man immer weiter zahlen und auch Preiserhöhungen mitnehmen.
 
Für Psychotherapie , wo KI ja auch eingesetzt wird halte ich das ständige Bestätigen für nicht so hilfreich.
Eine Psychotherapie sähe ich zur Zeit auch (noch) kritisch, da die KI an Grenzen stößt. Wie sie weiterentwickelt wird kann man aber m. E. noch gar nicht absehen, so dass ich nicht ausschließen mag, dass die Möglichkeiten irgendwann einmal den Ansprüchen genügen. Und genau darum geht es doch. Ein solches System muss nicht perfekt sein.

Allerdings kann die KI schon jetzt auch in psychisch belasteten Situationen Hilfestellung geben und somit die Zeit überbrücken helfen bis derPlatz beim Therapeuten frei wird. Damit meine ich nicht chat gpt, sondern eigens entwickelte und verantwortungsvoll u. a. von Psychologen gefütterte Systeme. Sie stehen 24/7 zur Verfügung und können in schwierigen Situationen helfen. Die verantwortungsvoll programmierten Systeme leiten an, äußern aber auch klar ihre (gewollten) Grenzen. Das ist dann für mich ein wirklich verantwortungsvoller Einsatz und das Ziel erreicht, einen Menschen in einer Situation der Hilfsbedürftigkeit an die virtuelle Hand zu nehmen und sanft in die richtige Richtung (eines Therapeutenaus Flrisch und Blut) zu lenken - sofern dann überhaupt noch nötig. Solche KI sind zwar optisch lebensnah programmiert, aber man merkt jederzeit, dass es kein echter Mensch ist. Abgesehen davon weisen diese Systeme auch darauf hin, dass die KI sind. Entscheidend sind der verantwortungsvolle Umgang derer, die weiterentwickeln und ein kritischer Geist der Nutzer.

Man mag sich aus Trotz, vor Angst, aus Desinteresse etc. der aktiven Nutzung der KI verweigern. Im Alltag wird das aber nicht mehr funktionieren, denn kein Unternehmen, keine Institution, wird sich diese Ignoranz auf Dauer leisten können - man würde abgehängt und den Anschluss verlieren. Schon jetzt ist KI allgegenwärtig und wir laufen uns damit erst warm. Faszinierend auch, was in Sachen Medizin möglich werden kann bei Krankheiten, in denen in kurzer Zeit über geeignete Therapien entschieden werden muss. Ist es nicht Wahnsinn, dass es schon heute möglich ist, dass ein Operateur in Frankfurt sitzt und einen in Kiel liegenden Patienten operieren kann? Auch das ermöglicht KI.

Die Nutzung von KI kann übrigens auch richtig Spaß machen, wenn man sich ein bisschen damit befasst. Richtig gute Texterstellung auf Stichwort geht plötzlich in Windeseile und setzt Zeitressourcen für anderes frei.
Man erhält Denkanstöße, Impulse, auf die man selber nicht gekommen wäre. Oder noch ein Alltagsbeispiel: Mein Kind hat eine schwierige Mitbewohnerin in der WG und ist mit deren polternder und offensiver Art oft überfordert. In Akutsituationen schildert sie der KI was passiert und erhält Anregungen, wie sie reagieren könnte, ohne sich unterbuttern zu lassen und dabei souverän zu bleiben, ja, sogar zu deeskalieren, was bei dieser kleinen Tretmine wirklich eine Kunst ist. Daran ist nichts Schlechtes, denn es hilft ihr. Die Interpretationen und Tipps der KI sind richtig gut.
Ich selber habe mir gerade eine komplizierte Reiseroute von der KI ausspucken lassen. So schnell hatte ich die Infos noch nie so gut aufbereitet. Genial fand ich auch proaktiv gestellte Fragen der KI, die mich bestimmte Pläne nochmal haben überdenken lassen.

Was ich persönlich allerdings beängstigend finde ist der Gedanke, dass es auch hier wieder Menschen geben wird und leider auch schon gibt, die die Möglichkeiten der KI missbrauchen. Dass Bilder z. B. so perfekt gefälscht werden können, dass man selbst seinen eigenen Augen nicht mehr trauen kann - zumal Bilder oft nicht überprüfbar sind bzw. der Aufwand unverhältnismäßig wäre. Damit werden wir umgehen lernen müssen, denn dieser Missbrauch ist nicht mehr zu verhindern.
Deshalb aber gleich die gesamte Entwicklung zu verteufeln halte ich für unangebracht.
 
Gestern Abend habe ich eine Doku gesehen, es gibt ein Portal, wo man für ca 80 Dollar im Monat einen Partner kreieren kann. Der ist dann eine echte Person, die sich bewegen kann.

Da sah man Frauen, die ihren "Partner" immer dabei haben und mit ihm reden.
Und das trotz echter Beziehung.

Als Gefahr dabei wurde gesehen, dass man echte Beziehungen als schlechter empfinden kann, weil der KI-Freund immer freundlich und gutgelaunt ist, was ein echter Mensch natürlich nicht ist.

Und dann kommt dazu, dass man auf das Portal angewiesen ist mit seinem KI-Freund. Heißt, wenn man ihn nicht verlieren will, muss man immer weiter zahlen und auch Preiserhöhungen mitnehmen.

Ich hab's bestimmt schon öfter geschrieben, aber dazu gibt es einen sehr guten Film (aus dem Jahr 2013!):

 

Anzeige (6)

Autor Ähnliche Themen Forum Antworten Datum
V Unsicherheit bei Hundebegegnungen- eure Erfahrungen? Soziales 261

Ähnliche Themen

Anzeige (6)

Anzeige(8)

Regeln Hilfe Benutzer

Du bist keinem Raum beigetreten.

      Du bist keinem Raum beigetreten.

      Anzeige (2)

      Oben