GoodLord hat geschrieben: ↑1. Jul 2025, 22:19
Wie sehr das jetzt dem menschliche Gehirn bzw. dem menschlichen Denken ähnelt kann ich nicht beurteilen, aber ohne eine wie auch immer geartete Form von abstrakten "Verständnis" worüber die KI schreibt könnte sie nicht funktionieren.
Das ist jetzt halt Definitionsfrage. IMO hat sie eindeutig kein Verständnis, weil sie eben kein konzeptionelles Verständnis hat, sondern nur eines von Wahrscheinlichkeiten. Deswegen ja die Tokens. Ein LLM weiß nicht, das "Bett" in Verbindung mit Fluss etwas anderes bedeutet, als in der Wohnung. Deswegen gibt sie, simplifiziert und AFAIK, dem zugehörigen Token einen anderen Zahlenwert so dass "Bett" für sie intern jetzt ein ganz anderes Wort ist, wenn es in einem bestimmten relationalen Kontext erscheint. Deswegen kann man KIs ja mit simpelsten Tricks immer noch aufs Glatteis führen.und sie erfassen dann selbst mit Erklärungen nicht die korrekte Antwort.
Da wir nicht exakt wissen, wie unser Gehirn funktioniert, gibt es da natürlich Raum um zu sagen: Wir arbeiten auch mit Abstraktionen, wir machen auch Fehler, es gibt die Theorie das Erinnerungen gar nicht abgespeichert werden sondern jedes Mal neu gebildet werden anhand von xy und so weiter. Aber im Umgang mit LLMs wird IMO schon sehr deutlich, dass man es nicht mit einem Verstand zu tun hat, sondern mit einer neuartigen Form von Datenspeicher, der unglaubliche Mengen bereithalten kann, dafür aber unzuverlässig ist im Abrufen.
Da ist aber viel Manövrierraum für Diskussionen, weil diverse extrem komplexe und noch nicht abschließend erforschte Felder berührt sind, von denen wir alle keine Ahnung haben.
Griese hat geschrieben: ↑1. Jul 2025, 18:03
Und auch sonst, alles was Du schreibst ist sehr richtig. Jedoch sind das alles Probleme die von Menschen und Konzernen kommen, aber nicht aus der Technologie.
Technisch gesehen korrekt, aber diese Dinge sind halt untrennbar miteinander verbunden. Wenn morgen einer das Zeitreisen erfindet, ist das unglaublich aufregende Technologie und man kann damit bestimmt gutes und schlechtes anstellen. Wenn Leute unreguliert anfangen, die Vergangenheit zu manipulieren, wird man aber auch einsehen müssen, dass der Hinweis darauf, dass die Zeitmaschine selbst ja nur ein Tool ist, wenig zur Sache beiträgt.
Desotho hat geschrieben: ↑2. Jul 2025, 06:28
Und sollte ich merken, dass meine bevorzugte Anwendung bei sowas problematisch ist muss ich eben wechseln. Aber das Ganze ist noch so im Fluss, vermutlich sage ich dann in 10 Jahren: Gott, war ich naiv!
Wir sprechen hier ja vielleicht sogar noch über die harmlosere Anwendung, nämlich Chatbots. Wir wissen bereits, das Gesichtserkennung schon vor ChatGPT & Co einen ethnischen Bias hatte, zB. Was, wenn KI im Gesundheitswesen irgendwelche Level-1-Entscheidungen trifft (Antrag ablehnen etc)? Wenn sie in der Strafverfolgung eingesetzt wird. Wenn sie über Kreditvergaben entscheidet. Über Aufenthaltsrecht, Vorstellungsgespräche, über Themensetzung in den Medien...
Kann man auch sagen: Das läuft heute schon scheiße, kann nur besser werden.
Aber es kann halt auch viel schlimmer werden, auf eine ganz andere Art, als es Überlastung und Inkompetenz hervorbringen. Und es kann vor allem viel schwieriger sein, einen Nachweis zu führen und viel schwieriger sein, Probleme zu beseitigen.