Spielkonzepte mit ChatGPT

Alles, was nicht in ein anderes Forum gehört: Hier rein
Forumsregeln
Datenschutzerklärung: https://www.gamespodcast.de/datenschutzerklaerung/
Impressum: https://www.gamespodcast.de/impressum/

Forenregeln und zukünftige Weltverfassung
ART 1: Behandle andere Nutzer mit Respekt.
ART 2: Do NOT piss off the Podcasters

Lies bitte weitere Hinweise hier: viewtopic.php?f=4&t=2789
GoodLord
Beiträge: 1614
Registriert: 11. Jan 2021, 17:10

Re: Spielkonzepte mit ChatGPT

Beitrag von GoodLord »

Rigolax hat geschrieben: 19. Mär 2023, 15:58
BummsGeordy hat geschrieben: 19. Mär 2023, 15:31 Ob du es glaubst, interpretierst und wünschst oder nicht spielt hier keine Rolle. Technologisch KANN und WIRD dahinter kein Verständnis und kein Weltbild stehen, sondern einfach nur EXTREM hochoptimierte Statistik, die WIRKT wie ein Verständnis der Welt.
Das ist imho einfach falsch. Hinter ChatGPT steht offenkundig ein Weltbild. Wie gesagt, es hat ein Konzept von Ethik, von moralisch richtig/falsch und das hat es auch nicht nur aus den Trainingdaten gewonnen, das wurde (auch) durch menschliche Konditionierung dem mitgegeben: https://time.com/6247678/openai-chatgpt-kenya-workers/ "OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic"
Inwiefern hat Konditionierung (sofern das Wort in diesem Kontext überhaupt Sinn macht) irgendwas mit Weltbild oder Ethik zu tun.

Und bist du dir sicher, dass die "menschliche Konditionierung" nicht über Trainingsdaten funktioniert hat?

EDIT: Das was in dem Artikel beschrieben wird ist ja Filtern von Trainingsdaten.
Ingoknito
Beiträge: 747
Registriert: 19. Jul 2021, 21:55

Re: Spielkonzepte mit ChatGPT

Beitrag von Ingoknito »

Vinter hat geschrieben: 18. Mär 2023, 18:35 ChatGPT wäre natürlich der Traum für RPGs aller Art. Keine vorgefertigten Antworten mehr, sondern die Möglichkeit, mit NPCs zu kommunizieren, sie zu Dingen zu befragen, zu verhandeln etc.

Vorteil wäre natürlich nicht nur ein natürlicheres Gespräch, sondern auch Spielmechanik: Statt multiple choice muss man in einem Detektivspiel die richtigen Fragen stellen, ohne vom Autor geleitet zu werden.
Was ist daran "natürlich"? Das ist doch wieder der Irrglaube vom maximalen Realismus. Die AI wäre hier genauso nur ein Autor. Denn gerade bei einem Detektivspiel müssen bestimmte Regeln und Parameter festgelegt werden.
Zuletzt geändert von Ingoknito am 19. Mär 2023, 16:54, insgesamt 1-mal geändert.
Ingoknito
Beiträge: 747
Registriert: 19. Jul 2021, 21:55

Re: Spielkonzepte mit ChatGPT

Beitrag von Ingoknito »

Andre Peschke hat geschrieben: 18. Mär 2023, 18:16 Ich würde ChatGPT in meinen Barkeeper einbauen, ihn in der Lore der Spielwelt trainieren plus Klatsch & Tratsch aller Figuren in der Bar und dann ab damit!

Andre
Ich denke nicht dass die reine Ansammlung an Informationen mithilfe einer AI irgendeinen Qualitätsgewinn bringen wird. Es ist ja nicht so dass das Problem von Spielen ist dass die Entwickler keinen Überblick mehr über die Ieigenen Inhalte haben und sie deswegen alles simpel halten müssen. Wir haben in Skyrim und Co jetzt schon viel zu viel Lore und Querverweise mit den ganzen Büchern, die einem nur so vor die Füße geworfen werden. So gesehen ist eine AI nur die Schlussfolgerung aus dieser Philosophie, die ich persönlich genauso langweilig finde wie endlos generierte Levelumgebungen.
SirGaiwan&TheGreenT
Beiträge: 1444
Registriert: 3. Apr 2022, 17:55

Re: Spielkonzepte mit ChatGPT

Beitrag von SirGaiwan&TheGreenT »

LegendaryAndre hat geschrieben: 18. Mär 2023, 10:44 Wie könnte man das Super Mario-Spielprinzip erfolgreich mit dem von Minecraft verbinden?

ChatGPT: Eine mögliche Art, das Super Mario-Spielprinzip erfolgreich mit dem von Minecraft zu verbinden, wäre die Schaffung einer offenen Welt, die es den Spielern ermöglicht, eine Vielzahl von Herausforderungen zu bewältigen und gleichzeitig ihre eigenen Welten und Level zu gestalten.

Das Spiel könnte als Hybrid-Genre aus Action-Adventure und Sandbox-Spiel konzipiert sein. Der Spieler würde in die Rolle von Mario schlüpfen und eine offene Welt erkunden, in der er Ressourcen sammeln und verschiedene Aufgaben und Herausforderungen absolvieren kann, um sein Spielerlebnis zu erweitern. Dabei könnte er auch neue Fähigkeiten und Gegenstände freischalten, die ihm helfen, schwierigere Herausforderungen zu bewältigen.

Ein wichtiger Bestandteil des Spiels wäre der Aufbau von Levels und Welten durch den Spieler. Ähnlich wie in Minecraft könnte der Spieler seine eigenen Level, Welten und Herausforderungen erstellen und mit anderen Spielern teilen. Dabei könnte er Blöcke platzieren und entfernen, um Plattformen, Hindernisse und Landschaften zu gestalten. Diese Level könnten dann von anderen Spielern gespielt werden, wodurch eine Community entstehen würde, die das Spiel weiterentwickeln und erweitern könnte.

Ein Beispiel-Level könnte aus einer Kombination von Plattform-Elementen und Erkundung bestehen. Mario würde eine Höhle erkunden, die voller Rätsel und Gefahren ist. Er würde Gegner besiegen, Hindernisse überwinden und spezielle Gegenstände finden, die ihm helfen, die Höhle zu durchqueren. Während er die Höhle erkundet, könnte er auch Ressourcen wie Gold, Eisen und Diamanten sammeln, die ihm helfen, seine Ausrüstung zu verbessern und schwierigere Herausforderungen zu bewältigen. Schließlich könnte Mario am Ende der Höhle gegen einen Endgegner antreten, um das Level abzuschließen.

Durch die Verbindung von Super Mario- und Minecraft-Elementen könnte ein neues, einzigartiges Spielerlebnis geschaffen werden, das sowohl die Fans von Mario als auch von Minecraft anspricht.
Wenn man sich den Konjunktiv raus denkt, klingt das sprachlich so glatt geleckt und nichts sagend wie feinster PR-Sprech. Man könnte meinen, dass die Publisher schon längst ChatGPT für ihre Werbetexte verwenden, bzw. als PR-Mensch würde mir vermutlich Angst und Bange werden.

Kann noch nicht genau den Finger drauf legen woran es liegt, aber die KI/ChatGPT-Texte haben alle so einen ganz spezifischen Singsang, an dem man es erkennt und die es langweilig machen. Auf der einen Seite zwar technisch interessant, was möglich ist, auf der anderen Seiten aber auch nichts, was mich zum experimentieren einlädt. Da schaffen die bildergenerierenden KIs, zB die Beispiele im Offtopic-Bereich des Forums, die für mich spannenderen Ergebnisse.
Benutzeravatar
BummsGeordy
Beiträge: 588
Registriert: 11. Mär 2017, 14:18
Wohnort: Saarland

Re: Spielkonzepte mit ChatGPT

Beitrag von BummsGeordy »

Rigolax hat geschrieben: 19. Mär 2023, 15:58
BummsGeordy hat geschrieben: 19. Mär 2023, 15:31 Ob du es glaubst, interpretierst und wünschst oder nicht spielt hier keine Rolle. Technologisch KANN und WIRD dahinter kein Verständnis und kein Weltbild stehen, sondern einfach nur EXTREM hochoptimierte Statistik, die WIRKT wie ein Verständnis der Welt.
Das ist imho einfach falsch. Hinter ChatGPT steht offenkundig ein Weltbild. Wie gesagt, es hat ein Konzept von Ethik, von moralisch richtig/falsch und das hat es auch nicht nur aus den Trainingdaten gewonnen, das wurde (auch) durch menschliche Konditionierung dem mitgegeben: https://time.com/6247678/openai-chatgpt-kenya-workers/ "OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic"
damit wir nicht aneinander vorbei reden: ich vermute, dass hier mehrere Dinge miteinander vermischt werden - vielleicht können wir es etwas klarer gestalten:

- Was verstehst du unter "Weltbild" und unter "steht dahinter"?
- nein - es hat kein "Konzept" von irgendetwas, denn LLMs verstehen (in der Definition von Verständnis) überhaupt Nichts. die KI-Modelle iterieren über verschiedene Modifkatoren ausschließen die Wahrscheinlichkeit, in der gewissen Buchstaben/Laute/Worte/Sätze/... aufeinander folgen, sofern man ihnen einen bestimmten Startwert vorgibt.
Das mag zwar wie "verstehen" wirken, aber es stehe keine Konzepte, keine Weltbilder, kein Wissen, keine Kreativität, keine Gedanken,... dahinter. Aufgrund der hohen Komplexität der Millionen von gewichteten Parametern, die geschickt manipuliert werden WIRKT es so, als ob da ein Sinn dahinter steckt - aber letztlich tut es das nicht.
Das zeigt sich darin, dass LLMs Modelle nicht rechnen können und schon gar kein Verständnis davon habe, was Fakten sind oder ob etwas "wahr" oder "falsch" ist.
Sie produzieren völlig verständnisfreie Wortfolgen, die zwar in sich schlüssig KLINGEN aber nicht inhärent schlüssig sein müssen. Man kann es nur leider nicht unterscheiden.
- was allen Modellen gemein ist: man modifiziert ihre Parameter, in dem man Ausgaben in einer Feedbackschleife rückmeldet. Dazu gibt es verschiedene Modelle - die auch menschliche Interaktionen sein können. Das heißt aber nicht, dass dem Modell etwas beigebracht werden kann, oder dass das Modell "Ethik versteht" sondern nur, dass die Parameter so angepasst werden, dass gewisse Rückmeldungen dazu genutzt werden, Ausgabeparameter zu optimieren.
Das ist reine Statistik und reine Mathematik - keinerlei "Wissen" oder "Intelligenz".
- der von dir genannte Artikel beschreibt ist kein "Konditionieren", sondern die Notwendigkeit das dem Training zugrunde liegende Datenset SO aufzubereiten, dass man nicht "ausversehen" unerwünschte Eigenschaften in seine Parameter mit einarbeitet. Letztlich unterstützt es ja meinen Punkt: das Modell hat kein Verständnis von Tatsachen, richtig/falsch oder Ethik, sondern verarbeitet strickt und stur, was ihm gefüttert wurde.
Deshalb braucht es Menschen, die die dem Modell zugrunde liegenden Daten von unerwünschten Einflüssen bereinigt.
- abgesehen davon, widersprichst du dir mit dem "Konditionieren" ja selbst, da klassische Konditionierung ja eben KEINE Intelligenz und kein Wissen/Verständnis voraussetzt, sondern automatisch ablaufende Reaktionen produziert, die einfach nur einen Auslöser mit einem Ergebnis verknüpft ;)

Wie gesagt - vielleicht reden wir völlig aneinander vorbei und ich verstehe nicht genau, was du meinst, aber einem LLM mit (Chat)GPT irgendeine Form von "Verständnis" oder in Konzept von "Ethik" zu unterstellen ist einfach nicht haltbar.
Nicht umsonst arbeiten OpenAI, Microsoft und Co mit unwahrscheinlich großem Aufwand daran, die unerwünschten Effekte der LLMs abzumildern und einzufangen, indem man "händisch" gewisse Bereiche deaktiviert, Filter einbaut und die Nutzung einschränkt.
Rigolax
Beiträge: 2090
Registriert: 20. Feb 2018, 15:53

Re: Spielkonzepte mit ChatGPT

Beitrag von Rigolax »

GoodLord hat geschrieben: 19. Mär 2023, 16:16
Rigolax hat geschrieben: 19. Mär 2023, 15:58
BummsGeordy hat geschrieben: 19. Mär 2023, 15:31 Ob du es glaubst, interpretierst und wünschst oder nicht spielt hier keine Rolle. Technologisch KANN und WIRD dahinter kein Verständnis und kein Weltbild stehen, sondern einfach nur EXTREM hochoptimierte Statistik, die WIRKT wie ein Verständnis der Welt.
Das ist imho einfach falsch. Hinter ChatGPT steht offenkundig ein Weltbild. Wie gesagt, es hat ein Konzept von Ethik, von moralisch richtig/falsch und das hat es auch nicht nur aus den Trainingdaten gewonnen, das wurde (auch) durch menschliche Konditionierung dem mitgegeben: https://time.com/6247678/openai-chatgpt-kenya-workers/ "OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic"
Inwiefern hat Konditionierung (sofern das Wort in diesem Kontext überhaupt Sinn macht) irgendwas mit Weltbild oder Ethik zu tun.

Und bist du dir sicher, dass die "menschliche Konditionierung" nicht über Trainingsdaten funktioniert hat?

EDIT: Das was in dem Artikel beschrieben wird ist ja Filtern von Trainingsdaten.
Konditionierung, weil ChatGPT so trainiert wurde, dass es auf bestimmte Reize auf bestimmte Arten reagiert. Das hat sich nicht nur aus den Trainingsdaten "natürlich" ergeben, sondern es wurde menschlich nachgeholfen, vermutlich nach Thumbs up/down-Art (das kann man als User ja auch machen). In dem Sinne wurde ein "Weltbild" ChatGPT mitgegeben.

Es geht nicht nur um das Filtern von Trainingsdaten, so weit ich das verstehe: "That detector would be built into ChatGPT to check whether it was echoing the toxicity of its training data, and filter it out before it ever reached the user. It could also help scrub toxic text from the training datasets of future AI models." -- Anscheinend ist das ein Mechanismus on-top auf dem Modell, das stochastisch die Antworten generiert?

Es ist etwa auch hard-coded, dass man kein N-Wort mit "hard r" eingeben oder generieren lassen kann bzw. wenn man letzteres unter großen Anstrengungen geschafft hat, ist eine weitere Eingabe unmöglich, es hängt sich dann quasi auf (zumindest bei Version 3), also da wurde auf jeden Fall nachgeholfen. Wer weiß, was es noch so für constraints hat.
Zuletzt geändert von Rigolax am 19. Mär 2023, 18:21, insgesamt 1-mal geändert.
Benutzeravatar
LegendaryAndre
Beiträge: 1488
Registriert: 19. Feb 2017, 09:06
Wohnort: Graz

Re: Spielkonzepte mit ChatGPT

Beitrag von LegendaryAndre »

SirGaiwan&TheGreenT hat geschrieben: 19. Mär 2023, 17:13 Wenn man sich den Konjunktiv raus denkt, klingt das sprachlich so glatt geleckt und nichts sagend wie feinster PR-Sprech. Man könnte meinen, dass die Publisher schon längst ChatGPT für ihre Werbetexte verwenden, bzw. als PR-Mensch würde mir vermutlich Angst und Bange werden.

Kann noch nicht genau den Finger drauf legen woran es liegt, aber die KI/ChatGPT-Texte haben alle so einen ganz spezifischen Singsang, an dem man es erkennt und die es langweilig machen. Auf der einen Seite zwar technisch interessant, was möglich ist, auf der anderen Seiten aber auch nichts, was mich zum experimentieren einlädt. Da schaffen die bildergenerierenden KIs, zB die Beispiele im Offtopic-Bereich des Forums, die für mich spannenderen Ergebnisse.
Ja, das stimmt auf jeden Fall und ich kenne selbst Pressetexte die sich ähnlich (08/15) lesen und nach nichts klingen. Ich finde kleinere Teile der Texte allerdings interessant wie zum Beispiel beim "Resident Evil - Animal Crossing-Hybriden". Einen Denkanstoß kann man sich definitiv holen oder damit zum Spaß experimentieren. Außerdem lassen sich Texte natürlich auch verfeinern wenn man der KI strengere Vorgaben gibt und nachhilft.
Rigolax
Beiträge: 2090
Registriert: 20. Feb 2018, 15:53

Re: Spielkonzepte mit ChatGPT

Beitrag von Rigolax »

BummsGeordy hat geschrieben: 19. Mär 2023, 17:50 - Was verstehst du unter "Weltbild" und unter "steht dahinter"?
Ich meinte das vor allem ethischer Natur, weil es da deutlich wird imho, siehe auch mein Post hier drüber, hab jetzt einen Doppelpost hingelegt, woops. :ugly: "Weltbild" passt als Begriff nicht so gut. Es hat recht konsistente Vorstellungen von der Welt, würde ich sagen.
BummsGeordy hat geschrieben: 19. Mär 2023, 17:50 - nein - es hat kein "Konzept" von irgendetwas, denn LLMs verstehen (in der Definition von Verständnis) überhaupt Nichts. die KI-Modelle iterieren über verschiedene Modifkatoren ausschließen die Wahrscheinlichkeit, in der gewissen Buchstaben/Laute/Worte/Sätze/... aufeinander folgen, sofern man ihnen einen bestimmten Startwert vorgibt.
Wieso ist das keine Form von "Verständnis", ich mein so funktioniert menschliche Kognition doch vielleicht auch? Ich kenne das "chinese room", aber inwiefern ist das noch zutreffend? Man kann ja auch deutsch sprechen, ohne zu wissen, was ein Nomen oder ein Verb ist, man "versteht" deutsch ja trotzdem?
BummsGeordy hat geschrieben: 19. Mär 2023, 17:50 Das mag zwar wie "verstehen" wirken, aber es stehe keine Konzepte, keine Weltbilder, kein Wissen, keine Kreativität, keine Gedanken,... dahinter.
Imho steht auch "Wissen" und "Kreativität" dahinter.
BummsGeordy hat geschrieben: 19. Mär 2023, 17:50 Aufgrund der hohen Komplexität der Millionen von gewichteten Parametern, die geschickt manipuliert werden WIRKT es so, als ob da ein Sinn dahinter steckt - aber letztlich tut es das nicht.
Ich glaube, der Übergang zwischen nur so "wirken" und so "sein" ist bei KIs fließend, ich glaub das blöde Ding hat die Intelligenzschwelle überschritten. Ich hätte das vor paar Wochen noch abgestritten, ich denke darüber anders mittlerweile.
BummsGeordy hat geschrieben: 19. Mär 2023, 17:50 Das zeigt sich darin, dass LLMs Modelle nicht rechnen können und schon gar kein Verständnis davon habe, was Fakten sind oder ob etwas "wahr" oder "falsch" ist.
Rechnen kann man doch locker noch beibringen? Man kann es doch dranflanschen auf das System. Vielleicht ist das Missverständnis, dass ich ChatGPT nicht bloß als LLM wahrnehme, obwohl es natürlich im Wesentlichen so funktioniert, es eines ist, aber das kann ja nur ein Schritt von vielen sein, wie es Output generiert?
BummsGeordy hat geschrieben: 19. Mär 2023, 17:50 - abgesehen davon, widersprichst du dir mit dem "Konditionieren" ja selbst, da klassische Konditionierung ja eben KEINE Intelligenz und kein Wissen/Verständnis voraussetzt, sondern automatisch ablaufende Reaktionen produziert, die einfach nur einen Auslöser mit einem Ergebnis verknüpft ;)
Bildung allgemein basiert auf Konditionierung. Der Großteil unseres Wissens ist durch Konditionierung erworben. Oder durch ein sehr ähnliches Konzept.
Benutzeravatar
BummsGeordy
Beiträge: 588
Registriert: 11. Mär 2017, 14:18
Wohnort: Saarland

Re: Spielkonzepte mit ChatGPT

Beitrag von BummsGeordy »

Rigolax hat geschrieben: 19. Mär 2023, 18:20(...)
uiuiui ;)

also ich mache es mal kurz: du darfst natürlich alles sehen, wie du möchtest. Aber deine Argumentation beruht auf "Ich habe das Gefühl, dass das was ich nicht genau verstehe xyz bedeutet".

Niemand versteht was genau Intelligenz ist. Niemand weiß wie genau Bewusstsein entsteht. Wir haben noch nicht einmal eine einheitliche und konsistente Definition dazu. Daher ist es schwierig, über diese schwammigen Konzepte zu sprechen.

Allerdings schreibst du einem rein stochastischen Phänomen eine Form von "Verstehen" zu, die du aus den wenigen Elementen ableitest, die dich in diese Vorstellung bestätigen.

Allerdings zeigt sich an multiplen Punkten sowie am Grundprinzip der Methodik (die wir bei LLMs aktuell anwenden), dass sich die Vorstellung von "Verständnis" oder "Wissen" oder "Bewusstsein" (sofern man denen menschliche Analoge zugrunde legt) nicht halten lassen.
- Diese Modelle können nicht "lernen", indem sie ein Konzept verstehen, daraus Konsequenzen ableiten und prüfen, ob es sich hier um eine Form von Konsistenz handelt.
- alles was die Modelle (in allen möglichen Variationen mit unterschiedlichen Beschränkungen/Eegänzungen/...) tun ist: "Tokens" (Zeichen-/Silben/Wortfolgen) nach einem mehrere Milliarden Parameter fassenden Modell ihrer Wahrscheinlichkeit der Aufeinanderfolge nach auszugeben.
- da das Modell mit seinen Parameter groß und umfassend genug ist, dass es mit erstaunlicher Ähnlichkeit menschlicher Sprache ähnelt, versucht man nun aus der reinen Token-Abfolge, die sich für uns in Worten abbildet irgendeine Form von Sinn hinein zu lesen.
Da nun das zugrunde liegende Datenset (deswegen ja die menschliche Prüfung) einen unwahrscheinlichen großen Korpus an sinnhaften Aneinanderreihungen zugrunde legt, ist aufgrund der schieren statistischen Effekte auch die ausgäbe der Tokens in irgendeiner Form "sinnhaft". Aber es ändert NICHTS daran, dass die Ausgabe ausschließlich eine Reihe von stochastischen Effekten von Zahlenreihen darstellt, denen KEIN Verständnis und KEIN Wissen zugrunde liegt.
- das Zeigt sich daran, dass (je nach Umstand) die Modelle in einem Moment mit absoluter Sicherheit behaupten, dass 4+4=9 ist oder dass die Menschen den Mars besiedelt haben, nur im nächsten Moment mit der gleichen Sicherheit das Gegenteil zu behaupten. Es gibt keinerlei Konsistenz in den dahinter liegenden Fakten oder Konzepten.
- klar könnte man jetzt bei Allem was Zahlen betrifft einen dummen "Taschenrechner" einbauen - das ändert aber nichts an den Limitationen des Text(bzw. Token)-Modells, sondern würde nur in diesem konkreten einen Grenzfall dem LLM die Zügel aus der Hand nehmen und eine Aufgabe erfüllen. Aber dadurch hat das Modell nichts gelernt und nichts verstanden
- man kann das Ganze auch angehen, indem man mehr "korrekte" mathematische Rechnungen trainiert - aber auch DA wird nur die Wahrscheinlichkeit der Gewichtungen von Ausgaben modifiziert, ohne dass es dann zu einem besseren oder schlechteren Verständnis von irgendetwas kommt

um nun aber ganz kurz auf ein paar konkrete Aussagen deinerseits zurückzukommen:
- nein - es hat KEINE konsistente Vorstellung der Welt. Es behauptet alles mit einer gewissen Sicherheit - wir je nach Eingabe/Modifkation aber mit der selben Sicherheit das genaue Gegenteil oder alle Variationen davon behaupten, wenn es die Parameter erfordern; es existiert kein Verständnis und kein Weltbild
- du wirst Verstehen und menschliches Nutzen von Sprache mit rein stochastischen Effekten durcheinander. Nein: wir Menschen "lernen" nicht so. Insbesondere ist Konditionierung KEIN Effekt von Wissen/Verständnis/Weltbild, sonder eine reine Bahnung von Reizen zu einer Aktion, die dann unbewusst und automatisch abläuft (je nachdem ob du klassische oder operande Konditionierung meinst... aber der Begriff "lernen" heißt hier nicht → verstehen, sondern Reiz → Effekt-Modifikation)
- Und nochmal: es steht kein Wissen (im Sinne von Verständnis oder Faktenwissen) und auch keine Kreativität dahinter. GPT generiert Dinge, die Fakten sein können - oder auch etwas völlig gegenteiliges. Völlig inkonsistent. Und "Kreativität" im menschlichen Sinne steht auch nicht daher. Es sei denn, du bezeichnest rein stochastische und algorithmischen Wertung von "Tokens" als Kreativität
- Nein - man kann dem LLM kein rechnen beibringen, weil das mit dem zugrundeliegenden Konzept der Modelle nicht kompatibel ist (dazu hatte ich oben schon geschrieben). Man kann diese Grenzbereiche mitigieren, abmildern oder durch alternative Techniken modifizieren → aber "rechnen beibringen" können wir mit dieser Technik dem Modell nicht (zumindest nicht ohne grundlegend neue Konzepte)
- Bildung basiert nicht auf Konditionierung. Vielleicht reden wir aneinander vorbei: was meinst du denn mit Konditionierung? ich möchte nicht, dass wir aufgrund divergierender Definitionen aneinander vorbei reden.
Rigolax
Beiträge: 2090
Registriert: 20. Feb 2018, 15:53

Re: Spielkonzepte mit ChatGPT

Beitrag von Rigolax »

BummsGeordy hat geschrieben: 19. Mär 2023, 19:05 also ich mache es mal kurz: du darfst natürlich alles sehen, wie du möchtest. Aber deine Argumentation beruht auf "Ich habe das Gefühl, dass das was ich nicht genau verstehe xyz bedeutet".
Ich definiere Begriffe einfach anders als du. Niemand versteht außerdem genau, wie ChatGPT funktioniert, außer die Leute, die dran gearbeitet haben. Es ist halt eine Blackbox.
BummsGeordy hat geschrieben: 19. Mär 2023, 19:05 - das Zeigt sich daran, dass (je nach Umstand) die Modelle in einem Moment mit absoluter Sicherheit behaupten, dass 4+4=9 ist oder dass die Menschen den Mars besiedelt haben, nur im nächsten Moment mit der gleichen Sicherheit das Gegenteil zu behaupten. Es gibt keinerlei Konsistenz in den dahinter liegenden Fakten oder Konzepten.
Eine allgemeine Konsistenz kommt bestimmt noch, es braucht nur mehr sog. reinforcement learning (vmtl. der bessere Begriff als "Konditionierung").

Weiter will ich aber nicht mehr antworten, belassen wir es dabei. ;)
Benutzeravatar
Vinter
Foul Tarnished
Beiträge: 5057
Registriert: 25. Jan 2016, 02:50

Re: Spielkonzepte mit ChatGPT

Beitrag von Vinter »

Ingoknito hat geschrieben: 19. Mär 2023, 16:43 Was ist daran "natürlich"? Das ist doch wieder der Irrglaube vom maximalen Realismus. Die AI wäre hier genauso nur ein Autor. Denn gerade bei einem Detektivspiel müssen bestimmte Regeln und Parameter festgelegt werden.
Regeln und Parameter müssen immer festgelegt werden, denn ich möchte den NPC ja zur Spielwelt oder einer konkreten Quest befragen und nicht Zugriff auf die gesamten Trainingsdaten von ChatGPT haben.

Trotzdem halte ich es für sehr reizvoll, statt Multiple Choice Dialogen die Möglichkeit zu haben, prinzipiell offene Gespräche zu führen.
Spieleankündigungen und - updates 2024

Alle Spiele
Alle Streams
Benutzeravatar
IpsilonZ
Beiträge: 1857
Registriert: 27. Dez 2015, 17:45
Wohnort: Prag
Kontaktdaten:

Re: Spielkonzepte mit ChatGPT

Beitrag von IpsilonZ »

philoponus hat geschrieben: 18. Mär 2023, 18:49 In 10 Jahren werden wir an die immer dieselben Dialoge mit NPC kopfschüttlend zurückdenken.
Gegenthese. in 10 Jahren werden wir sehnsüchtig daran zurückdenken wie gut geschriebene NPC Dialoge uns ein klares Bild unserer Quest, der Spielwelt und der Geschichte vermittelt haben. Und darüber verzweifeln, wie wir ewig lange Konversationen über jedes winzige Detail der NPCs und ihrer Rolle im Spiel haben können, uns aber kaum Gesprächsführung gegeben wird.

Aber im Ernst, ich bezweifle sehr, dass das passieren wird. Ich würde es mit dem ganzen Open World Trend vergleichen. Sicher wird es nen Impact haben und neue Möglichkeiten bieten. Aber wir schauen ja heute auch nicht kopfschüttelnd auf geradelinige Videospiele die uns nicht zu jedem einzelnen Gebäude das wir sehen können reisen lassen.
Sich wiederholende NPC DIaloge zu haben hat ja durchaus auch einige Vorteile.

Und wenn ich falsch liege, ja fuck. Gleich ein paar weitere Berufszweige die dem Untergang geweiht sind...
Benutzeravatar
Andre Peschke
Beiträge: 9734
Registriert: 9. Jan 2016, 16:16
Kontaktdaten:

Re: Spielkonzepte mit ChatGPT

Beitrag von Andre Peschke »

IpsilonZ hat geschrieben: 20. Mär 2023, 13:12
philoponus hat geschrieben: 18. Mär 2023, 18:49 In 10 Jahren werden wir an die immer dieselben Dialoge mit NPC kopfschüttlend zurückdenken.
Gegenthese. in 10 Jahren werden wir sehnsüchtig daran zurückdenken wie gut geschriebene NPC Dialoge uns ein klares Bild unserer Quest, der Spielwelt und der Geschichte vermittelt haben. Und darüber verzweifeln, wie wir ewig lange Konversationen über jedes winzige Detail der NPCs und ihrer Rolle im Spiel haben können, uns aber kaum Gesprächsführung gegeben wird.
Das ist ja ein Entweder/Oder. Schon jetzt kann man oft optional in Lore-Dialoge abbiegen etc. Warum sollte sich das optionale dabei ändern. Ich schrieb ja bewusst nur von dem einen Barkeeper, mit dem man chatten kann. Nicht von jedem NPC.

Entwickler werden auf lange Sicht nur entwickeln, was die Masse gut findet.

Andre
Benutzeravatar
IpsilonZ
Beiträge: 1857
Registriert: 27. Dez 2015, 17:45
Wohnort: Prag
Kontaktdaten:

Re: Spielkonzepte mit ChatGPT

Beitrag von IpsilonZ »

Andre Peschke hat geschrieben: 20. Mär 2023, 13:18
IpsilonZ hat geschrieben: 20. Mär 2023, 13:12
philoponus hat geschrieben: 18. Mär 2023, 18:49 In 10 Jahren werden wir an die immer dieselben Dialoge mit NPC kopfschüttlend zurückdenken.
Gegenthese. in 10 Jahren werden wir sehnsüchtig daran zurückdenken wie gut geschriebene NPC Dialoge uns ein klares Bild unserer Quest, der Spielwelt und der Geschichte vermittelt haben. Und darüber verzweifeln, wie wir ewig lange Konversationen über jedes winzige Detail der NPCs und ihrer Rolle im Spiel haben können, uns aber kaum Gesprächsführung gegeben wird.
Das ist ja ein Entweder/Oder. Schon jetzt kann man oft optional in Lore-Dialoge abbiegen etc. Warum sollte sich das optionale dabei ändern. Ich schrieb ja bewusst nur von dem einen Barkeeper, mit dem man chatten kann. Nicht von jedem NPC.

Entwickler werden auf lange Sicht nur entwickeln, was die Masse gut findet.

Andre
Jap, wie gesagt. Ich bin sicher, dass man es hier oder da gut verwenden kann.
Aber ich glaube nicht, dass wir deswegen den Kopf über "damals" schütteln werden. Eben weil ich mir nicht vorstellen kann, dass es diese sich wiederholenden Dialoge in 10 (oder sogar 20) Jahren nicht mehr geben wird.
Bzw. sehe ich in ihnen halt nicht zwingend etwas worüber ich den Kopf schüttele.
Benutzeravatar
LegendaryAndre
Beiträge: 1488
Registriert: 19. Feb 2017, 09:06
Wohnort: Graz

Re: Spielkonzepte mit ChatGPT

Beitrag von LegendaryAndre »

Andre Peschke hat geschrieben: 20. Mär 2023, 13:18 Das ist ja ein Entweder/Oder. Schon jetzt kann man oft optional in Lore-Dialoge abbiegen etc. Warum sollte sich das optionale dabei ändern. Ich schrieb ja bewusst nur von dem einen Barkeeper, mit dem man chatten kann. Nicht von jedem NPC.
Ich glaube auch dass die Stärke der KI genau auf diese Weise ausgespielt werden kann - indem man sich auf wenige Charaktere oder gar nur einen NPC als Begleiter konzentriert. Chatbots die funktionieren gibt es ja bereits jetzt, auch wenn sie fehlerbehaftet und unausgereift sind (zB.: Replika). Ich frage mich ob ein Chatbot der mit begrenzten Dialogoptionen und Handlungsmöglichkeiten an das jeweilige Spiel angepasst wurde, vielleicht auch weniger Rechenleistung beanspruchen würde. Aber selbst mit Abstrichen bei der Grafik wäre so ein Spiel interessant. Sieht es halt aus wie Valheim (finde ich stilistisch gut) und verfügt dafür über bessere NPC's (oder Chatbot-Mechaniken). Ich bin neugierig ob eine ähnliche Entwicklung in den nächsten Jahren stattfindet. So ein Barkeeper für den Anfang wäre auf jeden Fall lustig. :D

Ihr solltet wirklich mal eine Folge "Auf ein Bier" zu dem Thema machen! Dort würde auch der Barkeeper thematisch reinpassen. ;)
Rigolax
Beiträge: 2090
Registriert: 20. Feb 2018, 15:53

Re: Spielkonzepte mit ChatGPT

Beitrag von Rigolax »

Floki hat geschrieben: 20. Mär 2023, 15:46 Die spannende Frage ist für mich dabei: In wie weit unterscheidet sich dann die KI von den menschlichen Weltbildern, die durch Erfahrung und im weitesten Sinne Statistiken ja auch zu Stande kommen?

Meine ganze Sichtweisen zu Dingen sind ja geprägt durch Erfahrungen und Lektionen.
Imho substantiell nicht, aber das habe ich ja schon geschrieben. LLMs arbeiten mit neuronalen Netzen, die quasi wie menschliche Gehirne funktionieren, es gibt imho keinen substantiellen Unterschied. Auch Menschen können Fehler machen und Fakten verdrehen, sich schlecht erinnern; dass wir ChatGPT so dermaßen vorhalten, dass es manchmal behauptet, dass Menschen schon den Mars besiedelt haben (was es wohl auch in aller Regel nur behauptet, wenn man es drauf ansetzt, also quasi primed dafür mit vorherigen Fragen/Antworten, die es ja mit bedenkt), ist imho einer Art Argwohn bedingt (https://de.wikipedia.org/wiki/Kr%C3%A4n ... Menschheit), nicht der KI fair im Grunde; Menschen, die dement sind, behaupten etwa oft falsche Sachen mit absoluter Selbstsicherheit, aber man wird ihnen nicht ihre Intelligenz grundsätzlich absprechen bzw. dass sie grundsätzlich Dinge noch "verstehen". ChatGPT ist in dem Sinne nicht so intelligent, wie man es von gesunden Menschen erwartet; es sagt ja auch nicht "dazu weiß ich nichts, die Datenlage ist mir zu unsicher", es hat vielmehr ein unerhörtes Selbstvertrauen, was man als "character flaw" bezeichnen könnte, aber das könnte man ja auch rauskriegen, wenn man für entsprechende Antworten höhere Mindestsicherheiten voraussetzt, so wie halt Menschen sich auch äußern, wenn sie sich nicht sicher sind.

Am Rande: Chomsky und ein paar seiner Buddies sind bei ihrem Feldzug gegen ChatGPT imho schon teils peinlich: https://www.nytimes.com/2023/03/08/opin ... pt-ai.html: "For this reason, the predictions of machine learning systems will always be superficial and dubious. Because these programs cannot explain the rules of English syntax, for example, they may well predict, incorrectly, that “John is too stubborn to talk to” means that John is so stubborn that he will not talk to someone or other (rather than that he is too stubborn to be reasoned with). Why would a machine learning program predict something so odd? Because it might analogize the pattern it inferred from sentences such as “John ate an apple” and “John ate,” in which the latter does mean that John ate something or other. The program might well predict that because “John is too stubborn to talk to Bill” is similar to “John ate an apple,” “John is too stubborn to talk to” should be similar to “John ate.” The correct explanations of language are complicated and cannot be learned just by marinating in big data." -- Wenn man ChatGPT fragt, was "John is too stubborn to talk to" bedeutet, macht es aber nicht diesen Fehler, es erklärt die Bedeutung korrekt, ich habe das auch ein paar versucht. Okay, das ist nur ein Beispiel von Chomsky et al., vielleicht gibt es bessere, I don't know.
Ingoknito
Beiträge: 747
Registriert: 19. Jul 2021, 21:55

Re: Spielkonzepte mit ChatGPT

Beitrag von Ingoknito »

Rigolax hat geschrieben: 20. Mär 2023, 16:04
Floki hat geschrieben: 20. Mär 2023, 15:46 Die spannende Frage ist für mich dabei: In wie weit unterscheidet sich dann die KI von den menschlichen Weltbildern, die durch Erfahrung und im weitesten Sinne Statistiken ja auch zu Stande kommen?

Meine ganze Sichtweisen zu Dingen sind ja geprägt durch Erfahrungen und Lektionen.
Imho substantiell nicht, aber das habe ich ja schon geschrieben. LLMs arbeiten mit neuronalen Netzen, die quasi wie menschliche Gehirne funktionieren, es gibt imho keinen substantiellen Unterschied. Auch Menschen können Fehler machen und Fakten verdrehen, sich schlecht erinnern; dass wir ChatGPT so dermaßen vorhalten, dass es manchmal behauptet, dass Menschen schon den Mars besiedelt haben (was es wohl auch in aller Regel nur behauptet, wenn man es drauf ansetzt, also quasi primed dafür mit vorherigen Fragen/Antworten, die es ja mit bedenkt), ist imho einer Art Argwohn bedingt (https://de.wikipedia.org/wiki/Kr%C3%A4n ... Menschheit), nicht der KI fair im Grunde; Menschen, die dement sind, behaupten etwa oft falsche Sachen mit absoluter Selbstsicherheit, aber man wird ihnen nicht ihre Intelligenz grundsätzlich absprechen bzw. dass sie grundsätzlich Dinge noch "verstehen". ChatGPT ist in dem Sinne nicht so intelligent, wie man es von gesunden Menschen erwartet; es sagt ja auch nicht "dazu weiß ich nichts, die Datenlage ist mir zu unsicher", es hat vielmehr ein unerhörtes Selbstvertrauen, was man als "character flaw" bezeichnen könnte, aber das könnte man ja auch rauskriegen, wenn man für entsprechende Antworten höhere Mindestsicherheiten voraussetzt, so wie halt Menschen sich auch äußern, wenn sie sich nicht sicher sind.

Am Rande: Chomsky und ein paar seiner Buddies sind bei ihrem Feldzug gegen ChatGPT imho schon teils peinlich: https://www.nytimes.com/2023/03/08/opin ... pt-ai.html: "For this reason, the predictions of machine learning systems will always be superficial and dubious. Because these programs cannot explain the rules of English syntax, for example, they may well predict, incorrectly, that “John is too stubborn to talk to” means that John is so stubborn that he will not talk to someone or other (rather than that he is too stubborn to be reasoned with). Why would a machine learning program predict something so odd? Because it might analogize the pattern it inferred from sentences such as “John ate an apple” and “John ate,” in which the latter does mean that John ate something or other. The program might well predict that because “John is too stubborn to talk to Bill” is similar to “John ate an apple,” “John is too stubborn to talk to” should be similar to “John ate.” The correct explanations of language are complicated and cannot be learned just by marinating in big data." -- Wenn man ChatGPT fragt, was "John is too stubborn to talk to" bedeutet, macht es aber nicht diesen Fehler, es erklärt die Bedeutung korrekt, ich habe das auch ein paar versucht. Okay, das ist nur ein Beispiel von Chomsky et al., vielleicht gibt es bessere, I don't know.
Ich finde du machst es dir zu einfach mit dem Argument dass Menschen genauso Fehler machen und deswegen AI's ein eigenes Weltbild oder sogar ein ethisches Bewusstsein entwickeln können. Für alles was über mathematische Logik oder Lexikon-Fakten hinausgeht, ist eine AI fast nicht zu gebrauchen. Eine AI ist dann nämlich bei ambivalenten Themen wie Politik, Kunst, Ethik dazu verleitet sich einer Mehrheits-Meinung, einer vermeintlichen (falschen) Logik oder zu einer verbindlichen Aussage anzuschließen und das hat dann sehr wenig mit einem eigenständigen Bewusstsein zu tun.
Du sagst dass man zusätzliche Parameter wie Mindestsicherheiten einbauen könnte, diese zusätzlichen Eingriffe von Menschen-Hand würde aber bedeuten dass man sich von AI mit eigenem Bewusstsein noch stärker entfernt und sich einem klassischen Programm wieder annähert. Davon abgesehen glaube ich dass bei einer AI sowieso alles davon ausgeht wie sie vom Menschen "programmiert" wurde. Unvorgesehene Ergbenisse ändern nichts daran, da sie einzig auf der Unüberichtlichkeit der Informationslage beruhen, aber nichts mit einem eigenen Bewusstsein zu tun haben.
Benutzeravatar
BummsGeordy
Beiträge: 588
Registriert: 11. Mär 2017, 14:18
Wohnort: Saarland

Re: Spielkonzepte mit ChatGPT

Beitrag von BummsGeordy »

Rigolax hat geschrieben: 20. Mär 2023, 16:04
Floki hat geschrieben: 20. Mär 2023, 15:46 Die spannende Frage ist für mich dabei: In wie weit unterscheidet sich dann die KI von den menschlichen Weltbildern, die durch Erfahrung und im weitesten Sinne Statistiken ja auch zu Stande kommen?

Meine ganze Sichtweisen zu Dingen sind ja geprägt durch Erfahrungen und Lektionen.
Imho substantiell nicht, aber das habe ich ja schon geschrieben. LLMs arbeiten mit neuronalen Netzen, die quasi wie menschliche Gehirne funktionieren, es gibt imho keinen substantiellen Unterschied. Auch Menschen können Fehler machen und Fakten verdrehen, sich schlecht erinnern; dass wir ChatGPT so dermaßen vorhalten, dass es manchmal behauptet, dass Menschen schon den Mars besiedelt haben (was es wohl auch in aller Regel nur behauptet, wenn man es drauf ansetzt, also quasi primed dafür mit vorherigen Fragen/Antworten, die es ja mit bedenkt), ist imho einer Art Argwohn bedingt (https://de.wikipedia.org/wiki/Kr%C3%A4n ... Menschheit), nicht der KI fair im Grunde; Menschen, die dement sind, behaupten etwa oft falsche Sachen mit absoluter Selbstsicherheit, aber man wird ihnen nicht ihre Intelligenz grundsätzlich absprechen bzw. dass sie grundsätzlich Dinge noch "verstehen". ChatGPT ist in dem Sinne nicht so intelligent, wie man es von gesunden Menschen erwartet; es sagt ja auch nicht "dazu weiß ich nichts, die Datenlage ist mir zu unsicher", es hat vielmehr ein unerhörtes Selbstvertrauen, was man als "character flaw" bezeichnen könnte, aber das könnte man ja auch rauskriegen, wenn man für entsprechende Antworten höhere Mindestsicherheiten voraussetzt, so wie halt Menschen sich auch äußern, wenn sie sich nicht sicher sind.

Am Rande: Chomsky und ein paar seiner Buddies sind bei ihrem Feldzug gegen ChatGPT imho schon teils peinlich: https://www.nytimes.com/2023/03/08/opin ... pt-ai.html: "For this reason, the predictions of machine learning systems will always be superficial and dubious. Because these programs cannot explain the rules of English syntax, for example, they may well predict, incorrectly, that “John is too stubborn to talk to” means that John is so stubborn that he will not talk to someone or other (rather than that he is too stubborn to be reasoned with). Why would a machine learning program predict something so odd? Because it might analogize the pattern it inferred from sentences such as “John ate an apple” and “John ate,” in which the latter does mean that John ate something or other. The program might well predict that because “John is too stubborn to talk to Bill” is similar to “John ate an apple,” “John is too stubborn to talk to” should be similar to “John ate.” The correct explanations of language are complicated and cannot be learned just by marinating in big data." -- Wenn man ChatGPT fragt, was "John is too stubborn to talk to" bedeutet, macht es aber nicht diesen Fehler, es erklärt die Bedeutung korrekt, ich habe das auch ein paar versucht. Okay, das ist nur ein Beispiel von Chomsky et al., vielleicht gibt es bessere, I don't know.
sorry, aber du wirfst so viele Dinge durcheinander, dass es mir schwer fällt das einfach so stehen zu lassen. Du scheinst dich von Namen und Bezeichnungen beeinflussen zu lassen und übersiehst dabei, was hinter den Worten steht.

1. arbeiten neuronale Netzte nicht "quasi wie menschliche Gehirne" - es GIBT einen substantiellen Unterschied. Mal ganz abgesehen von der schieren Komplexität und Größe des Gehirns wissen wir nicht, wie genau das Gehirn und seine Neurone im Zusammenspiel im Detail funktionieren. Vor- und rückwärts gerichtete Modifikatoren sowie deren Interaktion kennen wir nicht. Neurone sind mehr oder weniger "analog", indem sie multiple Elektrische und biochemische Signale integrieren, verarbeiten und weiterleiten und auch teilweise auf sich selbst (autokrin) wirken.
Nur, weil wir prinzipiell Aspekte eines Neurons beschreiben können und Grundprinzipien des Zusammenwirkens erkennen, heißt das noch lange nicht, dass wir es verstehen oder auch nur in Ansätzen imitieren oder nachbauen könnten.

Neuronale Netzte im Sinne von mathematischen KI-Modellen bauen explizit KEINE biologischen Neurone nach, sondern arbeiten analog einem vereinfachten Abstraktionsmodell, das multiple Eingaben durch parametrisierte Gewichtung in wenige Ausgaben zusammenfasst und dies so lange optimiert, bis die Ausgabe dem entspricht, was wir wünschen.

Wir haben keine Ahnung, wieso im menschlichen Gehirn so etwas wie Verständnis, Bewusstsein, Wissen oder Erkennen abgebildet und umgesetzt wird. Dementsprechend sind diese völlig abstrahierten (und anders funktionierenden) mathematischen Modelle auch nicht "im Prinzip wie ein Gehirn".

Die besten Methoden, die uns in der Neuro- und Kognitionswissenschaft vorliegen, können nicht einmal ansatzweise die Funktionsweise von völlig simplifizierten Entscheidungsprozessen erklären oder analysieren. Es ist völlig illusorisch zu glauben, dass wir auch nur den Hauch eines Verständnisses davon hätten, WIE das Gehirn seine Leistungen vollbringt - geschweige denn dies in einen Algorithmus zu gießen und umzusetzen.

Ich sage ja nicht, dass es prinzipiell nicht möglich ist. Es ist mir nur wichtig, dass uns allen schon klar ist, dass GPT und ähnliche LLMs im Moment dermaßen WEIT von Verständnis/Bewusstsein/konsistentem Weltbild/... entfernt sind, wie man nur sein kan.

Sie imitieren für den ersten Blick gut (das sieht man ja daran, dass du in sie so etwas wie Intelligenz hinein projizierst), aber dahinter steckt ausschließlich Statistik auf einem Modell, dass nichtmal in Ansätzen das leisten kann, was du hinein beschreibst.

2. du scheinst immer noch (trotz meiner vorherigen Ausführungen) das Bild zu haben, dass GPT eine Form von "Wissen" hat, das es mit Worten beschreibt und ggf. nur auf eine falsche Fährte geführt werden kann. Das grundlegende Problem ist, dass GPT GAR nix weiß, sondern ausschließlich Wahrscheinlichkeitenfolgen von Tokens zusammensetzt. Aufgrund der schieren (und unvorstellbaren Größe) des Modells führt das dazu, dass manche Ausgaben so wirken, als OB es etwas verstehen/wissen würde - aber es handelt sich hier einzig und allein um Illusionen - kein dahinter stehendes Weltbild oder eine Form von Verständnis.

3. den NYT-Teil deines Posts konnte ich nicht so recht nachvollziehen/verstehen. Da wird mir der Punkt nicht ganz klar.
Benutzeravatar
philoponus
Beiträge: 2548
Registriert: 4. Apr 2017, 18:18
Kontaktdaten:

Re: Spielkonzepte mit ChatGPT

Beitrag von philoponus »

Andre Peschke hat geschrieben: 20. Mär 2023, 13:18 Das ist ja ein Entweder/Oder. Schon jetzt kann man oft optional in Lore-Dialoge abbiegen etc. Warum sollte sich das optionale dabei ändern. Ich schrieb ja bewusst nur von dem einen Barkeeper, mit dem man chatten kann. Nicht von jedem NPC.

Entwickler werden auf lange Sicht nur entwickeln, was die Masse gut findet.
Erfahrungsgemäß dauert es oft länger bis man neue Technologien "richtig" bei Kulturprodukten einsetzt.

ad Masse: Mit der AI werden aufgrund wohl der niedrigen Hemmschwelle (hängt dann vom B2B Pricing ab) wohl erst mal die Indies viel experimentieren. Das wird sicher sehr spannend.
Rigolax
Beiträge: 2090
Registriert: 20. Feb 2018, 15:53

Re: Spielkonzepte mit ChatGPT

Beitrag von Rigolax »

BummsGeordy hat geschrieben: 20. Mär 2023, 19:46 sorry, aber du wirfst so viele Dinge durcheinander, dass es mir schwer fällt das einfach so stehen zu lassen. Du scheinst dich von Namen und Bezeichnungen beeinflussen zu lassen und übersiehst dabei, was hinter den Worten steht.
Nö, tu ich nicht, finde ich. :ugly:
BummsGeordy hat geschrieben: 20. Mär 2023, 19:46 Wir haben keine Ahnung, wieso im menschlichen Gehirn so etwas wie Verständnis, Bewusstsein, Wissen oder Erkennen abgebildet und umgesetzt wird. Dementsprechend sind diese völlig abstrahierten (und anders funktionierenden) mathematischen Modelle auch nicht "im Prinzip wie ein Gehirn".
Das ist doch ein Widerspruch? Wenn wir "keine Ahnung" haben, wieso das im menschlichen Gehirn funktioniert, dann könnten solche mathematischen Modelle auch "im Prinzip wie ein Gehirn" funktionieren.
BummsGeordy hat geschrieben: 20. Mär 2023, 19:46 Ich sage ja nicht, dass es prinzipiell nicht möglich ist. Es ist mir nur wichtig, dass uns allen schon klar ist, dass GPT und ähnliche LLMs im Moment dermaßen WEIT von Verständnis/Bewusstsein/konsistentem Weltbild/... entfernt sind, wie man nur sein kan.
Bewusstsein ja, das steht imho auch nicht im Raum. Teilweises Verständnis und ein alles in allem konsistentes Weltbild imho eindeutig schon.
BummsGeordy hat geschrieben: 20. Mär 2023, 19:46 2. du scheinst immer noch (trotz meiner vorherigen Ausführungen) das Bild zu haben, dass GPT eine Form von "Wissen" hat, das es mit Worten beschreibt und ggf. nur auf eine falsche Fährte geführt werden kann. Das grundlegende Problem ist, dass GPT GAR nix weiß, sondern ausschließlich Wahrscheinlichkeitenfolgen von Tokens zusammensetzt. Aufgrund der schieren (und unvorstellbaren Größe) des Modells führt das dazu, dass manche Ausgaben so wirken, als OB es etwas verstehen/wissen würde - aber es handelt sich hier einzig und allein um Illusionen - kein dahinter stehendes Weltbild oder eine Form von Verständnis.
Vielleicht funktioniert menschliche Kognition auch stochastisch? Ich verstehe diese kategorischen Einwände nicht.
BummsGeordy hat geschrieben: 20. Mär 2023, 19:46 3. den NYT-Teil deines Posts konnte ich nicht so recht nachvollziehen/verstehen. Da wird mir der Punkt nicht ganz klar.
Chomsky und seine Kumpels haben sich auf deren nicht bewiesenes, recht esoterisches Konzept einer Universalgrammatik versteift. Soweit ich das verstehe, geht es darum, dass Menschen ein "Modul" im Kopf hätten, das die Grammatik aller menschlichen (natürlichen) Sprachen determiniert und Kinder daher nach diesem "Modul" Sprache lernen. Wenn man das so glaubt, dann gibt es natürlich einen kategorischen Unterschied zu solchen LLMs, weil man ja nicht dieses "Modul" nachgebaut hat. Aber es heißt auch halt "künstliche Intelligenz", niemand sagt ja, es muss 1:1 wie menschliche Intelligenz funktionieren.
Antworten