Das Thema empfinde ich aktuell auch als hoch spannend, weil hier so viele Dinge zusammenkommen, in denen wir (als Menschen) sehr schlecht sind
Und auch obwohl(!) wir (und jetzt stellvertretend Jochen und Sebastian) sich unserer menschlichen Beschränkungen (in die Zukunft zu extrapolieren) sehr wohl bewusst sind (haben sie konkret angesprochen), treten sie in genau die selbe Falle wie es mir scheint.
Meine Hauptprobleme mit der Diskussion sind, dass
a) schlecht definierte Fragestellungen/Konzepte mit
b) unzureichender Tiefenanalyse der Thematik
zusammenkommen. Daher kam es reihenweise zu ziemlich abenteuerlichen Schlussfolgerungen.
Was ich mit a) meine:
Es wurden Begriffe wie "KI", Intelligenz oder "Wissen" wild durcheinander geworfen. Ohne trennscharfe Beschreibungen dessen, was genau damit gemeint ist, passiert genau das, was in der Podcastfolge passiert ist: die subjektiven Bewertungen und Konnotationen, die mitschwingen werden zu einem Mischmasch verwischt.
Es ist nunmal nicht selbstverständlich und in der Diskussion überhaupt nicht klar, was überhaupt mit "KI" gemeint ist. Wenn man die "KI" hinter LLMs (GPT) mit einer NPC-KI aus Red-Dead zusammenwirft und dann DORT nicht einmal trennt, was es mit Aktionen, Wegfindung,... auf sich hat, dann hilft das wenig weiter. Konkretes Beispiel: dass in GTA die Polizei solche simplen Zustände wie "ist für x Minuten aktiv und vergisst dann alles" hat, liegt nicht daran, dass "KI" (wie gesagt - aktuell bewegen wir uns im völligen Definitionsnirvana) damals zu schlecht war, sondern dass man ein möglichst ressourcenschonendes Modell gewählt hat, das den Eindruck erweckt, dass der Ansatz einer "realistischen" Reaktion entsteht.
Die Fortschritte in unseren aktuellen "KI"-Entwicklungen werden an dieser konkreten Situation rein gar nicht ändern, da wir hier an einer Ressourcen-Grenze stehen und nicht an einer konzeptionell-technologischen Grenze, die sich nun irgendwie verschoben hätte.
Die Aussage: "ChatGPT wurde mit dem Wissen des Internets gefüttert" ist auch einfach falsch. die aktuellen LLMs wissen überhaupt nichts. Sie haben kein Verständnis. Kein Weltmodell. Keine Abstraktion. Keine Konzepte. Durch stochastische Wortfolgen (die auf einem gigantischen Quelldatensatz trainiert wurden) SCHEINT es so, als ob das Modell irgendetwas verstehen/wissen/denken würde - aber das geschieht einzig und allein in unserer Wahrnehmung.
Es ist schon ein gewaltiger Unterschied, ob eine Technologie durch geschickte Ausgaben so WIRKT, als ob sie etwas versteht/tut/... - oder ob wir technologisch wirklich einer solchen Technologie näher gekommen sind. Wenn man von der ersten Prämisse extrapoliert zeigt sich eine völlig andere Zukunft, als wenn man es von der zweiten Perspektive aus tut.
Ich sage ja nicht, dass irgendeine Entwicklung/Konsequenz, die im Podcast genannt wurden nicht so eintreten wird, aber die Grundprämissen und dementsprechend auch die daraus abgeleiteten Folgen sind einfach nicht mit der technischen Grundlage in Deckung zu bringen.
Noch kurz zu b)
Einfach solche Sätze rauszuhauen wie "KI schlägt JEDEN GO-Spieler" macht mich schon etwas unruhig. Zum Einen (wie ja schon gepostet wurde) stimmt das nicht. Und zum Zweiten führt dieser Glaube dazu, dass die Idee "die KI ist unserer menschlichen Fähigkeit/Intelligenz überlegen" dazu, dass ausgeblendet wird, dass dieses Modell EINEN Teil extrem gut und SEHR viel besser macht, als wir Menschen - aber ALLES andere (und dazu gehören auch gewisse GO-Taktiken) weder versteht, darauf reagieren kann noch in irgendeiner Form damit zurecht kommt.
Wenn dann gefolgt wird mit "es ist jetzt auch problemlos heute sofort möglich eine KI zu erstellen, die jeden CS:GO-Spieler besiegt" (weil die Grundprämisse ist "KI ist KI" und "Spiel ist Spiel"), dann sind da einfach SO viele Schritte übersprungen wurden, dass diese Aussage leider überhaupt nicht mehr weiterhilft. GO konnte mit unserer aktuellen Technologie gut gefasst werden. CS:GO ist aber etwas ganz Anderes. Natürlich wird es früher oder später auch DA möglich sein, aber es ist ein SO viel komplexeres Problem, dass man es nicht in einem Satz von "KI kann GO, also kann KI auch CS:GO" zusammenzufassen ist (auch wenn beide Aussagen die Buchstabenfolge "GO" beinhalten
)
Guckt euch doch nur an, welche gigantischen Weiterentwicklungen notwendig waren, um von AlphaGO zu AlphaStar (spielt und "meister" Starcraft) zu kommen. (da gab es wenn ich mich recht erinnere eine gute Videoreihe, die das begleitet hat und auch die grundlegenden Probleme dahinter gut beschrieben hat).
*************************************
Was ich damit sagen möchte: klar kann alles so kommen, wie ihr es beschrieben habt. Und natürlich ist das eine hochspanende Zeit mit wahnsinnig schnellen Entwicklungen. Und ich halte es auch für absolut realistisch, dass wir zu einer Situation kommen, in der wir wirklich so etwas wie menschenähnliche "Intelligenz" künstlich erzeugen können. Aber DAS, was wir aktuell haben ist bei Weitem nicht DAS, was in der Diskussion suggeriert wurde. (Zumal wir aktuell noch keine Möglichkeiten haben überhaupt verstehen, was/wie diese Modelle konkret zu ihren Ausgaben kommen...)
spannende Zukunft - aber ich fürchte, dass hier SEHR viel mehr in die aktuellen Fähigkeiten der Technologien reininterpretiert wird, als Viele es glauben...
Das hier ist auch so ein Sprung. Von "sind beim Erstellen von Software ziemlich gut" → was soll das denn heißen?
und hast du dir mal angesehen, wie genervt Menschen davon sind, die täglich damit zu tun haben?
Da die Modelle keinerlei Verständnis von richtig/falsch/... haben und überhaupt auch GAR nichts verstehen, schleichen sich reihenweise bugs in Programme ein, weil man anfangs denkt, dass es "schon passt"
wir sind noch WEIT davon weg, dass sich das alles automatisiert - zumal das teure an den Modellen nicht die Programmierung - sondern die Konzepte dahinter und vor allem das Training selbst sind... :/