Music.
Ihr hört den Götterkomplex-Podcast, Tag zusammen, Niklas hier und ich muss sagen, die Stimmung ist wirklich sehr ausgelassen bei uns im Studio. Der Orti ist wieder gesund, ich sehe es, er kann wieder lachen, hallo Orti. Schönen guten Tag an alle da draußen, Gott sei Dank, ja, mir geht's gut, ich hab Bock. Sehr schön, ich meine, dich hat sie auch wirklich zerlegt die letzten Wochen, das kann man echt nicht anders sagen, es tat mir so ein bisschen leid in der letzten Folge, dass du so am rumröcheln warst, aber umso mehr haben wir uns natürlich gefreut, dass du dabei gewesen bist also jetzt Vollgas diese Folge und as usual Vollgas auch bei unserem anderen Gott, nämlich Philipp, hi Ja, Tag.
Ich sehe auch, dir geht es gut Ja, sicher Ach, was soll man denn auch immer drum rum reden.
Ein Tag sollte doch eigentlich reichen. Nein, ohne Scheiß, ich freue mich, dass wir endlich wieder in voll funktionsfähiger Dreierbesetzung hier den Götterkomplex, dem Götterkomplex huldigen. Ich habe richtig Bock auf die Folge. Das habe ich auch, Orti auch, das sehe ich in seinem Gesicht, denn wir haben hier ein dickes Brett zu bohren. Wir haben euch was versprochen und heute lösen wir dieses Versprechen ein. Wir haben in der vergangenen Reihe ganz viel über das Thema KI gesprochen. Wir sind aufgeklärt worden, was KI eigentlich ist, was es macht und was das für Science-Fiction bedeuten kann. Was KI für unsere Welt, nämlich den Götterkomplex, bedeuten soll, das wollen wir heute mal diskutieren. Und am Ende, so hoffen wir, ein paar grundsätzliche Regeln für unser Götterkomplex-Universum festzuhren. Das ist eine ganz schöne Aufgabe, aber... Wir haben uns ja vor allem ehrlicherweise die Zeit auch erbeten, um uns ausführlich Gedanken zu machen. Also ich meine das ernst und jetzt mal weg von aller Flapsigkeit. Das ist wirklich ein, wir finden, ich finde, sehr fundamentales Thema, sehr richtungsweisendes Thema, wie sich der Götterkomplex in Zukunft auch Storytelling mäßig einfach anfühlt. Und deswegen haben wir uns eben diese Zeit genommen und ich bin sehr, sehr, sehr gespannt auf das Endergebnis, denn auch wie immer gilt hier, wir hatten im Vorfeld ehrlicherweise eiserne Funkdisziplin, wir haben uns nicht über unsere Gedanken ausgetauscht, wir haben, eigentlich kein wirkliches.
Themenbezogenes Vorgespräch gehabt, was wirklich auch selten ist. Also normalerweise muss man jetzt ja so ein kleiner Blick hinter die Kulissen. Natürlich, wenn wir so eine Götterrat-Folge machen und sagen, hey, irgendwo müssen wir eine Konklusio finden, da hat schon jeder irgendwie eine kleine Überraschung meistens vorbereitet, aber so, wir kommen halt auch nicht drum hin, wenn wir privat ein bisschen quatschen, dass man sagt, ja, das will ich aber nicht oder das finde ich kacke, das soll es für mich nicht geben, sodass man schon immer so eine kleine Richtung von uns schon immer irgendwie mitkriegt. Aber heute wird das besonders spannend. Und Niklas, du hast gesagt, wir haben dieses dicke Brett zu bohren. Und man muss ja wirklich auch noch mal sagen, wir haben jetzt nun wirklich auch krasse Themen angesprochen. Philipp hat ja auch noch mal gesagt, warum das Thema so wichtig ist, weil wir ja nicht nur technisch gucken, was ist jetzt mit KI möglich. Wir haben über Bewusstsein gesprochen. Philipp hat über Konzepte damals in der ersten Folge noch gesprochen von KI-Szenarien, in denen sich KI komplett selbstständig macht und die Menschheit versklavt. Oder die Menschheit die KI in eine freie Daseinsform entlässt. Und solche Szenarien haben wir debattiert. Und wir haben aber auch über Ängste und gesellschaftliche Spannung im Kontext von KI gesprochen. Und das jetzt auf einen Nenner zu bringen, ist halt wirklich ...
Super, super, super schwer, weil die Konsequenz von dem, was wir heute da zumindestens grundlegend, schon richtig krass auch ist. Da werden viele Sachen ausgeschlossen oder eingeschlossen und die werden für Storytelling und für das Universum einfach maßgeblich sein. Und wo du gerade beim Punkt Storytelling ist, es ist ein Punkt, der immer wieder aufgeploppt ist in den vergangenen Episoden, nämlich, dass eine KI, die die Arbeit der Menschen gänzlich übernimmt, eigentlich dafür sorgt, dass wir keine spannende Geschichte mehr zu erzählen haben. Das heißt, wenn wir Leute im Weltall haben, die gar nicht da sein müssen, dann wird ja von der KI erledigt. Wieso schicken wir nicht einfach unbemannte Raumschiffe los und lassen alles kolonialisieren? Warum sollte der Mensch, wenn er doch über so eine geniale KI verfügt.
Nicht doch sagen, hey, wir bleiben hier auf unserer sicheren Erde und der Rest macht nun mal der Roboter beziehungsweise die KI. Jetzt haben wir Gott sei Dank ein Szenario entworfen für den Götterkomplex, nämlich wir haben uns darauf geeinigt, dass unser Sonnensystem und die Erde vernichtet werden sollen oder zumindest unbewohnbar werden. Das heißt, diese Motivation bleibt nach wie vor. Ich möchte gerne mit euch noch einen kleinen Gedanken teilen, bevor wir jetzt in die Diskussion gehen. Ich habe nämlich in den vergangenen Tagen einen Philosophen gehört beim WDR. Ich erinnere mich leider nicht mehr an den Namen. Da ging es aber um das Thema Informationsbeschaffung mithilfe von KI und welche Konsequenz das letztendlich hat. Es gab mal, als die Suchmaschinen größer wurden, ganz speziell Google, die große Diskussion darüber, was nimmt der Mensch als wahr und gegeben hin. Das ist ja eine Diskussion, die wir heute auch ganz aktuell führen. Nämlich das interessante Phänomen, dass wenn ein Fakt mehrmals irgendwo zu finden ist und zwar auf Plattformen oder Orten, die wir als gut wahrnehmen oder als glaubwürdig.
Dann werden wir Fakten, die mehrmals auftauchen, eher als richtig wahrnehmen oder empfinden oder bewerten, als diese, die vielleicht nicht so oft aufkreuzen. Und das jetzt in Kombination mit Large Language Models führt zu einem Problem. Denn mal angenommen, wir benutzen sowas wie Chat-GPT oder andere KIs, um beispielsweise Ideen für uns zu generieren oder aber auch um Fakten abzufragen.
Dann haben wir es natürlich mit einem Modell zu tun, das immer die nächstwahrscheinliche Möglichkeit an Wortkombination ausspucken wird. Wenn jetzt genügend Daten gesammelt worden sind und viele Menschen zum Beispiel zu einem Thema eine gewisse Stellung beziehen, Dann entsteht sowas wie eine Meinungsblase, die nicht mehr so korrekt hinterfragt werden kann und es besteht die Gefahr, dass Innovationen und neues Denken in verschiedene Richtungen es schwieriger hat, sich durchzusetzen in der Zukunft.
Das heißt, ein solches Modell, das man vielleicht auch als Wissensabfrage nutzt, also als Informationsquelle, kann auch gefährlich sein. Ich habe ein super Beispiel aus dem Alltag. Das ist total banal, aber genau das, was du sagst, ist ja richtig. Also man stellt Chachibiti eine Frage. Wir wollten was wissen. Hier war in Lippstadt ein Fest und da gibt es so ein Entenrennen, so ein Gewinnspiel. Und da wird letztendlich eine Ente über die Lippe gejagt und die Ente, die ankommt, unter 7000 Enten, die gewinnt den Preis. Und wir wussten jetzt nicht, wann man diese Ente abgeben soll und wo. Und dann haben wir es einfach aus Spaß halt auch Chatty gefragt. Chatty gefragt so, hey, wann und wo muss man das machen? Und das hat er uns auch wunderbar beantwortet. Aber dann habe ich mir die Quelle anzeigen lassen und die war von 2017. Also vom Entenrennen von 2017, weil es dazu irgendeinen Artikel gab. Das hätte mich eigentlich auch komplett überzeugen können. Ich hätte auch sagen können, ja um 18 Uhr müssen wir die Ente da und da abgeben, aber die Quelle ist halt eben in dem Fall sieben Jahre alt gewesen oder acht Jahre alt gewesen und könnte völlig falsch sein, aber die Antwort war halt extrem überzeugend.
Und jetzt für alle Hörerinnen und Hörer da draußen, wir reden über Gummienten. Also nicht, dass ihr denkt, dass wir Barbaren aus Lippstadt richtige Enten fangen und die dann über die Lippe jagen. Das machen wir nicht, aber wir schlachten danach schon dann noch Katzen und verbrennen Jungfrauen. Das ist schon danach die Tradition. Nach dem Entenrennen wird das gemacht. Das hat Donald Trump ja auch neulich in der Rede erzählt, stimmt. Und dann essen wir sie.
Ganz genau. Nein, aber das ist ja genau das, was ich hier gerne nochmal reinwerfen möchte. Nämlich, dass mal angenommen, wir befinden uns zum Beispiel auf einem Flug von A nach B. Dann haben wir es ja vielleicht auch mit einer Datenbank zu tun, mit der wir interagieren können.
Beispielsweise über einen Sprachinterface. Und davor ist vielleicht so ein Large Language Model geschaltet. Und man kommuniziert mit dieser Datenbank. Und da kann es natürlich sein, dass wir das, genau. Einbringen von neuen Erkenntnissen, dass das halt sich schwierig gestaltet. Ich denke, das kritische Hinterfragen von dem, was so ein Large Language Model ausspuckt, das ist immer noch wesentlicher Bestandteil im Umgang mit KI. Wenn du das einfach so hinnimmst und die Gefahr hast du ja gerade angesprochen, dann bin ich auch komplett bei dir. Ich merke das auch in mehreren Kontexten, in denen auch mal eine Rechtsfrage gestellt wird. Auch bei uns bei der Arbeit wird das mal ganz gerne gemacht, wenn es dann mal so den einen oder anderen Fall gibt, wo man sagt, ist das rechtlich eigentlich okay und dann kommt da eine Antwort von ChatGPT und die wirkt überzeugend, aber das sind einfach Fachbereiche, wo man sagen muss, Finger weg, das sollte man eben nicht von ChatGPT sich beantworten lassen, auch wenn die Antwort überzeugend ist und man vielleicht sogar genauso wie der Chatbot argumentieren könnte, das aber de facto juristisch falsch ist. Und dafür würde man jetzt zig Beispiele finden, wo, du sagst es ja, letzten Endes ist es ...
Macht das Language Model nichts anderes als die Wahrscheinlichkeit zu berechnen deiner Antwort oder deiner Frage, was sind die nächsten Wörter, die du gerne hören willst und in vielen Fällen geht es gut, aber es ist noch lange nicht an dem Punkt, in dem wir sagen können, das ist gesichert und deine Anfrage wird gesichert auch beantwortet in allen Kontexten, gerade bei Juristerei und sonst was, also das ist zu trennen. Ja, ich habe da gerade noch einen Gedanken, der mir irgendwie in den Kopf kommt. Mal angenommen, wir haben es mit einer in den Generationen folgenden Form von Anthropomorphismus zu tun, also der Vermenschlichung von Maschinen. Dann kann es ja mitunter sein, dass wenn sich ein Mensch zum Beispiel emotional zu einer Maschine hingezogen fühlt, das kennen wir spätestens seit den Tamagotchi. Nicht nur von Philipp. Ja, ganz genau.
Dann kann es natürlich durchaus sein, dass ich so einem Gebilde, einem künstlichen Gebilde etwas zuspreche, unter anderem aber auch das Wissen und ich vertraue diesem Konzept. Mir ist dieser Gedanke deswegen gekommen, weil ich mir dachte, was ist denn, wenn die dritte Generation auf einem Mehrgenerationenschiff unterwegs ist? Und vielleicht in der zweiten Generation nicht mehr beigebracht bekommen hat, das was dort an Daten ausgespuckt wird, kritisch zu hinterfragen. Ich empfehle da den Prolog eines wirklich ganz hervorragenden Zykluses.
Der hat was mit dem Volk der Eridana zu tun. Möglicherweise heißt das auch bald nicht mehr Eridana, weil der Name irgendwie schon anderweitig benutzt ist. Aber ich kann das nur empfehlen, man findet diverse Storyfolgen, zum Teil auch remastered auf unserem Podcast-Feed. Und erst kürzlich erschienen, ne? Ja. Möglicherweise. Ich bin jetzt nochmal ein bisschen frecher, das was du gerade gesagt hast, dieses Lernen des kritisch Hinterfragens von dem, was ChatGPT ausspuckt und dass das eine spätere Generation vielleicht nicht mehr gelernt hat. Ich würde sagen, das wird heute schon da und das wird auch zum Teil nicht kritisch hinterfragt und das ist ein Phänomen, das hat nichts mit den Generationen zu tun. Das hat wirklich, also glaube ich, viel damit zu tun mit dem Wissen, was tut dieses Modell da eigentlich, auf was greift es zu, möchte ich mich überhaupt mit der Antwort und der Komplexität meiner Frage wirklich beschäftigen, also möchte ich dem nachgehen, möchte ich die Quelle dahinter nochmal kritisch nachlesen oder möchte ich jetzt einfach darauf vertrauen, dass die Antwort vielleicht auch nur wahrscheinlich richtig ist und ich wahrscheinlich richtig antworte und mir angewöhne, wahrscheinlich richtig zu antworten und ich komme damit durch. Also das ist ja so ein bisschen das, was du so auch gezeichnet hast, dass irgendwie Wissen, das ein Algorithmus dir vorgibt, als Wissen...
Auch quasi geglaubt wird und weitererzählt wird und dann dadurch ja eigentlich eine enorme Falschheit entsteht. Also dieses falsche Wissen wird als gegeben angenommen und wird weitererzählt und dadurch fütterst du wieder den Algorithmus und das ist doch total das Problem unserer Zeit gerade. Wenn ich mir jetzt vorstelle, dass sich unsere Geschichte nun mal auch fortentwickelt, habe ich mir zwei Sachen notiert, um jetzt mal so ein bisschen auf den Götterkomplex aufzusprechen zu kommen.
Ich möchte da mal kurz eine Vision mit euch teilen. Und zwar sieht die folgendermaßen aus. Wir haben ja nun mal in einer bereits erschienenen Folge angefangen uns darüber Gedanken zu machen, wie sich die Menschheit bei uns entwickelt. Schuld, die Ultima Ratio wird dann sein, die Menschheit flieht aus dem Sonnensystem. Der Weg dahin ist allerdings recht lang und auch verbunden mit Erkenntnissen und ich habe mir vorgestellt, dass eine Erkenntnis die sein könnte und das hat mir zum Teil auch festgezogen, dass eine große global vernetzte KI letztendlich auch mit Schuld ist an einer großen Krise, die auch dafür gesorgt hat, dass viele Menschen ihr Leben lassen mussten. Ja, die Hungerkrise, also letztlich, das war ja so ein bisschen dieser Ansatz, also es war ein Ansatz, dass eine forschende KI ein super Düngemittel entwickelt und wir damit vordergründig oder kurzfristig eine Lebensmittelknappheit auf der Erde entgegnen können, aber langfristig die Böden so desolat ausgedörrt werden, dass wir tatsächlich in einer handfeste oder die Menschheit in einer handfeste Hungerkrise schlittert.
Und daraufhin, genau, zeichnen wir ja noch einen recht globalen Konflikt, der dafür sorgt, dass die Menschen weitgehend irgendwann isoliert voneinander über viele Ressourcen verfügen, aber trotzdem das Streben nach außen immer noch da ist. Meine Vorstellung wäre jetzt folgende. Ich hatte mir so ein bisschen Gedanken darüber gemacht, ob man grundsätzlich eine KI mal als ultravernetzt denken muss. Ich glaube nein. Ich glaube, dass es auch so funktioniert, dass man sagen kann, es gibt verschiedene Arten von Modellen. Eine davon ist eine global vernetzte, die wir gerade angesprochen haben. Aber hinterher, nach hinten raus, ist es eher üblich, KI-Modelle zu benutzen, die zum Beispiel verortet sind, nur in einem System, also auf einer Festplatte, wie zum Beispiel in einem Roboter. Und jetzt, ich weiß, das schlägt natürlich mein Science-Fiction-Star-Wars-Herz ganz groß, ich stehe einfach auf Androiden. Wenn ich mir jetzt Folgendes vorstelle, bitte haupt mir nicht innerlich ab, ja? Bleibt bitte kurz bei mir. Wenn ich mir jetzt Folgendes vorstelle.
Die Menschheit kann noch auf Robotik zurückgreifen, um zum Beispiel bei der Ernte zu helfen, um beispielsweise beim Bau zu helfen und so weiter und diese Systeme, diese Helferlein im Haushalt bis hin zu Agrar, bis hinterher zum Bauwesen, die sind ausgestattet mit einem Basis Large Language Model beziehungsweise mit einer Basis KI, die mitunter zwar zu besseren Interaktionen menschliche Züge haben kann in der Art und Weise, wie sie zum Beispiel redet oder kommuniziert, aber eigentlich nur begrenzt ist auf das Objekt, in dem sie steckt, beispielsweise ein Roboter.
Finde ich persönlich ziemlich cool. Also da habe ich jetzt ganz spontan an den Film Interstellar gedacht, wo ja auch zwei Androiden mit an Bord gewesen sind, die aber gekoppelt waren mit dem Schiff. Das war quasi der Bordcomputer mit einer riesen Datenbank. Und das ist in Form von einer KI halt in einer Physis gebunden gewesen, also in einem Androiden. Und das finde ich ziemlich cool, muss ich ganz ehrlich sagen, diese Vorstellung. Das heißt, deine Vision, ich würde das gerade mal für mich einmal so sortieren, deine Vision ist, dass sich eben die KI nicht nur in Interfaces den Menschen offenbar und sie unmittelbar damit agieren können, sondern eben auch, wenn du so willst, in einem technischen Leib. Ja, also dass wir fast schon sowas wie KI-Entitäten haben.
Die eben einfach, also schlicht gesprochen Roboter, die es ja heute auch schon gibt, nur haben natürlich etwas feiner und besser justiert, vielleicht auch erschwinglicher und die eben mit einer entsprechenden KI eben ausgestattet, sodass sie autonom sich bewegen. Das wäre jetzt ein Teil deiner Vision, ja? Und die ist entkoppelt von einem großen Server. Also da läuft jetzt nicht gerade die globale Chat-GPT-Version drauf, die sich ständig updatet, sondern es läuft halt, wie du schon sagst, wie auf einer Festplatte, die eine Version, Basis-Version 23 für den Bauernroboter oder den Mechanikroboter oder den Haushaltsroboter. Und wenn du sie updatest, also manuell updatest, dann hat es vielleicht noch ein paar mehr Funktionen, aber sie ist nicht ans große Netz angekoppelt.
Mal angenommen, wir hatten einen großen Konflikt, einen großen Krieg. Ich denke jetzt nur mal an den Ursprung meiner Siprimstein-Geschichte, die ja eine Zeit lang in Brasilien stattfinden wird. Wenn wir dort eine Agrarkultur haben, die darauf angewiesen ist, dass vielleicht die Roboter untereinander kommunizieren können, zum Beispiel sagen, ich habe dort auf dem Hügel dort einen Antennenmast und der sorgt dafür, dass die Kommunikation mit meinen Harvestern und meinen Hausrobotern und meinem Hausnass, nenne ich es mal, Hausserver funktioniert. Ja. Kann ich als Landwirt gucken, okay, in Interaktion mit meinem Hausroboter so, wo sind die Maschinen gerade? Ja, wir haben hier gerade ein Problem mit Harvester 3, der hängt da hinten fest. Updates müssen mitunter manuell gemacht werden, weil ich stelle mir das ein bisschen romantisch Sci-Fi-mäßig vor, weil nicht überall zum Beispiel Funk ist, dass man die Maschinen auch erreichen kann. Das ist jetzt ehrlich gesagt so die klassische Star Wars Androiden Vorstellung. Genau. Und ich muss ganz ehrlich sagen, je länger ich drüber nachgedacht habe, desto sinniger und desto cooler finde ich diese Vision für mich auch. Muss ich sagen. Macht mir Spaß, weil ich mir auch vorstellen kann, dass ein Jugendlicher mit einem kleinen Roboter, der quasi sowas wie ein Companion ist, nicht nur beim Lernen hilft, sondern auch sowas wie ein Tagebuch ist, wie heute mein Handy zum Beispiel.
Teil auch meines Lebens ist. Ich glaube, da steuern wir drauf hin. Also ich glaube, wir steuern erstmal darauf hin, dass diese natürlich alle komplett vernetzt sind, also Haushaltsroboter und was auch immer, wie geartete, roboterartige Helferlein im Alltag oder im Arbeitswesen. Ich glaube auch, dass diese Entwicklung sich nicht aufhalten lässt, sie passiert einfach, weil das, was entwickelt wird, wird entwickelt, aber dein Ansatz ist ja eben.
Dass dann man irgendwann sagt, so da ist jetzt nicht mehr der Großkonzern hinterher, der jetzt immer diese globale Vernetzung all dieser Maschinen und dieser Software irgendwie hat. Ich fände interessant, weil du ja sagst so, das ist ja, wir haben ein Kriegsereignis, wir haben diese Entwicklung und später möchtest du in so eine etwas romantischere Roboter-Vision hin. Ich fände das ganz interessant, wenn man halt irgendwann begründet, dass diese Maschinen, sie sind für die Menschen weiterhin hilfreich, sie sind stärker als ich, sie können gewisse Dinge besser, aber dieser KI-Algorithmus und das global Vernetzte, das wird abgelehnt oder vielleicht nach dem Krieg ist auch einfach diese Zentrale zum Beispiel, das ist einfach zerstört worden. Diese Firma gibt es gar nicht mehr, aber die ganzen Roboter sind noch da und werden vielleicht auch von den Leuten irgendwie selber liebevoll restauriert, sodass die halt noch funktionieren, aber halt eben von dem Algorithmus abgekoppelt sind. Also man müsste halt irgendwie, man braucht eine Ursache dafür.
Warum jetzt nicht ein Großkonzern oder ein großer Algorithmus dahinter steht, der diese Wesen updatet, kontrolliert oder Daten sammelt und so weiter und so fort. So stelle ich mir das zumindest vor. Also glaubhaft ist das auf jeden Fall, dass so eine Vision umsetzbar ist, aber man bräuchte noch Gründe dafür, dass diese Maschinen vielleicht nicht global vernetzt sind.
Naja, wenn ich mir eine Zeit vorstelle, in der zum Beispiel Kommunikation in alle Bereiche der Welt nicht unbedingt möglich ist, was ja auch heute nach wie vor der Fall ist, dann brauche ich ja auch kleinere Systeme, die so miteinander agieren. Bestes Beispiel, wenn ich, ich hatte neulich eine Doku gesehen, ist ein bisschen off-topic, über Kokainanbau in Südamerika, wo die Leute untereinander auch Schwierigkeiten haben, natürlich zu kommunizieren. Und das geht zum Teil nur teilweise über Funkgeräte nur in ganz bestimmten Arealen. Und auch die sind nicht unbedingt vernetzt mit einem globalen Netz, so wie wir es kennen. Also du wirst immer Isolation haben. Ja gut, die Kokainbauer machen das wahrscheinlich, damit sie nicht getrackt werden können. Ich wollte gerade sagen, das hat doch andere Gründe. Hätte ich jetzt auch behauptet.
Ja, mitunter aber auch, aber mitunter natürlich auch, was das Terrain angeht. Also du wirst immer Gegenden haben in der Welt, die natürlich abgeschnitten sind. Ja, nee, da muss ich sagen, da würde ich vehement widersprechen. Also gerade baut ein, Elon Musk baut ein globales, überall auf der Welt, in jedem fucking Winkel der Erde, zugängiges Internet auf mit Hilfe von Satellitenkonstellationen, also Starlink heißt das Teil.
Das ist ja jetzt schon in vielen Teilen der Welt ist Starlink zu erreichen und in vielen Teilen der Welt ist die Netzabdeckung deutlich besser als in Deutschland, das muss man auch fairerweise sagen. Das würde ich auch sagen, also ich mag die Vision auch, also ich mag das, ich mag die Idee, dass es halt einfach einen technischen Fortschritt gegeben hat, dass Roboter in sämtlichen Formen einfach den Alltag bereichern, so formuliere ich das jetzt mal, aber irgendwann dann doch diese kleinen Entitäten sind, wie du sie beschreibst, aller Star Wars, aber genau, diese Starlink-Argumentation und so, da bin ich halt auch komplett bei Philipp und würde sagen, da steuern wir hin und Firmeninteressen sind da ja halt auch eben so. Ich meine, was will man? Unsere iPhones, die jeder in der Tasche hat und nutzt, sind auch letzten Endes Datenkrallen, Informationskrallen für einen Mehrwert für verschiedene Konzerne und das wird in der Robotik nicht anders sein. Wobei ich jetzt, also um jetzt Niklas' These ein bisschen zu stützen, also wollte ich erstmal sagen, bin ich der Einzige, der eigentlich so Fallout-Vibes irgendwie dabei hat, so romantisierten, komm aus dem Wald und hab da meine kleinen Androiden. Nee, ich könnte mir halt vorstellen, Niklas, um da auch nochmal den Bogen zu den Kokainbauern zu schlagen.
Dass ja vielleicht auch aufgrund eines Krieges vielleicht auch bewusst gewisse Roboter oder Klammer auf iPhones irgendwie gejailbreakt werden und die bewusst halt getrennt werden vom Netzwerk und man die vielleicht auch mit ein bisschen Aufwand so umbaut, dass sie eben nur noch auf dem lokal begrenzten Netzwerk laufen. Weil man eben nicht will, dass sie laufend Informationen über dich, über deinen Betrieb, über den Einsatzgebiet, wofür dieser Roboter zur Verfügung ist, irgendwie in eine große Datencloud reinsenden. Du kannst ja auch vielleicht nicht verhindern oder du weißt es vielleicht nicht oder es bleibt immer ein unmulmiges Gefühl, wenn dein Haushaltsroboter zum Beispiel, der sich ja bewegt durch Sensoren und durch vielleicht eine Kamera, Aber weißt du aber nicht, ob der nicht eventuell nachts die Kamera doch auch anschaltet und irgendwelche Dinge halt auch in die Cloud überträgt. Und da könnte ich mir schon vorstellen, dass viele Menschen da eher ein mulmiges Gefühl haben, zumindest teilweise, gerade wenn die Daten auch noch mal übel missbraucht wurden. Wer weiß, was man da für perfide Sachen sich da in einem möglichen Krieg überlegen könnte. Und genau aus diesem Grunde, dass genau aus diesem Grunde eben gewisse Roboter einfach getrennt werden von dem Netzwerk, umgebaut werden, sodass sie eben funktionieren wie autonome Einheiten. Da könnte ich mir durchaus eben so eine Fraktion vorstellen, die sich vielleicht sogar darauf irgendwie spezialisiert hat.
Warum eigentlich nicht? Also ich meine, letztendlich bleibt ja die Fähigkeit des Menschen, ein globales Netzwerk zu haben mit einer KI, die auf eine riesen Datenbank zurückgreift, immer noch verwenden, zum Beispiel mehr Generationenschiffen. Ich hatte gerade auch nochmal überlegt, also diese Begründung, warum sind die jetzt nicht global vernetzt, warum ist die große Firma mit deren Interessen nicht mehr da und wir sind in einem Kriegsszenario und ich finde es auch durchaus interessant zu sagen, dass halt einfach auch diese Firma bewusst zerstört worden ist, damit ich mir vielleicht die Roboter, die diese Firma herstellt, eben dann auch anders programmieren kann und sie nicht mehr unter der Kontrolle dieser Firma sind.
Ob das Jailbreaking ist, ob die Firma zerstört wird oder ob, also da bin ich dabei, das habe ich auch schon mal, wenn wir das mal in den Weltall übertragen und autonome Kriegssysteme zum Beispiel uns überlegen, habe ich halt auch schon mal oder ja, fantasiere im Moment so einen Vorfall, in dem einfach auch zum Beispiel eine Patrouille, eine KI-gestützte Patrouille einfach durch einen gewissen Vorfall einen Ziviltransporter vernichtet hat, wo Kinder drauf waren. Und einfach das ein Ereignis ist, das einen Algorithmus zu verschulden hat und dass es dann halt auch einfach gesetzliche Pakte gab, wo man sagt, okay, das darf halt nie wieder passieren. Und dass dann auch Firmen, also wirklich komplett, wo man sagt, das hat halt bisher immer funktioniert, aber jetzt darf es diese Algorithmen in der Form oder diese Vernetzung so nicht mehr geben. Und das ist einfach auch ein allgemein anerkanntes.
Das Regelwerk, was durch gewisse Zwischenfälle, die man sich ja, Philipp, du hattest ja auch gerade diese Beispiele, Kameramissbrauch und sonst irgendwas, die sich häufen und wo es dann halt eben auch politische Gegenströmung gibt, entweder militärisch oder politisch. Aber irgendwie müssen wir uns das schon erklären. Bin ich bei. Also die Entwicklung, die auf der Erde stattfindet, die dann letztendlich im Exodus mündet, kann ja auf verschiedene Arten von KI-Systemen zugreifen. Wir hatten uns ja auf jeden Fall darauf geeinigt, dass es eine richtig gute KI gibt, die einem Menschen hilft, aber dann hinterher doch nicht hilft, weil sie halt Scheiße baut und die Menschen müssen hungern. Darauf hat man uns ja geeinigt, soviel ich weiß. Die Frage ist, wie könnte man den anderen Kram erklären, weil für mich schließt das eine das andere nicht aus. Also ich habe, sage ich euch ganz offen, ein Riesenproblem mit regelbasierter Regulierung von KI. Habe ich deswegen, weil wir gerade aktuell in einer Zeit leben, in der eine regelbasierte Ordnung nicht mehr gilt.
Also wenn man sich jetzt zum Beispiel die Russische Föderation anschaut, die Sowjetunion hat sich 60, 70, 80 Jahre lang an, sagen wir mal, Regeln der Abschreckung gehalten, dass sie Atomwaffen und Doktrinen dieser Atomwaffen immer nur dann zum Einsatz gebracht hätten, wäre ihr Staatsterritorium irgendwie bedroht gewesen. Und jetzt hat zum Beispiel Putin diese fundamentale, unausgesprochene Regel einfach gedreht und hat unter diesem Atomschirm einen Angriffskrieg angefangen. Das ist eine komplette fundamentale Brechung oder Vernichtung eben dieser regelbasierten Weltordnung. Ich meine, man muss ja nur über den, über the Great Ocean schauen, wie der Herr, wie dieser wasserstoffblonde Typ da im Weißen Haus so erzählt. Ähm.
Da ist gar nichts mehr regelbasiert, dass alles, was wir, an was wir glauben, an was wir zu hoffen wagten, wirklich ist, ist, ist tatsächlich einfach obsolet und deswegen in meiner Welt, man kann sich weltmäßig darauf einigen, irgendwelche KIs grundsätzlich zu verbieten und die meisten integren Staaten werden sich auch daran halten. Nur es gibt wieder Leute oder Firmen oder Staaten, die sich nicht mehr daran halten werden. Aber das finde ich spannend, also das ist ja ein schöner Konflikt, auch Regelkonformität versus Regelmissbrauch und den Taten, die daraus entstehen. Ich finde das schon gut, wenn man zum Beispiel, also erstmal bin ich bei dir, also ich finde das ist auch sehr einfach gedacht, also jetzt gibt es jetzt hier den, was weiß ich, No Algorithm Pact und alle halten sich brav dran, das meinte ich auch gar nicht unbedingt mit meiner Idee, sondern dass es schon global Richtlinien gibt, die von vielen eingehalten werden, die auch dahinter stehen und auch die Gesellschaft dahinter steht. Aber natürlich ein Missbrauch damit gemacht wird. Natürlich, wenn ich jetzt sage, es darf keine autonomen Militärdrohnen mehr geben.
Ja, okay, vordergründig gibt es die bei mir auch nicht, aber im Hintergrund oder wenn ich sie brauche, dann weiß ich, wie sie funktionieren und ich nutze sie auch. Und das ist ja das Ding von dem, was wir jetzt erleben und einer spannenden Sci-Fi-Geschichte, in dem solche Spannungen nebenher existieren können. Nur, ich bin auch, also ich mag Niklas' Idee, vielleicht machen wir da nochmal den Turn zu...
Eine KI, die für uns auch immer noch verstehbar ist, das ist mein Buddy, ich habe hier meinen Roboter, der ist nicht global vernetzt, der hat jetzt nicht ein komplettes Bewusstsein und es geht jetzt vielleicht auch nicht um solche Debatten, ist der jetzt ein Mensch oder ist der kein Mensch und der hat auch kein Bewusstsein. Wir haben ja auch in unseren Folgen über wirkliches Bewusstsein einer Maschine gesprochen oder einer künstlichen Intelligenz, ist sie sich selbst bewusst und all diese Sachen, also das kann ich sagen zu meiner Vision, das überfordert mich. Ich schaffe das nicht, eine KI zu erdenken, die über ein Bewusstsein verfügt und mit diesem Bewusstsein dann weitere eigene Ziele verfolgt. Das sind Storys, ich finde die super spannend, auch im Kontext von Science Fiction. Ich bin aber wirklich bei Niklas Fantasie, dieser einfachen am Ende, ich sag's mal Schrott Sci-Fi KI, die wir aus Star Wars kennen, die wir mögen, dass man sagt, das ist letzten Endes, ich bin in meinem Raumschiff und mein Raumschiff ist mechanisch betrieben und ich muss das vielleicht noch irgendwie selber zusammentackern und ein Roboter hilft mir dabei. Das ist ja für uns, sag ich mal, unsere Kinder-Science-Fiction-Version, die wir lieben, die vielleicht uns auch prägt und die man auch ein Stück weit irgendwie behalten will, auch wenn sie vielleicht gar nicht so sinnig ist, um mal ehrlich zu sein. Aber es ist ja unser Universum.
Also ich stimme dir zum einen, also deswegen, du hattest mich gerade unterbrochen in dem, was ich sagte, dass ich halt nicht an diese regelbasierte Limitation von KI glaube. Ich glaube aber sehr wohl und ich glaube, darauf können wir uns erstmal einigen. Grundsätzlich in diesem Götterrat ist die technische Limitation, dass wir einfach sagen, eine KI wird in absehbarer Zeit im Götterkomplex-Universum kein Bewusstsein, keine Entität entwickeln, also keine intrinsische Motivation, etwas zu tun. Und sie braucht, sagen wir mal, Regeln, sie braucht Parameter, in denen sie handeln kann. Und daraus lässt sich für mich sehr abstrakt ableiten, dass für den Götterkomplex gelten könnte, am Anfang steht der Mensch und am Ende steht der Mensch. Was uns die KI letztlich eigentlich auf ein Werkzeug reduziert. Das ist im Prinzip jetzt schon der Fall und das Werkzeug kann beliebig oder kann auf jeden Fall noch weiter hochskaliert werden und richtig krass hilfreich sein. Aber letztlich muss der Mensch am Anfang da stehen, eine KI bewusst benutzen und sagen, du liebe KI bist das Werkzeug für XY, zum Beispiel, keine Ahnung, um irgendwelche Gene zu manipulieren, was weiß ich, was da alles möglich ist und am Ende kommt ein Ergebnis raus, was ich als Mensch bewerte.
Und als Mensch eben ja im Idealfall kontrollieren kann. Das führt uns dann nämlich, wenn man das weiter, also da sind wir so ein bisschen in meiner Vision drin, wenn man das jetzt mal irgendwie extrapoliert und sich mal in einem größeren Kontext anschaut. Zum Beispiel könnte es eben auch sein, dass ein Raumschiff-Captain einer militärischen Einheit über diverse Kampfjäger, über Kampfdrohnen, über irgendwas KI-gesteuert verfügt, aber trotzdem ist er trotzdem noch vor Ort, um diese einzusetzen. Am Anfang ist der Mensch, der das Werkzeug einsetzt, um in seinem speziellen Gebiet etwas zu tun und dann das Ergebnis zu bewerten. Ich halte es für eher unwahrscheinlich, dass man halt sagt, irgendwie ich mache meine komplette siebte Flotte ist die KI-Flotte irgendwie und die dann komplett autark anfängt. Also dass dann ein Admiral oder ein Kriegsjäder steht und sagt, du siebte Flotte, du verteidigst jetzt den Planeten Celeste 23 Alpha und diese Flotte wirklich über Jahre hinweg autark operiert, um diesen Planeten zu verteidigen. Das fände ich dann irgendwie too much. Aber ich fände es cool, wenn die siebte Flotte aus menschlicher Besatzung besteht.
Die wiederum aber vielleicht kleinere KI-Schiffe oder Jäger oder irgendwie so etwas benutzt, um eben ihre Mission zu erfüllen. Also das ist, am Anfang steht der Mensch und am Ende steht der Mensch und dazwischen können wir KI einbauen. Ich finde, das hat zum Beispiel auch die Folge, dass wir dadurch auf den meisten, sagen wir mal, ähm.
Großen Distanz, also auf den, sagen wir mal, Langstreckenraumschiffen Menschen haben müssen oder aus der Logik herauskommend Menschen haben werden. Nur halt vielleicht nicht irgendwie 2000 Leute, sondern weil man eben sehr viel über KI machen kann, weil man sehr viele Systeme auch einfach mit der KI betreiben kann, haben wir halt vielleicht 200 Leute oder vielleicht nur noch 20 Leute, wo vorher 250 waren. Da schließt sich ja auch ein bisschen der Kreis zu den Episoden, die wir zum Thema Krieg und Konflikte gemacht haben, wo wir auch genau das ja schon vermutet haben. Wir sehen ja heutzutage schon eine Entwicklung in der Militärtechnik, die geht ja Richtung weniger Personal, wenn ich jetzt an Kriegsschiffe beispielsweise mal denke. Und das kann man sich, denke ich mal, ganz gut auch vorstellen im Weltraum. Gut, das heißt, wir haben hier an dieser Stelle schon mal eine Sache klargezogen. KI wird im Götterkomplex-Universum kein eigenes Bewusstsein entwickeln. Warte, ich will noch ein Veto reinschmeißen für eine Mysterybox, so einfach will ich es nicht.
Also, für das globale Erzieluniversum bin ich komplett bei euch, habe ich ja selber gerade mit argumentiert, finde ich super. Aber ich habe auch gesagt, ich kann mir die Gesellschaft, die wir jetzt aufbauen, die auf Generationenschiffen unterwegs ist und den technischen Fortschritt in 50, 100, 150 Jahren nicht erdenken, wenn da jetzt eine bewusste KI unterwegs ist und was die alles dann machen kann, das schaffe ich nicht. Das möchte ich auch gar nicht erzählen. Ich möchte bei diesem Low-Tech-Gedanken mehr oder weniger bleiben oder bei dem, was Philipp ja auch in dieser Regel, zuerst kommt der Mensch und am Ende steht der Mensch und von mir aus auch gerne über eventuelle politische Debatten, die da hingeführt haben oder wie auch immer wir es herleiten, finde ich super. Ich finde aber...
Und das habe ich mir in Vorbereitung auf diese Folge auch noch mal immer wieder ins Gedächtnis gerufen, als Philipp zum reinen Anfang dieses Szenarien vorgestellt hat, zu verschiedenen bewussten KIs und den Gefahren, die dahinter lauern. Da war so viel spannendes Potenzial für eine geile Geschichte hinter, dass ich mir denke, dass ich jetzt dieses Ereignis Hades gerne nutzen möchte.
Unser Sonnensystem fliegt eh um die Ohren und ich glaube auch die Technik und die Errungenschaften der Technik fliegen zum Teil mit um die Ohren. Da ist am Ende eine ganz andere Weltordnung, die Menschheit kämpft um zu überleben, aber vielleicht ist sie kurz bevor dieses Ereignis eintritt an einem Wendepunkt, wo eventuell ein potenzielles Bewusstsein einer Maschine entwickelt werden könnte. Das kann auch nur eine Firma sein, die daran ganz bewusst entwickelt, aber durch das Eintreffen von Hades nicht mehr weitermacht oder es verdeckt tut und im Sonnensystem noch ein Überbleibsel bleibt. Ja, ich bin bei dir, ich bin bei dir. Bleib, wir sind bei Reproduktion, also diese Maschine reproduziert sich irgendwie, sie ist von mir aus, wir haben mal über vielleicht Generationenschiffe gesprochen, die vielleicht nicht menschenbewohnt sind, wo nur ein Schiff losgeschickt wird mit einer KI, vielleicht sogar mit dem Code dieser vielleicht bewussten Entität oder irgendwelche Dinge. Also ich möchte eigentlich die Leute da draußen motivieren, das zu leisten, was ich selber nicht kann, eine Geschichte aus sowas zu stricken oder vielleicht auch eine Mystery-Box, die wir uns noch offen halten und bitte nicht den Maschinenkrieg. Den möchte ich am Ende trotzdem an irgendeiner Stelle gerne haben, du kennst dich.
Haben wir tausendmal gehabt, jetzt einigen wir uns ja eigentlich auch schon wieder auf einen Sci-Fi-Trope, den es schon tausendmal gegeben hat, der auch schon hundertmal erzählt worden ist, den ich liebe und deswegen will ich ihn auch verteidigen, aber ich möchte da ein Fenster offen lassen für vielleicht wirklich Ideen, die total inspirierend sind, die vielleicht auch einer Generation, die mit neuem Sci-Fi-Stuff so aufgewachsen ist, die sagen, ey, darüber habe ich doch voll Bock was zu erzählen und das hat doch, da kann man mega coole Dinge draus machen, Die KI kommt wieder mit ganz vielen Terminatoren, die dann sagen, ihr habt uns im Stich gelassen und jetzt vernichten wir euch oder weiß ich nicht was. Keine Ahnung, das fände ich dann doof, aber auch das sei erstmal dahingestellt. Aber darüber könnte man ja nachdenken. Also ich sage es mal so, wenn du dir ein Fenster offen lassen willst, dann kann man das ja so machen und ich finde deine Idee sehr charmant und das möchte ich nochmal kurz zusammenfassen. Die Menschheit ist, bevor sie abgehauen, ist fast in der Lage gewesen, etwas zu schaffen, was über dem, was man bisher kannte, hinausgeht. Nämlich eine KI, die vielleicht doch irgendwie sowas wie eine eigene intrinsische Motivation entwickeln könnte, das lassen wir offen, die aber vielleicht zurückgelassen wird. Oder die irgendwo hingeschafft wird oder wie auch immer. Aber erstmal keine Rolle spielt.
Genau, das generelle Techniklevel von dem, was wir so erzählen, bleibt eben unter dieser Regel, der Mensch zuerst, der Mensch zuletzt, keine krasse, vernetzte, bewusste KI, sondern natürlich so wie im Prinzip hochkatapultiert das Techniklevel, was wir jetzt haben. Nur ein bisschen in die Science Fiction gedacht, aber es bleiben Werkzeuge, so kann man es vielleicht als Metapher, es bleiben Werkzeuge. Ja. Ja. Ja. Finde ich gut. Ich schreibe ein bisschen mit. Und da hatten wir aus der, Community doch irgendwie heute oder gestern, glaube ich, noch eine Anfrage bekommen zum Thema, ey, ich schreibe gerne Geschichten und ich brauche Inspiration und vielleicht ist ja diese Folge, ich möchte denen den.
Den Menschen sehr, sehr gerne einladen, uns vielleicht auch dabei zu helfen, zu sagen, na ja, wie kommen wir letzten Endes, welche guten Gründe kann es dafür geben, dass sich die Technik nicht krass weiterentwickelt, dass sie auf diesem Level so bleibt, wie wir es uns wünschen würden, wie es so durch diese Folge dargestellt worden ist.
Politisch, nicht politisch, glauben wir da dran. Gibt es vielleicht, ich finde es auch interessant, über einen Putin-ähnlichen Menschen zu erzählen, der sagt, ich habe jetzt einen krassen KI-Missbrauch gemacht und ich habe eine Kriegsführung nur mit KI gemacht und der verliert aber auch. Und dadurch lernt vielleicht die Leute, ich überweise das lohnt sich nicht. Dieser KI-Feldzug schlägt total viel, weil der Algorithmus oder die KI ist dann halt eben letzten Endes nicht so effizient gestaltet, wie man sich das erhofft hat. Nicht grausam genug ist. Nicht grausam genug ist, genau. Die KI hat nämlich am Ende Suppe verteilt in den Gräben, weil sie Mitleid mit dem Gegner hatte. Das wäre auch mal eine schöne Fehlfunktion. Ja, sie hilft eigentlich überall. Ich hatte gerade so ein Bild im Kopf. Führt das Humanistik-Protokoll aus. Ja, genau. Ich habe gerade so ein Bild im Kopf von, okay, da dürft ihr nicht rein Das ist irgendwie Robot-Spike-Gebiet. Also das sind im Prinzip so Cluster von Drohnen, die automatisch reagieren, wenn sich ein Schiff nährt. Sowas wie Minen, die dann aber intelligent koordiniert angreifen, wenn man nicht das richtige Signal aussendet.
Die halt noch Überbleibsel sind von einem Konflikt, die da irgendwo rumschweben. Und wenn man da reingerät, ist schon doof. Ja genau und sowas schwebte mir vor. Ich hatte ja so als Argumentation gedacht, dass dann da mal irgendwann Ziviltransporter mit Kindern durchgeflogen ist und dann vielleicht auch irgendein Regierungstyp sagt, da war meine Tochter an Bord. Und jetzt widme ich meinem Leben, das zu unterbinden, solche Formen der Kriegsführung oder sonst irgendwie. Das sind ja alles super spannende Story-Elemente. Die jetzt nicht unbedingt erzählt werden müssen vor dem Aufbruch, vor der Diaspora des Menschen, sondern die können ja auch dann hinterher in den einzelnen Fraktionen stattfinden. Unter anderem, ja. Wir werden sowieso, ich meine, das hatten wir ja auch schon in dem Kontext der, Generationenschiffe auch angesprochen, dass natürlich Wissen und technischer Fortschritt auf Generationenschiffen zum Teil unterschiedlich dann noch passiert, aber sie mit einem ungefähren Basistechniklevel ausgestattet quasi losfliegen. Und auch das sind ja dann Teil der Geschichten, ob es dann Generationenschiffe gibt, die krass sich weiterentwickeln oder sich zurückentwickeln Da gibt es ja, glaube ich, einen ganz interessanten Prolog einer Zivilisation, die sich noch Edo-Riana nennt. Edo-Riana, meine ich, wäre es gewesen. Ja, verdammt, verdammte Scheiße. Genau.
Philipp, denk dir bitte einen Namen aus, der Orti auch gefällt, den er aussprechen kann. Ja, genau. Orti-Fischel-Intelligence. Orti-Fischel-Intelligence. Darauf bestehend. Also, wenn ich das mal so zusammenfassen darf, ich glaube, die KI ist zwingend notwendig für den Menschen, damit er weiter Reisen antreten kann. Ich denke mal, dass eine Entwicklung, die einmal gemacht worden ist, so leicht nicht zurückgeschraubt werden kann, das denke ich schon, aber man bedient sich nun mal diese Technik und diese Technik wird auch mitreisen und dann in entsprechenden Ausmaßen weiterentwickelt. Ich mag erstmal den Gedanken zu sagen, eine eigene intrinsische Motivation in einer KI ist erstmal nicht vorstellbar. Ich finde den Leitsatz von Philipp sehr schön, der Mensch zuerst, der Mensch zuletzt. Ich glaube, darauf kann man sich ganz gut verständigen. Ja, und ich glaube letztlich, man kann auch keine Grundregel festlegen. Also ich glaube nicht, dass wir sagen können, dieses Raumschiff kann nicht ausschließlich autonom betrieben werden. Vielleicht findet man ja irgendwie einen Twist. Also ich glaube, letztlich geht es ja darum, dass wir immer noch Geschichten über Menschen und mit Menschen und von Menschen erzählen und Geschichten, die emotional sind. Weil ich glaube, unemotionale KI-Geschichten.
Kann man auch mal versuchen zu schreiben, aber ich glaube, sie werden einfach nicht so einen krassen Impact haben und deswegen, ja und das ist ja der Grund, warum wir auch diese Einschränkung machen. Ich glaube, hier verlassen wir dann tatsächlich irgendwo auch diese, ich sag mal, das, was Science Fiction irgendwo ausmacht, das wirklich bis zum Ultimo weiterzudenken und diese Vision auszuarbeiten, weil ich glaube, wir würden dann einfach den Punkt verlassen, wo wir eben noch glaubhafte, emotionale Geschichten erzählen können, um die es letztlich ausschließlich ja geht. Und da muss man einfach, glaube ich, ein bisschen mit Fingerspitzengefühl irgendwie ran, an die ganze Geschichte, glaube ich, rangehen. Ich könnte mir zum Beispiel ganz gut vorstellen, dass es halt wirklich so Military Sci-Fi-Geschichten im Götterkomplex gibt, die fast ausschließlich auf so Art Kommando-Kreuzern oder so spielen und dass dann wirklich ganz viele KI-Jäger gegeneinander irgendwie antreten. Aber ist das spannend? Ja, ich weiß es nicht. Vielleicht schon. Das muss man dann eben so einen spannenden Twist finden. Kann ich, ich versuche mal bildlich so ein bisschen zu haben. Ich merke auch, dass wir da immer so ein bisschen mehr hinkommen. Es ist schon so ein bisschen auch der, du hattest das gerade eben angesprochen, so ein bisschen dieses Fallout mäßige.
Niklas hat das Star Wars mäßige angesprochen, so vom Tech Level und ich merke mit Hades, mit der Zerstörung des Sonnensystems und sonst was, dass wir so ein bisschen auch in so eine, Und ich glaube, es fasziniert uns ja auch an Battlestar Galactica, es fasziniert uns an vielen anderen Tropes, wo es mehr um das Menschsein geht und die menschlichen Geschichten, das hast du gerade auch nochmal gesagt und KI steht da einfach so in dem Widerspruch, dass ich sag mal so ein bisschen so ein Endzeitszenario, ein runter reduziertes, ich hab mein Schrottraumschiff, das hat vielleicht für 100 Jahre, 200 Jahre in die Zukunft gedacht, das ist für uns fortschrittlich, aber letzten Endes ist es eigentlich ...
Kein krasses Wunderwerk à la High Science Fiction und wir wünschen uns eigentlich so ein bisschen abgefuckt. Naja, es ist halt irgendwo der Wunsch so ein bisschen an diese, naja, an diese Romantik vielleicht.
An diese Pionier-Romantik, es geht mal was kaputt, das muss dann unter, sagen wir mal, vielleicht widrigen Bedingungen repariert werden. Wenn das nicht repariert wird, hat man ein ernstes Problem. Das ist sicherlich auch ein Gefühl, was stark ist, was sehr groß irgendwie auch in meiner Faszination eine ganz große Rolle spielt. Diese U-Boot-Romantik sprichst du ja oft an. Total. Also diese U-Boot-Romantik, dieses wir sind auf Gedeih und Verderb auf diesem engen Raum, dem steht dieses KI-Ding manchmal im Wege. Aber ich glaube, man findet da auch trotzdem gute Geschichten, wenn es eben dieses Werkzeug-Ding eben bleibt.
Aber ich glaube schon, dass das funktioniert. Wir kommen halt nicht drum rum und ich glaube, das, was wir gerade besprochen haben, finde ich, ist eine sehr, sehr gültige Regel, die wir so festhalten können und in meiner Sichtweise ein würdiger Abschluss unserer doch unglaublich langen KI-Reihe. Ja, absolut. Also es macht ja erstmal Spaß, auch erstmal zu schauen, was steckt denn eigentlich hinter diesem Wort KI? Was kann das alles? Was macht das aktuell mit uns? Und welche Utopien, Dystopien könnte man sich darunter vorstellen? Ich finde es erstmal schön, dass wir drei zumindest die Vorstellung teilen, dass wir uns im Storytelling davon nicht einschränken lassen wollen, weil ich empfinde das genauso wie ihr. Es würde mich wahnsinnig in meiner romantischen Vorstellung eines Sci-Fi-Universums beeinträchtigen, wenn ich alles von einer künstlichen Intelligenz erledigen lasse. Ich merke auch, dass viele, viele...
Sci-Fi-Serien oder sowas, die dann zu krass mit Technik rumwuseln, dass ich merke, es langweilt mich dann doch irgendwie, das entzieht sich dann, also ich kann natürlich mitdenken und ich weiß natürlich, die möchten damit vielleicht eine ganz einzigartige Geschichte erzählen, aber ich merke, es ist irgendwie nicht meine. Ich finde sie dann, das huckt mich dann oft nicht, wenn es zu technisch wird, wenn es zu abgefahren wird. Ich mag das Verstehbare. Ich vergleiche das mit einem modernen Auto. Wenn ich in ein modernes Auto stehe und da irgendwas kaputt ist, dann denke ich mir schon, ja kacke, da kann ich nichts mehr hier irgendwie noch verstehen von dem, was hier läuft. Und wenn du dir so eine alte Schrottkarre anguckst, dann denkst du noch, komm, hier ist noch was zu holen, die kriege ich noch ans Laufen.
Vielleicht ist das einfach auch, da müssen wir uns der Tatsache stellen, ist das auch einfach unsere Midlife-Romantik. Meinte ich ja auch. Also ganz klar, unser Alter und wie wir aufgewachsen sind. Ich bin ja gerade dabei, mit Hilfe von KI, ein weiteres Werk im Rahmen des Götterkomplex-Universums zu erstellen. Ich möchte jetzt da gar nicht so ins Detail gehen, aber da ist zumindest ein Bestandteil dessen auch eine sehr frühe Folge, die wir gemacht haben über Fortbewegung, nämlich dieses Solarsegel. Ihr erinnert euch, da werden Masten ausgeklappt und da werden so elektromagnetische Felder gespannt und eben Photonen von der Sonne zum Beispiel eingefangen, die dann für Forttrieb sorgen. Also relativ fortschrittlich, weil man aktuell in der heutigen Zeit ja von speziellen Materialien spricht. Und bei uns wären es halt elektromagnetische Wellen. Und ich finde halt einfach diesen Gedanken super spannend. Und das gibt es auch bei meinem Erfolg, was ich mir ja gerade so Stück für Stück irgendwie erschließe und erarbeite, gibt es tatsächlich die Profession des Segelmeisters auf diesen Schiffen. Cool, sehr schön.
Theoretisch kann das natürlich eine KI machen. Also theoretisch kann das eine Segel-KI machen. Die kann die Dinger so kalibrieren, aber keine Ahnung, welche Begründung es gibt, vielleicht braucht es auch einfach keine. Es gibt einfach den alten Segelmeister, der schon weiß ich nicht, wie viele Jahrzehnte irgendwie unterwegs ist und der weiß ganz genau, wie er die Felder einzustellen hat, dass er den maximalen Schub irgendwie rausbekommt aus den Photonen und das finde ich einfach eine urromantische Vorstellung. Voll und das wird dann natürlich der nächsten Generation noch weitergegeben. Hör mal, du bist doch die Tochter von Heinz-Peter Segelmacher, Jacqueline Segelmacher. So, du kommst jetzt mit uns an Bord. Oh nein, wir kommen in die böse Situation, wieder über Knoten zu sprechen. Wir haben schon mal ganz, ganz übel versackt, dass wir die ganze Zeit so Fake-Knoten-Meißer waren, mit dem dreifachen Snips-Nauber. Hast du, genau. Ja, hör mal, dann tüttelst du das so, dann machst du das so rein, dann musst du hier einmal stramm ziehen und dann hast du doch ruckzuck den doppelten Achter sitzen. Aber das hat Heinz-Peter mir anders erzählt. Der hat doch einen achtfachen Doppelfalzer draus gemacht. Den Doppelfalzer, den mach ich eigentlich nie eigentlich. Nee, muss man was probieren. Das hält pumpenfest.
Einen Ausblick würde ich dann noch vielleicht zumindest geben und zwar den zwölffachen Drechselhöbler. Na Quatsch. Lemberi ja so ein bisschen eine Aufgabe, das, was wir grob besprochen haben. Wir haben ja gesagt, also ganz festziehen tun wir das nicht, aber wir arbeiten ja zeitgleich auch an dem Zeitstrahl. Und ich fände schon cool, wenn wir ein Stück von dem, was wir hier jetzt so als die Vision, die wir verfolgen wollen, was KI angeht, halt in dem Zeitstrahl auch ein bisschen mit berücksichtigen, mit eventuell dem einen oder anderen groben Ereignis, das eine gewisse Entwicklung oder einen Entwicklungsstopp vielleicht auch erklärt. Da reichen ja auch manchmal ein, zwei Zeilen zu. Aber das halte ich schon für wichtig, damit wir so ein bisschen herleiten können. Okay, warum sind wir da? Am Ende kommt Hades. Hades ist unser Joker. Hades macht alles kaputt.
Und dann geht das seine Wege. Aber bis dahin, sag ich mal, die nächsten 200 Jahre, so ein Stück weit müssen wir KI damit in diese Vision mit einbringen. Definitiv. Da bleibt noch ein bisschen Arbeit vor uns, aber zumindest haben wir da jetzt meiner Meinung nach schon mal einen recht guten Rahmen gesponnen und ich hänge gerade noch so in dieser Segelromantik von Philipp. Ich finde das großartig, muss ich ganz ehrlich sagen. Ja, probier das mal aus mit diesem achtfachen Doppelfalzer.
Naja, aber es spricht ja im Prinzip genau das an, was wir ja gerade in Bezug auf KI auch gesagt haben. Wir möchten, dass gewisse Aufgaben auch einfach nach wie vor emotionalisiert bleiben, die von Menschen gemacht werden, weil sie vielleicht für eine gewisse Güte sorgen, weil man sagt, okay, made by human ist tatsächlich ein Prädikat, das gewissen Menschengruppen einfach wichtig bleibt. Das macht dich auch wirklich aus dieser Folge von dir, wo du auch gesellschaftlich nochmal so ein bisschen gesagt hast, die Wertigkeit des Menschenhandwerks und des Menschenkunstwerks sozusagen mehr in den Vordergrund rückt. Was wir jetzt ja auch merken durch Contents, die uns langweilen, durch KI-generierte Bilder, die irgendwann völlig beliebig werden und wir zugeballert werden und man sagt, oh Mensch, da ist aber ein schön geschnitzter Stuhl da oder das ist ein tolles Theaterstück. Ja, und da kann ich sogar noch etwas ergänzen, da kann ich sogar sagen.
Selbst unperfekte KIs, die uns Bilder raushauen, die fehlerhaft sind, sind das Fehler, die uns abstoßen. Das sind Fehler, die wir ganz seltsam finden, die wir nicht so vernünftig verstehen können. Ich möchte keine Menschen sehen, die irgendwie verzerrte Gesichter haben, zwei Arme, also drei Arme haben oder sechs Finger oder so. Das sind ganz seltsame Fehler, die würde der Mensch nicht machen. Der Mensch wäre hier unaufmerksam und würde vielleicht hier irgendwie unsauber arbeiten oder so. Aber das sind andere Fehler, das sind akzeptiertere Fehler in unserer Wahrnehmung. Aber die Fehler, die die KI macht, die sind fast abstoßend irgendwie. Mit zwei Podcasts bist du ja schon.
So nämlich. Übrigens, ein kleiner Sneak-Pick, Niklas, zu der Segel-Romantik. Ich habe ja scheinbar irgendwie ein Faible für Namen, habe ich festgestellt. Ich mag es mir, Namen auszudenken. Also, das, was ich da vorbereite, da wird es ein, Segelmeister geben und der Segelmeister ist der zweitwichtigste Mensch an Bord neben dem Kommandanten. Der Segelmeister hier heißt Hieronymus von Dichen mit seinem Segelmaten Gaius zu Trebber. Ach genial. Und damit entlasse ich dich jetzt in deine Fantasie. Oh, das ist großartig. Ich habe im Übrigen nochmal vielleicht eine kleine Sache zum Thema Made by Human. Ich bin letztes Wochenende im Stadttheater in Lippstadt gewesen und zwar klassisches Konzert mit Chor, Mozarts Requiem. Und Leute, Und der Laden war voll mit jungen Leuten. Und ich habe mich ehrlich gesagt ein bisschen gewundert, aber ich habe mich auch sehr gefreut, weil alle waren so ergriffen von dieser tollen, wirklich genialen klassischen Musik, die einfach nichts von seiner Faszination einbüßt. Und es ist ein Unterschied, ob ich mir das zu Hause über Kopfhörer anhöre oder die Anlage oder vor mir einen fetten Chor und ein Orchester sehe, das da spielt. Und ich glaube, dass dies auch nach wie vor noch wichtig sein wird für den Menschen.
Oder noch wichtiger wird halt. Da können wir ein Ei drüber hauen, ne? Da können wir ein Ei drüber schlagen. Es ist zu Protokoll zu geben, dass die Götter entschieden haben, dass wir KI im Götterkomplex haben, dass wir die KI hauptsächlich als Werkzeug in einem begrenzten Umfang, verstehen, dass die KI kein eigenes, zumindest vordergründig, kein eigenes Bewusstsein, keine intrinsische Motivation entwickelt, also technisch nicht entwickeln kann, dass es aber sehr wohl möglicherweise eine Mystery-Box in einer dunklen, fiesen Ecke des Universums im Götterkomplex gibt, wo es vielleicht Fragmente einer bewusstseinsgebenden KI oder ähnliche Fragmente zu finden sind. Ähm, Wobei da auch die Frage ist, wenn die Menschen in unserem Götterkomplex-Universum jene KI begegnen, ob sie sie als solche erkennen oder nicht. Das ist auch nochmal eine interessante Frage. Nennen wir sie Zylonen.
Genau. Und die Frage, die wir nennen. Aber das glaube ich sind so die Quintessenzen, richtig? Habe ich etwas Entscheidendes vergessen? Das finde ich sehr gut. Wir müssen noch was besprechen. Das wird uns noch bevorstehen, nämlich KI in Bezug auf den Menschen, in Bezug auf beispielsweise Implantate. Also die direkte körperliche Interaktion und so weiter, aber das liebe Kinder, das ist eine Geschichte für einen anderen Abend ich glaube, wir können sagen, ja Jungs, wir haben es geschafft, die KI-Reihe ist vorerst beendet, wir halten uns natürlich offen, nochmal irgendwann in dieses Thema einzusteigen und das Thema zu vertiefen, das gilt natürlich für alle anderen Themen auch, die wir hier aufgemacht haben. Nichtsdestotrotz, wir verabschieden uns in die Nacht, wir wünschen euch einen wunderschönen guten Morgen, wunderschönen guten Abend, wunderschönen guten Nachmittag, je nachdem, welche Space-Zeit gerade bei euch ist. Wir freuen uns darauf, wenn ihr wieder einschaltet. Ihr könnt uns im Übrigen überall finden, da wo es Podcasts gibt. Solltet ihr Anregungen haben, Ideen haben, vielleicht schon an einer Story sitzen, dann lasst es uns wissen. Ihr könnt uns bei Discord erreichen, aber ihr könnt uns auch eine Mail schicken an info-at-götter-komplex.de So, ich würde sagen, anschnallen, Jungs! Ennachie!