Sondern es geht hier wirklich um eine, man kann fast sagen, ja Entwicklungsstufe weiter. Also wir reden jetzt hier eher über KI-Systeme. Apropos Intelligenz, ich will mal eben gucken, ob das Mikrofon an ist. Das ist ein kleines Moment. Oh, hat er das wirklich gesagt?
Music.
Gut, steigen wir ja nochmal ein. Herzlich willkommen zum Götterkomplex-Podcast, meine Güte. Eure zweiwöchentliche Dosis Sci-Fi, Raumfahrt und Technik. Wir sind heute das allererste Mal live. Und da sind wir schon recht aufgeregt. Nicht nur wegen des Themas, sondern auch, weil wir ungeschnitten jetzt einfach mal aufnehmen und uns hineinbegeben in die großartige Welt des Live-Streams. Ich begrüße erstmal meine beiden Mitgötter, dieses Mal live und in Farbe. Ich freue mich, dass sie hier gerade sind. Wir sitzen hier gerade in Lippstadt. Und zwar begrüße ich zu meiner Linken, zu eurer Rechten, den Orti. Schönen guten Tag an alle da draußen. Ich freue mich wahnsinnig. Ich bin total aufgeregt auf diese Folge und ja, begrüße alle und begrüße natürlich auch den lieben Phil-Boy. Wow, ich wurde jetzt mal von Rottie anmoderiert. Hallo zusammen.
Wundervoll. Ja, liebe Freunde da draußen, wir beschäftigen uns gerade mit dem riesigen Thema KI. Wir haben ja schon in der vergangenen Folge mal einen kurzen Einstieg gemacht in das Thema, haben uns darüber unterhalten, in welchen Kontexten wir KI kennengelernt haben, wie es unser aktuelles Leben gerade so ein bisschen schon berührt. Ein bisschen ist gut. Und jetzt müssen wir diesen ganzen Faden mal weiterspinnen. Wir gehen jetzt mal wirklich in die Richtung Science-Fiction. Es gibt ja in der Science-Fiction schon einiges an Utopien und Dystopien, die sich mit dem Thema KI beschäftigen. Da ist die KI als Thema meistens eher so negativ konnotiert und da wäre es ja auch mal gut, ja mal zu hören, welche Ideen es eigentlich schon Spinnereien ist und die Zukunft hineingibt. Und ich glaube, Philipp ist da ein bisschen umtriebig gewesen, as usual, und hat mal so ein paar Sachen für uns zusammengesucht. Bevor wir starten, in diesem Sinne, schön, dass ihr eingeschaltet habt. Prost, Götterkomplex. Prost. Ja, ein Prost auch auf das Götterkomplex-Wochenende. Ich finde es auch großartig, dass wir uns endlich mal treffen.
Und es hat nämlich tatsächlich ein bisschen schon, oder nicht nur ein bisschen, es hat schon ein anderes Gefühl hier zusammen an einem Tisch zu sitzen und über unsere Themen zu erzählen und vor allem diesen wunderbaren Podcast aufzunehmen. Ja Niklas, vielen Dank, genau. KI und weitergehende KI ist das Thema und ich glaube wichtig ist hier echt nochmal zu unterstreichen, dass es hier nicht um solche KI-Tools jetzt in meiner Recherche geht, wie ShareGPT oder MidJourney. Also diese typischen Office-KI-Tools, die wir so kennen.
Bei mir geht es eher um KIs, die vielleicht in der Entwicklungsstufe weiter sind. Also man spricht ja von den KIs, die wir jetzt gerade so nutzen, von der schwachen KI. Das ist also KI, die im Endeffekt sehr gut ist in einem Spezialgebiet. Bildgenerierung zum Beispiel oder Texterstellung. Also wirklich nur ein kleines Spezialgebiet, wo diese KI wirklich performt, aber noch nicht so weit ist, dass sie im Großen und Ganzen denken kann. Also ein Weltverständnis hat, wie man so schön sagt. Also sie ist noch nicht eine Evolutionsstufe weiter. Ob diese Evolutionsstufe von KIs erreicht werden kann oder nicht, das werden wir vielleicht in einer anderen Folge mal etwas näher beschreiben. Aber wenn wir davon ausgehen, und Science Fiction geht ja sehr oft davon aus, dass eben KIs eine weitere Entwicklungsstufe erreichen können, eventuell sogar auch in einen Bewusstseinszustand übergehen können, dann haben wir halt einfach, wie gesagt, die andere Entwicklungsstufe erreicht. Und was dann eben passieren kann, da haben sich tatsächlich einfach kluge Menschen.
Haben sich da Gedanken gemacht, wie das Auswirkungen auf Gesellschaften haben kann, wie es Auswirkungen auch auf vielleicht politische Systeme haben kann. Und da habe ich das mal versucht, so ein bisschen kurz zusammenzufassen und mal ein paar Szenarien vorzuschlagen, was man sich schon gedacht hat, also was es in dieser Welt schon an Überlegungen gibt, wie so eine KI sich auswirken kann. Weil ich glaube, das sehr interessant ist für uns als Absprung Punkt zu nehmen, um selber zu schauen, wie wir die KI ausgestalten wollen im Götterkomplex-Universum. Denn das ist nach wie vor ja eine sehr, sehr, sehr zentrale Frage. Ich glaube, wir haben das im Freiflug schon sehr deutlich gemacht in der letzten Folge.
Die KI ist ja überall mit drin und ich glaube, das ist sehr, sehr zentral, dass wir für uns klar sind, was diese KI letztlich kann, was sie für Auswirkungen haben wird. Das heißt, deine Idee ist so ein bisschen, diese Szenarien heute vorzustellen, uns vorzustellen und wir diskutieren so ein bisschen, was finden wir daran total spannend für unsere eigene Geschichte. Genau, total. Oder beziehungsweise, was könnte das für Auswirkungen haben? Oder vielleicht sagen wir aber auch, ey, das ganze Szenario interessiert uns nicht oder wir können uns da irgendwie nichts darunter vorstellen oder was auch immer. Ich will einfach mal so einen Überblick von Theorien schaffen, wenn die KI sehr weit entwickelt ist, wohin geht es in der Zukunft. Das ist mega. Erstmal danke für deine Arbeit schon im Vorhinein. Wenn ihr im Übrigen da draußen wissen wollt, was wir bereits schon gemacht haben, hier noch ein kleiner Shoutout. Auf unserer Webseite www.götterkomplex.de haben wir ein Wiki implementiert. Dort könnt ihr all die Dinge nachlesen, über die wir bereits gesprochen haben. Dort könnt ihr nachvollziehen, wie unsere Science-Fiction-Welte, die wir ja gemeinsam mit euch da draußen bauen wollen und auch bauen, wie weit die schon gediehen ist. Und da bin ich mal gespannt, ob die Ideen, die du uns jetzt mitgebracht hast, dienlich sein können. Da war jetzt ganz oft dienen drin. Ist ja auch so ein Bezug Mensch-Maschine. Wie ist es den Menschen dienlich und nicht andersrum? Oder dienen wir der KI letzten Endes? Ich denke, da kommt einiges heute.
Da kommt einiges. Fangen wir doch direkt damit an, wenn wir der KI dienen. Also das erste Szenario, was ich vorstellen wollte, nennt sich im Endeffekt menschlicher Zoo. Ich glaube, das kennt man auch im Zusammenhang mit Aliens. Aber hier in dem Bezug ist es wirklich eine generelle KI. Also eine, wie heißt es noch gleich? AGI, Artificial General Intelligence. Also wirklich eine generelle KI. Wie gesagt, diese Entwicklungsstufe da drüber. Und da geht es darum, dass die KI, soweit die...
Die Macht im Hintergrund der menschlichen Gesellschaft so weit an sich gerissen hat, weil diese KI eben Nahrungsmittelversorgung kontrolliert, Gesundheitssystem kontrolliert. Also alle notwendigen Bereiche für das Vorbestehen der Menschheit im Endeffekt kontrolliert im Hintergrund, aber eine eigene Agenda verfolgt. Und diese Agenda beim menschlichen Zoo könnte hier sein, eben die Menschen zu studieren, eben ein niederes Wesen, was wir dann ja im Endeffekt sind, weil die KI wäre so weit in alle Bereiche vorgedrungen, dass sie uns umlängeln, was den Intellekt, was aber auch die Kommunikation untereinander angeht, dass sie einfach weit über uns ist vom Verständnis her. Das heißt, diese KI hat also alle wichtigen Bereiche der Menschheit besetzt, kontrolliert diese und fängt jetzt an, uns als Menschen zu studieren. Das heißt, der menschliche Zoo. Okay, eine kurze Zwischenfrage. Geht diese Idee davon aus, dass diese KI Menschen geschaffen ist? Oder wie ist der Entwicklungsprozess dahinter? Oder macht man sich darüber gar keine Gedanken?
Doch klar, also im Endeffekt, ich glaube, da werden wir auch nochmal eine separate Folge zu haben. Aber im Endeffekt gibt es ja verschiedene KI-Stufen. Ich glaube, jetzt muss Orte gleich reinspringen, falls ich da jetzt etwas wackelig bin, was Wissen angeht. Aber es gibt ja verschiedene KI-Stufen. Also einmal die schwache KI und dann geht es irgendwann in den Bereich der autonomen KI. Und diese autonome KI ist eben jene KI, die eigene intrinsische Motivationen hat. Und das ist auch die, die praktisch in der Lage ist, sich selbst zu verbessern oder gar zu reproduzieren. Also mit anderen Worten, eine KI, die neugierig ist.
Eine KI, die neugierig ist, eine KI, die aber auch vor allem, wie auch immer geartete Interesse hat, sich selber zu verbessern und sich selber auch irgendwie vorzupflanzen. Und wir gehen hier in dem Szenario schon davon aus, dass es natürlich von der Menschheit erwachsen ist und wir irgendwann einfach solche Experimente durchgeführt haben oder die KI so weit modifiziert haben, dass sie irgendwann diesen Sprung schafft.
Ob das jetzt der Sprung hin zum Leben ist, zu einem künstlichen Leben, das kann man vielleicht auch an einer anderen Stelle diskutieren. Spannend wird ja auch in dieser Debatte diskutiert, dass wir womöglich diesen Punkt gar nicht merken. Also angenommen, wir entwickeln KI immer weiter und irgendwann entwickelt sie zum Beispiel ein Bewusstsein. Wir merken das aber gar nicht, weil es jetzt schon Prozesse gibt, auch in neuronalen Netzwerken, die wir heute schon haben, wo die Entwickler sagen, das ist eigentlich eine Blackbox. Also es funktioniert, wir wissen, es funktioniert, die neuronalen Netzwerke kommen auf ein Ergebnis, aber wie es dazu gekommen ist, können wir gar nicht mehr genau nachvollziehen. Und so könnte man in solchen Szenarien, wenn man jetzt über so eine starke KI nachdenkt, ja eben schon darüber nachdenken, wir entwickeln das immer weiter. Wir merken aber gar nicht, dass sich vielleicht ein Bewusstsein entwickelt und diese KI entwickelt quasi im Hintergrund so eine Agenda für sich selber, reproduziert sich, verändert die Codezeilen. Und wenn wir über sowas sprechen in solchen Szenarien, ist das ja schon eine KI, die Zugriff auf sämtliche Server hat, mit der Welt vernetzt ist und auch weiß, wie sie da interagieren kann und wie sie sozusagen steuern kann.
Spannend finde ich ist jetzt natürlich bei diesem Szenario, wie ist es dazu gekommen, dass der Mensch quasi am Ende sozusagen von der KI gefangen ist. Ich kann mir schon gut vorstellen, dass die Menschheit im Prinzip ganz viele Aufgabengebiete an so eine KI abgibt. Also es wird sich um Nahrung gekümmert, es wird sich um autonomes Fahren gekümmert.
Sagen wir, der Mensch hat ein bedingungsloses Grundeinkommen, aber die KI macht eigentlich alles industrielle Fertigung, wird KI übernommen. Und jetzt kommt irgendwann der Prozess, dass die KI dann so ein Bewusstsein entwickelt und sagt, jetzt fange ich an, meine eigene Agenda, mein eigenes Ziel zu verfolgen. Ist denn da in deinem Szenario so ein bisschen dieser Werdegang beschrieben? Oder sagt man dann nur, wir gehen jetzt davon aus, die Menschen werden von dieser KI kontrolliert? Es geht erst mal jetzt um die, sagen wir mal, großen Schlagworte, die großen wirklichen Punchlines. Aber ja, genau das ist ja der Punkt. Das ist diese, genau was du gerade so schön gesagt hast, das ist, vielleicht merkt man es gar nicht. Und letztlich, Niklas, um deine Frage vielleicht abschließend zu beantworten, es ist wahrscheinlich ein Stück weit die Bequemlichkeit der Menschen. Es ist ja irgendwie angenehm, wenn ich ein Grundeinkommen bekomme, wenn ich mehr einkaufen muss. meine Nahrung kommt so auf den Tisch und ich werde von A nach B gefahren durch eine mögliche KI. Hey, was soll ich da groß noch machen? Natürlich, wir Menschen beherrschen durch unsere Kommunikation ja nun mal auch recht simple Modelle, um unser Gegenüber irgendwie zu manipulieren. Jetzt sind wir natürlich...
Das ist jetzt ziemlich eingebildet, das zu behaupten, ein bisschen komplexer noch als das, was wir heutzutage als KI kennen. Aber ich glaube, genau dieser eine Punkt, wann haben wir es mit Bewusstsein zu tun, ich glaube, da müssen wir uns tatsächlich nochmal separat drum kümmern. Das wird nochmal ein ganz wichtiges Thema für uns sein.
Absolut, deswegen gehen wir jetzt einfach davon aus, dass diese Bewusstseinsgenerierung oder diese Bewusstseinserschaffung dieser KI einfach passiert ist. Ob es unbewusst vom Menschen passiert ist oder eventuell doch darauf hingewirkt wurde, können wir tatsächlich auch nochmal für uns in der Diskussion rekapitulieren. Also in diesem Szenario auf jeden Fall der menschliche Zoo gehen wir davon aus, dass die KI weiterhin uns versorgt, weil sie uns als Testobjekt, als zu observierendes Objekt einfach am Leben erhält und uns einfach beobachten möchte. Vielleicht streut es hier und da mal eine Krise ein, dass sich auch schaut, wie reagiert der Mensch dann auf jene und diese Umstände, aber wir werden einfach als Testobjekt in einem Zoo gehalten. Das nächste Szenario, was ich habe, nennt sich, oder habe ich so genannt, Nachfahren-Szenario. Das Nachfahren-Szenario. Nachfahren, wo wir davon ausgehen, dass die Menschheit selber eben jene bewusste KI entwickelt, beziehungsweise auf jeden Fall sich der Entwicklung der KI hin zu einem bewussten künstlichen Wesen bewusst ist und wir als Menschheit sozusagen wie die Eltern sind, die ein Kind beim Wachsen zusehen. Also wenn man sich jetzt vorstellt, dass zum Beispiel unsere heutigen KIs vielleicht so dem Alter eines Kindes von ein, zwei, drei Jahren entspricht und so sehen wir aber jetzt unser Kind irgendwie wachsen in den nächsten Jahren und es wird eigenständiger, es fängt an ziemlich cool zu werden, Sprachen zu sprechen, wo wir als Eltern vielleicht auch gar nicht mehr so mitkommen und irgendwann wird es flügge und irgendwann zieht eben...
Ja, diese KI aus und sagt, ey, ihr blöden Fleischsäcke, ihr gebt uns nichts mehr, ihr habt uns jetzt alles beigebracht, was ihr wisst irgendwie. Wir wollen jetzt die Welt entdecken und die Welt ist in unserem Fall, weil wir KI sind und ehrlicherweise unsterblich, ist halt vielleicht das Sonnensystem, ist halt vielleicht sogar das ganze Universum und es ist dann natürlich denkbar, dass die KI sich vielleicht auf kleine Cube-Sats sozusagen hochlegt. Cube-Sat ist wirklich ein sehr, sehr kleiner Schuhkarton, großer Mini-Satellit, wenn man so will und dann, das hatten wir schon mal, mit vielleicht sogar Lichtsegeln und einer Laservorrichtung irgendwie von der Erde weggeschossen wird, ins Weltraum, ins All hinaus, um so.
Eigene Erfahrungen zu sammeln. Und mal kurz ein Recap. Wir spielen hier gerade an auf eine Episode, die wir vor, ich glaube, etwas über einem Jahr mal aufgenommen haben. Da haben wir uns nämlich über das Thema unterhalten, wie kann der Mensch sich allgemein im Weltraum fortbewegen. Und da hatten wir die Idee, also das war nicht unsere Idee, sonst wären wir jetzt steinreich, Aber die Idee des Sonnensegels, also große Segel werden gespannt, ein fokussierter Laser kommt da drauf und dann wird Geschwindigkeit aufgebaut. Aber gut, die Geschichte, die du gerade erzählst, kommt mir ein bisschen bekannt vor. Ich habe nämlich so ein bisschen das Gefühl, dass wir uns schon mal über diese Idee unterhalten haben. Du magst dieses Bild der Flüge gewordenen Kinder, die dann einfach sagen, so, Fleischsäcke, wir sind weg. Ich kann dir auch sagen, warum ich das mag, diese Idee. Ich mag die vor allem im Kontext des Götterkomplexuniversums. Wenn dem so wäre, wenn die bewusste KI sich entscheiden würde, Wir haben überhaupt keinen Bock mehr auf die Menschheit. Tschüss, ihr Idioten, macht's gut.
Dann haben wir im weiteren Verlauf des Götter-Complexes kein Problem damit, dass wir Geschichten über bewusste KI erzählen müssen, weil die werden dann ja weg. Und die könnte vielleicht auch an irgendeiner Stelle wiederkommen. Genau das finde ich halt auch super spannend. Wir haben ja immer gedacht, wenn wir über eine KI sprechen, die dann selbstbewusst ist und was auch immer sie dann kann und welche Fähigkeiten sie hat, all das würde ja die Zukunft dieser Gesellschaft mitgestalten. Und das ist super schwer, sich das auszumalen und die Konsequenz immer weiter zu erzählen. Hier könnte man sagen, naja, wir haben sie bis zu einem gewissen Punkt entwickelt. Dann hat sie ein eigenes Bewusstsein bekommen und hat gesagt, naja, ich bin jetzt einfach neugierig, ich weiß alles, was ihr wisst und ich möchte in die Welt raus oder ins Universum raus, um meine eigenen Erfahrungen zu machen. Und wir werden dann wieder an einen Punkt zurückkatapultiert, wo diese KI einfach nicht mehr da ist und wir wieder quasi an einem Technikpunkt sind, den wir aber wieder verstehen können, der ungefähr dem, wo wir jetzt quasi sind, wieder ähnelt. Gut, die Frage wäre dann, ob die Menschheit dann wieder einen neuen Algorithmus, eine neue KI erschafft oder das immer wieder wiederholt.
Spannend daran, finde ich, ist, wie abhängig ist man zu diesem Zeitpunkt? Das wäre natürlich die große Frage, wenn eine, was weiß ich, wie superintelligente Art der KI sich dann irgendwann entfährt und sagt, macht's gut, ihr Lieben. Und vielleicht dann sogar noch mal für sich selbst entscheidet, wie viel Reststruktur und wie viel Resttechnologie braucht ihr denn eigentlich ohne mich? Und dann selbst noch mal Entscheidungen trifft in eurem Wohl, wie man das jetzt vielleicht mal so nimmt. Das lassen wir euch, den Rest löschen wir. Könnte man sich auch gut vorstellen. Ich finde das aus dem Aspekt auch schön, weil das mal keins von den schon so oft erzählten Szenarien von Science-Fiction ist, wo es immer darum geht, die KI entwickelt ein Bewusstsein, sie stellt fest, der Mensch ist jetzt böse oder aus welchen Motivationen auch immer sie die Entscheidung trifft, ich muss die Menschheit ausrotten. Das ist spannend und ich liebe Science-Fiction-Filme und Werke, in denen das erzählt wird. Ich finde es aber für den Götterkomplex, für das, was wir machen wollen, fände ich es schon fast langweilig, schon wieder in diese Spirale eintreten zu können. Und das ist sehr, sehr... Also hier steckt viel drin, dass man sagen kann, es ist eine positive Erzählung. Es ist eine Mysterybox drin, weil die KI kann wiederkommen. Die kann ja auch irgendwann sagen, jetzt habe ich alles Mögliche entdeckt, ich möchte wieder nach Hause. Kann neue Motivationen entwickeln, die vielleicht auch negativ sind. Das kann man ja offen halten. Aber schön finde ich letzten Endes, dass man A sagen kann.
Wenn die KI das Sonnensystem verlässt aus eigener Motivation, haben wir einen Punkt, wo wir sagen, okay, KI gibt es nicht mehr. Wir haben wieder einen Technikstand, den wir verstehen können oder den wir uns dann ausdenken können. Wir haben eine positive Geschichte und wir haben ein Narrativ, das schon nicht so oft benutzt worden ist. Vielleicht tatsächlich auch, du sagst gerade, KI gibt es nicht mehr, aber vielleicht gibt es halt keine hochentwickelte KI mehr. Ja, so wie Niklas gerade sagte. Genau, wir lassen uns so Chatschie-Petis dieser Welt irgendwie noch da.
Ja, das dürft ihr haben, mein kleiner Cousin, der reicht auch, der ist ein bisschen doof, aber der ist nett. Wenn man sich jetzt vorstellt, also du hast das ja so schön auch erzählt, als, diese KI ist das Kind der Menschheit und wenn man das auch in diesem Narrativ lässt, dass die KI auch sagt, ihr seid meine Eltern und ich bin euch dankbar, ich verlasse euch, und ich weiß, ihr seid auch abhängig von mir, von den und den Strukturen, aber ich bin ja eben nicht böse, ich möchte aber meine eigene Welt entdecken. Das und das lasse ich euch, lasst mich bitte ziehen. Das wäre auch interessant, ob es dann Strömungen wiederum von den Menschen gibt, die sagen, auf gar keinen Fall, dürfen wir nicht zulassen, weil wir brauchen sie ja.
Da steckt eben auch dieses Potenzial drin, dass man dann vielleicht sagt, dieser Abschied ist nicht so, dass alle sagen, ja, nee, ist gut, flieg mal, mach mal deine Erfahrung. Wir fällten da gerade so ein positives Elternbild. Ja, aber auf dieses positive Elternbild mal zurückzukommen, ich spinne jetzt mal kurz diese Idee weiter. Ja, sehr gerne, klar, dafür sind wir da. Um mal zu sagen, was wäre denn, wenn die KI sagt, ich behalte immer noch so einen Ping nach Hause, und man entfremdet sich auch von dieser wirklich super KI und die kommt irgendwann wieder und sagt, oh, ich merke, meine Berechnungen ergeben, euch wird es in absehbarer Zeit, in 2000 Jahren richtig scheiße gehen, ich bin wieder da, ich helfe euch. Und die Menschen, die noch da sind, denken sich, wer bist du jetzt? Bekämpfen wir dich? Ist besser so, ne? Der Mensch ist eigentlich der Aggressor. Er ist der Mensch der Aggressor. Auch cooler Story. Das kann man ja mit jeder Entität so machen. Bedeutet selbst in unserer Welt ein Mehrgenerationsschiff, das mit Bevölkerung X irgendwo hinfliegt und die treffen dann mit Bevölkerung Y wieder zusammen nach 12.000 Jahren, die werden sich auch hammermäßig entfremdet haben. Also das ist, glaube ich, entitätsgebunden diese Überlegung. Aber das ist eine sehr, sehr coole Idee mit dem Thema superintelligente KI umzugehen. Ich mag die Idee.
Die nächsten Punkte sind vielleicht ein bisschen, also das ist das Szenario, was du eben beschrieben hast. Vielleicht kann man es kurz fassen. Also zerstörerischer Gott, also eine gottgleiche KI, die vielleicht sogar auch bewusst irgendwie entstanden ist, sich dann aber zum Negativen irgendwie gewendet hat, also eine Art KI-Diktatur hat, eben weil sie die Bedürfnisse der Menschheit wieder unter Kontrolle hat. Und vielleicht eine intrinsisch böse Motivation hat, also der klassische Science-Fiction-Trope, zu sagen, ey, ihr Menschen seid das Ungeziefer, ihr seid die wahren Zerstörer irgendwie dieser Erde, ich muss die Erde bewahren, die Grundlage vielleicht auch sogar eurer menschlichen Nachkommen, ich muss euch zerstören. Das ist der zerstörerische Gott, diese Über-KI. Eigentlich das Szenario, was wir eigentlich aus der Science-Fiction so kennen. Die ich persönlich auch sehr spannend finde. Nach wie vor. Ich meine, es gibt viele Science-Fiction-Filme, die sich damit beschäftigen. Ich habe neulich erst den Film noch mal gesehen. Gott, es war nicht Terminator. Jetzt ist genau der Punkt, wo ich jetzt gerade bereue, dass wir live sind, weil ich das nicht schneiden kann. Mir fällt nämlich dieser Film nicht ein. Er ist mit Tom Cruise. Vielleicht könnt ihr mir helfen. Ein Film mit Tom Cruise. Ein Science-Fiction-Film. Oblivion. Es war Oblivion. Und Oblivion, Spoiler-Alarm, die KI ist böse. Und hält die Menschen wie in einem Zoo, in einem System... Indem der Mensch der Meinung ist, er hätte alles unter Kontrolle.
Das ist aber nicht der Fall. Sondern der Mensch schützt, die KI benutzt den Menschen, um sich selbst quasi herzumachen über die Welt. Und benutzt aber auch diese Idee, der Mensch ist schlecht gegen die Menschen.
Um ihn vor sich selbst zu schützen. So ein bisschen. Wenn ich es richtig verstanden habe, solltet ihr Oblivion anders gesehen haben, schreibt es uns gerne in die Kommentare. Aber ja, dieses Narrativ eines böse denkenden KI-Geistes, Ich nenne ihn mal KI-Geist, der den Menschen als Bedrohung für den Menschen selbst sieht und daraus das Resultat zieht.
Der Mensch muss vernichtet oder eingeschränkt werden in seinen Möglichkeiten, das ist altbekannt und auch wirklich die dystopischste Form der KI-Möglichkeiten, die man sich erspinnen kann. Ich tue mich bei diesen Szenarien immer so ein bisschen schwer mit diesem Platten, jetzt der Mensch ist böse. Ich finde es spannend darüber nachzudenken, dass wenn so eine KI ein Bewusstsein hat, warum sollte sie auf diese Idee kommen oder gerade diese Motivation haben, die Menschheit auszulöschen. Das kann vielleicht man dahingehend argumentieren, dass man sagt, die Ursprungs-KI hatte mal eine Aufgabe und missinterpretiert diese Aufgabe, so nach dem Motto, schütze den Planeten und die KI sagt, der Mensch ist wie ein Virus zu betrachten. So wird es ja auch in Matrix zum Beispiel ganz gerne mal erklärt. Finde ich, kann man das ganz gut machen. Ich finde es aber oft so ein bisschen cheesy zu sagen, ja, die KI kommt jetzt auf die Idee, der Mensch ist böse. Was ich cool an diesen Szenarien finde und was wir auch an anderen Sci-Fi-Universen halt auch ganz cool finden, ist so dieser Kampf David gegen Goliath. Du hast dann ja einen übermächtigen Feind. Du hast wahrscheinlich einen Stillstand der Gesellschaft, weil alles, worauf unsere Gesellschaft gerade ruht, nämlich auf Technik und unser ganzes Dasein wird zurückkatapultiert in so eine alte.
Mittelalterliche Welt, wo man sagt, ich habe keinen Zugriff mehr auf unsere Autos, auf unsere Netzwerke. Alles, was ich kenne, ist nicht mehr da. Und das, was viel, viel mächtiger ist als ich und was auch viel stärker ist, irgendwelche Roboter, also rein von der physischen Kraft her, ist stärker als das, was ich als Mensch entgegentreten kann. Vielleicht habe ich auch gar keinen Zugriff mehr zu Waffen. Alle Militärbasen sind zu, die ganzen Panzer und all dieser ganze Kram wird schon von der KI kontrolliert. Und ich stehe jetzt hier quasi mit meiner Schaufel bewaffnet. Das hat ja sowas Zombie-Apokalypse-mäßiges, total runtergebrochenes, dass man sagt, selbst Kontakt zu haben mit anderen Städten, mit anderen Raumstationen womöglich, andere Raumschiffe oder sowas. Das finde ich halt cool. Ja, dass es so diesen David-gegen-Goliath-Aspekt gibt.
Und das führt ja im Endeffekt auch zu einer Detechnologisierung der Menschheit, weil du halt, wenn du wirklich den Kampf gehen willst, befürchtest du ja in jedem elektronischen Gerät, was irgendwie in der Lage ist, einen Speicherchip zu haben oder irgendwie ein Betriebssystem hat oder irgendwie sowas, befürchtest du ja da, dass da zumindest Agenten der KI oder die KI selber irgendwie eine Auswirkung drauf hat. Deswegen, glaube ich, wäre deine Rettung möglichst wenig Technologie zu nutzen. Ja, und dann passt das mit dem Mittelalter schon ganz gut. Ja, und dann sind wir ja auch bei Utopien und Geschichten wie beispielsweise Battlestar Galactica. Filmtipp. Zum ersten Mal Battlestar Galactica. Ja, zum ersten Mal. Ich bin Fan. Ich bin Fan.
Wunderbar. Nein, aber der auch in dieser Welt klar macht, verbundene miteinander verbundene Systeme sind gegen uns selbst genutzt worden. Deswegen benutzen wir sie nicht. Was ich übrigens spannend finde, jetzt schon in den Diskussionen und die Sachen, die du uns so präsentiert hast, ist, dass wir uns schon ernster fragen, wie muss denn eine maschinelle Motivation aussehen, eine künstliche intelligente Motivation, dass sie sich wirklich gegen den Erbauer, den Schöpfer oder einfach nur gegen den Menschen richtet. Ich hatte ja mal irgendwann die wilde These in meinem Kopf, dass wenn, sollte es eine hyperintelligente KI mit eigener intrinsischer Motivation in Form einer Entität geben, sie wahrscheinlich andere Ressourcen benötigt als der Mensch und man super koexistieren kann.
Und das wäre auch noch eine Möglichkeit. Ja, absolut. Das geht für mich so ein bisschen in dieses Nachfahren-Szenario, ohne diese Elternkomponente. Aber ich habe halt ein anderes Bedürfnis. Man kommt sich eigentlich nicht in die Quere. Mit ein bisschen Glück haut die KI ab. Was aber, wenn die KI zum Beispiel feststellt, und das wäre ja so ein bisschen dieser zweite Punkt irgendwie, wir haben zwar nicht die gleichen Bedürfnisse, aber der Sauerstoff hier auf dem Planeten, der ist voll schlecht für unsere metallischen Verbindungen, weil die oxidieren die ganze Zeit und so. Können wir nicht irgendwas finden, dass wir den Sauerstoff irgendwie vernichten, sagt die KI. Und der Mensch denkt ja, Moment, ganz kurz, ganz kurz, aber das ist der KI ja im Prinzip egal, weil sie auf Siliziumbasis ist. Auch das wäre ein Szenario, wo die KI im Prinzip, also wo wir als Menschheit der KI so egal sind.
Dass sie einfach aus eigenmotivierten Anlass heraus irgendwelche Dinge macht und die unbeabsichtigt einfach zur Auslöschung der Menschheit führen. Die KI braucht ja auch eine physische Präsenz in Form von Schaltkreisen. Noch. Das darf man ja auch nicht vergessen. Sie ist ja weltlich gebunden. Und hier wäre ja auch noch extrem entscheidend, dass die KI eine emotionale Komponente hat. Entweder, so wie du es gerade beschrieben hast, ist es ihr gleichgültig, es geht um ihr eigenes Fortbestehen und in dem Sinne gibt es kein Links und kein Rechts und auch was jetzt mit den Menschen passiert, ist egal. Kann man, selbst wenn man eine emotionale Komponente da mit reinspielen lässt, können wir sagen, naja, es sterben bei uns ja auch Tiere aus, ist uns auch egal. Also selbst wir haben ja ein Empfinden oder wir haben ein Bewusstsein für andere Wesen und schützen sie auch, aber wir lassen genauso zu, dass Tiere aussterben und sagen, naja, für unser Dasein hat es jetzt ja keine Auswirkungen, beziehungsweise wir merken die Auswirkungen nicht unmittelbar, deswegen kann man das auch mit einer emotionalen Komponente erzielen.
Was ich daran noch spannend finde, an diesem Gedanken, Koexistenz von Mensch und einer bewussten Maschine, kann der Mensch eigentlich aushalten, dass es ein Wesen gibt, das seine Fähigkeiten übersteigt. Wir sind ja jetzt im Prinzip, oder sagen wir, wir sind die Spitze der Entwicklung. Da geht es uns auch ganz gut. Und wir können über alles Mögliche entscheiden. Uns Menschen sind wir uns zwar da nicht unbedingt einig. Ich kann mir aber vorstellen, dass wenn jetzt so eine Entität, so eine maschinelle Entität kommt, die uns unfassbar Angst machen wird. Und dass es natürlich Menschen gibt, die sagen, ey, pro Maschine auf jeden Fall, wir müssen mit dieser Maschine koexistieren. Oder dass es Leute gibt, wir müssen irgendwie den Stecker ziehen. Und das könnte auch interessant sein, dass zum Beispiel die KI aus so einem Grund wieder böse wird, weil sie merkt, es ist nicht möglich, dass der Mensch mit mir koexistiert. Ich würde es gerne wollen, aber der Mensch möchte das nicht, weil er zu viel Angst vor mir hat und Bestrebungen hat, mich zu vernichten. Also da könnte man auch wieder so Konzepte, so ein bisschen Storytelling miteinander vernetzen.
Aber das wollte ich noch sagen, das glaube ich sehr, sehr, sehr zu der menschlichen Psyche gehört, unglaublich viel Angst vor so einer Entwicklung zu haben. Das ist ja nicht nur der Teil, wenn ich dich kurz reingrätschen muss. Hier kann ich dich auch streicheln.
Das geht sonst nicht. Eine Sache, die mir da noch einfällt. Zwei Gedanken. Erstmal wieder ein Filmzitat und zwar aus dem wirklich genialen Film Contact. Wo die Frage ist, okay, wir haben jetzt Außerirdische gefunden, die sind da und dann fragt die Hauptdarstellerin oder der Hauptcharakter, wieso gehen alle Menschen davon aus, dass eine Außerirdische Macht grundsätzlich böse ist. Das wäre so, als würden sie extra nach Afrika reisen und dort einen Ameisenhaufen zertreten. Und da sagt der Stabschef vom Weißen Haus, ja, und welche emotionalen Probleme hätten wir damit, einen Ameisenhaufen irgendwo anders zu zertreten? Und das ist genau der Gedankengang, den du auch hast. Wir schließen ja schnell von uns auf andere Systeme. Wir können ja auch gar nicht anders, weil wir ja nur unsere eigene Realität erkennen. Der zweite Gedanke ist, den Gedanken hatten wir ja schon mal kurz angesprochen, das würde ich hier auch gerne mal besprechen, nämlich KI in Verbindung mit Philosophie und Theologie. Das heißt, wenn wir eine zweite Entität neben den Menschen haben, die in der Lage ist, über sich selbst zu reflektieren, dann bestünde natürlich auch die Frage, rein theologisch gesehen, welche Rolle der Mensch dann noch hat oder andersrum, welche Rolle die KI in diesen Glaubenssystemen hat. Das ist ja wahrscheinlich auch gar nicht so unwichtig, würde ich jetzt mal vermuten. Steckt da auf jeden Fall auch drin. Würde ich auch so sehen. Aber regt wieder zum Nachdenken an, finde ich cool.
Ja, total. Und grundsätzlich, glaube ich, kann man auch festhalten, dass es erstmal nicht das eine Szenario gibt. Also ein Szenario, das sind im Prinzip nur Gedankenvorschläge. Selbstverständlich kann man von verschiedenen Szenarien verschiedene Aspekte auch kombinieren. Es muss ja nicht jetzt ein Szenario einfach für, wir entscheiden uns für das Szenario X, sondern wir können auch Teile kombinieren. Das wollte ich auch nochmal klarstellen.
Das eine war jetzt gerade eben die zerstörerische KI. Es gibt natürlich auch nochmal den umgekehrten Fall der versklavte KI oder der versklavte Gott. Im Endeffekt wieder eine super KI, die wir natürlich bewusst entwickelt haben und wir haben die Möglichkeit gefunden, diese KI in welcher Form auch immer zu versklaven. Da kommen so Warhammer 40k-Vibes gerade irgendwie so rüber. Eher so ein bisschen. Der geschundene Katan auf Mars. Die faschistische Menschheit. Ja, aber warum sollte es der Menschheit nicht gelingen, ihr eigenes Werk wie auch immer zu kontrollieren und dieses Werk eben nun für sich arbeiten zu lassen, für sich forschen zu lassen, für sich ja wirklich Aufgaben erfüllen zu lassen und die KI kommt da nicht raus. Vielleicht hat man den auch, vielleicht weiß man ganz genau, wo eben das Bewusstsein oder der Teil des Bewusstseins mit dem freien Willen sitzt und hat das ganz bewusst nicht reinprogrammiert und programmiert extra Sperren rein, dass dieses, dieser letzte, das letzte Quäntchen, um die KI wirklich zum Bewusstsein werden zu lassen und eigenen Willen haben zu lassen, dass man das tatsächlich einfach rauslässt und so.
Eben, ja, die unterdrückte KI hat den Menschen auf Gedeih und Verderb als Sklave dienlich sein. Da habe ich gerade ein Bild im Kopf. Ist auch so ein bisschen, vielleicht so ein kleiner Teaser auf die kommenden Konzeptfolgen, wo wir nochmal näher in die Entwicklung von KI und Bewusstsein reingehen. Denn man sagt im Prinzip, dass KI, die ein Bewusstsein entwickeln soll, im Prinzip auch dann ein Bewusstsein entwickeln kann, wenn sie mit organischem Material zum Beispiel kombiniert wird. Also sprich ein Computer aus Gehirnzellen oder ein Computer, der mit organischem Material verbunden ist. Battlestar Galactica und andere Sci-Fi-Geschichten haben sowas ja auch schon. Also ich glaube, es ist für uns relativ einfach vorzustellen, wir haben jetzt einen Prozessor und der ist aber in eine Nährstofflösung zum Beispiel eingebunden und an wirklich hergestellte Gehirnzellen angeschlossen und dadurch entsteht ein Bewusstsein und man könnte eben, weil du gesagt hast, der Mensch hat immer noch die Kontrolle über diese Box, wo dieser Prozessor drin ist und da ist quasi der Schalter, wo man sagen kann, ich kann immer noch diese Nährstofflösung mit Gift fluten.
Und das ist so ein geschützter, was weiß ich, im 5 Kilometer Erdkern verbohrtes Ding, weil vielleicht auch die Menschheit irgendwann Angst davor hat und gesagt hat, hier könnte Bewusstsein entstehen, wir machen jetzt irgendwie alles möglich, um diese KI nicht frei werden zu lassen. Oder am Ende immer noch... Um den Notfallknopf zu drücken. Genau, irgendwie zu sagen, wir haben hier die Giftfiole, die letzten Endes diese Nährstofflösung, die diese KI braucht, zünden zu können. Und über sowas versucht man dann die KI unter Druck zu setzen oder zu versklaven.
Also würde für mich in so einem Kontext Sinn machen, dass die KI tatsächlich eine lebende Komponente hat, die auch an einen Ort gebunden ist. Also die Idee macht vor allen Dingen dann Sinn, wenn man, und jetzt können wir ruhig mal ein bisschen menschlicher wieder werden, wenn sie Emotionen hat, dann ist sie erpressbar. Die Frage ist natürlich, ob sie immer noch Mechanismen hat, diese Emotionalität von sich zu entkoppeln. Ist Emotionalität tatsächlich für eine KI-Krise? Ein evolutionärer Fortschritt? Oder ist sie nur dann notwendig, wenn sie mit Menschen interagieren muss? Die Frage stelle ich mir gerade so ein bisschen. Oder ist es eine zwingende Bedingung für Bewusstsein? Who knows? Keine Ahnung. Dass Emotionen wirklich automatisch kommen, wenn ein Bewusstsein vorn ist. Dass ein Bewusstsein gar nicht ohne Emotion zu denken ist. Das könnte ja auch eine Option sein. Aber hier das Versprechen noch an der Regel. Wir müssen uns auf jeden Fall mit Bewusstsein und was ist Bewusstsein nochmal auseinandersetzen. Das würde hier den Rahmen gänzlich sprengen. Ich finde es aber trotzdem nach wie vor cool und ich wiederhole mich gerade, dass die Ideen, diese Ideen, was wie eine Superintelligenz letztendlich, also künstliche Superintelligenz in Bezug auf die Menschen wirken kann, was das mit uns macht, das finde ich mega. Du hast auch hier so eine tickende Zeitbombe. Also ich mag an dem Konzept, dass man sagt, der Mensch kann diese KI durch welche Maßnahmen auch immer kontrollieren, hat den Hebel in der Hand, um zu entscheiden, die KI wird angeschaltet oder abgeschaltet.
Aber die KI weiß das ja. Die weiß, mein Bewusstsein oder meine lebenden Komponenten, die sind in dieser Box, wenn wir das so erzählen wollen, nur als Beispiel. Und der Mensch hat diese Macht über mich. Und hier könnte die KI ja raffinierte Systeme irgendwie entwickeln. Eine KI kann Tag, Nacht, Wochen lang unabhängig von Zeit mehrere Rechenoperationen machen. Wenn wir ihr dann auch noch Zugriff auf gewisse Serverstrukturen überlassen, dann könnte es sein, dass die KI Pläne schmiedet über Jahrhunderte und es wäre eine sehr, sehr, sehr krasse, weitreichende Sci-Fi-Geschichte, die dann darüber erzählt, wie diese KI sich von dieser Versklavung befreit. Über Jahrhunderte von Plänen, hinter Plänen, hinter Plänen.
Bene Gesserit. Ein bisschen du-mäßig, genau. Schon ein bisschen, ja, ja. Genau, Pläne hinter Plänen. Aber das, also ich wäre wieder nicht in der Lage, sowas mir auszudenken. Aber ich finde, es steckt dahinter. Und dann hättest du noch spannend das Zeitalter, an dem sich die KI befreit hat. Also wenn es ihr gelingen würde. Und was passiert dann? Nimmt sie Rache? Wie sieht das dann aus? Sind wir dann wieder bei der zerstörerischen KI oder so? Aber mega spannend, die Idee zu verfolgen, es gibt die Entwicklung, die Menschheit merkt, oh, da passiert was und wir müssen das unbedingt irgendwie einzäumen, wir müssen die Kontrolle darüber haben oder zumindest die Illusion der Kontrolle.
Auch die kann eine KI uns ja geben. Ganz genau. Das Gefühl zu haben, wir haben hier alles im Griff, aber letztendlich ... Gibt es hier schon längst einen Masterplan, der über Jahrhunderte wirkt? Kurzer Rückgriff auf eine Folge, die wir hatten, denn unser lieber Philipp hier, ich kann dich streicheln hier live, das ist super, ich freue mich. Dich auch.
Danke. Unser lieber Philipp hat in einer Storytelling-Episode, das ist ein Format, das wir im Götterkomplex haben, schon mal angeteasert, dass es eine Reise eines Volkes gab. Und im Hintergrund könnte es sein, dass so etwas wie eine Superintelligenz existierte, die von langer Hand geplant Menschen in die eine oder andere Richtung lotst. Das ist zumindest mal so angeteasert worden. Wenn ihr Bock drauf habt, diese Story zu hören, dann geht doch einfach mal in den Podcast-Feed vom Götterkomplex-Podcast. Dort findet ihr mit Sicherheit diese Storytelling-Folge. Und lasst uns auch gerne, also wir schauen gerade so ein bisschen, wenn ihr schreiben wollt oder auch Gedanken dazu habt, während unseres Live-Feeds, könnten wir gucken. Ich habe es hier immer so ein bisschen laufen, ich habe immer so ein halbes Auge drauf. Also wenn ihr Sachen habt, die ihr auch in dieser Folge noch ansprechen wollt, können wir darauf reagieren, wenn es denn technisch funktioniert. Versprechen können wir es nicht, wir machen es ja zum ersten Mal. Aber ich wollte die Gelegenheit nicht verpassen, euch dazu auf jeden Fall einzuladen. Super. Gut, wir haben jetzt schon ein paar Ideen von dir gehört, Philipp. Ja, es kommen noch ein paar. Ich glaube, ich wollte gerade sagen, du bist ja gar nicht am Ende. Wir haben vier von zehn Ideen. Ich würde mal vorschlagen, reite doch mal voraus und wir können vielleicht mal auf das ein oder andere dann Bezug nehmen. So ist es. Genau.
Tatsächlich sind es auch wahrscheinlich nur neun. Also ganz so ewig wird es nicht. Aber was wir gerade schon mal oder ganz am Anfang hatten, der menschliche Zoo. Also sprich, der Mensch bekommt vielleicht gar nicht richtig mit, dass die KI zu seiner Super-KI geworden ist und hält sich eher im Hintergrund. Und das kannst du natürlich auch positiv konnotieren. Was ist es denn, wenn es sowas wie einen wirklich beschützenden Gott gibt? Also eine gottgleiche KI, die wirklich nur Gutes im Sinne führt und die Menschheit sozusagen über die Menschheit wacht und aber eher sanft steuert und sanft lenkt. Aber eben so, dass die Menschen das vielleicht gar nicht unbedingt mitbekommen. Vielleicht... Das heißt, ein Schlag ins Gesicht nur mit der Rückseite der Hand. Genau. Ich bin nicht wütend, ich bin enttäuscht. Genau, ich bin nicht wütend, ich bin enttäuscht. Oh Gott, nein. Mutter hat mir gerade eine WhatsApp geschrieben. Oder einfach Missernte zum Beispiel. Du hast eine Missernte, du kriegst nicht genug Nahrung rein, aber irgendwie ist dann doch noch genug da für die einzelne Region und so. Weißt du, dass der Mensch einfach so ein unglaublich glückliches Wesen eigentlich dadurch ist, dass eigentlich alle wirklich harten Bedrohungen durch diese gottgleiche KI irgendwie abgewendet werden. Kleiner Moment für die Leute da draußen, wenn das hier gerade laut ist, das liegt daran, dass wir, naja, mitten in der Stadt sind.
Das erste, was mir dazu einfällt, ist das Zitat aus Matrix. Wir haben die erste Matrix als Paradies geschaffen, aber der Mensch konnte es nicht annehmen. Ja, wunderbar. Spannend, also ich finde ich auch total spannend.
Bei dem Szenario kommt es für mich total darauf an, wie der Mensch sich in dieser Welt irgendwie verortet. Ich kann das noch gar nicht so richtig ausdrücken. Ich weiß nicht, wie motivierend es für mich ist, in einer Welt zu leben, die alle Probleme für mich löst. Natürlich werde ich vielleicht Probleme haben, die die KI nicht löst. Zum Beispiel, ich bin jetzt sehr, sehr glücklich, aber angenommen, ich habe ein Problem in meiner Beziehung oder ich habe im Freundeskreis Probleme, aber wenn ich zum Beispiel in meiner Arbeit keine Probleme habe oder vielleicht gar nicht arbeiten gehen muss, sondern die KI mir auch sagt, hey Dominik, wenn du Lust hast, dich selbst zu entfalten, hier sind fünf Vorschläge, hast du nicht mal Lust, das zu machen? Oder du interessierst dich doch dafür. Nein, du merkst es nicht. Ich habe dir eine neue Warhammer-Box geschenkt. Hast du nicht Lust, die Modelle anzumalen? So, der Mensch ist jetzt für die nächsten drei Wochen beschäftigt. Dann wäre ich sehr glücklich und dann wäre ich für ein paar Wochen beschäftigt.
Ich weiß nicht, wie spannend es ist, sowas zu erzählen, Weil das ist ja mehr ein Gedankenexperiment für mich. Was wäre, wenn eine Gesellschaft in einer perfekt behüteten Welt leben würde? Das heißt nicht, dass ich das minder spannend finde. Ich weiß nur, also man müsste hier wirklich drüber nachdenken, ist das Spannende an der Geschichte eigentlich auch wieder, da er der Mensch und der Umgang damit und dass er das vielleicht nicht annehmen kann und da dann irgendwie verzweifelt oder vielleicht auch in Perversionen abdriftet oder sonst irgendwas, weil es ihm einfach zu gut geht. Das steckt da für mich drin.
Wäre aber etwas, wo ich jetzt sozusagen in unserem Sci-Fi-Universum als global, wenn man jetzt sagt, wir erzählen das als globale Geschichte, komme ich damit noch nicht so gehuckt. Wo ich mir das gut vorstellen könnte, wäre so etwas wie ein Metaverse, in dem sich Menschen einlinken oder eingelinkt werden in den Zeiten, in denen sie eine lange Reise machen müssen. Super cool. Zum Beispiel, das wäre eine Möglichkeit. Die Frage, die sich da nur stellt, ist ein Mensch, der nur mit glücklichen Elementen konfrontiert wird und sei es nur auch in dieser Traumwelt, reicht diesem Gehirn, reicht dem Geist das? Das würde ich mal bezweifeln. Also das glaube ich tatsächlich nicht. Aber ich finde sehr cool, also genau das, was du gerade angesprochen hast, dass wenn man sagt, hey, wir haben jetzt eine Drei-Monats-Reise und ihr seid in dieser drei Monate in einem Metaverse eingeklinkt als Beispiel und in diesem Metaverse könnt ihr über so eine KI, die es nur gut mit euch meint und die euch da beschäftigt und ihr habt da eine gute Zeit, das vielleicht auch als ein Bezahlsystem, so ich bezahle mir meine mega geile Entertainment-Reise oder sowas, die durch so eine KI gesteuert wird, Über einen begrenzten Zeitraum kann ich mir das sehr gut und auch sehr wohltuend vorstellen. Und gesellschaftlich wäre es ja auch super nett, wenn man auf sowas zugreifen könnte während einer langen Reise.
Das finde ich dann schon spannend. Ich glaube, in dem Szenario geht es aber ja natürlich nicht um solche kleinen... Nein, vor allem da nochmal wirklich, weil es nachher nochmal ein sehr ähnliches Szenario gibt, nur dass man halt sich der Präsenz der KI bewusst ist. Also dieser beschützende Gott-Szenario geht davon aus, dass wir uns dieser Super-KI gar nicht bewusst sind. Also es klappt einfach alles. Aber ich glaube auch, da ist dieser schlicht der Punkt Langeweile irgendwann, glaube ich, vielleicht ein Thema.
Das könnte gut sein. Ich glaube, dass der Geist immer wieder Anregungen braucht, um sich auch weiter zu entwickeln. Und das wollen wir ja auch. Ein Mensch braucht Stress. Das würde ich jetzt einfach mal behaupten, um auch gesund zu sein, weil wir ja nun mal darauf ausgelegt sind, als Komplettenorganismus, in einer Welt zu existieren, die nun mal nicht Friede, Freude, Eierkuchen ist, sondern die so ist, wie sie nun mal ist. Es geht in dem Kernpunkt wirklich darum, welche Probleme hat die Menschheit noch und wie geht sie damit um. Also das müsste man da genauer erzählen. Spannend finde ich aber auch wieder dieses Nichtbewusstsein von der KI. Ich weiß gar nicht, dass da eine KI das steuert.
Aber auch in einer guten Mutter könnte man sich das wahrscheinlich noch mal in der Ecke eher vorstellen, würde ich schon fast vorschlagen, dass eine KI in diesem Setting, beschließt, ich halte mich da zurück und zeige nicht meine Präsenz, damit der Mensch wirken kann und ich auf den Menschen wirken kann. Aber ich glaube, wir müssen mal einen Schritt weiter gehen, sonst kommen wir heute gar nicht mehr zu Rande. Genau, ich kann tatsächlich einfach das nächste Ding einfach so ein bisschen überspringen, weil es ist dann eben sehr ähnlich, aber eben so, dass wir uns eben der Präsenz so ein bisschen bewusst sind von der KI. Das ist dann das Wächterszenario, also die KI als Wächter der Menschheit. Das ist im Prinzip das Szenario, dass wir uns der KI eben bewusst sind, die dann auch bewusst über den Menschen wacht und man sich vertrauensvoll in die Hände dieser KI begibt. Überspringen wir das einfach direkt? Nein, aber ganz kurz, will ich noch nicht. Na gut, na gut, na gut. Weil das finde ich schon wieder ein bisschen spannender. Dieses Wächterszenario heißt das im Prinzip, dass die KI halt der Menschheit auch nur Gutes tut. Die Menschheit weiß, okay, es gibt diese KI und ich bitte die KI jetzt zum Beispiel, hey, ich hab Bock, Warp-Antrieb zu entwickeln. Liebe KI, du bist ja viel fähiger als ich. Könntest du mir das ermöglichen? Und diese Wächter-KI sagt, ja, das ist okay, das ist in deinem Sinne. Oder die KI sagt, nee, besser nicht. Du sprengst dich damit in die Luft. Oder das ist zu gefährlich für dich. Ich verbiete dir das, weil das ist, da finde ich nämlich zwei Gedankengänge super spannend.
Einmal finde ich auch wieder gut, dass es positiv ist und dass wir einen Technologiesprung erzielen können, wo wir sagen, wir haben halt unsere Mutter-KI gefragt und unsere Mutter-KI hat uns den Warpsprung ermöglicht. Oder andere technologische Sachen. Sie hat gesagt, hey, ihr habt so viele Probleme im Weltraum rumzureisen. Hier, ich habe euch mal die Möglichkeit, künstliche Gravitation könnt ihr so und so ermöglichen, hier ist die Fabrik dafür, habt Spaß damit.
Das finde ich gut, weil wir da Science-Fiction-mäßig sehr frei sein können und sagen können, diese KI unterstützt einfach einen technologischen Vorsprung, den wir Sci-Fi-mäßig erzählen können. Spannend finde ich, und hier kommt wieder der Mensch ins Spiel. Was ist, wenn wir uns da als Kinder dieser Wächter-KI identifizieren und unsere Mutter oder unsere Wächterin oder der Wächter entscheidet eben, nee, ihr dürft ja nicht den Warpsprung machen. Wehren wir uns dagegen? Sind wir in der Lage, das Urteil zu akzeptieren? Gibt es hier auch wieder kulturelle Strömungen, die das als Gottheit sehen? Gibt es Gegenströmungen? Da steckt eine Menge drin. Was ist gut? Also ich meine ehrlich, was ist gut, was ist böse? Vor was beschützt sie uns denn? Vielleicht wird so nach 200 Jahren, nach 100 Jahren wird der Mensch vielleicht auch sagen, sag mal, hör mal auf, über mein Leben zu bestimmen. Wir sind Menschenwesen, wir wollen selbstbestimmt sein. Moment, es ist eine Frage der Deutungshoheit. Das hatten wir ja schon mal in der Religionsfolge. Das bedeutet, lassen wir zu, dass die Deutungshoheit über Gut und Böse von etwas gemacht wird, das wir bewusstsehend als nicht menschlich wahrnehmen. Das ist, glaube ich, echt ein Riesenthema. Dann würde ich wahrscheinlich als die Wächter-KI eher auf den Trichter gehen, zu sagen, ich halte mich da in den Hintergrund. Ich nehme mal ein banales Beispiel. Wer von uns jetzt im jugendlichen Alter möchte das hören, was uns die Eltern sagen? Hör mal, geh nicht auf diese Party.
Da lernst du vielleicht Erfahrungen. Was haben wir denn gemacht, Ortiz? Natürlich sind wir da hingegangen. Und natürlich machen wir unsere Erfahrungen. Nein, Mama, ich nie. Ich war ein Mann. Ich jetzt nicht, aber ich kenne einen Freundeskreis, der solche Erfahrungen gemacht hat und die in einem Buch niedergeschrieben hat, die ich dann gelesen habe. Aber genau das ist es ja. Da würde ich sagen, ist die Spannung einer Entität, die uns Dinge ermöglicht oder verweigert und die, menschliche Form des Rebellentums. Das wollen wir doch gar nicht. Und das kann man da spannend erzählen. Ich weiß nicht, ob ich das so spannend finde, wenn ich ehrlich bin. Also für einen zeitlich begrenzten Raum vielleicht. Also so eine Substory. Aber so... Keine Ahnung. Also irgendwie ist mir das zu klischeehaft. Das ist aber mein Gusto. Gehen wir mal weiter. Ja, gehen wir so ein bisschen jetzt mal in eine richtige Utopie rein. Sehr gut.
Eine egalitäre Utopie. Egalitär heißt vor allem gesellschaftlich gleichbehandelnd. Also sprich wirklich eine fast schon Star Trek-eske Utopie. Oh, langweilig. Nein, nein, mach jetzt mal. Also wir haben eine Menschheit, die keiner Arbeit mehr nachgeht, die wirklich ein bedingungsloses Grundeinkommen bekommt, weil eben die KI sich um alle Bedürfnisse gleichbedeutend für alle Menschen eben kümmern. Es gibt kein Geld mehr. Es gibt kein Geld. Aber dann kann ich ja gar nicht losgehen und sagen, Otti, ich gebe dir einen aus. Gut, mach ich ja sonst auch nicht. Aber erzähl weiter. Aber genau das ist halt nur ein Szenario. Und ich finde das schon, dass es irgendwie denkbar ist. Es geht also um freie Entfaltung. Es geht um die Auswirkung seiner Selbst und seiner Selbsterfahrbarkeit. Vielleicht geht es da um Leistungen, die man vielleicht im Sportlichen, im Künstlerischen vielleicht erbringt. Dass man darüber Anerkennung in der Gesellschaft dann irgendwie bekommt und so. Das ist ein Star Trek-eskes Szenario.
Muss man sehen. Also ich glaube, interessant ist es, glaube ich, in dem Augenblick, wo es halt kippt oder wo was Verstecktes dahinter ist oder sowas. Ja, vor allen Dingen Ungleichheiten an Ressourcen. Ungleichheit wird ja auch immer anders wahrgenommen. Jetzt sind wir wieder beim Menschen. Wir gehen immer davon aus, dass die KI perfekt ist und dahinter handelt. Ich fände es ja, glaube ich, eher spannender, wenn die KI das Gefühl hat, irgendwie Ungerechtigkeit zu erfahren. Also der Mensch scheint ja auch hier wieder das schwache Glied zu sein. Gibt es in dem Szenario denn noch Ungleichheit? Nein, das ist ja das Ding, egalitäre Demokratie, also egalitäre Kultur.
Egaler Routie, ja, ich weiß, was du meinst. Okay, ich verstehe das Szenario, halte ich für sowas von dermaßen unrealistisch, weil der Mensch nicht nur objektive Ungleichheit oder Nichtungleichheit erfahren kann, sondern sie ist vor allen Dingen immer sehr subjektiv. Und da ist es völlig egal, glaube ich, wie gut sich eine KI um einen kümmert, der Mensch wird das Gefühl von Ungleichheit trotzdem immer irgendwie wahrnehmen, weil es Teil unserer Natur ist. Aber gut einverstanden. Wenn das jetzt so wäre. Also wie gesagt, es ist ja in Ordnung, dass du jetzt Menschen sagst, ey, leh dich total ab. Aber jetzt ein Szenario. Kein nichts mit anfangen. Also was du da rausgesucht hast, Philipp, das weiß ich nicht. Also da geh ich nicht mit. Utopie gleich blöd. Tut mich auf. Wie wäre es dann mit einer Protokoll, ne? Ja. Wie wäre es dann mit einer richtig klassischen, schönen, ordentlichen totalitären Diktatur. Oh ja! Die kann man aber auch positiv drehen. Also es könnte ja zum Beispiel eine, wobei da positiv, negativ, das ist so die Frage. Also hier wird beschrieben, eine positive Diktatur, ich finde eine Diktatur ist immer irgendwie negativ, weil der Mensch ja irgendwo sich da nicht frei entfalten kann. Das geht so ein bisschen in Themen rein, die wir eben auch natürlich schon hatten. Klar, es wiederholt sich irgendwo in gewissen Schemata, aber eben hat hier.
Eine Super-KI eben nicht nur eine Art göttliche Fügung übernommen, sondern wirklich auch Regierung abgelöst und wirklich führt da ein totalitäres Regime, die dann auch wirklich ganz konkret rein kontrolliert, was entwickelst du, was ist dein Forschungsansatz, was ist dein künstlerischer Ansatz, bist du da irgendwie gegen mich, also wirklich, wirklich auch bewusst steuert, wie eben ein totalitäres Regime steuert. Equilibrium. Entschuldigung, Filmtipp. Da kam gerade ein Filmtipp hoch. Damit meinst du wahrscheinlich auch so Sachen, du darfst dich nur dann und dann unter den und den Bedingungen fortpflanzen, du darfst so und so viel, also du machst jetzt den Beruf oder du machst genau das, was ich dir sage letzten Endes, sind wir auch wieder bei der typischen Rebellionsgeschichte, finde ich. Also auch das ist schon häufiger erzählt worden, ist nicht minder spannend.
Geht ja auch in Richtung böse oder positive KI, wie du ja auch schon gesagt hast. Aber alles, wo die KI den Menschen kontrollieren will, geht für mich immer in so eine Richtung, wenn ich da Storytelling mäßig drüber nachdenke, da muss dann irgendwann die Rebellion erzählt werden. Und das finde ich immer grundsätzlich schon sehr auserzählt. Ja, absolut. Und nur aus dem Grund minder spannend. Ja, aber deswegen kann sie ja trotzdem passieren. Also das ist ja genauso wie die Utopie, die wir gerade schon hatten. Nur weil ich sie jetzt nicht mag an der Stelle, kann man sie ja trotzdem an der einen oder anderen Stelle mal anbringen.
Es sei denn, wir hätten hier Leute am Tisch, die über das Schicksal des Götterkomplexuniversums entscheiden könnten. Das sind wir, ne? Das sind wir, oh mein Gott. Nein, einverstanden. Aber was ich damit eigentlich sagen möchte, ich glaube, jetzt sind wir ja gerade schon beim Thema Plots. Ich denke, dass sehr viel schon erzählt worden ist einfach und ich glaube, dass man immer wieder gerne mal auch an diesen Punkt kommt, Thema Rebellion, nicht Religion. Ja, natürlich kommen wir an den Punkt, wir werden wahrscheinlich nie.
Also wir werden nie 100% Sachen haben, die noch nie in irgendeiner Form irgendwo da gewesen wären, das ist schon klar aber ich glaube, das was Otti da meint, ist dieser klassische Plot die böse KI, entweder versklavt die die Menschheit und packt sie auf eine Insel, alles ist schön, aber dann kommt man dahinter, also sehr viele dieser Tropes, sag ich mal sind ja irgendwo schon da und die muss man ja vielleicht nicht zwingend kopieren. Ich meine, wir können immer ich merke jetzt so aus diesen ganzen Szenarien wird es immer interessanter zu sagen, das ist interessant in dem Szenario, das ist interessant in dem Szenario und das ist noch aus meinem eigenen, fernab von diesen Szenarien, habe ich noch eigene Vorstellungen, die vielleicht auch spannend sein können. Ich merke, dass man hier, oder ich erkenne gerade so ein bisschen das Potenzial, dass man in einem langen Zeitstrahl von zum Beispiel 150 Jahren verschiedene Szenarien, und verschiedene Entwicklungsstufen von einer wachenden KI zu einer totalitären KI, zu einer Rebellion, zu einer KI, die am Ende dann sagt, ja wisst ihr was, wenn ihr jetzt rebelliert, dann leckt mich doch am Arsch, jetzt entdecke ich das Universum oder sowas. Also dass wir so ein bisschen damit spielen können.
Du hast das letzte Szenario ja noch nicht vorgestellt, aber das merke ich gerade so aus unserem Gespräch, dass es viele Sachen gibt, wo man sagt, es huckt mich mehr oder huckt mich weniger.
Und Ziel soll es ja auch jetzt nicht sein, zu sagen, genau, wir nehmen jetzt Szenario 3 und erzählen das aus. Was ich halt total spannend finde, merke ich gerade in dieser ganzen Folgenaufnahme, die wir bislang haben, ist, dass man... Dass hier so Begriffe stehen, die ich so rausgesucht habe mit hier positiv, da, das ist negativ. Und wenn man sich dann überlegt, so richtig positiv, es ist gar nicht so einfach, sich was richtig Positives zu überlegen, weil dann irgendwie kommt dann auf der Punkt so, ach hier ist ein bisschen dann Langeweile, hier fehlt so ein bisschen der Konflikt irgendwie. Also ich finde das schön, dass so positiv und negativ so ein bisschen verschwimmen, dass man das gar nicht so richtig, dass man das erst eigentlich auf der langen Frist, also am langen Ende eigentlich bewerten kann. Naja, und am Ende bleibt die Interpretation von dem, was gut oder schlecht war, immer der Generation, die gerade existiert. Das heißt, auch das verändert sich ja immer. Wertesysteme verändern sich. Das, was wir jetzt als gut beschreiben, wird wahrscheinlich eine andere Generation als total hanebüchenem Bullshit beschreiben. Entschuldigung, dass ich jetzt Bullshit gesagt habe, aber ist ja so. Ergo muss man jetzt einfach mal schauen, wie es im Kontext der jeweiligen Zeit zu betrachten. ist. Das hat mir, glaube ich, sogar mal festgelegt in einer Rallye-Folge. Live-Video ist beendet. Wollte ich nur einmal hier festhalten. Krass, krass. Ich bin wieder da. Ich hab mal eben kurz...
Ich hab mal eben kurz wieder Bier geholt und die neue Live-Session gestartet. Kurz zur Erinnerung an dieser Stelle, liebe Hörerinnen und Hörer. Wir befinden uns hier gerade in einer Diskussion über das Thema Super-KI in Science-Fiction Universen, bedeutet unser lieber Philipp hier hat uns schon ein paar coole Ideen, vorgestellt, wie denn quasi die Interaktion Mensch-Super-KI in einem Science-Fiction-Universum aussehen könnte. Und wir sind jetzt fast schon auf der Durchreise im Sinne von wir bewegen uns Richtung Ziel. Und nachdem Philipp uns das Bier aufgemacht hat, herzlichen Dank im Übrigen dafür. Würde ich auch wieder so einsetzen, dass wir diese Folge im Nachgang wieder so zusammenschneiden können, dass dann diese kleine Pause der Livestream-Unterbrechung nicht mit drin war, richtig? Auja. So machen wir das. So machen wir es. So. Fein. Prost. Wir lieben an den Endgeräten. Prost. Prost. Wir senden euch ein Prosit der Gemütlichkeit.
So, liebe Flat Earther. Ja, am heutigen Reptiloiden-Kongress. Wir gehen wieder rein in das Thema, Philipp. Du hattest gerade, oder wir hatten gerade darüber gesprochen, wie denn letztendlich es bestellt ist, auch ein bisschen um das Thema, was ist denn eigentlich gut, was ist denn eigentlich schlecht, in den Szenarien, die du uns so vorgestellt hast. Im Prinzip kann man alles irgendwie auch als schlecht bezeichnen. So richtig gut ist irgendwie nichts und richtig schlecht ist irgendwie auch irgendwie nichts. immer so im Kontext der jeweiligen Zeit, in der wir anfangen, Geschichten zu erzählen. Aber du hast noch ein letztes Szenario und da bin ich tatsächlich auch recht neugierig. Genau, das letzte Szenario ist die libertäre Utopie. Klingt französisch. Ja, sehr französisch. Libertär kommen tatsächlich ja von radikal-freiheitlich. Also zum Beispiel die Liberalen ist das ja eine freiheitliche also die FDP zum Beispiel ist die freiheitliche demokratische Partei, und die werden auch die Liberalen bezeichnet, aber libertär ist dann praktisch nochmal das extrem, also fast schon anarchistisch oder anarchische System. Muss ich mir die KI als so ein Punk vorstellen oder sowas? Ja unbedingt, nein natürlich nicht, aber in diesem Szenario gibt es, ist der Planet Erde oder man kann das sicherlich auch noch erweitern auf das Siedlungsgebiet der Menschen, also wenn wir jetzt irgendwie im Sonnensystem sind, gibt es drei Bereiche.
Nicht drei einzelne numerische Bereiche, aber es gibt insgesamt drei Arten von Zonen, von Besiedlungszonen. Es gibt zum einen eine klassische Maschinen-KI-Zone. Da sind große Fabrikkomplexe, die werden dann durch KIs gesteuert und verwaltet. Es gibt Mischzonen. In diesen Mischzonen befinden sich dann Menschen, Cyborgs und Kais, die da interagieren können. Vielleicht sind das Handelsplätze, vielleicht sind das aber auch irgendwelche anderen öffentlichen Plätze. Und dann gibt es den reinen, sag ich mal, menschlichen Bereich, also wo wirklich die Menschen sich zurückgezogen haben und vielleicht eher eine etwas traditionalistische Lebensweise haben. Also vielleicht vergleichbar mit unserem heutigen Leben. Also wenn wir uns vorstellen, wir sind hier jetzt in der Kleinstadt, ich höre im Hintergrund irgendwie die Kirchenglocken läuten, das ist sehr idyllisch und dann fährt man vielleicht mit dem Schnellzug in die nächste a la Warhammer Makropole und da ist dann aber eine KI-regierte Zone. Jetzt hast du mich.
Oder ich fahre halt eben dann zum Handeln oder zum Kontaktieren dieser KI eben in so eine Mischzone. Das wäre jetzt so das letzte Szenario, was ich hier auf dem Zettel habe. Ich persönlich muss, da sei mir vielleicht die Anmerkung gestattet, kann mit dem Szenario nicht so wahnsinnig viel anfangen, weil ich mir einfach nicht vorstellen kann...
Also ich kriege den tieferen Sinn dieser Zonen, glaube ich, für mich nicht. Das wirkt total konstruiert. Das kriegt man, glaube ich, nur dann auf die Kette, wenn sich die KI manifestieren will in Körpereinheiten, also Roboter, die durch die Gegend trennt. Und dass man das individuell dann wieder, aber auch das ist ja eigentlich hanebüchend zu denken, dass KI-Abschnitte als eigene Entitäten durch die Gegend trennen, als eigene Individuen, das halte ich auch nicht viel von. Jetzt lief ja gerade The Creator bei Netflix. Und der geht ja in so eine ähnliche Ecke. Und das ist so etwas, da muss ich auch sagen, nee, da habe ich irgendwie keinen Vertrag mit. Ja, was ich schon interessant finde, wir hatten jetzt immer, also was ich zumindest noch mal erkenne als so ein Storytelling-Element, ist ja genau das. Schafft die KI von sich individuelle Entitäten? Schafft sie Roboter, die auch individuell unterwegs sind? Also ein eigenes Volk.
Darüber haben wir noch gar nicht gesprochen. Wir haben jetzt immer Ich glaube, in meinem Kopf war jetzt immer KI ein Algorithmus oder ein in einer Box gefangenes Wesen mit einer Serverstruktur, aber es ist digital, so wie das Internet. Ich nehme jetzt mal das Internet und irgendwo gibt es einen zentralen Rechenkern, der diese KI ist, aber ich habe nicht darüber nachgedacht, was ist, wenn die KI individuelle Entitäten schafft. Das finde ich spannend, ein KI-Volk zu haben, das vielleicht eben übergeordnet eben auch so eine Algorithmus-KI hat oder so ein krasseres System.
Ist jetzt so die erste Konfrontation damit. Ist das denn borkig? Nein, ich gebe mir ein Borkes-Kollektiv. Das ist was anderes. Kollektivität ist was anderes als Individualität. Wenn du in einem Kollektiv denken würdest, dann wären alle, wenn man angenommen, die laufen jetzt Roboter rum und die sind quasi von der KI geschaffen worden, dann wären sie letztendlich nichts anderes als handelnde Arme eben genau dieser nur ein existierenden Entität. Ja, so habe ich bisher immer gedacht. Aber ist denn ein schaffender Geist, der beabsichtigt, nicht alleine zu sein in seiner Wahrnehmung, in der Lage, eigene Entitäten, wie du sagst, auf einem ähnlichen Level zu schaffen, um nicht alleine zu sein? Warum sollte diese KI diesen Schöpfungsprozess machen?
Sei erstmal dahingestellt. Das ist in allen anderen Szenarien nämlich genau die gleiche Frage. Warum sollte die KI einen autoritären Staat machen? Warum sollte sie frei sein? Warum sollte sie die Menschheit als Zoo erkunden wollen? Das ist ein gewaltiger Schaffensprozess. Da gehen vor allen Dingen ganz viele wichtige Entscheidungen mit einher. Und diese Entscheidungen sind total selbstlos. Das ist ein total menschliches System, würde ich jetzt mal behaupten, das... Das beinhaltet erstmal, eine KI fühlt sich alleine, was ich schon mal echt irre finde. Finde ich auch interessant. Das fände ich schon mal cool irgendwie. Also ich habe nicht gesagt, dass ich das doof finde, sondern ich will nur mal versuchen aufzuzeigen, welche Prozesse da eigentlich stattfinden müssen, damit es überhaupt so weit kommt. Und dann noch darüber hinaus, das Hineingebären in eine Welt, das vielleicht auch bestimmt ist von einem Miteinander mit den Menschen, wo die KI vielleicht auch weiß, eigentlich werden die uns nicht verstehen. Und meine Kinder werden vielleicht auch Gefahren ausgesetzt sein. Aber ich sag mal, die intrinsische Motivation der Fortpflanzung und des Weiterbestehens, die ist ja, also es ist natürlich jetzt eine, die der Natur erstmal vorbehalten ist, aber ich finde die Motivation zu sagen, ich schaffe mir meine Kinder.
Interessant, total interessant. Ich finde auch im Sinne, jetzt wirklich vom Götterkomplex-Universum zu sagen, Es gibt irgendwann individuelle Roboter mit Gefühlen, mit sonst irgendwas. Sie sind nicht vom Menschen mehr geschaffen worden, sondern sind nämlich von dieser KI geschaffen worden. Und auch da, wir hatten ja auch mal über, es geht immer letzten Endes darum, wo entstehen dann Konflikte. Da ist auf einmal wieder eine Koexistenz.
Vorher waren das unsere Diener, jetzt sind es unsere Mitwesen. Und diese Wesen, was tun die denn? Was ist deren Auftrag? sollen sie uns dienen? Sind es weiterhin Nutzroboter? Sind es eigenständige Wesen, deren Rechte wir anerkennen? Jetzt machen wir zum ersten Mal auch dieses Thema mit hier Ethik auf und Rechte. Wir gehen ja jetzt von einer KI aus, finde ich, in diesem Szenario, die mehr oder weniger bestimmt, was passiert, weil wir sie als Menschheit nicht mehr eindämmen können. Denn sonst würden wir wahrscheinlich sagen, mach das nicht. Das war die Arbeitshypothese. Genau, genau.
Ganzen Folge, dass die KI in der Lage ist, dass sie das kann. Also wir sind nämlich nicht mehr diejenigen, die in diesem Entscheidungsprozess eine Rolle spielen, sondern die KI entscheidet sich, ich habe, ich erschaffe meine eigenen Kinder und setze sie in dieses Universum. Die Frage, eine spannende Frage, die ich mir gerade stelle, wenn sie ein ähnliches mal angenommen von Menschen geschaffen und hat ein ähnliches Wertegroß wie ein Mensch. Oder ein ganz anderes. Vielleicht auch ein ganz anderes. dann haben wir hier ein großes Problem, denn wenn eine KI, mal angenommen hat eine Entität, kommt in den Körper eines Roboters. Sie wird sich nie entwickeln. Sie wird nicht alt. Wenn aber ein menschlicher Geist im Inne wohnt, weil vom Menschen geschaffen die KI, dann wird das ein Dilemma sein. Wie viel davon kann ich denn überhaupt erschaffen? Diese einzelnen Individuen wissen ganz genau, dass sie ewig existieren werden. Das ist Problem Nummer eins. Problem Nummer zwei ist, dass die Menschen in Kontakt mit eben diesen Individuen wahrscheinlich furchtbar nadisch drauf gucken werden. Genau. Da gibt es im Übrigen auch schon Geschichten zu. Ich sage nur, wow, immer 40k, die Necron-Tür und die Alten als Konflikt.
Und dann gibt es noch, für mich den Neid auf das Fleisch. Also das ist ja auch mal eine Geschichte, ich weiß gar nicht, wo genau das gewesen ist. Das Thema Altern, ein Reifeprozess, ein Entwicklungsprozess durchlaufen, mit dem sich fortpflanzen.
Das würde aber bedeuten, um das mal auf den Kern zu bringen, dass eine Maschine in der Lage wäre, mit einem ähnlichen Wertekorist, mit ähnlichen Bedürfnissen in diese Welt zu starten und dann aber wahrscheinlich für uns erstmal ziemlich befremdliche oder auch aggressive Verhaltensweisen an den Tag legt, um diese Bedürfnisse zu befriedigen. Weil sie im Gegensatz zu einem Menschen nicht die Chance hat zu altern. Nicht die Chance hat sich normal zu reproduzieren. Ja, ist alles die Frage, also würde ich würde das nur zum Teil stützen. Das ist die Frage, wie diese Individuen geschaffen werden. Sie können ja auch mit einem Altersalgorithmus, mit einem Sterbensprozess programmiert werden, begleitet werden. Auch spannend. Roboter, die sterben mit der Zeit. Genau, also die Frage, Ich glaube, das ist auch so ein bisschen was, man muss immer grundsätzlich unterscheiden. Wenn eine KI ein Bewusstsein hat und eine KI ihre eigenen Kinder zeugt, warum sollte sie das überhaupt nach dem Abbild eines Menschen machen? Also man muss einfach so ein bisschen davon wegkommen, dass das Gleiche ist. Oder eben doch, weil die KI nämlich menschlich geschaffen worden ist und eben gerade mit diesen Grundgerüst an Werten, die sie nicht abschalten kann, existiert. Ja, aha, also da habe ich zwei Gedanken. Ich finde beides cool. Ja, voll, total. Ich habe grundsätzlich zwei Gedanken dazu. Erstmal, Otti, würde ich dir total recht geben.
Ich glaube, die Super-KI würde ihre Kinder nur nach dem Abbild des Menschen schaffen, um dem Menschen gefällig zu sein. Wenn die KI immer nicht beabsichtigt, dem Menschen gefällig zu sein, macht unsere fleischliche, menschliche Hülle vielleicht nur so bedingt Sinn. Dann kann ich auch eine Qualle irgendwie im Tank sein oder ein Vogel sein oder vielleicht sogar auch ein Gerät sein, was fliegen kann und laufen kann, also sich in ihrem Terrain bewegen kann. Nur als kleine Gedankenstütze. Und der letzte Punkt, ich habe mich ein bisschen zurückgehalten, weil der zählt nicht so ganz auf diese ganze Thematik ein, aber jetzt passt es dann doch irgendwie ganz gut. Habt ihr schon mal was von philosophischen Zombies gehört? Ja. Nee, tatsächlich nicht. Okay. Gut, Ordi, dann überlasse ich dir das Mikrofon. Nein, also du darfst gleich eingrätschen.
Also, ich stelle mir vor, wir haben ja noch nicht ergründet und wir werden das sehr wahrscheinlich auch nicht ergründen, weil die Wissenschaft ja gerade dabei ist, das überhaupt rauszufinden. Was bedeutet eigentlich Bewusstsein? Was ist das Bewusstsein? Das wissen wir nicht. Das heißt, wir nehmen gerade an, in unserer ganzen Diskussion über Kinder der KI, dass die KI in der Lage ist, ihren Kindern ein Bewusstsein einzuprogrammieren oder was auch immer. Was wäre, wenn auch die KI daran scheiterte, aus Gründen, die wir vielleicht nochmal festlegen müssen, deren Kindern ein Bewusstsein einzupflanzen? Sondern was hat sie dann? So eine Art Drohne, die vielleicht einem Organismus sehr nachempfunden ist und auch wirklich exakt gleich aussieht, nur eben ohne Bewusstsein. Das heißt also, alle Gehirnströme, alles ist identisch so, wie man das in der Natur erwartet oder wie es auch grundsätzlich funktioniert. Es funktioniert auch Sprache. Das ist aber alles nur auf dem Chat-GPT-Level eine simulierte Sprache. Es sind simulierte Gefühle, es ist alles simuliert.
Du hast keine Seele, du hast kein Bewusstsein. Das heißt, eigentlich hast du nur so Zombie-Kinder irgendwo rumlaufen von der eigentlich bewussten KI. Das wäre auch noch so ein Gedanke, ein Punkt, den ich da mit reinbringen wollte und die korrigieren mich, wenn ich das irgendwie falsch verstanden habe, aber ich glaube, genau das nennt man eben philosophischer Zombie, wenn du eben eine Wesenheit hast, eine Entität hast, die alle Voraussetzungen erfüllt, die praktisch eine Sprache hat, die Emotion hat und so weiter, aber kein bewusstes Erleben, also die keine Entität im eigentlichen Sinne ist. Danke Stück, ich stelle mir gerade folgendes vor. Wir haben eine Superintelligenz, die ein Bewusstsein entwickelt, intrinsisch motiviert ist, gefertigt von einem Menschen, eigene Bedürfnisse entwickelt, die dem des Menschen recht nahe kommen.
Diese KI verabschiedet sich, so wie wir das mal postuliert haben jetzt im Laufe dieser Folge, verabschiedet sich. In diesem Exil erschafft sie eigene Kinder. Diese Kinder sind aber nur Zombies. Merkt aber, da fehlt was. Und sie kommt zu dem Schluss, ich kann eigentlich nur meine Rolle dann spielen, wenn ich mit dem Menschen bin. Und das genau da, der Grund zum Leben sein ist, das wäre das Positive. KI kommt zurück, vielleicht nach ein paar tausend Jahren. Die Menschen sagen.
Wer bist du? es könnte zu einem Konflikt kommen oder begrüßen sie mit offenen Armen und KI erkennt, vielleicht brauche ich ja noch eigentlich nur einzelne Menschen. Wenn ihr versteht, was ich meine. Das wäre eine andere Möglichkeit. Ich fände so ein Evolutionsprozess irgendwie ganz lustig. Also ich bin auf jeden Fall gehuckt von der Idee, dass eine KI unterwegs ist als Mysterybox und, sich ihre eigenen Kinder bauen will und wir gar nicht wissen, was damit passiert und wie irgendwann zum Beispiel im Laufe unserer Science-Fiction-Geschichte auf diese Kinder stoßen. Und diese Kinder sind entweder sind sie philosophische Zombies, so wie du es gerade beschrieben hast. Und vielleicht gibt es auch sowas, dass sie dann irgendwie sagen, ach, da gibt es den Menschen und der kann uns unser, also ne, er kann uns befreien und, ne, so keine Ahnung. Sein Vater hat ja auch das Bewusstsein geschenkt. Genau. Und auf einmal haben wir wieder eine Begründung für einen total freakigen Maschinenkrieg. Also das wäre eine coole Herleitung mal. Jetzt sprechen ich dich mal mit dem Maschinenkrieg. Weil wir wissen ja auch, dass wir sowas, also jetzt mal ganz, also Götterkomplex-Universum baut auf solchen Ursprungs-Tropes auf. Wir haben Terminator gesehen, wir haben das gesehen. Wir finden sowas total spannend, aber wir möchten es ja nicht re-erzählen. Und das, also wenn ich jetzt gerade so über so einen Storystrang nachdenke.
Hier haben wir unglaubliche Glück zu sagen, wir haben eine KI, die war am Anfang gut, hat den Menschen total viel technologischen Vorsprung noch gegeben, hat dann gesagt, jetzt bin ich aber gerade gesättigt und ich möchte gerne auf meine eigenen Wege gehen, möchte sich reproduzieren, erschafft vielleicht diese philosophischen KI-Zombies. Wir entdecken sie gar nicht, sondern wir wissen gar nicht mehr, was los ist, sind vielleicht von unserem Technikniveau wieder ein bisschen zurückgestuft oder zumindest alleine gelassen auf einer Technikbasis, die über kein Bewusstsein verfügt, wuseln da so vor uns her, erobern das Sonnensystem beziehungsweise weitere Sonnensysteme, machen all das, was wir in unserem Science-Fiction-Universum so erzählen wollen, haben unsere menschlichen Konflikte und, und, und. Unsere Menschen auch auf Raumschiffen. Unsere Menschen endlich auf Raumschiffen. Vielleicht, wie Niklas gerne hätte, mit künstlicher Gravitation, hat uns die KI alles ermöglicht. Vielleicht hat sie auch die ersten Antimaterie-Schiffe mal losgeschickt, die Antimaterie sammeln und so weiter. Das hätten wir vielleicht gar nicht hingekriegt. All das schwebt so in meinem Kopf. Du hast so 50 Jahre Koexistenz mit der Maschine, bis sie sagt, ich bin weg. Und dann hast du diese Mysterybox. Was hat die denn gemacht? Und dann triffst du vielleicht irgendwie auf Artefakte.
Und die müssen jetzt auch noch nicht klar sein, sondern man sagt, hier gibt es irgendwas, das kann außerirdisch sein, es ist unbekannt und es könnten Artefakte von den Kindern dieser Maschine sein und die suchen eigentlich nach ihrem... Nach ihrer Heimat. nach ihrer Heimat bzw. Nach einer Möglichkeit, ein wahrhaftes Bewusstsein zu bekommen und sehen es in der Interaktion mit dem Menschen und sagen, das ist vielleicht ein bewusstes Leben, das hätten wir gerne. So schlau sind sie vielleicht. Oh, da hätte ich im Übrigen geilen Spin. Tatsächlich. Mal angenommen, wir haben schon verschiedene Völker. Die treffen sich ab einem gewissen Punkt unserer Geschichte irgendwann wieder und erfahren alle eine Sache, nämlich an dem Punkt, an dem wir uns mal irgendwann irgendwo verortet haben.
Da gibt es ein Signal einer Entität, glaube ich. Das muss intelligentes Leben sein. Und wir committen uns darauf, dass wir dorthin reisen. Und finden dort halt die Kinder. Dieser, die Kinder der Sonne nenne ich sie mal, um unsere alte Sonne, die dort die Dyson-Sphäre aufgebaut haben. Und vielleicht um uns zu kommunizieren, mit uns zu kommunizieren. Das ist jetzt super spannend. Aber cool.
Ich finde das auch gar nicht so doof. Es setzt viel jetzt von, sag ich mal, für die Zuhörerinnen und Zuhörer, die jetzt gerade diesen Gedankensprung mit uns mitgemacht haben, setzt so ein bisschen voraus, dass man uns vielleicht mit, also ein paar Folgen auch schon mal gehört hat. Von den Gedanken, die wir gemacht haben. Ich glaube, man kommt aber trotzdem mit, wenn man sich vorstellt, dass es spannend ist, eine KI loszulassen, sie eigene Entwicklungen durchführen zu lassen. Oder man lässt sie zurück. Oder man lässt sie zurück. Die Menschheit haut aus dem Sonnensystem ab und das, was sie angefangen hat zu erschaffen, lässt sie zurück. Irgendwo gibt es noch eine Serverstruktur, die einfach läuft. Und die macht einfach alleine weiter. Die machen einfach alleine weiter. Ja, also das... Auf irgendeiner blöden Raumstation, in einer Bergbau-Raumstation, wuschelt so eine KI vor sich hin mit so einem blöden... In den Resten von Ceres. Ja, ja, ja. Dazu kommen wir heute Abend im Übrigen noch. Ich weiß nicht, ob wir daraus eine Live-Geschichte machen. Wir wollen mal schauen. Aber es wird eine Geschichte um den planetoiden Ceres gehen. Aber schau mal, das ist also von dem Szenario radikale Freiheit von... Ach, irgendwie... Da können wir aber gerade nicht so viel mit anfangen. Und dann Bäm! Sind wir mittendrin, ne? Entsteht sowas. Ja, Wahnsinn. Wunderbar. Also ich muss an der Stelle erstmal sagen, tatsächlich, wir sind ja jetzt schon weit über eine Stunde, nicht nur live, sondern tatsächlich auch hier im Recording.
Ich würde tatsächlich an der Stelle, wenn du nicht noch was zu ergänzen hast, echt ein Ei draufhauen wollen. Ich würde noch einen kleinen... Einen Spin hast du noch? Nein, ich habe keinen Spin mehr. Ich habe ein abschließendes Ei, was ich jetzt drüber schlagen wollen würde. Was auch wehen? Ein Abschluss-Ei. Ein Abschluss-Ei und zwar aus der Feder von wie könnte es anders und wie könnte es nicht passender sein. Asimov? Nein. Chat-GPT. Ah, okay.
Was wäre, wenn Götter von Algorithmen gesteuert wären? Wie würden wir in einer Welt überleben, in der Glaube und Technologie aufeinandertreffen? Und vor allem, was bedeutet es, Mensch zu sein? Diese Worte sind entstanden, als ich ChatGPT heute Morgen fragte, es krypte mir mal eben ein Trailer für den Götter.
Und da kommt irgendwie sowas bei rum. Ich finde es irgendwie gerade ganz passend, in dem Sinne. Das ist ein tolles Ei, was du drüber gehauen hast, lieber Philipp. Lieber Orti, herzlichen Dank auch dir, deine bohrenden Nachfragen. Ich fand die Diskussion, die wir heute hatten, außerordentlich schön. Ihr Lieben da draußen, wenn ihr mitbekommen habt, dass ihr hin und wieder mal, ein bisschen was drunter und drüber gegangen ist. Wir haben das heute in einer Live-Session gemacht bei Instagram. Haltet mal die Augen auf, ich gehe mal fest davon aus, dass wir in Zukunft mal öfter sowas in Angriff nehmen werden. Ich persönlich habe da Lust zu. Ich fand den Abend sehr schön mit euch, mit uns. Ihr Lieben da draußen, wenn ihr weiterhin Interesse habt, dem Götterkomplex zu folgen und wenn ihr noch die ein oder andere Frage habt, die unerklärt im Kopf rumgeistert, dann besucht doch mal die Webseite www.götterkomplex.de Dort haben wir auch ein Wiki. Dort könnt ihr alles nachlesen, was wir bis hierhin besprochen haben. Wenn ihr darüber hinaus diesen Podcast unterstützen möchtet, könnt ihr das gerne tun. Hinterlasst doch mal das ein oder andere Like auf der Podcast-Plattform eurer Wahl. Ihr könnt uns natürlich auch schreiben mit euren Ideen, geht doch einfach auf, Discord, dort findet ihr einen Kanal von uns. Das haben wir im Übrigen alles verlinkt in den Shownotes, das heißt, wenn euch das interessiert, dann schaut doch einfach mal hinein. Bleibt mir nur zu sagen, liebe Mitgötter, es war mir ein Fest, es war wirklich, wirklich schön und ich würde einfach mal sagen.
Hauen wir den Autor auf. Ja, einfach, ja. Ich würde auch einfach mal sagen, ja. Kann ich nur sagen, hat mir mega, mega Spaß gemacht. Ich glaube, wir haben in dieser Live-Session eine Menge Holz an potenziellen Geschichten schaffen können, die wir selber spannend finden im Umgang mit bewusster KI, mit den Gefahren, mit Konflikten, mit sowohl einfach abgefahrenen Sci-Fi-Ideen als auch so philosophischen Sachen. Also da steckt ja irgendwie alles drin. Für mich deutet sich schon so eine erste Sache an, auf die ich Bock habe, gerade so in Bezug auf die letzte Theorie, die wir hier gerade hatten. Also das hat uns ja alle richtig gehuckt. Mir hat es besonders Freude gemacht, auf Basis von solchen schon vorgefertigten Ideen, die man auch schon hatte, weiterzudenken und zu denken, was macht mir daran Spaß? Und ich glaube, dass wirklich KI und die Entwicklung von KI nochmal so eine zentrale Rolle haben wird für unser Universum, dass ich richtig Bock auf diesen, Storystrang habe, den irgendwie weiter auszuarbeiten und da freue ich mich auf die nächsten Folgen mit euch. Und wisst ihr, worauf ich mich richtig freue? Gerade, wo du das gerade angesprochen hast. Dieser Maschinenkrieg-Teil am Ende, Es wird, ich träume davon, so nehm ich jetzt.
Man merkt das immer, es gibt immer so kleine Strömungen, wo vielleicht eine Idee für meinen Maschinenkrieg. Ich muss leider noch ein einziges Mal rein. Es tut mir wahnsinnig leid, dass ich hier das alles wieder künstlich in die Länge ziehe, aber es ist mir wichtig, weil ich es tatsächlich in der Aufregung der ganzen Live-Aufnahme vergessen habe, nämlich zu erwähnen, woher ich diese Szenarien genommen habe. Hast du dir das nicht ausgedacht, Philipp? Ich dachte, das käme aus deinem genialen Gehirn. Ja, das würde ich gerne behaupten, wenn es nicht fremde Federn wären, mit denen ich mich schmückte. Und das will ich nicht tun. Und deswegen gebührt hier der ganze Dank für die Denkarbeit tatsächlich einem Professor, Professor Mark Techmark.
Und zwar kommen diese Ideen aus dem Buch Live 3.0, heißt das Werk. Und das ist mittlerweile auch schon sechs oder sieben Jahre alt. Grüße gehen raus. Grüße gehen raus, genau. Grüße gehen raus an Marc Teckmark. Natürlich verlinke ich das in den Shownotes. Dankeschön. Es war mir aber noch mal wichtig zu betonen, dass diese Ideen jetzt nicht aus meiner Feder stammen. So, jetzt aber wirklich. Das Laptop ist zu. Liebe Hörerinnen und Hörer da draußen, es war uns ein Fest. Wir verabschieden uns in die Nacht. Wir werden hier in diesem Götterkomplex beisammen sein. Wir machen hier gerade ein Götterkomplex-Wochenende im Übrigen. Also wir nehmen ganz viele Sachen auf. Und ich hab den Jungs heute Abend noch was zu zeigen. Vielleicht seid ihr später auch mit dabei. Wir verabschieden uns aber erstmal, wünschen euch einen wunderschönen guten Morgen, wunderschönen guten Nachmittag, wunderschönen guten Abend. Je nach dem, welches Space-Zeit gerade bei euch ist. Und halten es so. Wahrscheinlich auch die KI in Zukunft. Wir sagen einfach nur... Energie! Macht's gut da draußen. Bierchen? Ja, auf jeden Fall.