"Add one egg!" - Bill Schlackman, Psychologist (In: Century of the Self)

Über eineinhalb Jahre nach unserer letzten Episode zur Künstlichen Intelligenz scheint es an der Zeit, das Thema wieder einmal anzufassen. Wir stellen beim Abgleich fest, dass wir früher viel mehr auf das Produkt fixiert waren und den Prozess dahin ignoriert haben. Doch genau da hat die KI längst die Fäden in der Hand - oder unsere Hände eingefädelt? Wir sind entspannter und vielleicht damals einfach mal wieder dem Kulturpessimismus auf den Leim gegangen, der bei jeder technischen Neuerung skeptisch aus seiner Komfortzone lugt? War die Panik vor der KI am Ende nicht doch die gleiche wie damals vor dem Internet, als Schulen schon befürchteten schließen zu müssen, weil doch alles im Internet kopiert werden könne? Die gleiche Angst wie vor Gutenbergs Buchdruckmachine? Oder der Kassette, mit der man angeblich die Musikindustrie zerstören konnte? Natürlich haben wir keine endgültige Antwort parat. Aber immerhin haben wir unsere Setups mit KI im Alltag durchgespielt und sind zu dem nicht ganz revolutionären Schluss gekommen: Am besten fährt man, wenn man sich die Zügel nicht aus der Hand reißen lässt, das Produkt als eigenes festhält und die KI bloß als nützlichen Assistenten betrachtet.

Shownotes

Mitwirkende

avatar
Micz Flor
Erzähler
avatar
Florian Clauß

Transcript

Florian Clauß
0:00:21–0:00:30
Hallo und herzlich willkommen bei eigentlich podcast episode 61 Ich bin Flo
0:00:30–0:00:33
und neben mir läuft Mitch.
0:00:33–0:00:37
Und Mitch hat uns eine Geschichte mitgebracht oder ich weiß es noch nicht.
0:00:37–0:00:43
Es ist wieder so eine von den Episoden, wo der eine nicht weiß, was der andere erzählt.
0:00:44–0:00:45
Ich bin gespannt.
0:00:46–0:00:50
Eigentlich Podcast, das ist der Podcast, bei dem wir im Laufen reden und laufend
0:00:50–0:00:58
reden. und wir sind dieses Mal auch in Grunewald und laufen hier durch den Wald.
0:00:58–0:01:02
Es ist dunkel, wir haben eine Taschenlampe dabei und wir haben auch einen Track,
0:01:02–0:01:11
den wir aufzeichnen und dem wir jetzt auch in dieser Episode nachgehen und mal
0:01:11–0:01:12
gucken, wo er uns hinführt.
0:01:13–0:01:17
Aber das Ganze könnt ihr dann auf eigentlich-podcast.de sehen,
0:01:17–0:01:21
wo wir langgelaufen sind Und auch Informationen zur Episode,
0:01:21–0:01:26
zur Folge und was Mitch noch für ein Thema hat, könnt ihr da auch nachlesen. So Mitch.
Micz Flor
0:01:27–0:01:32
Ja, jetzt aber mal los hier. Wir sind mitten im Wald und das passt irgendwie
0:01:32–0:01:33
so gar nicht zu meinem Thema.
0:01:33–0:01:36
Und ich habe es dir auch deshalb nicht gesagt, weil ich das Gefühl habe,
0:01:36–0:01:39
dass du dann sagst, oh nee, jetzt gib dir mal ein bisschen mehr Mühe,
0:01:39–0:01:45
weil es ist vielleicht ein bisschen eher beim Laufen labern und laufend labern.
0:01:46–0:01:50
Also, dass wir wirklich diesmal einen Laber-Podcast machen. Aber es ist mir
0:01:50–0:01:52
wichtig, das habe ich dir gesagt, mir ist das Thema wichtig.
0:01:52–0:01:57
Es ist ein Revisiting in gewisser Weise von einer Episode, die ich im Februar
0:01:57–0:01:58
letzten Jahres gemacht habe.
0:01:59–0:02:02
Es ist schon lange her und da hatten wir diesen drei Teile über KI.
0:02:03–0:02:07
Das Thema haben wir nochmal aufgegriffen bei Stunners of LEM so ein bisschen.
0:02:07–0:02:12
Es schwingt immer wieder auch so ein bisschen rein in jede Folge, weil dieser...
0:02:13–0:02:18
Dieser Dreiteiler damals war ja auch deshalb ein Dreiteiler,
0:02:18–0:02:20
weil das war so etwas Neues, Disruptives.
0:02:20–0:02:24
Und man hat irgendwie spekuliert, was dann mal alles wird und wie das sein kann und so weiter.
0:02:26–0:02:31
Und ich habe jetzt, und deshalb ist es mir ein Anliegen, gemerkt,
0:02:31–0:02:36
dass man jetzt das erste Mal, zumindest in meiner Umgebung, also ein großes
0:02:36–0:02:41
politisches Ereignis, eben diese Wahlen in Amerika, die anstehen,
0:02:42–0:02:49
dass da jetzt bei diesen, dass da jetzt halt so KI-Videos, Filme rauskommen und die.
0:02:52–0:02:55
Und das ist jetzt irgendwie angekommen, ist jetzt irgendwie da,
0:02:55–0:02:57
ist jetzt nicht mehr spekulativ.
0:02:57–0:03:01
Ich weiß nicht, ob das irgendwie sinnvoll ist, was ich gerade sage.
Florian Clauß
0:03:01–0:03:03
Ich versuche gerade da den.
Micz Flor
0:03:03–0:03:04
Die Brücke ist für mich zu sagen, wir
0:03:04–0:03:07
haben damals so ein bisschen darüber gesprochen, wie es wohl sein wird.
0:03:08–0:03:12
Und jetzt haben wir aber es irgendwie gelebt. So ein bisschen wie das,
0:03:12–0:03:15
was du mal gemeint hast, als ich dir oder du mir oder wer auch immer einer von
0:03:15–0:03:21
uns hat angesprochen, dass es einen Wissenschaftler gab,
0:03:21–0:03:26
der einen Lego-Roboter gebaut hat, der das komplette neuronale Netzwerk eines
0:03:26–0:03:29
Wurms eingepflanzt hatte.
0:03:29–0:03:34
Und dann ist dieser Lego im Video, dieser Lego-Roboter, wie halt so ein Wurm eben über den Boden.
0:03:34–0:03:40
So hat er sich so bewegt und hatte die gleichen perzeptiven und motorischen
0:03:40–0:03:44
Fähigkeiten. Und dann hattest du gesagt Ja, aber es ist halt kein Kaper,
0:03:45–0:03:47
deshalb ist es kein Wurm.
0:03:47–0:03:52
So und irgendwie damit hat das zu tun. Ich habe das Gefühl und da kann ich vielleicht
0:03:52–0:03:54
als erstes auch über mich reden.
0:03:54–0:03:59
Ich habe das Gefühl, dass diese Idee, die man damals hatte, die war so sehr stark am Produkt.
0:04:01–0:04:06
Jetzt kann irgendwie auf einmal alles so geschrieben werden oder Texte gibt
0:04:06–0:04:07
es quasi auf Knopfdruck.
0:04:08–0:04:12
Dann gab es diese Bilder und dann kann man irgendwie alle Kinderbücher auf einmal
0:04:12–0:04:13
auf Knopfdruck herstellen.
0:04:14–0:04:18
Und ich hatte damals in der Folge, und wer es noch nicht gehört hat,
0:04:18–0:04:23
ich möchte es mal ganz kurz zusammenfassen, Da sind zwei Sachen reingenommen.
0:04:23–0:04:29
Das eine war von Ted Zhang aus dem Magazin Nature 2000.
0:04:29–0:04:36
Im Jahr 2000 erschien eine fiktive, futuristische Geschichte.
0:04:37–0:04:45
Die damit losgeht, dass irgendwie seit 20 Jahren kein wissenschaftlicher Forschungsartikel
0:04:45–0:04:47
mehr von Menschen verfasst wurde.
0:04:47–0:04:50
Das macht alles jetzt die künstliche Intelligenz. Und es gibt dann manchmal
0:04:50–0:04:54
aber so Interfaces, wo die künstliche Intelligenz was für Menschen so rausschmeißt.
0:04:55–0:05:02
Und Menschen haben inzwischen auch eine Art, wie Bibeltext lesen,
0:05:02–0:05:07
als Wissenschaft entwickelt, um herauszufinden, was die KI wohl meint mit diesen
0:05:07–0:05:08
Texten, die sie den Menschen gibt.
0:05:08–0:05:12
Also das Ganze wird dann in einer gewissen Weise metaphysisch.
0:05:12–0:05:15
Und die KI hat alles komplett abgehängt. Das war der eine Text.
0:05:16–0:05:20
Und da haben wir ein bisschen drüber spekuliert. Der zweite Text war eben das
0:05:20–0:05:29
von De Boeres, genau, The Library of Babel oder Bücherei, ich weiß gar nicht
0:05:29–0:05:31
mehr, Bibliothek von Babel.
0:05:31–0:05:37
Da geht es darum, dass halt eben alle Bücher in einer Bibliothek sind,
0:05:37–0:05:41
die in einer bestimmten festgesetzten Seitenanzahl mit bestimmten Anschlägen
0:05:41–0:05:45
pro Seite, kann man ja einfach mechanisch eigentlich alle Bücher drucken.
0:05:45–0:05:49
Und das wird dann so ein bisschen durchgespielt. Das ist auch da dann im Prinzip
0:05:49–0:05:53
alle vergangenen Texte, alle zukünftigen Texte, alle geheimen Texte,
0:05:53–0:05:57
alle Rezepte, das gleiche Buch
0:05:57–0:06:00
mit einem Schreibfehler, mit zwei Schreibfehler, mit 100 Schreibfehler.
0:06:00–0:06:05
Also es ist natürlich eine theoretisch unendliche, aber praktisch eben doch
0:06:05–0:06:09
endliche Anzahl von Büchern, die so hergestellt werden könnte.
0:06:10–0:06:17
Und in gewisser Weise ist dieses Chat-GPT auf eine komische Art gar nicht so weit weg davon.
0:06:17–0:06:21
Weil, und das ist der dritte Text, den ich jetzt dazunehmen möchte in der Logik,
0:06:21–0:06:28
weil im Prinzip Chat-GPT ja doch nicht weiß, was es tut. So, ne?
0:06:28–0:06:30
Da gab es diesen einen Artikel, nenn ich Chris und dir auch,
0:06:31–0:06:39
wo drüber stand, dass diese Language Model, they're bullshitting.
0:06:40–0:06:44
Bullshitting ist halt ein Wort für so labern, was einfach so für sich hinlabern
0:06:44–0:06:50
und zu wissen, was man genau sagt. Im Prinzip etwas, was man auch so als Witz manchmal macht.
0:06:50–0:06:55
Du kennst vielleicht noch diese PowerPoint-Karaoke,
0:06:55–0:06:58
wo man so eine PowerPoint-Präsentation, von der man nicht weiß,
0:06:59–0:07:02
Die geht einfach los und man muss dann so spontan irgendwie erzählen,
0:07:02–0:07:03
was es ist. Und das ist total lustig.
Florian Clauß
0:07:03–0:07:08
Ja, das war in den 2000ern, war das auch lange her. In den Clubs haben die das auch gemacht.
Micz Flor
0:07:09–0:07:12
Aber das ist eben diese Form von Bullshitting. Bullshitting heißt im Englischen
0:07:12–0:07:16
im Prinzip, dass du einfach mal irgendwie erzählst und hoffst keinem fällt auf,
0:07:16–0:07:18
dass du überhaupt keine Ahnung hast, worüber du redest.
0:07:19–0:07:21
Und ChatGPT macht das ja in gewisser Weise.
0:07:22–0:07:26
Und deshalb kriegst du dann halt auch immer solche komischen Effekte,
0:07:26–0:07:31
dass ChatGPT per se keine Realität ist, sondern erst durch das Gelesen oder
0:07:31–0:07:34
Redigiertwerden wirklich Bedeutung bekommt.
0:07:35–0:07:39
Also wir haben damals, deshalb vielleicht dieses Revisiting,
0:07:39–0:07:43
auf der einen Seite haben wir damals immer gedacht, okay, jetzt gibt es auf
0:07:43–0:07:47
einmal alles an Musik und in gewisser Weise ist es auch wahr.
0:07:48–0:07:52
Es ist sicherlich so, dass halt schon die ersten Cafés irgendwelche KI,
0:07:52–0:07:57
Minimal Techno Tracks laufen lassen, weil das wirklich einfach auch keiner interessiert,
0:07:57–0:07:59
was es ist und keiner wirklich zuhört.
0:08:01–0:08:04
Aber es sind nicht per se Produkte, sondern es sind Atmosphären,
0:08:04–0:08:05
die da geschaffen werden.
0:08:06–0:08:10
Und das Zweite ist, dass ich einfach mit dir auch ein bisschen drüber reden
0:08:10–0:08:14
wollte, wenn man das nochmal so abgleicht mit den Gedanken von damals.
0:08:16–0:08:20
Wie erleben wir jetzt den Umgang mit KI? Wie nutzen wir das?
0:08:20–0:08:24
Und was macht das mit uns? Was funktioniert und was funktioniert nicht?
0:08:24–0:08:27
Und das dritte ist dann so ein bisschen auch diese generelle,
0:08:27–0:08:33
schon etwas ältere, aber finde ich auch interessante Haltung gegenüber Science Fiction.
0:08:34–0:08:40
Das hat Science Fiction das alles immer so erfindet, den Möglichkeitsraum,
0:08:40–0:08:44
also das Mögliche irgendwie beschreibt und dann die Technologie hinterherkommt
0:08:44–0:08:46
und das dann irgendwie entwickelt.
0:08:47–0:08:50
Und vor dem Hintergrund habe ich dann gedacht, wir haben vielleicht auch mal...
0:08:51–0:08:56
Die Pflicht, dass wir das nochmal so mitreflektieren, weil wir jetzt ja auch
0:08:56–0:08:58
in diesem digitalen Raum drin sind.
0:08:58–0:09:02
Deshalb sind wir nicht wichtiger oder unwichtiger als irgendwas anderes,
0:09:02–0:09:03
möchte uns auch nicht überhöhen.
0:09:03–0:09:09
Aber irgendwie gehört das ja dazu, dass wir jetzt einfach nochmal auch reflektieren
0:09:09–0:09:14
und auch Texte und Erzählungen schaffen, die vielleicht ein bisschen darauf gucken,
0:09:14–0:09:20
was ist die Interaktion, so Mensch-Maschine-Interaktion.
0:09:20–0:09:25
Nicht nur ist dieses Gedicht toll, ist der Limerick super, ist dieses Bild toll
0:09:25–0:09:31
oder diese Stimme original, sondern wie arbeiten wir damit, was macht das mit uns?
0:09:32–0:09:36
Gibt es was, was uns Angst macht oder ist die Angst schon verflogen?
0:09:37–0:09:41
Und als ich darüber nachgedacht habe, das vielleicht noch so als Einleitung,
0:09:41–0:09:43
dann können wir einfach mal so loslabern.
0:09:43–0:09:46
Da war ja auch eben diese Frage so, oh Gott, jetzt ist diese ganze Musik,
0:09:47–0:09:48
das wird jetzt alles irgendwie.
0:09:50–0:09:53
Es gibt unendlich viele Beatles-Lieder und keiner weiß mehr,
0:09:53–0:09:56
was wirklich Beatles waren und was nicht, weil man kann ja einfach so draufdrücken
0:09:56–0:09:58
auf den Knopf, dann kommt ein Beatles-Lied raus.
0:09:59–0:10:02
Nicht, dass ich noch eins bräuchte, ich bin nicht der größte Beatles-Fan,
0:10:02–0:10:05
aber zur Anschaulichkeit.
0:10:05–0:10:10
Und rückblickend, ich dann dachte, ja gut, aber andererseits ist es ja eh immer schon passiert,
0:10:10–0:10:13
dass es dann irgendwann drum computer gab
0:10:13–0:10:16
und dann brauchte man kein schlagzeug mehr und dann gab es techno dann
0:10:16–0:10:19
konnte man also im laptop machen also irgendwie hat die ganze zeit
0:10:19–0:10:26
schon gerade in der musik technische innovationen neue dinge ermöglicht und
0:10:26–0:10:32
andere dinge banalisiert ja egal ob jetzt samples von cellos genommen hast statt
0:10:32–0:10:36
ein cello zu spielen oder eben drum machines genommen hast,
0:10:36–0:10:41
anstatt ein Schlagzeuger zu sein oder anzuheuern.
0:10:41–0:10:46
Es gab immer schon eine Veränderung und jetzt ist es natürlich in gewisser Weise
0:10:46–0:10:50
eine qualitative Veränderung, weil halt dieser Prompt eingegeben wird und dann
0:10:50–0:10:52
kommt hinten das Produkt raus.
0:10:54–0:10:57
Aber für mich zumindest wirkt es jetzt
0:10:57–0:11:07
gerade anders als diese unfassbare disruptive nature, die ich so vor,
0:11:07–0:11:11
ja, das ist auch bald zwei Jahre schon her, wahrgenommen habe.
0:11:11–0:11:14
Da war es ja wirklich so richtig krass. Und jetzt ist es halt so da.
0:11:14–0:11:20
Und eben im Wahlkampf gibt es jetzt gerade, es hat ja gerade Trump dieses,
0:11:20–0:11:24
dieses They're eating dogs, they're eating cats.
0:11:24–0:11:31
Und dann ist es unfassbar, wie schnell da Videos und Lieder und Remixes,
0:11:31–0:11:37
das ist wirklich so, das kommt fast in Echtzeit da rein.
0:11:37–0:11:41
Und die Timeline ist komplett zugespült mit so Sachen.
Florian Clauß
0:11:42–0:11:46
Aber ich meine, das ist ja nichts anderes als noch so diese Memes.
0:11:47–0:11:53
Also ich finde da von der Art her ist es nichts Neues, es ist vielleicht von
0:11:53–0:11:57
der Qualität her jetzt was Neues hier, wo du dann halt irgendwie,
0:11:57–0:12:01
ich habe jetzt auch so ein Trump-Video gesehen, wo er dann halt diesen Satz
0:12:01–0:12:06
sagt und dabei siehst du halt Noten und dabei spielt dann halt so eine Trompete.
Micz Flor
0:12:09–0:12:14
Beste was dazu gesehen habe kann ich nur muss ich ja dann auch suchen und verlinken
0:12:14–0:12:19
aber da hat jemand einfach schon peanuts die titelmelodie angelegt und das passt
0:12:19–0:12:25
total drauf bis hinten haut es ein bisschen ab aber es passt erstaunlich gut also.
Florian Clauß
0:12:25–0:12:32
Ich glaube die die möglichkeit auch die kreativen oder output der ist da schon
0:12:32–0:12:34
professioneller geworden das kann man sagen Ja,
0:12:34–0:12:40
aber was du in der Einleitung gesagt hast, das habe ich jetzt so ein bisschen versucht zu mappen.
0:12:41–0:12:47
Ich fand zum Beispiel so vor, als das dann vor, wann waren das,
0:12:47–0:12:50
acht Jahren, als dann halt quasi...
0:12:52–0:12:56
Clinton gegen Trump und dann fing es da eigentlich mit diesem ganzen Deepfake
0:12:56–0:13:01
und da gab es diese ganzen Wahlgeschichten, da war das noch nicht so bekannt
0:13:01–0:13:05
und dann war das halt so und dann kamen ja auch diese ganzen,
0:13:06–0:13:11
Berichte erst darüber was jetzt Facebook für eine Rolle wie dann halt die Daten
0:13:11–0:13:14
dafür genutzt würden, um auch die.
0:13:16–0:13:21
Uneinigen Wähler dann auch umzustimmen Ja, da empfand ich das viel krasser,
0:13:21–0:13:23
weil es halt noch nicht bekannt war.
0:13:23–0:13:29
Und jetzt ist es ja so, und ich finde, das ist halt so, jetzt haben sich ja
0:13:29–0:13:31
sämtliche Sehgewohnheiten schon darauf angepasst.
0:13:32–0:13:34
Also wenn dann halt irgendwelche Videos kommen und so, wird,
0:13:34–0:13:36
ah ja, KI generiert, mach mal weiter.
0:13:36–0:13:45
Also du kriegst das auch ziemlich schnell, das Urteil und die Outputs, die dann laufen,
0:13:45–0:13:53
die beeindrucken mich gar nicht mehr so doll, sondern da wird man so ein bisschen
0:13:53–0:13:54
abgebrühter, würde ich mal sagen.
0:13:54–0:14:00
Es ist aber auch so eine gewisse Medienkompetenz, die sich da jetzt auch in
0:14:00–0:14:02
der Breite dann durchgesetzt hat.
0:14:05–0:14:08
Aber vor zwei Jahren haben wir, glaube ich, auch eine Sendung gemacht,
0:14:08–0:14:14
wo wir schon gesagt haben, mit der Musik, dass die sich dann generieren wird und so weiter.
0:14:14–0:14:18
Das war, glaube ich, die Folge, also die erste Tonabnähe.
Micz Flor
0:14:18–0:14:19
Draußen in Brandenburg.
Florian Clauß
0:14:19–0:14:23
Ja, in Brandenburg über Aufzeichnungssysteme.
Micz Flor
0:14:23–0:14:26
Ja, das weiß ich auch noch. Während wir drüber sprachen, wurde mir das dann erst klar.
Florian Clauß
0:14:26–0:14:30
Ja, und ich fand, das war schon eine visionäre Folge von uns jetzt,
0:14:31–0:14:35
wo wir einen gewissen Prophezeiungsgrad dann, also da haben wir auch schon so
0:14:35–0:14:36
ein bisschen gesponnen, ja.
0:14:37–0:14:42
Und ich muss dir verraten, ich habe auch eine Folge in Vorbereitung über KI und Filmwirtschaft.
Micz Flor
0:14:43–0:14:44
Ah, okay.
Florian Clauß
0:14:44–0:14:48
Jetzt mache ich vielleicht das nächste Mal. Vielleicht braucht man da jetzt
0:14:48–0:14:52
nicht so tief reinzugehen, weil das wollte ich jetzt nochmal nächstes Mal machen.
0:14:54–0:14:58
Und, ja, das ist auch.
Micz Flor
0:14:58–0:15:01
Finde ich, also mir ging es wirklich eher natürlich schon um die Nutzung,
0:15:01–0:15:05
aber jetzt vielleicht nicht aus so einem wirtschaftlichen, sondern so hobbyistisch,
0:15:05–0:15:09
wie wir das tun. und auch eher von dem,
0:15:12–0:15:15
Hüllt uns das aus? Geht das an uns vorbei?
0:15:16–0:15:22
Ist das, keine Ahnung, ist das vielleicht doch wieder so, als damals Fotokopierer
0:15:22–0:15:24
waren und alle dachten, oh Gott, Hilfe!
0:15:25–0:15:30
Alles geht kaputt, das Copyright wird nicht laufen. Dann kam Kassetterekord,
0:15:30–0:15:32
oh Gott, man kann das aufnehmen, das kann doch nicht sein.
0:15:33–0:15:36
Also jedes Mal gab es dann so Kultur und Wirtschaft.
Florian Clauß
0:15:36–0:15:39
Ja, ich glaube, es hat aber schon eine neue Qualität. Also ich glaube schon,
0:15:39–0:15:46
in dieser Dimension und dieser Umfassenden hat es schon so, dass es raumgreifender
0:15:46–0:15:48
ist als nur der Fotokopierer.
0:15:49–0:15:55
Also auch raumgreifender ist als das iPhone. Also weil es halt so viele Bereiche durchdringen wird.
0:15:57–0:16:00
Und was ich jetzt von meinem...
Micz Flor
0:16:00–0:16:03
Ja, das wäre mir vielleicht, glaube ich, immer wichtig, dass wir jetzt nicht
0:16:03–0:16:06
gucken, wie es sein wird, aber nicht weiter spekulieren.
0:16:06–0:16:08
Können wir vielleicht zum Schluss, wenn wir eine tolle Idee haben,
0:16:08–0:16:11
aber eher so zurückgucken,
0:16:13–0:16:18
Was hat sich verändert in dir und in deiner Nutzung von davon?
0:16:19–0:16:21
Die Technik ist ja auch verfügbarer und sowas.
Florian Clauß
0:16:22–0:16:32
Also vielleicht kann ich dir mein Setup erklären, wie ich quasi arbeite mit den KI-Tools.
0:16:33–0:16:43
Also in meiner IDE, ich benutze IntelliJ, da habe ich zum Beispiel CoPilot mit drin.
0:16:43–0:16:52
Also es ist so, dass diese Autovervollständigung von Code, das ein GitHub-Artefakt ist.
0:16:52–0:16:57
Also ein GitHub-Plugin, was man sich da reinnimmt, ist Lizenz,
0:16:57–0:17:01
also kostenpflichtig, aber kriege ich natürlich für eine Arbeit gestellt.
Micz Flor
0:17:01–0:17:07
Das ist das, wo doch so eine Sammelklage gegen Microsoft läuft wegen Copyright-Verletzungen.
Florian Clauß
0:17:07–0:17:10
Ja, da laufen ja viele Sammelklagen, aber ich weiß nicht, wie da der Stand ist.
0:17:11–0:17:16
Aber das nutze ich eigentlich dauernd. Das heißt, der schlägt mir dauernd irgendwelche
0:17:16–0:17:20
Sachen vor und ist dann manchmal ein bisschen nervig.
0:17:21–0:17:26
Aber ja, das ist so wie eine Autovervollständigung auf dem iPhone.
0:17:28–0:17:31
Und dann okay, mache ich das. Also es ist selten, dass ich dann halt direkte
0:17:31–0:17:34
Direktiven an dieses Co-Pilot stelle.
0:17:35–0:17:39
Also Direktiven heißt, du kannst ja dann halt quasi so in Kommentaren sagen,
0:17:39–0:17:47
mach mir mal einen Loop und iteriere mir dann halt so und so viele Testobjekte,
0:17:47–0:17:49
die diese Attribute haben.
0:17:50–0:17:52
So, das kannst du ja dann so machen und dann spuckt die dir was aus.
0:17:53–0:17:57
Das mache ich eigentlich nicht so so, für solche coolen Sachen,
0:17:57–0:17:59
da greife ich schon ganz gerne auf.
0:18:00–0:18:06
Das richtige Chat-GBT zurück und mache das dann über die Oberfläche oder aber,
0:18:06–0:18:09
ich habe noch so ein API-Key, wo ich dann,
0:18:11–0:18:16
auch direkt die Dienste von OpenAI, da gibt es ja auch verschiedene Modelle,
0:18:16–0:18:22
nicht nur Chat-Modelle, sondern DALI, das Generierungsmodell für Bilder oder
0:18:22–0:18:24
es gibt Text-to-Speech und.
0:18:26–0:18:28
Oder halt irgendwie Whisper,
0:18:28–0:18:32
was dann eben Speech-to-Text macht das kannst
0:18:32–0:18:34
du alle die ganzen modelle kannst du halt mit dem api key dann
0:18:34–0:18:39
direkt ansprechen du brauchst dann eben so ein programm ich glaube ich hab dir
0:18:39–0:18:47
das mal gezeigt also in python wo du dann halt quasi ganz einfach diese imports
0:18:47–0:18:53
machst und dann halt diese sachen zusammenstecken kannst um um dann so ein Output zu generieren.
0:18:54–0:18:57
Das nutze ich auch relativ häufig.
0:18:58–0:19:07
Am meisten, also das sind so diese ganzen Preise, wo du halt was zahlen musst für.
0:19:07–0:19:13
Ja, das, was ich dann halt so in dieser Testversion oder in dieser Free-Version
0:19:13–0:19:19
habe, das ist jetzt so einmal dieser normale Chat von ChatGBT,
0:19:19–0:19:21
von OpenAI, also ChatGBT.
0:19:22–0:19:28
Als Browser-Oberfläche und in der gleichen Form habe ich auch Claude,
0:19:28–0:19:33
das ist eine andere Textassistenz und Perplexity.
Micz Flor
0:19:33–0:19:34
Wie heißt das?
Florian Clauß
0:19:35–0:19:43
Perplexity. Das ist so quasi die, die, ja, die bemühen sich da so eine akademische,
0:19:44–0:19:50
also der gibt dir dann immer irgendwie, warte mal, wir sind jetzt gerade hier in der Wegkreuzung,
0:19:53–0:19:57
der gibt dir dann auch immer die Quellen dazu. Das heißt, wenn du zum Thema,
0:19:57–0:20:02
dann kannst du diesen Pro-Filter und dann hast du nur so und so viel Abfragen
0:20:02–0:20:03
für die nächsten vier Stunden.
0:20:04–0:20:06
Also es ist dann immer limitiert auf Abfragen.
0:20:07–0:20:11
Und dann liefert der dir aber, du fragst dann halt was und dann gehst du in
0:20:11–0:20:16
den Pro-Level rein und dann liefert der dir auch immer die Quellen dazu. zu.
0:20:17–0:20:21
Da ist schon so ein bisschen dieses Fact Checking gleich mit implementiert.
0:20:22–0:20:26
Meistens nutze ich da wirklich alle drei Tools, um eben auch nochmal so ein
0:20:26–0:20:29
Fact Checking dann halt auch gegeneinander laufen zu lassen.
0:20:30–0:20:33
Wobei Perplexity dann auch nichts anderes ist.
0:20:34–0:20:39
Als ein Mood von Claude oder von Chat-GBT.
0:20:39–0:20:42
Es ist ganz lustig, dass ich nämlich dann bestimmte Fragen stelle,
0:20:42–0:20:48
Perplexity, und dann kommen genau die gleichen Antworten auch bei Chat-GBT raus,
0:20:48–0:20:50
in der gleichen Formulierung. Der hat ja so eine Art Cache.
0:20:51–0:20:56
Das heißt, dann nimmt er da die gleichen Antworten, merkst du dann an der Stelle.
0:20:56–0:21:00
Du kannst natürlich dann auch den Chaos-Level oder die Seed hochstellen,
0:21:00–0:21:05
wo er dann mehr halluziniert. und dann halt auch ein bisschen eine Variation in den Antworten gibt.
0:21:06–0:21:09
Aber normalerweise willst du das nicht haben, sondern du willst halt irgendwie
0:21:09–0:21:11
bei den guten Antworten bleiben.
0:21:12–0:21:15
Ich glaube, wir können hier weitergehen.
0:21:16–0:21:24
Und ich bin so froh um diese Tools, weil die sind von der Qualität her,
0:21:24–0:21:30
also teilweise kann ich mich mit Claude so unterhalten und so ganz gezielt Fragen stellen.
0:21:30–0:21:33
Also so bereite ich mich jetzt auch gerne auf die Sendung immer vor,
0:21:33–0:21:38
dass ich dann halt wirklich so ganz gezielte Fragen stellen kann,
0:21:38–0:21:42
die mir dann beim Thema durchdenke, durch den Kopf gehe.
0:21:42–0:21:48
Und ich kann die dann halt viel spezifischer stellen als früher mit Google oder
0:21:48–0:21:51
mit Startpage nutze ich als Klon für Google.
0:21:51–0:21:59
Ich kriege viel bessere Antworten und was ich dann natürlich auch immer mache,
0:21:59–0:22:05
dann halt bei den Antworten zu gucken, dass ich dann halt nochmal auf Wikipedia und so weiter schaue,
0:22:05–0:22:11
dass das halt auch jetzt nicht irgendwie Blödsinn ist, was bei mir erzählt wird.
0:22:13–0:22:22
Aber die Qualität von den Assistenzsystemen ist so gut, dass ich mir kaum vorstellen
0:22:22–0:22:23
kann, dass es besser wird.
0:22:24–0:22:26
Also ich glaube, da haben wir schon so einen Punkt erreicht,
0:22:26–0:22:30
dass du da wirklich so einen Dialog gehen kannst, wie so ein Gegenüber,
0:22:31–0:22:33
mit dem man sich dann halt richtig unterhalten kann.
0:22:35–0:22:37
Und ich weiß nicht, wie geht es dir damit?
Micz Flor
0:22:38–0:22:43
Ja, also erst mal stimmt es, dass ich diese API-Schnittstelle,
0:22:43–0:22:44
die du da hast, auch haben wollte,
0:22:44–0:22:52
weshalb mein Rechner dann irgendwie beim Upgrade von Ubuntu 18.4 auf 22.4 eingefroren
0:22:52–0:22:55
ist und ich dann Gott sei Dank ein Backup hatte.
Florian Clauß
0:22:56–0:22:57
Ich war schuld, ja.
Micz Flor
0:22:57–0:23:01
Nein, du warst nicht schuld, aber ich konnte die Python-Version,
0:23:01–0:23:07
die ich brauchte, um die Library... Also es ging, deshalb habe ich allein sieben
0:23:07–0:23:08
Stunden gebraucht, bis ich gecheckt habe.
0:23:08–0:23:11
Ich habe dann mit ChatGPT versucht, das da einzurichten.
0:23:12–0:23:19
Und ChatGPT war ja dann quasi noch älter. Das kannte ja seine neuesten APIs gar nicht.
0:23:19–0:23:23
Und hat mir die ganze Zeit eben dann Tipps von vor ein paar Jahren gegeben.
Florian Clauß
0:23:23–0:23:25
Also du hast das alte Modell gehabt?
Micz Flor
0:23:26–0:23:32
Ja, und das war wirklich verwirrend bis hin zu dem Punkt, dass ich letztendlich
0:23:32–0:23:39
begriffen habe, dass Python, was noch, ich hätte das manuell installieren müssen oder compilen müssen.
0:23:40–0:23:43
Und da habe ich gedacht, ach komm, scheiß drauf und wollte alles neu aufsetzen
0:23:43–0:23:44
und dann ist es mir abgeschmiert.
0:23:45–0:23:48
Und dann musste ich alles neu aufsetzen. Das hat mich viel Zeit gekostet.
0:23:48–0:23:51
Das war direkt vor den Sommerferien und deshalb habe ich noch nichts,
0:23:52–0:23:57
jetzt, mein Rechner läuft gerade erst wieder, noch nichts wirklich gemacht.
0:23:57–0:24:01
Aber ich möchte auch diese Assistenz haben.
Florian Clauß
0:24:02–0:24:06
Das läuft ja einfach im Browser, da brauchst du ja nicht viel IDE.
0:24:08–0:24:14
Im Browser habe ich ja meine Fenster auf, wo dann Claude läuft,
0:24:14–0:24:18
wo dann Perplexity läuft und wo ChatGBT läuft.
0:24:18–0:24:27
Und ChatGPT hat jetzt auch in der Free-Version auch das 4.0-Modell.
Micz Flor
0:24:27–0:24:29
Genau, das geht automatisch an und dann irgendwann auf.
Florian Clauß
0:24:29–0:24:35
Irgendwann ist die Request aus, dann machst du noch einen Chat auf oder du wechselst das Modell.
0:24:36–0:24:39
Oder du wechselst quasi den Assistenten.
0:24:42–0:24:46
Ich habe mir aber auch überlegt, ob ich nicht irgendwie 20 Dollar im Monat in
0:24:46–0:24:50
die Hand nehme und mir dann einfach für Claude eine Assistenz kaufe.
0:24:50–0:24:52
So eine Lizenz meine ich.
Micz Flor
0:24:53–0:24:56
Ja, in gewisser Weise denke ich auch, dass diese, also von wegen,
0:24:56–0:25:04
dass man eh für Handy und alles mögliche ausgegeben hat, dann ist das wirklich,
0:25:04–0:25:07
denke ich, gut angelegtes Geld, weil mir geht es genau wie dir.
0:25:07–0:25:13
Ich finde diese Assistenz sehr hilfreich und das Fragen stellen,
0:25:13–0:25:17
das war ja was, das weiß ich noch vor zwei Jahren, das habe ich halt öfter schon
0:25:17–0:25:22
gehört, dass Leute gesagt haben, ich finde KI super, weil ich bin gerade im
0:25:22–0:25:28
PhD und ich traue mich, KGBT oder ich sage jetzt mal abstrakt KI,
0:25:28–0:25:34
de facto war es immer KGBT, aber KI zu fragen, was ich meinen Betreuer eben nicht zu fragen traue.
Florian Clauß
0:25:34–0:25:38
Genau, das sind echt so die Helmschwellen, die wegfallen. Das Einzige,
0:25:38–0:25:42
wo ich vielleicht noch Angst habe, dass die halt solche Fragen in meinem Profil
0:25:42–0:25:45
gespeichert werden. Aber das ist ja auch egal.
Micz Flor
0:25:45–0:25:47
Das wird ganz sicher so sein, weil...
Florian Clauß
0:25:47–0:25:49
Ja klar, der hat so ein Erinnerungswindow.
Micz Flor
0:25:50–0:25:54
Und das Ding ist halt, das war, glaube ich, bei Alexa.
0:25:54–0:25:58
Also ich will jetzt nicht das unter Vorbehalt,
0:25:58–0:26:02
aber ich habe mal einen längeren Blogpost gelesen, wo jemand mitbekommen hat,
0:26:02–0:26:05
weil bei irgendwelchen rückfragen mit alexis dann hat
0:26:05–0:26:09
er auf einmal seine fragen die er alexa gestellt
0:26:09–0:26:11
hat als mp3 ist zur prüfung noch mal
0:26:11–0:26:14
zugeschickt bekommen von oder irgendwie sowas also es
0:26:14–0:26:19
war wurde nicht gelöscht da wurde quasi backtrack record von seinen fragen aber
0:26:19–0:26:26
egal was ich sagen wollte ist dass es mir nämlich auch auffällt und das ist
0:26:26–0:26:29
dann irgendwie auch so was menschliches und da geht es mir so ein bisschen rum
0:26:29–0:26:33
eben diese mensch-maschine beziehung der wieder ein bisschen zu leuchten und nicht im Sinne von,
0:26:33–0:26:36
wie ist es, höher oder sowas.
Florian Clauß
0:26:36–0:26:39
Nicht, dass ich mich verliebe in Claude?
Micz Flor
0:26:39–0:26:40
Ja, genau. Nee, das nicht.
0:26:43–0:26:48
Dass man darin vorkommt. Das glaube ich. Weil diese Sache, da erinnere ich mich,
0:26:48–0:26:51
wo wir drüber gesprochen haben, waren über Produkte zu sprechen.
0:26:51–0:26:54
Wir haben darüber gesprochen, dann ist das Lied ja schon fertig oder so.
0:26:55–0:27:00
Oder der Text ist ja schon da. Und das ist ja dann eben genau das Gleiche wie bei Bochers.
0:27:00–0:27:02
Der Text ist ja eh schon da. Der ist ja einfach nur möglich.
0:27:02–0:27:03
Deshalb ist er schon geschrieben.
0:27:06–0:27:10
Dann ist es aber jetzt so, dass wenn man in so einen Assistenzmod geht,
0:27:10–0:27:14
da hatte mir der Schlagzeuger neulich, ich weiß gar nicht, wie es hieß,
0:27:14–0:27:16
hat mir einen Link geschickt, hier guck mal, hö, hö, hö, da kann man eben,
0:27:17–0:27:20
gibst einen Text ein und welches Genre und dann macht er dir so ein Lied.
0:27:21–0:27:23
Und die klangen auch irgendwie alle ganz gut und so.
0:27:25–0:27:30
Aber es hat mich nicht gepackt. Ich hatte da nicht mehr irgendwie so Bock drauf.
0:27:30–0:27:33
Und da habe ich so drüber nachgedacht, jetzt ist es doch da.
0:27:34–0:27:38
Jetzt kann ich doch sagen, mach mir eine ganze Platte wie so age-appropriate
0:27:38–0:27:40
wie Pixies, aber nicht wie Pixies.
0:27:41–0:27:45
Also das ist doch jetzt das Tool da, wo man das nicht mehr selber komponieren
0:27:45–0:27:47
muss und nicht mehr selber machen muss.
0:27:47–0:27:50
Aber dann habe ich ja vor allem mal gemerkt, nee, diese Knack- und Backwerbung
0:27:50–0:27:52
mit den Croissants, die ist schon richtig.
0:27:53–0:27:57
Und dann fragen sie, wer hat es gemacht? Und dann sagst du, ich habe es gemacht.
0:27:58–0:27:59
Kannst du dich an die erinnern?
0:28:00–0:28:01
Knack und Back, das waren so Croissants.
0:28:03–0:28:03
Kennst du noch?
Florian Clauß
0:28:03–0:28:05
Ja, klar, wo du so aufhauen musst.
Micz Flor
0:28:05–0:28:06
Da siehst du Kinder.
Florian Clauß
0:28:06–0:28:08
Dann kann man so rausgebollt.
Micz Flor
0:28:08–0:28:12
Du kannst raus und dann guckst du, wer es macht. Ich habe es gemacht.
0:28:12–0:28:16
Und auch, das hat sich ja gleich mal geschickt, in der Century of the Self,
0:28:16–0:28:20
diese BBC-vierteilige Doku, da gibt es auch einen Bericht über so die ersten
0:28:20–0:28:27
Consumer Surveys und Zielgruppen, also wo Psychologie eingesetzt wurde,
0:28:27–0:28:30
wo die einen so ein Backprodukt, das war so ein Fertekuchen,
0:28:30–0:28:34
den konntest du einfach nur Wasser rein oder Milch rein, ich weiß gar nicht mehr,
0:28:34–0:28:36
und dann quirlen.
0:28:36–0:28:42
Und dann war der leckere Kuchen fertig, aber das Ding hat keine Frau gekauft
0:28:42–0:28:46
und dann haben die das halt dann wirklich mal so psychologisch analysiert und
0:28:46–0:28:50
geguckt und haben halt gemerkt, dass die Frauen sich schämen würden, ihr Mann,
0:28:51–0:28:54
der die jetzt war noch in den 50ern, ihr Mann, der ihnen die ganze Zeit das
0:28:54–0:28:59
Geld und Arbeit und sowas, dass sie dann so Fertigkuchen machen und den nicht
0:28:59–0:29:00
wirklich machen, sondern einfach nur backen,
0:29:02–0:29:09
Und dann haben die völlig überflüssigerweise das Rezept verändert. Es war nicht notwendig.
0:29:09–0:29:15
Der einzige Unterschied war, add one egg, also ein Ei dazu machen.
0:29:15–0:29:19
Das heißt, du hast die Backmischung, ein Ei, Milch, Quirlen und dann ist das
0:29:19–0:29:22
Ding weg wie geschnitten Brot.
0:29:22–0:29:24
Das war dann der Schlager, der hat komplett in jedem Haushalt.
Florian Clauß
0:29:24–0:29:29
Das war dann genau diese Portion mit do-it-yourself, die das halt dann...
Micz Flor
0:29:29–0:29:33
Genau. Wer hat es gemacht? Ich habe es gemacht. Ich habe gebacken.
0:29:33–0:29:35
Es ist kein Fertigkuchen.
0:29:35–0:29:38
Dieses eine Ei aufschlagen war genau der Unterschied.
0:29:38–0:29:41
Und irgendwie habe ich da wieder dran denken müssen, an diese Anekdote,
0:29:42–0:29:43
weil ich denke, das passiert jetzt gerade.
0:29:44–0:29:50
Wenn man es benutzt, dann hilft es einem, die eigenen Interessen,
0:29:50–0:29:56
Fährten, Gedanken irgendwie zu strukturieren, zu konkretisieren.
0:30:02–0:30:08
Und dass das so leicht annehmbar ist und gleichzeitig auch eine Grenze darstellt,
0:30:08–0:30:11
das finde ich, war für mich eine interessante Erfahrung.
0:30:11–0:30:14
Mir geht es genau wie dir und wahrscheinlich geht es vielen so,
0:30:14–0:30:20
die sagen, ich möchte, dass es ich bin und gleichzeitig genieße ich es,
0:30:20–0:30:24
dass ich die Arbeit, die ich machen könnte, nicht mehr machen muss.
0:30:24–0:30:28
Und dann ist es doch so, dass es zuarbeitet und nicht mehr das Produkt herstellt.
0:30:28–0:30:34
Also nicht meine Doktorarbeit, sondern ich habe einfach nur bessere Werkzeuge,
0:30:34–0:30:38
mit denen ich zusammenstelle und zusammenklebe.
Florian Clauß
0:30:38–0:30:44
Ja, ich glaube, das, was mir dann halt auch noch mal so von diesem System,
0:30:45–0:30:49
von diesem Assistenzsystem, dann,
0:30:52–0:30:58
wo ich merke, dass ich besser bin, geworden bin, ist einfach in der Präzision der Fragen.
0:30:59–0:31:04
Also da gebe ich mir auch Mühe, wenn ich mir ganz präzise eine Frage stelle.
Micz Flor
0:31:04–0:31:08
Wollen sich jetzt auch die Leute in deinem Team, dass du das gut geübt hast.
Florian Clauß
0:31:11–0:31:15
Mann, hast du gut gefragt heute. Jetzt sind die Anforderungen klar.
0:31:17–0:31:20
Aber das ist, glaube ich, das, was diese Systeme auch schulen.
0:31:23–0:31:27
Und klar, dann ist es halt so diese, ich meine, es sind zwei verschiedene Prozesse.
0:31:27–0:31:30
Das eine ist halt, wo du hinten raus ein Bild bekommst.
0:31:30–0:31:34
Und das ist, glaube ich, nochmal so viel mehr. Es ist noch viel mehr Kuchen,
0:31:34–0:31:40
als jetzt so Antworten dann halt, die man dann weiterverarbeitet.
0:31:41–0:31:47
Also da sind ja noch mehr Stufen von Backprozessen drin, bevor du dann halt
0:31:47–0:31:51
irgendwie hinten den Kuchen rausbekommst. Denn bei dem Bild ist es ja so,
0:31:51–0:31:55
du promptest was und dann kommt halt quasi das fertige Bild und du kannst dann
0:31:55–0:31:56
nochmal irgendwie so gewichten.
0:31:56–0:31:59
Ja, du musst dann nochmal anders prompten, blablabla. Aber bis du dann halt
0:31:59–0:32:06
irgendwie so Text dann so schaffst, ja, da sind noch mehr, will ich mal behaupten,
0:32:06–0:32:06
mehr Zwischenschritte drin.
Micz Flor
0:32:08–0:32:12
Das auf alle Fälle. Und es ist aber auch wieder so, dass mit den Bildern,
0:32:12–0:32:17
ich habe zum Beispiel von Rotkäppchen das Bild, habe ich ja mit Dalli gemacht.
Florian Clauß
0:32:18–0:32:19
Ja, im frühen Modell.
Micz Flor
0:32:20–0:32:22
Genau, die Pixeln.
Florian Clauß
0:32:22–0:32:24
Das ist ganz schlecht.
Micz Flor
0:32:24–0:32:31
Rotkäppchen eating Spaghetti. Und der heiße Stuhl von Gestalttherapie mit den
0:32:31–0:32:35
Schlammen, das habe ich auch mit Dalli gemacht. Und das war so ein Moment,
0:32:35–0:32:37
wo das auch irgendwie Spaß gemacht hat.
0:32:37–0:32:41
Und du hast ja auch für Solaris die Bilder mit Dalit reingemacht.
0:32:44–0:32:52
Und ich finde, dass das auch schön ist. Aber es bleibt trotzdem irgendwie so contained.
0:32:52–0:32:55
Wir sind jetzt natürlich nicht auf der journalistischen Ebene und gucken,
0:32:55–0:33:00
was ist der Shooter? War das jetzt ein echtes Foto von dem oder nicht? Oder war da hinten?
0:33:01–0:33:07
Darum geht es mir jetzt gerade gar nicht. Das ist nochmal eine ganz andere Frage,
0:33:07–0:33:12
aber insgesamt ist gerade so, wo sich das für mich gerade verändert hat,
0:33:12–0:33:17
ist, dass ich gemerkt habe, als man darüber spekuliert hat, oder wir zumindest,
0:33:17–0:33:21
oder ich vielleicht auch nur, habe ich immer sehr stark an die Produkte gedacht
0:33:21–0:33:22
und sehr wenig an die Prozesse.
0:33:22–0:33:28
Und die Prozesse, die sich dadurch jetzt ermöglichen, die finde ich eigentlich alle produktiv.
0:33:28–0:33:33
Die finde ich alle nicht bedrohlich. Und das ist doch ein bisschen mehr so.
0:33:34–0:33:39
Damals habe ich vielleicht sogar schon zitiert, hat ja irgendjemand gepostet, ich möchte nicht,
0:33:40–0:33:45
dass ich die Wäsche waschen muss und das Geschirr abspülen und die KI macht
0:33:45–0:33:50
für mich Gedichte und Geschichten, sondern ich möchte, dass die KI das Geschirr
0:33:50–0:33:51
abspült, weil ich möchte Gedichte schreiben.
0:33:52–0:33:58
Da ist ja was dran. Und diese Idee eben auch wieder, wer hat es gemacht? Ich habe es gemacht.
0:33:59–0:34:03
Und was will ich mit einem Gedicht, was mir komplett rauskommt?
0:34:03–0:34:04
Und was tue ich dann damit?
0:34:05–0:34:07
Und ich glaube aber, dass das.
0:34:08–0:34:13
Bei mir verändert hat zumindest zu merken dass das ist
0:34:13–0:34:17
die wege sind wo man hilfsmittel hat so
0:34:17–0:34:20
wie auch gps für straße finden
0:34:20–0:34:24
wie also dass das ist halt einfach völlig okay man kann trotzdem wandern gehen
0:34:24–0:34:29
muss nicht den kompass auspacken und die karte hinlegen und ein strich ziehen
0:34:29–0:34:34
dass man weiß wo man hin muss aber das macht das wandern jetzt nicht kaputt
0:34:34–0:34:38
ja jemand anders würde Ich würde vielleicht sagen, mit dem GPS-System,
0:34:38–0:34:40
für mich ist das kein Wandern mehr.
0:34:42–0:34:46
Und das ist jetzt anders. Da habe ich wirklich das Gefühl, dass es angekommen ist im Alltag.
0:34:49–0:34:51
Hat noch keinen Atomkrieg ausgelöst.
0:34:55–0:34:58
Darum geht es aber jetzt auch nicht. Aber im Alltag geht es mir so,
0:34:58–0:35:06
dass ich merke, dass ich nicht das Gefühl habe, ich werde abgelöst.
Florian Clauß
0:35:06–0:35:08
Ja, ja, ja.
Micz Flor
0:35:09–0:35:13
Und die Bilder zum Beispiel mit dem brennenden Stuhl, die haben mich damals
0:35:13–0:35:17
künstlich gesagt, die haben mich irgendwie total beeindruckt,
0:35:17–0:35:21
cool, krass, geschämt so ein bisschen.
0:35:21–0:35:24
Muss man das heimlich machen oder nicht und,
0:35:26–0:35:29
das ist jetzt aber auch schon wieder vorbei, gut jetzt haben wir immer wieder
0:35:29–0:35:33
mal Ärger über Bilder, die wir für die Episoden brauchen aber es ist dann doch
0:35:33–0:35:38
schöner darauf zu warten, wenn Chris von der Katze, die er da drauf gemalt hat auf die eine,
0:35:39–0:35:43
auf das Fußpedal drauf zu warten damit das dann irgendwie ein Episodenbild wird.
Florian Clauß
0:35:45–0:35:47
Das war aber nicht so schön nee.
Micz Flor
0:35:48–0:35:51
Aber für mich schon aber das ist halt irgendwie, ich weiß auch nicht,
0:35:52–0:36:03
Und ich denke halt manchmal auch, vielleicht wird sogar, gerade wenn es um Kreativarbeit geht,
0:36:04–0:36:09
wird so beim Musikmachen oder sowas, ist es vielleicht dann wieder wichtiger,
0:36:09–0:36:11
auch wirklich Musik zu machen.
0:36:11–0:36:18
Vielleicht werden sogar sowas wie DJs und Laptop-Künstler dann noch uninteressanter,
0:36:18–0:36:20
als sie für mich sowieso schon sind.
0:36:21–0:36:25
Und diese Idee, dass du halt natürlich ein Gitarrensolo auf Knopf generieren
0:36:25–0:36:28
kannst und man kann das auch in das Lied rein, das heißt aber nicht,
0:36:28–0:36:29
dass du es auch spielen kannst.
0:36:30–0:36:37
Also diese Sache, dass man dann eben doch hinten raus möchte,
0:36:37–0:36:41
sagen können möchte, ich habe es gemacht.
0:36:42–0:36:46
Ich weiß nicht, ich kann das nicht gut ausdrücken. Aber das ist wirklich dieses Performante,
0:36:46–0:36:50
dieses Körperliche, dieses Anschauen, anschauen, dies Dabeisein,
0:36:50–0:36:55
vielleicht sogar Zeugenschaft auch und das ist dann vielleicht auch wirklich
0:36:55–0:36:56
ein Journalismus-Thema,
0:36:56–0:37:02
also inwieweit diese KI dann auf einmal so eine Kette von Zeugen wichtiger macht,
0:37:03–0:37:06
weil auf einmal alles gefälscht sein kann.
0:37:10–0:37:17
Und ja, und da bin ich irgendwie gerade mit.
0:37:18–0:37:21
Es geht jetzt, also ich merke die Folge, geht jetzt irgendwie,
0:37:21–0:37:29
das hat mich irgendwie mehr ergriffen, zu merken, dass ich einfach damit gerne und gut umgehen kann.
0:37:30–0:37:34
Als mir das auf einmal klar wurde und ich dann mich erinnert habe,
0:37:34–0:37:41
wie problematisch ich das vielleicht noch vor eineinhalb Jahren, zwei Jahren sah.
0:37:42–0:37:46
Da war die Folge irgendwie ein bisschen blumiger, als sie jetzt vielleicht gerade ist.
Florian Clauß
0:37:46–0:37:50
Ja, aber ich meine, wir haben ja auch damals schon gesagt, das ist ja nicht so eine richtige Karte.
0:37:51–0:37:54
Das ist ja einfach nur so statistische Sachen, die da hin und her laufen.
Micz Flor
0:37:54–0:37:56
Ja, eben klar. So Maschinenlöhne.
Florian Clauß
0:37:56–0:38:00
Ja, es ist halt irgendwie so. Ich glaube, es wächst sich dann nochmal viel mehr
0:38:00–0:38:03
in deinem normalen Workflow zusammen.
0:38:03–0:38:09
Also spätestens wenn dann halt wirklich mal eine ordentliche serie auf dem iphone
0:38:09–0:38:13
ist die dann halt genau diese funktionalitäten mit text to speech,
0:38:13–0:38:17
speech to text dann auch mal so beherrscht dass man es halt wirklich machen
0:38:17–0:38:23
kann, dass du halt unsauber nuscheln kannst in das iphone und das wird ausgeführt.
0:38:24–0:38:29
Aber das sind auch sachen die kann man sich jetzt alles vorstellen weil das
0:38:29–0:38:32
Das, was jetzt auch solche normalen Assistenzsysteme können,
0:38:32–0:38:35
konnte man sich jetzt irgendwie vor drei Jahren auch nicht vorstellen.
0:38:36–0:38:38
Und jetzt ist es eine Normalität geworden.
0:38:38–0:38:43
Und das wird sich ziemlich schnell in die Gewohnheitspattern,
0:38:43–0:38:47
also in die eigenen Gewohnheitspattern so einweben können.
0:38:48–0:38:52
Und es wird auch viel so, wie du sagst, dann halt irgendwie so selbstverständlich,
0:38:52–0:38:56
ohne dass es dann eine Zäsur gab. ab dann, als ich das erst mal das und das
0:38:56–0:38:59
gemacht habe, dann habe ich das Licht gesehen.
0:38:59–0:39:02
So was glaube ich gar nicht, sondern es wird dann halt so, ah,
0:39:02–0:39:04
okay, das geht cool. Okay, mache ich weiter.
0:39:05–0:39:09
Ja, und das, was du aber sprichst, ist ja nochmal so diese, ich habe es gemacht,
0:39:09–0:39:11
dann geht es ja auch sehr um kreatives Schaffen.
0:39:12–0:39:16
Im künstlerischen Bereich, wo du halt auch eine gewisse Ausdrucksform von,
0:39:17–0:39:24
wie man sich dann selber dann halt auch da in dem Produkt wiederfindet, was man macht.
0:39:24–0:39:29
Ja, und das, wenn du Künstler bist und du malst halt gerne,
0:39:29–0:39:34
dann willst du ja nicht unbedingt, dass jemand anders dir die Bilder malt und
0:39:34–0:39:38
du sagst, okay, ich mache jetzt mal ein Autogramm da drauf, sondern du willst
0:39:38–0:39:43
ja dann schon allein dieses schaffen.
0:39:46–0:39:50
Ist ja auch für dich eine Art von Training. Du bist ja da auch eine KI,
0:39:50–0:39:54
die dann halt irgendwie ein Modell durchtrainiert und irgendwas dann halt hinten raus schafft.
0:39:55–0:40:01
Und vielleicht ein anderes Training. Aber ich glaube, das ist halt die Frage, wie macht man was?
0:40:02–0:40:06
Wenn du jetzt für einen Geburtstag einen Jingle produzieren willst,
0:40:06–0:40:10
dann ist es ja nicht nur unbedingt eine künstlerische Expression,
0:40:10–0:40:13
die du vorher brauchst, sondern das kannst du halt auch, glaube ich,
0:40:13–0:40:16
eher über solche Systeme machen, dann bist du ganz froh, dass du,
0:40:16–0:40:21
ganz gute Ideen von der KI bekommen hast, die du verwerten kannst.
0:40:22–0:40:27
Das ist ja nicht dein künstlerischer Ausdruck, dem du danach gehst,
0:40:27–0:40:29
sondern du willst schnell ein Ergebnis haben und du kriegst es dann.
0:40:30–0:40:36
Und wenn du jetzt wirklich so ein Herzenslied von dir umsetzt und du willst
0:40:36–0:40:41
dann halt aber auch irgendwie ausprobieren, wie das neue Effektgerät damit geht,
0:40:41–0:40:45
dass du selber gelötet hast, dann ist es nicht so, was du irgendjemand anders
0:40:45–0:40:48
überlässt, sondern das liegt dann in deinem Schaffensraum.
0:40:48–0:40:53
Das heißt, ich glaube, es ist einfach so, für was macht man was.
0:40:53–0:40:58
Und früher habe ich gemerkt, dass ich auch viele Hemmschwellen hatte.
0:40:59–0:41:02
Bevor ich dann halt irgendwie so produktiv werden konnte.
0:41:02–0:41:07
Und diese Schwellen kann man jetzt relativ einfach eben durch,
0:41:08–0:41:13
solche Systeme dann einreißen. Du kannst dann erstmal sagen,
0:41:13–0:41:14
jetzt mach doch mal irgendwas.
0:41:14–0:41:19
Du kannst irgendwas hinwerfen und du hast nicht mehr diese Schreibhemmung mit dem weißen Blatt.
0:41:20–0:41:26
Du füllst relativ schnell ein Blatt. Und das kann aber auch eine Art von Befreiung
0:41:26–0:41:31
sein, weil du halt schneller erstmal was hast und nicht in diese Stockstarre
0:41:31–0:41:33
kommst, wo du nichts kriegst.
0:41:33–0:41:36
Und das gleiche kann ich mir auch vorstellen, wenn du halt irgendwie so eine
0:41:36–0:41:42
eine musikalische Skizze brauchst oder sowas, dann kannst du halt auch mal fragen,
0:41:42–0:41:44
mach mal und dann kannst du wieder auf was aufbauen.
0:41:44–0:41:48
Ich glaube, das ist halt so, du hast mehr fertige Bausteine,
0:41:48–0:41:52
die du in deinem kreativen Schaffensprozess dann benutzen kannst.
0:41:52–0:41:59
Und das ist glaube ich das, was dich da so ein bisschen auch befreit von früheren Sachen.
Micz Flor
0:42:00–0:42:04
Ja, und ich hänge mich da nochmal rein mit diesem, wie kommt das neue in die
0:42:04–0:42:06
Welt Frage, also kreative Tätigkeit.
0:42:06–0:42:11
Und da finde ich es ja auch interessant, wenn man, das war ja auch bei dieser
0:42:11–0:42:16
Uralt-Folge, wo wir das erste Mal über KI-generierte Musik von den Beatles gesprochen
0:42:16–0:42:19
haben, diese Idee der Fehler.
0:42:19–0:42:23
Es sind immer Kompromisse, Fehler, das war jetzt das falsche Wort,
0:42:23–0:42:26
aber ich möchte einen Hall auf meinem Klang haben.
0:42:26–0:42:29
Ich habe aber jetzt hier keine Riesenkirche verfügbar, deshalb hänge ich zwei
0:42:29–0:42:30
Eisenplatten nebeneinander.
0:42:31–0:42:35
Die eine hat einen Membran, also ein Mikro nehme ich ab und das auf dem anderen
0:42:35–0:42:40
Dann wird das über einen Lautsprechermembran bewegt und dann entsteht einfach mal ein Hall.
0:42:41–0:42:46
Dieser Hall klingt nicht so wie die Sixtinische Kapelle, aber fast forward 30
0:42:46–0:42:51
Jahre später gibt es genau diesen Hall als digitalen Plug-in für deinen Laptop.
0:42:52–0:42:55
Für Musikproduktion. Und das finde ich gerade,
0:42:56–0:42:59
also wenn man da schaut, was ist da passiert, man möchte irgendwas machen,
0:43:00–0:43:03
man kriegt es nicht so gut hin, aber genau das wird dann so ein Signature-Sound
0:43:03–0:43:07
für ein bestimmtes Label oder so und wird dann heute nochmal digital nachgemessen
0:43:07–0:43:09
und dann auch digital implementiert.
0:43:09–0:43:12
Und ähnlich habe ich das Gefühl, dass die KI jetzt gerade auch,
0:43:13–0:43:17
gerade weil sie kompromisshaft ist, diese Eating-Spaghetti-Sache,
0:43:17–0:43:18
für die, die es nicht kennen.
0:43:20–0:43:24
Will Smith Eating Spaghetti war halt so was das kann die ki noch nicht da schlabbern
0:43:24–0:43:29
die spaghetti sind nach rechts und links sind irgendwie so nicht richtig auf
0:43:29–0:43:31
der gabel nicht richtig im mund das alles ein bisschen,
0:43:32–0:43:37
unheimlich was seltsam vertraute sondern aber auch komplett fremd und in diesen
0:43:37–0:43:41
momenten finde ich entsteht aber oft so eine ästhetik aus diesen fehlern wo
0:43:41–0:43:49
ich mir sicher bin dass das auch einzug erhält in andere Moving Image Sprache.
0:43:49–0:43:55
Also jetzt gerade das Fehlerhafte, dann solche Effekte sind,
0:43:55–0:43:58
die dann auch irgendwie wieder reinkommen.
0:43:58–0:44:01
Während wenn das alles gelöst ist, dann wird es vielleicht wieder langweiliger.
Florian Clauß
0:44:02–0:44:10
Ja, weiß ich nicht, weil das sind ja quasi so die Fehler, die entstehen oder
0:44:10–0:44:15
die Artefakte, die entstehen, wenn sich so ein neues Medium initiiert.
0:44:15–0:44:19
Das war ja früher, du erinnerst dich, als wir dann halt Real Audio eingesetzt haben.
Micz Flor
0:44:20–0:44:21
Als Software.
Florian Clauß
0:44:22–0:44:29
Dann war halt irgendwie so die Kompression war halt schon ziemlich krass,
0:44:29–0:44:34
ja und hatte schon so ein eigenes Klangbild, Real Audio.
0:44:34–0:44:38
Und dann war man doch ganz froh,
0:44:38–0:44:44
als halt neue Formen von Streaming-Technologien kamen und man hat dem jetzt nicht so nachgeweitet,
0:44:44–0:44:54
Es gibt immer so Schwellentechnologie oder auch eben dann halt Schwellenbilder oder sowas.
0:44:54–0:45:03
Ich meine, gut, das ist aber auch ikonisch geworden, das Einwählen von den Modems.
0:45:04–0:45:08
Das hörst du ja noch ab und zu mal irgendwo als damals.
0:45:08–0:45:14
Damals, ja, aber das ist auch so ein Schwellensound, was du hattest und was
0:45:14–0:45:19
dann halt wieder so ein Zeitphänomen war, aber dann war es halt auch weg, ja.
0:45:20–0:45:25
Also man möchte ja halt auch irgendwie diese Fehler möchte man dann halt auch
0:45:25–0:45:28
nicht oder diese Umständlichkeiten möchte man ja auch nicht behalten.
0:45:29–0:45:33
Das geht ja dann halt weg irgendwann, ja. Genauso wie Will Smith dann halt ordentlich
0:45:33–0:45:38
Spaghetti essen kann mit so einem KI-generierten Film. Das ist ja auch kein Problem jetzt.
0:45:39–0:45:45
Also das heißt, das will man nicht. Und ich glaube auch nicht,
0:45:45–0:45:49
dass es sich dann irgendwie so als Fehler hält oder irgendwo,
0:45:49–0:45:54
sondern es ist vielleicht so, ha ha, guck mal, da hat die KI noch sechs Finger gemacht.
0:45:54–0:45:58
Wie blöd. Ja, und dann war das halt so ein kurzer Schenkelklopfer.
0:45:59–0:46:03
Aber dann war es halt nur für die, die diese Phase mitgemacht haben, dann eine Information.
0:46:03–0:46:06
Und für alle späteren, die können sich das halt irgendwie gut.
0:46:07–0:46:10
Ihr hattet Telefone mit Wehrscheibe? Okay.
0:46:10–0:46:14
Und jetzt sieht man halt immer auf Facebook-Gruppen dann, meine Kinder wissen
0:46:14–0:46:17
nicht, wie rum der Telefonhörer zu halten ist.
Micz Flor
0:46:17–0:46:21
Ja, aber andererseits siehst du dann immer noch, wo war das denn, wo war ich?
0:46:21–0:46:25
Ach so, in Frankreich, wo da Telefonleitungen liegen. Da liegen so Gullisteine
0:46:25–0:46:27
auf der Straße und drunter sind Telefonleitungen.
0:46:27–0:46:30
Und da ist halt eben genau nochmal so eine Wählscheibe drauf.
Florian Clauß
0:46:30–0:46:32
Ja, es ist halt wie die Kette beim Speichern.
Micz Flor
0:46:32–0:46:33
Ja, genau.
Florian Clauß
0:46:33–0:46:36
Die kriegst du auch nicht weg. Ja, also klar, du hast dann auch so,
0:46:36–0:46:40
es ist halt wie beim Stammhirn, der, wie heißt es noch?
0:46:42–0:46:45
Hypothalamus? Und dann hast du halt irgendwie die große Rinde,
0:46:45–0:46:47
die halt ein bisschen besser auflösen kann.
0:46:47–0:46:51
Aber du kriegst das ganze Instinktive nicht weg. Das bleibt halt drin.
Micz Flor
0:46:52–0:46:55
Ja aber ich denke vielleicht ist es so
0:46:55–0:46:58
dass diese produktion also
0:46:58–0:47:01
das neue in die welt ist das eine wo
0:47:01–0:47:04
ich ein bisschen daran festhalten ich habe jetzt noch gerade
0:47:04–0:47:07
so ein ramsey dieser koch aus
0:47:07–0:47:10
uk wo sie sohn der halt immer so ein bisschen chaotisch in
0:47:10–0:47:13
seinen koch video scheinbar ist ich habe das irgendwie nicht mehr
0:47:13–0:47:16
gesehen aber das in ki konstruiert in
0:47:16–0:47:19
der küche sieht halt dann irgendwie schon relativ schnell relativ gut
0:47:19–0:47:24
aus aber dann zwischen diesen deckel öffnen und dann spagetti rein dann kommt
0:47:24–0:47:28
er kommt davon von unten wieder raus und dann sind ganz kurz zwei rams ist drin
0:47:28–0:47:34
verschwindet das hat echt so was wie so eine so eine harry potter zauber sequenz
0:47:34–0:47:38
ist eine bestimmte form bewegung und unheimliche momente wo ich schon die,
0:47:39–0:47:44
Ja, keine Ahnung, man wird da vielleicht nochmal so draufgucken und wird es
0:47:44–0:47:45
erst in der Zukunft wissen.
0:47:45–0:47:49
Ich glaube irgendwie, das ist in der Musik ja so gewesen, Gitarren sollten immer
0:47:49–0:47:53
lauter werden, deshalb gibt es Verzerrungen, weil halt Verzerrungen klangen
0:47:53–0:47:59
zwar auch cool, aber war auch einfach der Anschlag, wenn ich das alles ganz laut gemacht habe.
0:47:59–0:48:02
Und dann wurden irgendwann Verzerrer gebaut, weil man diesen Sound haben wollte.
0:48:03–0:48:05
Irgendwas wird da hängen bleiben, aber das werden wir dann später wissen.
Florian Clauß
0:48:05–0:48:08
Ja, nee, du hast aber, wenn du die Analogie übertragen willst,
0:48:08–0:48:12
hast du natürlich dann halt auch, also wenn du jetzt bei irgendwelchen Mid-Journey
0:48:12–0:48:18
oder irgendwo bei diesen ganzen Bildgenerierungsportalen hingehst,
0:48:19–0:48:22
hast du halt ewig viele verschiedene Modelle, ja.
0:48:22–0:48:27
Also du hast die Modelle, die jetzt auch so trainiert werden,
0:48:27–0:48:31
die gehen ja schon auf so ein ziemlich hochentwickeltes Modell drauf,
0:48:31–0:48:36
so Perplexity, oder nee, das ist was anderes, das ist Stable Diffusion zum Beispiel.
0:48:36–0:48:40
Beispiel, dann kannst du halt quasi so die Soras heißen die,
0:48:40–0:48:47
glaube ich, dann kannst du quasi so dein eigenes Modell prägen mit eigenen Sachen, ja.
0:48:48–0:48:52
Und so entwickelst du das dann halt weiter. Das heißt, du hast auch eine Diversität
0:48:52–0:48:53
von verschiedenen Sachen.
0:48:53–0:48:58
Die einen sind besonders gut in irgendwie keine Ahnung, Realistik,
0:48:58–0:49:04
HD oder die anderen machen halt irgendwelche Manga-Modelle oder Manga-Zeichnungen gut.
0:49:05–0:49:08
Und da Da hast du ja schon die Ausprägung in den verschiedenen Richtungen.
0:49:08–0:49:11
Das ist ja so ein bisschen wie mit dem Sound dann halt auch.
Micz Flor
0:49:11–0:49:14
Ja, aber dann kommt ja nicht das Neue in die Welt auf einer formalen Ebene,
0:49:14–0:49:20
sondern eben nur auf Inhalte. So neue Manga-Geschichten, die alle 1A aussehen wie Manga.
Florian Clauß
0:49:20–0:49:24
Keine Ahnung, wie die unterschiedlichen Gitarrenmodelle.
0:49:24–0:49:27
Und dann kannst du halt auch selber deine Modelle trainieren.
0:49:27–0:49:32
Auf dieser Ebene kannst du auch schon wieder, hab ich gemacht, machen.
0:49:32–0:49:35
Und denken, dass du deine eigenen Modelle dann trainierst.
Micz Flor
0:49:36–0:49:41
Das andere finde ich noch interessant, was du gesagt hast, eben mit dem selber
0:49:41–0:49:45
machen, habe ich gemacht, dieser Jingle, den man zum Geburtstag macht,
0:49:45–0:49:48
der ist natürlich dann auch in gewisser Weise ein bisschen wertlos.
0:49:48–0:49:52
Also wenn man früher eine Fotokollage gemacht hätte, dann ist das auch toller
0:49:52–0:49:55
und aufwendiger und vielleicht auch mehr geschätzt, dass wenn man es dann irgendwie in Photoshop...
Florian Clauß
0:49:55–0:50:00
Nee, würde ich nicht so sehen. Das ist doch genau so eine Kollage oder irgendwie
0:50:00–0:50:01
ein Gedicht, was man dann schreibt.
0:50:02–0:50:04
Findest du das denn wertloser?
Micz Flor
0:50:04–0:50:09
Ja, ich hatte auf einmal so dieses Gefühl im Kopf, dass man vielleicht in allem,
0:50:09–0:50:14
das wäre vielleicht so eine positive Vision in Anführungszeichen,
0:50:15–0:50:22
dass durch diese Assistenz gepaart mit dem Wunsch, wer hat es gemacht, ich habe es gemacht,
0:50:23–0:50:28
insgesamt vielleicht Dinge wieder prozesshafter werden und weniger produktmäßig.
0:50:28–0:50:32
Also es ist dann quasi nicht das Lied, sondern...
0:50:37–0:50:41
Nur dann wertvoll, wenn es wirklich auch einen Entstehungsprozess hat,
0:50:41–0:50:42
in dem man das Gefühl hat, man steht,
0:50:43–0:50:48
mit sich selbst in Kontakt oder mit anderen in Kontakt und nicht einfach ein
0:50:48–0:50:55
Prompt machen Make me a game of Space Invaders und dann ist das Spiel da, sondern diese.
0:50:57–0:51:00
Das Dialogische, egal ob es eine Maschine ist oder ein Proberaum mit anderen,
0:51:00–0:51:04
eine Band oder sogar ein Dreieck mit Maschine und anderen.
0:51:05–0:51:08
Es darf entstehen, aber es muss prozess haben damit
0:51:08–0:51:11
man sich auch daran gewöhnen kann und das
0:51:11–0:51:16
ist vielleicht sogar dann auch die frage wenn wir
0:51:16–0:51:26
wenn wir in diese library von boches reinschauen wo alle sachen ja schon drin
0:51:26–0:51:31
sind da ist ja wahrscheinlich sogar viel mehr drin dass das was die ki so hinkriegt
0:51:31–0:51:33
weil sicherlich auch irgendwelche Sachen drin sind,
0:51:33–0:51:37
sagen wir mal es seien Noten, die gemacht werden, von irgendeiner Musik,
0:51:37–0:51:44
die jetzt noch gar nicht irgendwie gemocht werden würde und erst noch ein bisschen braucht.
0:51:44–0:51:50
Also diese Idee von einer schrittweisen Anpassung von sowas wie eben dem kulturellen
0:51:50–0:51:53
Hintergrund, auf dem ja auch die Memes entstehen und so,
0:51:53–0:51:58
dass das einfach auch benötigt wird und man nicht einfach sagen kann,
0:51:58–0:52:03
okay, wir öffnen jetzt die Library of Babel von Borges und dann ist die Zukunft
0:52:03–0:52:06
ein für alle Mal komplett schon da.
0:52:06–0:52:10
Und genauso kann die KI auch irgendwie natürlich nur nach hinten arbeiten.
0:52:10–0:52:18
Wenn sie nach vorne arbeitet, ist sie darauf angewiesen, dass es Teil von einer
0:52:18–0:52:22
Welle ist und nicht einfach ein Punkt ganz weit draußen.
0:52:23–0:52:25
Es muss eingebettet sein, es muss eingebunden sein.
0:52:26–0:52:34
Also irgendwie ist meine Hoffnung, dass es was Prozesshaftes ist, wenn man, sagen wir.
0:52:40–0:52:41
Er hat auf uns gewartet.
0:52:47–0:52:51
Machen wir jetzt einfach hier Schluss. Also ich äußere nochmal meinen Wunsch.
0:52:53–0:53:00
Als Assistenz funktioniert es jetzt schon sehr gut. Macht Spaß.
0:53:01–0:53:07
Macht wirklich einfach auch eine gute Zusammenarbeit.
0:53:08–0:53:15
Und vor dem Hintergrund, dass so etwas wie Kultur, solange es von Menschen getragen
0:53:15–0:53:17
wird, dann doch auch prozesshaft bleibt,
0:53:18–0:53:25
braucht es Zeit für Innovationen, um auch anzukommen, um sich irgendwie ausbreiten zu können,
0:53:25–0:53:34
überhaupt die Zeit, damit Memes entstehen dürfen und memes auch dann in gewisser
0:53:34–0:53:41
Weise ja dann der Bakterienspiegel oder das Biom der Kultur sind.
0:53:43–0:53:50
Und so gesehen ist dann natürlich von der letzten Episode ist der Ted Chiang
0:53:50–0:53:56
Artikel nicht so, also ist witzig, aber ist nicht so erwartbar.
0:53:57–0:54:02
Es sei denn, es geht einzig und allein um, keine Ahnung, Materialforschung oder sowas.
0:54:03–0:54:11
Das wäre dann wieder so ein Ufo-Thema. Also die KI macht dann das Material für
0:54:11–0:54:14
uns, was sonst vom Himmel fällt, so Terminator-Metal.
0:54:18–0:54:22
Aber das wäre jetzt so für mich das Fazit aus dieser Diskussion und das ist
0:54:22–0:54:28
jetzt wirklich vielleicht am ehesten auch an den Wandergesprächen, wenn wir die so haben.
0:54:29–0:54:32
Also was ich jetzt gerade mitnehme, ist dann wirklich so dieses Prozesshafte,
0:54:32–0:54:37
was sowohl auf einer individuellen Ich-hab-es-gemacht-Ebene als auch auf einer
0:54:37–0:54:42
kulturellen ach das hört sich ja gut an oder dieser Text liest es gut oder nicht.
0:54:42–0:54:46
Manchmal ist es auch da einfach, die Dinge nicht einfach in die Welt geschüttet
0:54:46–0:54:52
werden können, sondern dass sie auch eingebettet sein müssen in Entwicklung.
Florian Clauß
0:54:54–0:55:01
Ich finde, verstehe ich. Es geht wieder so um diesen Schaffensprozess,
0:55:01–0:55:02
der irgendwie spürbar sein muss.
0:55:03–0:55:07
Beim Schütten muss ich Blasen bekommen, sonst ist das Loch nicht echt.
0:55:08–0:55:13
Also bis ich mir dann wirklich den Bagger leisten kann, muss ich da schon mal
0:55:13–0:55:15
ein gewisses Level erwirtschaften.
0:55:15–0:55:21
Aber ich denke, genau diese Prozesse spiegeln sich dann in anderen Ebenen ab,
0:55:21–0:55:24
dass du das anders transferierst.
0:55:25–0:55:29
Und dann wird auch wieder, das geht nicht weg, es werden nur Schritte schneller.
0:55:29–0:55:31
Das meine ich, es verlagert sich dann.
Micz Flor
0:55:31–0:55:32
Ja, auf jeden Fall.
Florian Clauß
0:55:32–0:55:38
Und das kommt Es kommt halt auf irgendwie selbstverständlicher und einfacher,
0:55:39–0:55:44
als man irgendwie denkt und das wird dann einfach da sein.
0:55:46–0:55:50
Das ist so meine Einschätzung. Aber ich glaube, als Zwischenstand ist es ziemlich
0:55:50–0:55:52
ernüchternd, dass wir da jetzt auch,
0:55:56–0:56:03
Aber gleichzeitig auch beruhigend, dass es eben nicht in irgendein Level fällt,
0:56:03–0:56:07
wo alle dann irgendwie am nächsten Morgen...
Micz Flor
0:56:07–0:56:11
Es sind noch nicht alle arbeitslos, die nicht mehr mit Materie zu tun haben.
0:56:12–0:56:16
Becker und sowas muss ja auch noch... Gut, wir machen hier Schluss.
Florian Clauß
0:56:16–0:56:19
Wir haben auch ein bisschen geschummelt auf den letzten Kilometern.
0:56:20–0:56:25
Wir sind in die U-Bahn eingestiegen und waren im tiefsten Grunewald.
0:56:26–0:56:33
Und sind dann Oskar und Helene heim oder wie heißt das?
Micz Flor
0:56:34–0:56:36
Ähm, weiß ich gar nicht.
Florian Clauß
0:56:36–0:56:38
Oskar und Helene.
Micz Flor
0:56:38–0:56:39
Ne, ich glaub Oskar-Helene.
Florian Clauß
0:56:39–0:56:44
Oskar und Helene. Auf jeden Fall. Sind wir da eingestiegen und sind jetzt in der U3.
0:56:44–0:56:48
Und ich hab auch meinen Track aber dann schon ausgemacht.
0:56:49–0:56:54
Das ganze, genau, ihr könnt gucken und ihr könnt sehen, wo wir langgelaufen
0:56:54–0:56:59
sind auf eigentlich-podcast.de Da bekommt ihr auch mehr Informationen.
0:56:59–0:57:04
Vielleicht hat Mitch die ein oder andere Shownote zusammengetragen und gefunden.
Micz Flor
0:57:05–0:57:09
Gefunden. In der Babel. Library of Babel.
Florian Clauß
0:57:11–0:57:17
Na gut. Das war jetzt eigentlich Podcast Episode 61.
0:57:18–0:57:20
Episode 61, oder?
Micz Flor
0:57:20–0:57:21
Okay, 61.
Florian Clauß
0:57:22–0:57:24
Und dann Tschüss.
Micz Flor
0:57:26–0:57:26
Tschüss.
Florian Clauß
0:57:31–0:57:34
Also, bis dann.

Mehr

Satorius: „Sie sind keine Frau, Harvey ist tot. Sie sind eine mechanische Wiederholung, eine Kopie, eine Matrize!” Harvey: „Ja, schon möglich. Aber ich werde zu einen Menschen. Ich kann schon auskommen ohne Kris. Ich liebe ihn, ich bin ein Mensch.”

Wir setzen unsere Reihe Solaris direkt fort und wir setzen unsere vorherige Episode zu Solaris als bekannt voraus. In dieser Folge begeben wir uns in den Kunstfilm der Sowjetunion: Andrei Tarkowski verfilmte Solaris 1972 mit geringem Budget. Dennoch wurde der dritte Film des Regisseurs von der Kritik als Meisterwerk gefeiert. Tarkowski hat eine eigene Filmsprache entwickelt, die er auch in diesem Film weiter ausbaut. Wir sind uns nicht ganz einig, ob wir das Genre hypnotischer oder meditativer Film nennen möchten oder einfach bei Slowcinema bleiben. Die Wirkung von Tarkowskis Film ist körperlich spürbar, auch wenn der Film, wie es Flo zur Vorbereitung gemacht hat, in 1,5-facher Geschwindigkeit läuft. Der Akt des Zuschauens wird zu einem kartharsischen Akt, der Film nimmt uns mit auf eine innere und äußere Reise des Protagonisten Kris Kelvin. Tarkowski lässt die ersten 40 Minuten des Films auf der Erde spielen, auf dem Stück Heimat von Kris, wo wir seinen Vater, seine Tante und seine Kinder kennenlernen. Und auch ein Stück Solaristik, die wissenschaftliche Lehre, die sich um den rätselhaften Ozean auf Solaris gebildet hat, in Gestalt eines engen Freundes des Vaters, Berton, der die ersten unwirklichen Erfahrungen auf dem Planeten Solaris gemacht hat. Der Ozean erscheint in Tarkowskis Solaris als wolkenverhangenes Meer, das sich gelegentlich zu Strudeln aufbäumt. Der Film hält sich streckenweise recht eng an die Romanvorlage. Die Kernaussage geht aber in eine andere Richtung, die Lem missfiel. Im Mittelpunkt der Geschichte steht Kris' Beziehung zu seiner ehemaligen Geliebten Harvey. Harvey taucht als Gast von Kris auf der Raumstation Solaris auf, und es entwickelt sich eine neue Liebe, die nicht ganz der Vorlage von Stanislaw Lem entspricht. Harvey ist sich ihrer unnatürlichen Herkunft bewusst und entwickelt eine eigene Identität. Tarkowski wirft in seiner Verfilmung die Frage auf, inwieweit das Menschliche in einer unmenschlichen Umwelt Bestand haben kann. Dieses Spannungsverhältnis überträgt er auf sein Figurenensemble und schafft so eine Erlösungsgeschichte mit anthropozentrischer Perspektive in einem außerirdischen Raum. Stansilav Lem kritisierte die Reduktion des Stoffes auf ein "Familienmelodram". Tarkowski konzentrierte sich eher auf Schuld, Verantwortung und Metaphysik statt auf Lems erkenntnistheoretische Fragen. Die Liebe wird als identitätsstiftende Kraft inszeniert. Dies kulminiert in einer Szene in der Bibliothek, als die einsetzende Schwerelosigkeit das ineinander verschlungene Paar Harvey und Kris ikonenhaft in die Höhe schweben lässt, umrahmt von kulturellen Interior und Relikten wie Bildern und Büchern. Auch wir fühlen uns auf unserer Wanderung wie in einem Zwischenraum, denn die Hauptstraße, die uns nach Marzahn führt, ist für den Verkehr komplett gesperrt. Auch auf der Straße treffen wir mitten in der Woche keine Menschen. Mit Blick auf die Skyline von Marzahn und die menschenleeren Straßen fühlen wir uns wie in einem dystopischen Filmszenario, das perfekt zur Stimmung von Solaris passt.

Shownotes

Mitwirkende

avatar
Florian Clauß
Erzähler
avatar
Micz Flor

Transcript

Micz Flor
0:00:00–0:00:03
Oder nicht mehr? Schön, oder?
Florian Clauß
0:00:05–0:00:08
Ist das, was du dir sagen willst? Ganz schön.
Micz Flor
0:00:10–0:00:11
Ja, ja.
0:00:14–0:00:20
Hallo! Und? Wir machen einfach weiter, aber jetzt sind zwei Wochen vergangen,
0:00:20–0:00:21
bis das hier hochgeladen wurde.
0:00:21–0:00:26
Und zwar ist es der zweite Teil zu unserer kleinen Trilogie,
0:00:26–0:00:34
das 3-Body-Problem Solaris, also Buch, Solaris als Film von Tarkovsky und Solaris
0:00:34–0:00:36
als Film von Soderbergh.
0:00:37–0:00:43
Wir sind jetzt sozusagen mittendrin und diese Folge hat Flo vorbereitet und
0:00:43–0:00:46
wird jetzt gleich tief einsteigen.
0:00:46–0:00:50
Für die, die denken, die kommen jetzt aber erst langsam im Schwung, das ist wirklich so.
0:00:50–0:00:53
Wir haben jetzt gerade schon die, für die, die es noch nicht gehört haben,
0:00:53–0:00:58
die letzte Folge war wirklich lang, Da haben wir über das Buch von Lemm gesprochen, Solaris.
0:00:59–0:01:02
Und jetzt befinden wir uns quasi ein bisschen mehr als zehn Jahre später,
0:01:02–0:01:05
wurde das dann von Tarkovsky nochmal verfilmt.
Florian Clauß
0:01:07–0:01:12
Genau, auch Hallo von mir. Das Ganze könnt ihr auch nachlesen,
0:01:12–0:01:14
eigentlich-podcast.de.
0:01:14–0:01:19
Da haben wir noch ein paar Informationen zusammengetragen. Und zu unserer letzten
0:01:19–0:01:23
Folge, Mitch hat das schon erwähnt, die war sehr ausführlich.
0:01:23–0:01:26
Und wir setzen auch so ein paar Sachen voraus, würde ich sagen.
0:01:26–0:01:30
Also wir fangen jetzt nicht nochmal alles an, an der Solaris-Geschichte,
0:01:30–0:01:33
die zu erzählen, sondern das, was wir jetzt auch machen werden im Folgen,
0:01:33–0:01:37
Es sind die Unterschiede zu der Romanvorlage, die nochmal herauszuarbeiten.
0:01:37–0:01:40
Aber die Geschichte setzen wir jetzt als bekannt voraus.
Micz Flor
0:01:41–0:01:43
Also das heißt, du willst jetzt nicht den Film nochmal erzählen?
Florian Clauß
0:01:44–0:01:49
Den Film will ich ansatzweise, also stellenweise erzählen, da wo sich das unterscheidet.
0:01:50–0:01:54
Aber ich würde jetzt nicht nochmal so eine ausführliche, du hast ja zwei Inhaltsangaben
0:01:54–0:01:56
gemacht, eine kleine und eine große.
0:01:58–0:02:04
Und da gehen wir jetzt nicht noch mal in diese epische Breite rein,
0:02:04–0:02:09
sondern wir halten uns so ein bisschen konzentrierter auf die filmische Umsetzung.
Micz Flor
0:02:09–0:02:10
Ja.
Florian Clauß
0:02:11–0:02:15
Solaris! Das ist von Tarkovsky eine,
0:02:15–0:02:22
ja, ich glaube, es gibt wenig, wenig Regisseure im Bereich des Kunstfilmes,
0:02:22–0:02:29
die so eine Gravitation haben wie Tarkovsky, um bei den Bildern von Solaris zu bleiben.
Micz Flor
0:02:30–0:02:31
Darf ich kurz was fragen?
Florian Clauß
0:02:32–0:02:32
Ja, gerne.
Micz Flor
0:02:32–0:02:35
Weil jetzt, wenn du anfängst, habe ich auch das Gefühl, man könnte vielleicht
0:02:35–0:02:39
sagen, wer will oder noch nicht weiß, worum es geht bei Solaris,
0:02:39–0:02:43
der soll sich die letzte Folge anhören, dass wir jetzt einfach den Spaß entwickeln,
0:02:43–0:02:44
uns über den Film zu unterhalten,
0:02:45–0:02:48
und jetzt nicht erst mal eine halbe Stunde den Film erklären müssen.
Florian Clauß
0:02:48–0:02:50
Ne, würde ich auch so sehen. Also ich will jetzt auch nicht.
Micz Flor
0:02:50–0:02:54
Gut, dann sage ich es einfach mal. Also wer Solaris noch gar nicht kennt,
0:02:54–0:03:00
aber vielleicht wegen Tarkowski hier gelandet ist, der kann sich im Detail nochmal
0:03:00–0:03:02
die Geschichte in der letzten Folge anhören.
0:03:02–0:03:06
Da sprechen wir über das Buch und jetzt sprechen wir über Tarkovskys Verhältnis.
Florian Clauß
0:03:08–0:03:11
Okay, danke. Aber das habe ich doch gerade gesagt.
Micz Flor
0:03:11–0:03:12
Ja, aber ich wollte mal klarstellen.
Florian Clauß
0:03:13–0:03:16
Das ist für dich okay. Also für mich ist es auch okay.
0:03:17–0:03:20
Deswegen können wir jetzt weitermachen. Also, genau.
0:03:20–0:03:23
Ich will aber nochmal kurz ein bisschen was zu Tarkovsky sagen,
0:03:24–0:03:28
weil das ja schon eine interessante Figur ist.
0:03:29–0:03:30
Tarkovsky ist nicht sehr alt geworden.
0:03:32–0:03:41
Geboren, er ist aus russischer Abstammung. Er ist geboren 1932 im Nordosten
0:03:41–0:03:46
von Moskau, so ungefähr 300-400 Kilometer in so einer Provinz.
0:03:48–0:03:53
Gestorben ist er schon 1986 in Paris.
0:03:53–0:04:00
Er ist dann nach Paris umgesiedelt, erst später in der späteren Phase seines Lebens.
0:04:00–0:04:04
1982 ist er dann tatsächlich aus der Sowjetunion ausgewandert.
0:04:04–0:04:06
Da kommen wir auch nochmal darauf zu sprechen.
0:04:07–0:04:09
Also er ist ausgewandert, weil er natürlich gar nicht so die Bedingungen,
0:04:09–0:04:13
er hatte immer mit der Zensur zu kämpfen, er hatte immer Probleme dann auch
0:04:13–0:04:18
mit den Behörden, auch mit der Anerkennung von seinen Werken,
0:04:18–0:04:20
von der Finanzierung auch.
0:04:20–0:04:23
Also die hat nicht großartiges Budget bekommen und so weiter.
0:04:23–0:04:30
Tarkowski hat angefangen erstmal zu studieren.
0:04:30–0:04:37
Ja genau, Tarkowski war schon in jungen Jahren künstlerisch aktiv.
0:04:37–0:04:42
Also er hat ein sehr ausgeprägtes Kunstbewusstsein, schon als Kind entwickelt.
0:04:43–0:04:49
Er kommt aus einer guten, gutbürgerlichen Familie. Familie und seine Mutter
0:04:49–0:04:52
hat vor allen Dingen seine Kunsttalente gefördert.
0:04:52–0:04:56
Er hat dann Arabas, er hat glaube ich so orientalische Sprachen studiert,
0:04:56–0:04:59
das aber abgebrochen und ist an die Filmhochschule gegangen,
0:05:00–0:05:06
und hat in der Filmhochschule studiert in Moskau und hat das auch fertig studiert.
0:05:06–0:05:08
Sein Abschluss war dann 1960.
0:05:09–0:05:14
Er hat 1962 1962, Ivans Kindheit, gedreht.
0:05:15–0:05:22
Ein Film über die Geschichte eines Spilions im Zweiten Weltkrieg.
0:05:23–0:05:27
Dieser Film hat ihn dann schon internationaler Anerkennung gebracht,
0:05:27–0:05:28
vor allen Dingen im Westen.
0:05:28–0:05:35
Der Film hat den Goldenen Löwen auf den internationalen Festspielen von Venedig gewonnen.
0:05:35–0:05:40
Vier Jahre später hat er Andrei Rubeljov, da geht es quasi um ein historisches
0:05:40–0:05:44
Werk, über den Ikonenmaler Rubeljov gedreht.
0:05:45–0:05:50
Und dann, das ist der dritte Film von ihm, 1972 Solaris.
0:05:51–0:05:56
Und ich weiß nicht, wie viele Filme du von Tarkovsky gesehen hast und wie du
0:05:56–0:05:58
die so wahrgenommen hast.
0:05:58–0:06:04
Ich muss gestehen, dass als ich jetzt diese Folge vorbereitet habe und mir Solaris
0:06:04–0:06:07
nochmal angeguckt habe, ich habe den auch vor Jahren gesehen,
0:06:07–0:06:09
aber als ich mir den nochmal angeguckt habe,
0:06:09–0:06:14
habe ich den nicht in Originalgeschwindigkeit geguckt, sondern ich habe den
0:06:14–0:06:18
einfach in 1,5-facher Geschwindigkeit gesehen. Hat aber auch noch funktioniert.
Micz Flor
0:06:19–0:06:25
Also ich habe den das erste Mal gesehen vor 25 Jahren etwa.
0:06:25–0:06:29
Und zwar hatte unsere damalige Filmredakteurin 30.
0:06:29–0:06:35
Geburtstag und hat sich das organisiert oder von manchen im Freundeskreis geschenkt bekommen.
0:06:36–0:06:40
Aber wir waren auf der Torstraße, da war so ein Jugendzentrum irgendwie,
0:06:40–0:06:42
so an der Ecke Richtung Moranienburger Tor.
0:06:42–0:06:46
Und da war ein Kino drin und das hatten die gemietet. und dann ging abends um
0:06:46–0:06:50
10 ging dann die Vorführung nur für sie und die Geburtstagsgemeinschaft los.
0:06:51–0:06:56
Tarkowski Solaris und das fand ich schon, das war total großartig.
Florian Clauß
0:06:56–0:06:58
Ja, das ist sehr passend, das Kino, das kenne ich. Das ist, glaube ich,
0:06:58–0:07:00
auch so ein Kinderkino. Ich weiß gar nicht.
Micz Flor
0:07:01–0:07:03
Ob es das noch gibt. Das war so ein Kinder-Jugendzentrum.
Florian Clauß
0:07:03–0:07:07
Ja, ja, doch, doch. Da habe ich auch Flussfahrt mit Huhn geguckt mal.
0:07:09–0:07:11
Den hessischen Film. Kennst du den?
Micz Flor
0:07:11–0:07:11
Nee.
Florian Clauß
0:07:11–0:07:19
Da musst du gucken. Flussfahrt mit Huhn, das ist so eine Kanufahrt auf der Fulda,
0:07:19–0:07:25
wo dann so Kinder dann quasi abhauen und Abenteuer erleben, super, super Kinderfilm.
0:07:25–0:07:32
Ich habe den auch im Rahmen meines Studiums geguckt, Tarkowski-Seminar und was
0:07:32–0:07:34
ich da so faszinierend finde, auch bei Stalker,
0:07:36–0:07:40
Ich finde, Tarkovsky hat eine Filmsprache und eine Filmpoesie geschaffen,
0:07:40–0:07:47
die so eine unglaublich hypnotische Wirkung hat beim Schauen.
0:07:47–0:07:50
Und ich habe dann nochmal geguckt und das wäre auch irgendwie so,
0:07:50–0:07:55
das würde ich gerne, ich würde gerne für diese Art von Filmen ein Genre schaffen.
0:07:55–0:08:01
Ja, also diese Hypnose, zumal Hypnose kriegt ja auch gerade in Form,
0:08:01–0:08:06
Es wird ja immer, ich sag mal so, geläufiger in so alltäglichen,
0:08:06–0:08:09
also in der Psychotherapie, das kannst du ja verstehen.
Micz Flor
0:08:09–0:08:13
Aber kann man es vielleicht nicht lieber Meditation nennen, meditative Filme?
Florian Clauß
0:08:13–0:08:14
Ja, kann man auch.
Micz Flor
0:08:14–0:08:17
Das ist ja dieses Slow Movies, hast du ja schon mal erwähnt,
0:08:17–0:08:17
das ist aber was anderes.
Florian Clauß
0:08:18–0:08:24
Nein, genau, Slow Cinema ist was anderes, Slow Cinema hat aber auch Ausprägung davon.
0:08:24–0:08:27
Warum sträufst du dich gegen hypnotische Filme?
Micz Flor
0:08:27–0:08:33
Weil der Hypnosebegriff, glaube ich, irgendwie so einen in zwei Dinge reißt.
0:08:34–0:08:37
Das eine ist quasi Jahrmarkt, also beißen Sie mal die Zitronen und denken,
0:08:37–0:08:39
das ist ein Apfel, Sie sind jetzt ein Huhn.
0:08:39–0:08:45
Und das andere ist eben schnelle Psychotherapie, ich will mit Rauchen aufhören,
0:08:45–0:08:47
ich mache drei Hypnose-Termine.
0:08:47–0:08:53
Und dann ist das irgendwie so damit, also ich finde, das tut so,
0:08:53–0:08:57
als ob dem Film eine Intention innewohnt,
0:08:59–0:09:06
der man sich dann hingeben könnte und die einen in eine bestimmte Richtung rückt.
0:09:06–0:09:10
Und ich habe eher das Gefühl, dass es gerade bei dem Film Solaris,
0:09:10–0:09:12
weil ich möchte auch darüber reden, weil ich das so wichtig finde,
0:09:12–0:09:16
gerade der Anfang, das ist eher so wie bei, wie hieß denn der nochmal,
0:09:16–0:09:19
der Dogma-Film, der schwarz-weiß vom Europa.
Florian Clauß
0:09:20–0:09:21
Das von Trier.
Micz Flor
0:09:21–0:09:26
Auf jeden Fall geht es da los, der Sprecher am Anfang sagt, you are entering
0:09:26–0:09:28
Europa by the count of ten.
0:09:28–0:09:32
Also das ist ja auch so eine Sache, wo man in den Film hineingeführt wird und
0:09:32–0:09:36
das Gefühl hat, lassen Sie jetzt alles hinter sich, schließen Sie Ihre Augen,
0:09:36–0:09:38
es geht los. Also man verlässt.
Florian Clauß
0:09:38–0:09:42
Genau, und auf 10 bist du tot, ist ja das Ende von Europa.
0:09:43–0:09:47
Genau, ja, okay, ich verstehe deinen Punkt, ja, gehe ich mit.
0:09:47–0:09:52
Aber ich glaube, es ist einfach auch so, das ist das Gefühl von Meditation.
0:09:52–0:09:53
Ich glaube, das überlappt sich auch sehr.
0:09:54–0:10:00
Hypnose ist im Prinzip, ja, man kriegt nochmal von außen eine Handlung,
0:10:00–0:10:03
eventuell nicht bewusst, dann mit.
0:10:03–0:10:08
Vielleicht kann man das eher passiver als Meditation,
0:10:08–0:10:14
indem du in so einem Zustand kommst, wo du dann nicht mehr im Vorbewusstsein
0:10:14–0:10:19
den Film erlebst, sondern auch Entspannung erfährst.
0:10:19–0:10:22
Das ging mir bei Stalker so. Ich fand den so unglaublich entspannend.
0:10:23–0:10:28
Und in diesem Zustand, also man hat einen anderen Geisteszustand,
0:10:28–0:10:34
würde ich behaupten, In diesem Geisteszustand bekommt man auf einmal Bilder
0:10:34–0:10:38
und Zusammenhänge dann präsentiert,
0:10:39–0:10:42
die vielleicht andere Einsichten nochmal mit sich bringen.
0:10:43–0:10:50
Aber dafür würde ich gerne, ich finde auch ganz krass, und wo ich,
0:10:50–0:10:54
hatte ich auch schon mal in einer anderen eigentlich Folge erwähnt.
0:10:56–0:11:02
Bei den Filmen von Ulrike Ottinger. Und wo wir alle im Kino eingeschlafen sind.
0:11:03–0:11:07
Und das war auch wirklich so eine physische Reaktion. Wo man überhaupt nicht
0:11:07–0:11:08
wusste, was macht dieser Film mit mir?
0:11:09–0:11:12
Warum passiert das auf einmal? Und es ging allen so.
0:11:12–0:11:16
Also es war jetzt nicht so ein singuläres Erlebnis, sondern es war auf einmal
0:11:16–0:11:18
dieser Film. Und es war halt wirklich so ein Schnapp.
Micz Flor
0:11:19–0:11:22
Es war der beste Schlaf, den du seit langem hattest wahrscheinlich.
Florian Clauß
0:11:22–0:11:27
Ja, es war irgendwie so ein bisschen magisch einfach.
0:11:27–0:11:30
Deswegen habe ich jetzt von hypnotischen Filmen, und ich würde gerne so diese
0:11:30–0:11:34
Kategorie, die hat man auch wahrscheinlich schon, aber Slowest Cinema und so
0:11:34–0:11:37
weiter, aber dass man das irgendwie so kategorisieren kann.
0:11:37–0:11:44
Und es ist wirklich so, dass Tarkowski diese Art von Filmen geschaffen hat,
0:11:44–0:11:51
Man taucht in diese Filme ein und kommt dann irgendwie als Leute raus.
0:11:52–0:11:58
Also es passiert tatsächlich körperlich mit einem was, ne? Also so ging es mir zumindest.
Micz Flor
0:11:59–0:12:03
Also ich kann ja mal ganz kurz den Anfang von Solaris beschreiben,
0:12:03–0:12:07
dass man das vielleicht so ein bisschen bildlich im Podcast dann trotzdem sich...
0:12:07–0:12:12
Also ich versuche jetzt mit Sprache Bilder zu generieren. Und zwar beginnt der
0:12:12–0:12:18
Film in der Natur und man weiß natürlich vorher schon, es geht irgendwie um Weltraum.
0:12:18–0:12:21
Das heißt, man weiß nicht genau, auf welchem Planeten man ist,
0:12:21–0:12:24
weil die Kamera am Anfang auf so einen Fluss hält.
0:12:24–0:12:28
Und in diesem Fluss sind so Algen, die sind so gebogen unter der Wasseroberfläche
0:12:28–0:12:32
und die dann in diesem, also fischähnlich sich zu bewegen scheinen.
0:12:32–0:12:34
Aber man sieht eindeutig, es sind Pflanzen.
0:12:36–0:12:42
Die Kamera hält so lange drauf, dass man sich dem hingibt und gleichzeitig natürlich
0:12:42–0:12:46
auch Erwartungen im Kopf durchläuft.
0:12:46–0:12:49
Dass man denkt, wo bin ich denn gerade? Was passiert denn jetzt gleich?
0:12:49–0:12:51
Da kommt doch jetzt bestimmt was hin. Da kommt ja dann doch nichts.
0:12:52–0:12:55
Ist das jetzt schon der Planet Solaris? Was ist eigentlich Solaris?
0:12:55–0:12:59
Aber das ist doch ein Fluss. Ist das ein Low-Budget-Film? Also man hat so ganz
0:12:59–0:13:03
viele Gedanken und vor allem bleibt das Bild unverändert, leicht schwingend.
0:13:03–0:13:06
Und irgendwann kommt man an einen Punkt, wo man dann wirklich,
0:13:06–0:13:08
wie du sagst, so loslässt. Sagt, okay, ich bin bereit.
0:13:09–0:13:12
Dann kommt ein Schnitt und dann sehen wir quasi, wir werden Schritt für Schritt
0:13:12–0:13:18
eingeführt in die Szene und wir sehen einfach nur so ein bisschen wie wir bei
0:13:18–0:13:21
dieser Wanderung vor zwei Wochen und heute wieder.
0:13:21–0:13:26
Man sieht so Natur, aber auch besondere Natur.
0:13:26–0:13:30
Dann sind wir auf einmal in so einer Fläche voller Büsche und dann sehen wir
0:13:30–0:13:33
auch zum ersten Mal den Chris Kelvin,
0:13:33–0:13:38
also die Hauptperson gewisserweise, den Main Protagonist von Solaris,
0:13:38–0:13:42
der dann da so steht und so rumguckt und der sich dann da durchbewegt.
0:13:42–0:13:46
Aber der nicht auf einer Straße oder auf einem Pfad ist, sondern der geht auch durch die Natur.
0:13:46–0:13:51
Sind wir da irgendwo gelandet? Also man weiß wirklich gerade am Anfang nicht, wo bin ich gerade?
0:13:51–0:13:57
Man ist orientierungslos, man hat die Bilder, versucht sich mit den Bildern zu verbinden,
0:13:58–0:14:01
aber sie geben einem nicht wirklich antworten dann
0:14:01–0:14:04
schnapp kommt ein pferd da sieht
0:14:04–0:14:08
man so ein pferd das guckt man dahin dann guckt man dahin weiß nicht also es
0:14:08–0:14:12
bleibt er stehen aber irgendwie ist auch ein bisschen angestrengt aus und dann
0:14:12–0:14:17
denkt man wir sind auf der erde sehen wir in dem pferd und dann geht es wieder
0:14:17–0:14:22
zurück auf den protagonisten dann sehen wir ein see dann wird alles irgendwie vertraute auf einmal.
0:14:24–0:14:29
Und dann zeigt die Kamera so ein See und da sind so gelbe Streifen nach unten.
0:14:29–0:14:32
Und wir lernen dann auf einmal beim Gucken, entsteht das Bild in uns.
0:14:33–0:14:35
Das ist das Spiegelbild im See von einem Haus.
0:14:36–0:14:38
Und dann fährt die Kamera hoch und dann sind wir in dem Haus.
0:14:39–0:14:42
Und da vergeht noch viel mehr Zeit, als ich das jetzt schon langsam erzählt
0:14:42–0:14:44
habe. Es ist wirklich ein ganz langer Stretch am Anfang.
0:14:45–0:14:51
Und das finde ich total spannend, da einzusteigen, weil es so traumhaft ist.
0:14:51–0:14:56
Und auch, weil das Haus zuerst über sein Spiegelbild erlebt wird.
0:14:56–0:15:00
Wir kommen quasi aus einem traumhaften Raum in dieses Haus hinein,
0:15:00–0:15:05
was auch eine wichtige Rolle spielt bis zum Schluss des Films oder besonders nochmal zum Schluss.
0:15:05–0:15:09
Und das war für mich schon unglaublich mächtig.
0:15:09–0:15:15
Also diese Bildsprache einfach mit so absoluten Lo-Fi-Mitteln,
0:15:15–0:15:20
so einen Sog herzustellen, wo man sich darauf einlassen muss.
0:15:20–0:15:23
Am Anfang möchte man so ein bisschen ausbrechen, möchte wissen,
0:15:23–0:15:26
nein, ich will wissen, was du hier zeigst.
0:15:26–0:15:31
Und das ist dann, um Chris wieder mit der Lacan-Flagge zu winken.
0:15:31–0:15:38
Also wir sehen die Bilder, wir sind also im Imaginären und wir versuchen,
0:15:38–0:15:41
diese Zerrissenheit der Bilder irgendwie zusammenzusetzen.
0:15:41–0:15:44
Weil wenn wir nur über die bildebene kommen sind
0:15:44–0:15:48
wir wollen wir den körper sozusagen zusammensetzen
0:15:48–0:15:52
dass er in sich geschlossen ist und uns irgendwie sicherheit gibt dass es eine
0:15:52–0:15:56
innen und außen grenze gibt aber das kriegen die bilder alleine nicht hin erst
0:15:56–0:16:01
wenn das haus kommt sind die bilder vollkommen dann haben wir okay haus wir
0:16:01–0:16:07
sehen vorher man fährt haus okay irgendwie entsteht dann so was wo man sich festhalten kann.
0:16:07–0:16:11
Aber wir sind in diesem Moment noch ohne die symbolische Ebene,
0:16:11–0:16:13
keine Sprache, keine Wörter.
0:16:13–0:16:18
Und das finde ich ist echt, das macht was mit einem, wenn man sich nur an Bildern orientieren muss.
Florian Clauß
0:16:20–0:16:26
Es ist wirklich faszinierend, mit welchen einfachen Mitteln Tarkovsky das gelingt,
0:16:26–0:16:32
diesen hypnotischen oder meditativen Sog in den Bildern zu schaffen.
0:16:32–0:16:37
Das hat er ja auch in Stalker so grandios inszeniert.
0:16:38–0:16:44
Diese eine Szene, wo die Charaktere dann auf dem Weg zum Raum der Wünsche halb im Wasser liegen.
0:16:44–0:16:50
Und es ist ein Innenraum, der ist überflutet. und man sieht dann so Relikte
0:16:50–0:16:56
der Zivilisation, eine Spritze, eine Pistole, eine Ikone, wie die dann auch
0:16:56–0:16:59
im Wasser liegen zwischen den Menschen dort,
0:17:00–0:17:04
die so halb im Wasser dann und die Kamera ganz langsam fährt,
0:17:04–0:17:10
also von oben das Ganze einfängt und man die ganze Zeit sich fragt, wie kommt das da hin?
0:17:10–0:17:17
Man kriegt so ein einfacher Gegenstand, der so auch dekontextualisiert auftaucht,
0:17:18–0:17:19
Auf einmal so eine Bedeutung.
0:17:19–0:17:24
Man möchte die Bedeutung in irgendeinen Sinnzusammenhang spannen.
0:17:24–0:17:26
Aber es gibt nichts, wo man es aufhängen kann.
0:17:27–0:17:30
Und das finde ich halt so. Das ist dieses Pferd wieder. Das ist so ein weißes
0:17:30–0:17:34
Pferd. Es steht für den Tod. Wer stirbt?
Micz Flor
0:17:35–0:17:37
Ein braunes Pferd. Ist es weiß?
Florian Clauß
0:17:37–0:17:37
Weiß.
Micz Flor
0:17:38–0:17:41
Mann, was du wieder weißt. Ich weiß nicht, dass es weiß ist.
Florian Clauß
0:17:41–0:17:46
Ich weiß. Ich glaube nicht, dass es ein weißes Pferd ist. Ich glaube, es wird Fuchs genannt.
Micz Flor
0:17:46–0:17:47
Es heißt Lars von Bier.
Florian Clauß
0:17:49–0:17:57
Ich las fast von hier. Ja, so viel zu der Ausdrucksweise und zu den ersten, zu dem Auftakt.
0:17:57–0:18:01
Wir wissen, wir sind auf der Erde und dann sind wir schon bei dem ersten großen
0:18:01–0:18:05
Unterschied zwischen Roman und Verfilmung von Tarkovsky.
0:18:05–0:18:09
Das ist Tarkovsky, 40 Minuten des Filmes.
0:18:09–0:18:15
Insgesamt hat der Film 162 Minuten, glaube ich, oder irgendwas,
0:18:15–0:18:17
auf jeden Fall über 150 Minuten.
0:18:18–0:18:22
Davon ist ein großer Teil, 40 Minuten des Anfangs, ist eben auf der Erde.
0:18:23–0:18:28
Und es wird auch eine Geschichte quasi vorweggenommen, nämlich in der Solaristik,
0:18:28–0:18:32
haben wir in der letzten Folge kennengelernt, nämlich die Geschichte von den Bertong.
0:18:33–0:18:36
Der Bertong ist nämlich ein Freund des Vaters von Chris Calvin.
0:18:36–0:18:41
Der kommt als alter Mann und erzählt eben genau diese Geschichte,
0:18:42–0:18:48
wie er dann das Kind gesehen hat auf der Oberfläche von dem Ozean auf Solaris,
0:18:48–0:18:50
wie er dann mit dem Raumschiff drüber gefahren ist.
0:18:50–0:18:56
Und er zeigt auch diese unter Verschluss gehaltenen Aufnahmen von dem Ausschuss,
0:18:56–0:19:04
der damals über seine Sinneswahrnehmung dann quasi urteilen musste, über seine Verfassung.
0:19:04–0:19:09
Und er kommt dann nochmal und sagt auch da nochmal explizit, er hat das gesehen, ja.
0:19:09–0:19:13
Er hat diese, also er wurde da auch eben...
0:19:14–0:19:20
Abgezogen und er wurde ja verurteilt. Aber es ist ja so ein wichtiges Kapitel in der Solaristik.
Micz Flor
0:19:20–0:19:25
Er verurteilt, glaube ich, nicht. Er wurde einfach nur als wahnsinnig abgestimmt.
0:19:25–0:19:26
Aber das finde ich ganz wichtig.
0:19:26–0:19:30
Das ist jetzt andersrum. Für mich nochmal ganz wichtig zu betonen.
0:19:30–0:19:34
Erstens, dass wir anfangen im Elternhaus von Chris Calvin auf der Erde.
0:19:34–0:19:36
Das ist quasi da, wo wir hingeführt werden durch diesen Gang.
0:19:36–0:19:39
Das heißt, wir lernen Chris Familie kennen.
0:19:39–0:19:41
Papa und Mama und Haus.
Florian Clauß
0:19:42–0:19:44
Das ist nicht die Mutter. Es ist nicht die Mutter.
Micz Flor
0:19:44–0:19:45
Die Tante.
Florian Clauß
0:19:45–0:19:46
Es ist die Tante.
Micz Flor
0:19:46–0:19:49
Und dann gibt es noch diese kleinen Kinder, zwei Kinder gibt es.
Florian Clauß
0:19:49–0:19:53
Ich weiß gar nicht, es war in einer Fassung und da hat er sich mit Lem angelegt.
0:19:54–0:19:58
Er hat tatsächlich nochmal die Frau von Chris Calvin inszeniert.
0:19:58–0:20:01
Also er hat dann auch in der Zwischenzeit geheiratet nach der Geschichte mit Harvey.
0:20:02–0:20:06
Und die Kinder sind glaube ich dann auch seine Kinder, die aus dieser Ehe entstanden
0:20:06–0:20:11
sind. Aber Lem hat ihm so dagegen gewehrt, dass diese noch eine zusätzliche
0:20:11–0:20:16
Frauenfigur, dass die dann rausgestrichen wurde.
Micz Flor
0:20:16–0:20:19
Muss man dazu sagen, Lem fand den Film insgesamt als gar nicht gelungen.
0:20:19–0:20:25
Er fand irgendwie auch, dass auf einer gewissen narrativen Ebene auch Russland
0:20:25–0:20:27
da irgendwie eingeführt worden wäre.
0:20:27–0:20:31
Ich weiß, das habe ich nicht gesehen, also ich verstehe nicht genau das Argument.
0:20:31–0:20:36
Aber er war insgesamt nicht mit der Verfilmung einverstanden.
Florian Clauß
0:20:36–0:20:40
Und das werden wir vielleicht dann in deiner nächsten Folge nochmal erfahren.
Micz Flor
0:20:40–0:20:42
Das wird nicht besser.
Florian Clauß
0:20:42–0:20:49
Dass eben diese Zuspitzung der ganzen Thematik von Solaris auf diese Beziehung
0:20:49–0:20:52
zwischen Harvey und Chris hinausläuft.
0:20:52–0:20:58
In dem Film von Tarkovsky gibt es noch ein paar andere Dimensionen, die da mitschwingen.
0:20:58–0:21:04
Aber soweit will ich vorausgreifen, dass in der Soderbergh-Verfilmung das als
0:21:04–0:21:07
so ein zentrales Motiv gesetzt wird, dass da kaum noch eine andere Geschichte
0:21:07–0:21:10
mit erzählt wird, außer diese Beziehung zwischen den beiden.
0:21:10–0:21:14
Und worauf es eben dann Lem immer ankommt, das hatten wir das letzte Mal so
0:21:14–0:21:22
ausgebreitet, eben auf diese menschliche Ohnmacht gegenüber einem Phänomen,
0:21:23–0:21:24
was der Mensch nicht verstehen kann.
0:21:24–0:21:30
Das ist eben dieser Ozean, das ist eben diese ganze Beziehung zwischen dem Ozean
0:21:30–0:21:31
und dem Menschen, in der Forschung und so weiter.
0:21:31–0:21:38
Das wird bei Tarkowski, kommt es eben durch diese Figur des Bertons mit zum
0:21:38–0:21:41
Tragen, aber tatsächlich wird
0:21:41–0:21:46
dieser ganze Solaristik-Diskurs gar nicht irgendwie weiter ausgeführt.
Micz Flor
0:21:46–0:21:51
Aber das muss man auch dazu sagen, dass bei der Verfilmung des Buches das natürlich
0:21:51–0:21:54
die Frage ist, wie kriegst du das hin, Tarkowski,
0:21:55–0:22:04
dass du diese Erzählung, dieses Gespräch von Calvin über die Solaristik mit
0:22:04–0:22:08
dem Publikum, das ist ja quasi ein 1 zu 1 Gespräch, er erklärt uns ja,
0:22:08–0:22:10
und dann gab es das, und dann gab es das.
0:22:10–0:22:13
Wie willst du das hinkriegen? Soll da einer vor der Kamera sitzen und da reinsprechen?
0:22:14–0:22:17
Und dann haben die halt überlegt, okay, es ist wichtig, und dann haben die halt,
0:22:17–0:22:22
finde ich, einen okayen Kniff eingebettet, zu sagen, können wir nicht einfach
0:22:22–0:22:26
das, was beschrieben wird, inszenieren?
0:22:26–0:22:32
Zum Beispiel diesen Schlüsselmoment mit Berton oder wie wir ihn auch nennen,
0:22:33–0:22:39
wie er da Fechner sucht, dann diese Gebilde findet und dann das Kind sieht.
0:22:39–0:22:43
Das finde ich erstmal nachvollziehbar, weil wie willst du das sonst hinkriegen,
0:22:43–0:22:47
wenn er eine nur erzählt oder du musst es selber lesen als Titel.
0:22:48–0:22:52
Aber, und das finde ich eine Katastrophe, darf man das sagen Katastrophe in
0:22:52–0:22:59
dem Zusammenhang, wenn es um Film geht das krasse daran ist halt ganz am Anfang wird der Planet,
0:23:00–0:23:06
also wird alles das Planet, was der Planet uns bietet wird sofort in den Kopf
0:23:06–0:23:13
des Beobachters zurückgeschoben, weil Bertrand sagt bei der Verhörung es gibt Gärten, es gibt,
0:23:14–0:23:18
Städte, also was wir auch in der letzten Folge erklärt haben Dann ein riesiges
0:23:18–0:23:21
Kind, was mit den Armen wedelt, ganz unheimlich, als ob es sich erprobt mit
0:23:21–0:23:23
allem, was es machen könnte.
0:23:23–0:23:26
Und dann sagt er, schaut euch die Filme an. Ich habe alles gefilmt,
0:23:26–0:23:27
da muss alles drauf sein.
0:23:28–0:23:34
Und dann wird er in dem Moment als wahnsinnig abgekapselt, wenn verständlicherweise
0:23:34–0:23:36
auf dem Film nichts zu sehen ist.
0:23:37–0:23:41
Da ist einfach nichts zu sehen. Und Berthold guckt dann so nach unten auch,
0:23:41–0:23:44
resigniert, in dem Wissen, ich habe es aber doch gesehen.
0:23:44–0:23:49
Also auch als er selber seine aufnahmen sieht aber was daher passiert ist dass
0:23:49–0:23:53
diese geschichte in dem moment völlig umgekrempelt wird es ist keine kein planet
0:23:53–0:23:58
mehr denn das alles tut was die solarist innen da oder meistens solaristen dann irgendwie,
0:23:59–0:24:01
kartografieren und aufschreiben sondern,
0:24:01–0:24:07
es ist nur eine wahnvorstellung weil die kamera und die ist ja quasi physikalisch exakt,
0:24:09–0:24:13
Und das finde ich fürchterlich in dem Film. Es ist halt so.
Florian Clauß
0:24:13–0:24:16
Damit hast du es völlig umgedreht. Ja gut, aber ich meine.
Micz Flor
0:24:16–0:24:17
Ich habe es so verstanden.
Florian Clauß
0:24:17–0:24:23
Dass das tatsächlich nicht gezeigt wird, weil an der Stelle der Nebel noch zu
0:24:23–0:24:25
dicht ist. Ich dachte, es wäre immer hinter dem Nebel.
Micz Flor
0:24:26–0:24:29
Nee, er hat ja alles gesehen. Er war ja unter dem Kind.
Florian Clauß
0:24:30–0:24:34
Ja, aber trotzdem, ich dachte, er sieht es halt nicht, weil es,
0:24:34–0:24:38
oder man sieht es halt nicht, weil es quasi vernebelt ist.
0:24:38–0:24:40
Ich habe es jetzt nicht so als katastrophal empfunden wie du,
0:24:41–0:24:43
sondern ich dachte einfach, okay, das ist jetzt kein Beweis,
0:24:43–0:24:48
weil, und ich meine, in dem Moment, wenn die auch gezeigt werden, die Aufnahmen,
0:24:49–0:24:51
dann hat man ja nicht das Gefühl, dass ihr dann auf einmal das Kind da in den
0:24:51–0:24:54
Aufnahmen sieht, sondern das kennt ja die Aufnahmen.
Micz Flor
0:24:54–0:25:01
Also für mich war es so, um das Lied Zombie zu zitieren, It's in your head,
0:25:01–0:25:08
in your head, Zombie. Also das ist wirklich, es ist nicht wahr,
0:25:08–0:25:09
es ist nur in deinem Kopf.
0:25:09–0:25:13
So war das für mich. Und damit, ich habe den Film vor der Geschichte gelesen,
0:25:14–0:25:17
deshalb habe ich den Film damals auch gesehen als einen Film von,
0:25:18–0:25:24
was das zu welchen Sonderungen das menschliche Psyche irgendwie fegt.
Florian Clauß
0:25:24–0:25:28
Also das heißt, damit war für dich mehr oder weniger die Stage gesetzt.
Micz Flor
0:25:28–0:25:28
Ich war im Traum.
Florian Clauß
0:25:28–0:25:34
Und dann war auch quasi alles, was folgt auf der Station, mehr oder weniger eine Suggestion.
Micz Flor
0:25:34–0:25:38
Eine fantastische Geschichte, eine gut erzählte, fantastische Geschichte,
0:25:38–0:25:42
aber rückblickend eben dann auch dieser Spiegeleffekt, du kommst halt in dieses
0:25:42–0:25:47
Haus des Vaters, über das Spiegelbild des Hauses, war für mich auch quasi so, okay,
0:25:48–0:25:52
wir kommen quasi schon im Traum an, das ist von Anfang an eigentlich natürlich
0:25:52–0:25:54
fiktiv, das ist ja sowieso, aber,
0:25:55–0:26:00
Aber für mich war das wirklich in dem Moment, als ich die Geschichte gelesen
0:26:00–0:26:05
hatte, war das für mich wirklich, wie ich sagte, katastrophal. Wie kannst du das tun?
0:26:06–0:26:09
Dann lass es doch weg. Es braucht doch keiner. Keiner muss jetzt die Filme sehen.
0:26:09–0:26:11
Das war für die Handlung nicht notwendig.
Florian Clauß
0:26:11–0:26:15
Okay, also wie gesagt, ich habe es so nicht so wahrgenommen.
0:26:15–0:26:19
Ich habe das jetzt als eine mögliche Perspektive und deswegen auch glaubhaft,
0:26:19–0:26:27
dass der Berton dann auch erstmal als Sinnestäuschung dann abgestempelt wurde.
0:26:27–0:26:30
Ja, diese Geschichte wird dann halt vorweggenommen.
0:26:30–0:26:35
Ich finde es auch gut erzählt, so in der Form, weil, wie du sagst,
0:26:36–0:26:41
im Film muss man ja immer überlegen, wie schafft man diese, jetzt auch im Falle
0:26:41–0:26:43
von Chris Calvin, diese Ich-Perspektive da rein zu bekommen.
0:26:44–0:26:50
Wie kannst du dann halt als, wie kannst du diese Ich-Geschichte in irgendeiner Form erzählen?
Micz Flor
0:26:50–0:26:54
Ja und vor allen Dingen die Solaristik, das Vorlesen rauslassen und dass es
0:26:54–0:26:58
das schon lange gibt, hat er ja über den Vater quasi etabliert.
0:26:58–0:26:59
Der Vater war ja auch schon Solaristiker.
0:26:59–0:27:03
Das heißt, wir haben da schon etabliert, dass es diese ganze Sache schon lange gibt.
0:27:04–0:27:07
Und das hat er alles geschafft, ohne dass jemand irgendwas erklären musste.
0:27:07–0:27:12
Er konnte das filmisch zeigen, hat das gut umgesetzt, aber eben leider dann
0:27:12–0:27:15
diese eine Abwägung gemacht.
Florian Clauß
0:27:15–0:27:22
Und man muss auch noch dazu sagen, der Vater ist todkrank und es kommt dann
0:27:22–0:27:27
noch mal zu einem Affront zwischen Berton und Chris Kelvin.
0:27:28–0:27:35
Nämlich er wird mehr oder weniger hochgeschickt, um das Ende der Station zu verkünden.
0:27:39–0:27:40
Wie soll man sagen?
Micz Flor
0:27:40–0:27:43
Das ist total gut, dass du das sagst, weil nämlich das ist auch eine absurde
0:27:43–0:27:48
Situation, weil Calvin ja mit dem Gedankenspiel zu empfehlen,
0:27:48–0:27:54
mit harter Radioaktivität auf das Meer zu schießen.
0:27:54–0:27:58
Das ist ja, glaube ich, sogar Calvins Idee. Der Vater sagt das,
0:27:58–0:28:01
glaube ich, Bertrand irgendwie so. Ja, Calvin denkt...
Florian Clauß
0:28:01–0:28:04
Genau, genau. Er ist nämlich der, der diese destruktive Rolle annimmt.
0:28:04–0:28:11
Und Bertrand will ihn zurückhalten und gerät dann wirklich so fast handgreiflich in den Konflikt mit ihm,
0:28:11–0:28:19
wo er sagt Nein und verlässt dann auch eben das Haus des Vaters und sagt auch nochmal dem Vater,
0:28:20–0:28:24
dass er nicht mit der Meinung von Chris Calvin da übereinstimmt.
0:28:24–0:28:31
Und dann kommt diese absurde Szene, nämlich diese vier Minuten Fahrt von Bertrand.
Micz Flor
0:28:31–0:28:33
Ja, die wollte ich, dass du mir die erklärst. Da habe ich mich die ganze Zeit
0:28:33–0:28:35
darauf gefreut. Das will ich wissen.
Florian Clauß
0:28:36–0:28:43
Man sieht einfach, also man sieht, wie der Tom in einem Auto sitzt und fährt,
0:28:43–0:28:45
wahrscheinlich gefahren wird.
0:28:45–0:28:50
Das ist so einer der wenigen futuristischen Momente in dem Film.
0:28:50–0:28:54
Nämlich man kann davon ausgehen, dass es ein selbstfahrendes Auto ist.
0:28:54–0:28:57
Und er fährt durch eine asiatische Stadt.
0:28:57–0:29:02
Man sieht überall, ja man ist im Prinzip eine Autobahn. Man sieht eigentlich
0:29:02–0:29:07
nur Autoverkehr, man sieht es nur aus der Perspektive des Fahrers, also des Fensters,
0:29:07–0:29:13
des Frontfensters und man hört die ganze Zeit eine synthetische Musik dazu und
0:29:13–0:29:19
irgendwelche japanischen Schilder fahren dann dran vorbei.
0:29:19–0:29:25
Und diese Szene erzeugt eine Form von Stress, Stresssituation.
0:29:26–0:29:30
Und die wurde auch übrigens in Tokio gedreht. das ist Tokio.
Micz Flor
0:29:30–0:29:34
Und da hast du diese ganzen Spaghetti-Junctions. Also wo halt so...
Florian Clauß
0:29:34–0:29:36
Diese Autobahnen, die dann ineinander greifen.
Micz Flor
0:29:36–0:29:37
Ja, also wirklich.
Florian Clauß
0:29:38–0:29:43
Ich finde das hier übrigens völlig absurd. Ich habe den nicht ausgesucht,
0:29:43–0:29:44
weil der hier so leer ist, der Weg.
0:29:45–0:29:49
Aber hier ist ein ganzes... Also wir sind die ganze Zeit mitten im Marzahn unterwegs.
Micz Flor
0:29:49–0:29:52
Die Sechsburgestraße ist nur für uns gesperrt.
Florian Clauß
0:29:52–0:29:56
Wir sind hier von einer Branche... Ja, ich dachte, hier wird es laut,
0:29:56–0:30:00
weil hier eine Straße ist, aber die ist komplett stillgelegt, die Straße.
0:30:00–0:30:04
Wir gehen jetzt über die Brücke und ja, es ist ein toller Moment.
0:30:05–0:30:07
Und es ist auch keiner unterwegs.
Micz Flor
0:30:07–0:30:10
Das ist die ganze Folge schon irgendwie so für,
0:30:12–0:30:13
Natürlich in Stalker sind es da.
Florian Clauß
0:30:13–0:30:18
Ja. Also für mich ist diese Szene von diesem, von Bertong in dem Auto,
0:30:19–0:30:23
für mich ist es so quasi dieses Tor von dieser,
0:30:23–0:30:27
also ich hatte es erst mal so interpretiert, die fahren zur Landebahn,
0:30:27–0:30:30
die fahren quasi zum Abschluss zur Rakete, aber dann habe ich,
0:30:30–0:30:35
nee, das ist ja überhaupt nicht der Charakter, aber es ist so quasi dieses Tor,
0:30:35–0:30:42
also dieses Tor von übervölkert Erde irgendwie in so einer Zivilisations-Crouch,
0:30:43–0:30:47
kriegst du das als Stresspaket mit, bevor du dann wirklich in Solaris eintauchst.
0:30:48–0:30:53
Also das ist für mich so eine Verdichtung, quasi die Idee der Zivilisation.
0:30:54–0:30:59
Du hast auf der einen Seite, hast du ja sehr poetisch beschrieben,
0:30:59–0:31:05
diese Einführung über diese Natur in das Haus des Vaters Und dann das,
0:31:06–0:31:12
was du von der Erde mitbekommst, ist halt diese Stresssituation da und dann
0:31:12–0:31:15
ist dann damit ist auch der Absprung in den,
0:31:15–0:31:18
also das ist ja quasi, danach kommt dann halt quasi die,
0:31:20–0:31:23
Reise, beziehungsweise man sieht dann auch wieder nur das Ergebnis,
0:31:23–0:31:26
nämlich wie Chris Kelvin auf der Station ankommt.
Micz Flor
0:31:26–0:31:29
Also da fällt mir jetzt gerade noch mal eine Sache ein dazu,
0:31:29–0:31:34
weil du nochmal Japan gesagt hast, Vielleicht ist es auch diese Reise,
0:31:34–0:31:39
vielleicht ist das sozusagen der Blick in Bertrands innere Welt.
0:31:39–0:31:42
Also die innere Welt, die durcheinander ist seit dieser Erfahrung.
0:31:43–0:31:47
Er ist zwar nicht wahnsinnig, weil er hat ja recht, aber er ist irgendwie trotzdem
0:31:47–0:31:52
wahnsinnig geworden von dem, was er gesehen hat. Das hat ihn ja alles total fertig gemacht.
0:31:52–0:31:57
Und dann so ein bisschen wie, weil du Japan gesagt hast, so Manga-Filme,
0:31:57–0:32:01
das ist ja auch manchmal, dass die Emotion des gezeichneten Manga-Charakter
0:32:01–0:32:03
dann in der Umgebung sich ablichtet.
0:32:03–0:32:06
Weißt du, wenn jemand sich erschreckt, das ist dann so und dann hast du so Blitze
0:32:06–0:32:07
oder Donner, sowas drumherum.
0:32:07–0:32:11
Und das ist halt dieses, ich komme hier nicht raus, ich fahre immer wieder die
0:32:11–0:32:14
gleichen Wege. Es dreht sich alles irgendwie im Kreis.
0:32:14–0:32:16
Es beschäftigt mich, es stresst mich, wie du auch gesagt hast,
0:32:16–0:32:23
dass das Innere seiner Seele über diese verquacksten Autobahnfahrten, er kann nicht anhalten.
0:32:24–0:32:27
Und dann ist es aber so, dass sie ihn auch nochmal anrufen. Da rufen sie ihn
0:32:27–0:32:28
ja mit dem Videotelefon noch mal.
Florian Clauß
0:32:28–0:32:29
Ja, stimmt.
Micz Flor
0:32:30–0:32:34
Was natürlich nicht die Autobahnfahrt sozusagen legitimiert.
Florian Clauß
0:32:34–0:32:37
Es scheint einfach ein großer Proberaum zu sein.
Micz Flor
0:32:38–0:32:43
Frank-Zapper-Straße. Großartig! Das ist wirklich die Frank-Klapper-Straße.
0:32:54–0:32:55
Da wird überall geknüppelt.
Florian Clauß
0:32:57–0:33:02
Das ist ja auch Primetime jetzt zum Band-Po, oder? Man trifft sich ja dann immer ab 19 Uhr, oder?
Micz Flor
0:33:03–0:33:05
Dann ist endlich wieder Montag.
Florian Clauß
0:33:07–0:33:14
Wann ist endlich wieder Montag? Ich sehe es so ein bisschen als Zivilisationskritik, die dahinter liegt.
0:33:14–0:33:19
Vielleicht auch um so einen größtmöglichen Kontrast zu dem Solaris zu schaffen.
0:33:20–0:33:25
Auch überhaupt zu der bekannten Situation, weil ich glaube auch keiner konnte
0:33:25–0:33:31
das so visuell dann so richtig einordnen damals, als dann Tarkovsky den Film gemacht hat.
0:33:31–0:33:34
Also was kann er dann halt als Kontrapunkt nehmen? Also ich glaube,
0:33:34–0:33:39
es ist auch so ein bisschen so ein kleiner filmischer Kniff,
0:33:39–0:33:44
um halt so diese Überbevölkerung und diese futuristische Welt darzustellen.
0:33:44–0:33:48
Weil erst noch mal auf der Erde, das ist relativ einfach, dann so einen Naturraum
0:33:48–0:33:52
zu zeigen, weil das wird es wahrscheinlich auch in 100 Jahren so geben, ja mehr oder weniger.
0:33:52–0:33:55
Aber in dem Moment, wenn du halt irgendwie dich in der Stadt reinbewegst,
0:33:55–0:33:57
dann musst du ja auch irgendwie diese Stadt darstellen.
0:33:58–0:34:00
Und vielleicht hat er da einfach gesagt, okay, ich kürze das ab und mache dann
0:34:00–0:34:01
einfach so eine Situation.
0:34:01–0:34:07
So, selbst fahrendes Auto und dann so, um dann halt so ein bisschen diese Futur,
0:34:07–0:34:14
diese futuristische Vision dann auch oder die filmische Vision von Zukunft dann darzustellen.
Micz Flor
0:34:15–0:34:17
Ist das hier noch deine Tour? Ja, das ist meine Tour.
Florian Clauß
0:34:18–0:34:21
Wir sind genau hier über die Straße, weil die ist so schwierig,
0:34:21–0:34:24
auch irgendwie anders zu klären. Das ist total irre.
Micz Flor
0:34:24–0:34:27
Die Tour, die du ausgesucht hast, die passt sowas zum Thema.
0:34:27–0:34:31
Also man muss jetzt natürlich wissen, dass wir schon über zweieinhalb Stunden
0:34:31–0:34:32
in der letzten Folge gelaufen sind.
0:34:33–0:34:38
Und jetzt geht es einfach weiter und wir bewegen uns hier entweder in den verwilderten,
0:34:38–0:34:44
verwachsenen Grünstreifen, die liebevoll vernachlässigt wurden.
0:34:45–0:34:49
Oder halt eben hier in diesem monolithischen Plattenbau-Dschungel und großen
0:34:49–0:34:54
Sechsspur-Autobahnen, die halt für uns extra stillgelegt wurden.
Florian Clauß
0:34:54–0:34:58
Das ist eigentlich Podcast. Das ist Wahnsinn. Das ist genau das,
0:34:59–0:35:03
was uns dann auch zu diesem Podcast geführt hat.
Micz Flor
0:35:04–0:35:08
Genau. Und dabei noch mit deinem guten Freund reden.
0:35:11–0:35:18
Toll. Ja, wir kommen dann eben an und fliegen auf die Station.
0:35:18–0:35:22
Wir hatten schon, wie du sagst, über 40 Minuten oder so was vorbau auf der Erde.
0:35:24–0:35:28
Ich weiß nicht mehr genau, welches Detail Bertrand aus der Autofahrt noch mitteilt,
0:35:28–0:35:31
aber da war irgendeine Frage, die sie noch hatten, die wurde dann auch gelöst.
0:35:32–0:35:38
Und dann fragt Berton noch, wann fliegt der los und dann sagt der Vater,
0:35:38–0:35:39
morgen ist er nicht mehr hier.
0:35:39–0:35:42
Und dann geht's los.
Florian Clauß
0:35:43–0:35:48
Dann geht's los und er kommt auch gleich an. Also hier gibt es,
0:35:48–0:35:53
glaube ich, eine aufwendigere Szene von den Effekten,
0:35:54–0:35:58
nämlich die Darstellung, wie er auf diese Stationen fliegt.
0:35:58–0:36:04
Tarkovsky selber war ja nicht ein Freund von 2001 von Stanley Kubrick.
0:36:04–0:36:06
Ihm war der Film zu kühl.
0:36:07–0:36:15
Aber gleichzeitig ist das, diese Szene, wie er dann auf die Station zufliegt, ist ein Zitat an 2001.
0:36:17–0:36:22
Das ist auch eines der aufwändigeren visuellen Effekte. Es sieht auch wirklich
0:36:22–0:36:24
heute noch ganz brauchbar aus.
0:36:24–0:36:27
Das ist jetzt nicht so wie andere Sachen, die halt schlecht altern.
0:36:28–0:36:31
Da kommt es auf die Station. Die Station, ich finde vom Interieur finde ich
0:36:31–0:36:33
das auch ziemlich abgefahren.
0:36:33–0:36:36
Ja, also ich meine, das ist natürlich schon so ein bisschen gealtert,
0:36:36–0:36:40
die Darstellung, das Filmset zu der Station.
0:36:42–0:36:52
Im Prinzip Gänge, die dann immer so mit Stahlblech ausgelegt sind.
Micz Flor
0:36:52–0:36:56
Ja, so ein bisschen die Fantasie, die ich hatte, dass ein altes E-Werk oder
0:36:56–0:36:59
sowas leer steht und wo die drin drehen durften. Und man nimmt dann einfach
0:36:59–0:37:03
diese großen Räume einfach mit.
Florian Clauß
0:37:03–0:37:11
Ja, und auch wenn er da ankommt, da wo die Rakete quasi, seine Transporter-Rakete
0:37:11–0:37:15
landet, Dann hat er so eine Art Seesack mit dem.
Micz Flor
0:37:15–0:37:15
Ja.
Florian Clauß
0:37:16–0:37:19
So wie er dann gekleidet ist, so ein Seesack, ja.
0:37:20–0:37:25
Ich glaube, das ist dann so diese militärische Form, wie man dann halt irgendwo
0:37:25–0:37:27
im Einsatzgebiet dann fliegt, ja.
0:37:27–0:37:33
Man hat halt so einen Sack, wobei der dann auf Solaris so ein bisschen futuristischer aussieht, ne.
0:37:33–0:37:37
Er kommt auf diese Station und man sieht eben auch, dass diese Station irgendwo
0:37:37–0:37:41
Ende ihres Lebenszyklus ist, ne.
0:37:41–0:37:46
Alles ist ein bisschen ungeordnet, liegt herum, er trifft keinen richtig,
0:37:46–0:37:51
trifft dann auf Snout, redet dann kurz mit ihm, ist dieser verwirrte Zustand,
0:37:51–0:37:56
wo dann eben Snout sehr zurückhaltend doch ist, wo man nicht genau weiß,
0:37:56–0:37:59
ja kommen sie erstmal an, holen sie sich aus, leg dich hin und so weiter.
0:37:59–0:38:03
Und ich will ein bisschen abkürzen, weil die Geschichte haben wir ja schon in
0:38:03–0:38:05
der letzten Folge sehr ausführlich erzählt.
0:38:05–0:38:11
Aber es ist dann auch so, dass dann Harvey, die sich umgebracht hat,
0:38:11–0:38:18
die Freundin von Chris Calvin, die erscheint dann auch in einer sehr schönen Szene.
0:38:18–0:38:21
Also da ist nochmal so die Farbgebung.
0:38:22–0:38:26
Die Farbgebung bei dem Film, sehr gesättigt, in so Gelbtönen.
0:38:27–0:38:31
Auf einmal ist sie dann im Raum da. Und er kann das natürlich erstmal nicht glauben, was da ist.
0:38:31–0:38:35
Hält es für einen Traum, reagiert panisch.
0:38:35–0:38:42
Er schickt dann eben Harvey mit der Rakete aus der Station, verbannt sie.
0:38:43–0:38:46
Und man sieht dann auch, wenn sie dann rausfliegt, das ist auch ein schöner
0:38:46–0:38:52
Moment, wie man einfach ihr Gesicht, dieses Gesicht aus dem Bullauge von der
0:38:52–0:38:56
Rakete, eben noch so völlig entsetzt anschaut.
0:38:56–0:39:01
Also er kann es eben nicht glauben, dass es sie ist und unterhält sich dann
0:39:01–0:39:06
mit Snout und bekommt dann halt eben mehr Informationen zu der Situation.
Micz Flor
0:39:06–0:39:09
Genau, das ist eigentlich relativ ähnlich, auch wie im Buch,
0:39:09–0:39:11
so vom Rhythmus her. Es ist natürlich
0:39:11–0:39:14
anders, also da sind wirklich viele Strecken und viele Längen drin.
0:39:14–0:39:18
Aber von der handlung ist es da relativ ähnlich auch
0:39:18–0:39:20
zum beispiel was du schon beschrieben hat es in der letzten folge die
0:39:20–0:39:26
die situation so sartorius dann die tür hinter sich zu hält während er mit calvin
0:39:26–0:39:30
spricht zum ersten mal wirklich und dann sagen wo kevin sagt ich komme jetzt
0:39:30–0:39:33
rein und er sagt nein nein bleiben sie draußen ich komme ich komme alles gut
0:39:33–0:39:37
also will nicht dass er sieht was da drin los ist dann hält sartorius die tür
0:39:37–0:39:40
zu und es zappelt so und dann Und dann kommt wirklich kurz,
0:39:40–0:39:43
geht die Tür auf und da kommt ein,
0:39:44–0:39:47
sieht man nur ganz kurz, ein kleinwüchsiger Mann, kommt dann raus und er zieht
0:39:47–0:39:50
ihn halt dann irgendwie ins Zimmer rein, dann schmeißt er die Tür wieder zu.
0:39:50–0:39:53
Das ist dann dieser Moment, wo ich das Gefühl hatte,
0:39:55–0:39:59
wäre schöner gewesen wenn man es im fantastischen gelassen hätte also im sinne
0:39:59–0:40:00
von ich stelle mir das vor.
Florian Clauß
0:40:00–0:40:02
Ja aber.
Micz Flor
0:40:02–0:40:07
Es ist dann sehr nah schon irgendwie eine handlung dran finde ich was nicht vor.
Florian Clauß
0:40:07–0:40:13
Film hält sich da recht nah an der an dem buch das tatsächlich,
0:40:14–0:40:19
also die zweite habe ich um wieder auch diese szene mit dem kleid das ist aufgeschnitten
0:40:19–0:40:24
wird ja ja wird da inszeniert und auch das zweite kleid,
0:40:25–0:40:30
bekommt da auch den stellenplatz in dem
0:40:30–0:40:39
buch von stanislaw lemm wird das zweite kleid so beschrieben wie das wäre das
0:40:39–0:40:44
schmerzhafteste was er je gesehen hätte was ihm so ein also den chris hat den
0:40:44–0:40:48
ich erzähler das hätte ihnen so einen starken stich gegeben als er das zweite Kleid.
0:40:49–0:40:53
Ich fühle mich echt so ein bisschen wie hier irgendwie twenty eight days later.
Micz Flor
0:40:53–0:40:58
Es ist völlig ausgestorben. Die Fotos kann man kann man sich nicht vorstellen.
0:40:58–0:41:01
Also gerade wenn man so das Gefühl hat, dass Berlin ist inzwischen auch so dicht
0:41:01–0:41:03
geworden, so viel los und wir sind hier draußen.
Florian Clauß
0:41:04–0:41:07
Es sind nur noch ein paar Autos, wo man dann auch so gehetzte Leute sieht und wir.
Micz Flor
0:41:07–0:41:10
Müssen uns langsam Sorgen machen, ob wir vielleicht verdursten,
0:41:10–0:41:14
weil wir kein Wasser mithaben, weil hier scheint keine Zivilisation mehr zu sein.
Florian Clauß
0:41:14–0:41:19
Das ist echt verrückt. Die Geschichte geht also so weiter wie im Buch.
0:41:19–0:41:26
Das heißt, es ist eine andere Beziehung, die sich zwischen Chris und Harvey entwickelt.
Micz Flor
0:41:26–0:41:29
Es gibt ja dann auch diese eine Szene, wo eben Harvey dabei ist.
0:41:29–0:41:32
Die anderen Gäste sind ja nicht dabei bei den anderen.
0:41:32–0:41:38
Wo die in so einem, wie in so einem Offiziersspeisesaal oder sowas drin sitzen.
0:41:38–0:41:41
Also wo man wirklich das Gefühl hat, das ist schon wieder fast auf der Erde.
0:41:41–0:41:44
Da hat man Woodpaneling und die sitzen da irgendwie rum.
0:41:44–0:41:48
Das fand ich auch irgendwie sehr erstaunlich, dass die Innenarchitektur dann
0:41:48–0:41:52
irgendwie dann, als diese Beziehung zwischen den beiden so fest war,
0:41:52–0:41:55
dass er sie auch einfach mitnimmt zu solchen Meetings, dass es dann wirklich
0:41:55–0:41:57
so richtig häuslich wird.
Florian Clauß
0:41:57–0:42:00
Genau, aber das ist nochmal eine zentrale Szene, die wollte ich auch genauer
0:42:00–0:42:04
nochmal eingehen. Du meinst die Szene in der Bibliothek, ne?
Micz Flor
0:42:04–0:42:04
Ja.
Florian Clauß
0:42:04–0:42:08
Das ist nochmal eine Schlüsselszene für mich in dem Film.
0:42:08–0:42:12
Sonst entwickelt der sich, also das heißt auch, das hattest du ja auch letzte
0:42:12–0:42:18
Folge beschrieben, Die war sehr schön inszeniert, wie dann Harvey sich eingesperrt
0:42:18–0:42:21
fühlt und diese Stahltür niederreißt und dabei sich schneidet.
0:42:21–0:42:28
Und dann auf einmal sehen Snout und Calvin, wie schnell sich die Schnittwunden
0:42:28–0:42:29
dann regenerieren können.
0:42:30–0:42:35
Dass da eben eine Kraft dahinter ist. Und auch Harvey selber...
0:42:36–0:42:41
Beginnt über sich zu reflektieren. Also das heißt, ihr ist klar, dass sie eine Kopie ist.
0:42:41–0:42:48
Und dass sie dann nur eine Abbildung ist. Eine Kopie, aus der aus dem Gedächtnis von Chris ist.
0:42:48–0:42:56
Und das heißt, sie kriegt da viel stärker die Vorstellung, dass sie als Figur,
0:42:56–0:42:59
und das finde ich auch toll, dass sie wirklich dann anfängt,
0:42:59–0:43:01
eine Identität zu entwickeln.
0:43:02–0:43:10
Stärker als in der Romanvorlage. weil sich eben dann eben diese Beziehung zwischen
0:43:10–0:43:15
den beiden tatsächlich in einer neuen Art der Liebe ausdrückt.
0:43:15–0:43:18
So möchte ich das mal formulieren.
Micz Flor
0:43:18–0:43:23
Also diese Tour, die du rausgesucht hast, ist viel phänomenaler als du dachtest.
0:43:24–0:43:29
Konnte keiner erahnen, aber wir laufen wirklich wie 28 Days Later,
0:43:30–0:43:33
28 Weeks Later über leere Autobahnzubringer.
0:43:33–0:43:38
Die Natur scheint hier schon Teile der Straßen zurückerobert zu haben.
0:43:38–0:43:40
Es ist alles abgesperrt.
0:43:41–0:43:45
Die Illusion hält nicht ganz, weil im Hintergrund hört man ein paar Autos fahren.
0:43:45–0:43:50
Aber es ist wirklich ein sehr, sehr ungewöhnliches Stadtgefühl.
Florian Clauß
0:43:53–0:43:58
Vor allen Dingen, dass man mitten in der Stadt ist, aber wie tot einfach auch
0:43:58–0:44:00
Marzahn ist hier an solchen Stellen.
0:44:02–0:44:06
Und ich dachte, wir könnten da noch essen gehen. Also, es gibt,
0:44:06–0:44:11
das ist dir sicher auch aufgefallen, es gibt auch relativ Anfang an einem Film,
0:44:11–0:44:15
gibt es dieses Schwenk auf das Ohr von Snout.
0:44:16–0:44:17
Hast du das noch im Kopf?
Micz Flor
0:44:18–0:44:20
Jetzt, wo du sagst, kommt es wieder hoch.
Florian Clauß
0:44:20–0:44:28
Ja, und das passiert zweimal. Das ist dann so ein Zoom in das Ohr von Snout.
0:44:28–0:44:30
Ja, und man fragt sich, warum? Warum?
0:44:30–0:44:35
Was will denn jetzt Tarkovsky uns damit zeigen?
0:44:35–0:44:42
Und hast du da irgendeine Idee? Also ich habe da auch keine größere Theorie
0:44:42–0:44:45
zu, außer dass es so um diese Sinnlichkeit geht.
0:44:45–0:44:48
Weil der Film hat schon was extrem Sinnliches.
0:44:48–0:44:52
Die Frage ist nämlich von der Erscheinung der Gäste, dass es ja eine körperliche
0:44:52–0:44:53
Beziehung dann auf einmal bekommt.
0:44:54–0:44:58
Und diese sinnliche Beziehung zu dem Ohr, diese Wahrnehmung.
0:44:58–0:45:02
Also es wird ja irgendwie, es wird ja auch diese, grundsätzlich ist es ja auch,
0:45:02–0:45:06
der ganze Roman geht ja immer auch um Erkenntnistheorie.
0:45:07–0:45:11
Also was können wir erkennen? Also die ganze Erkenntnistheorie im klassischen
0:45:11–0:45:14
Sinne wird ja auch in Frage gestellt durch solche Modelle.
Micz Flor
0:45:14–0:45:17
Das ist jetzt irre, weil ich das irgendwie als Bild im Kopf habe,
0:45:17–0:45:21
aber jetzt nicht genug, als dass ich da irgendwie eine Beziehung zu entwickeln
0:45:21–0:45:25
könnte, um dir so aus dem Bauch heraus ein Gefühl zu geben, was ich denke, was es bedeutet.
0:45:26–0:45:29
Aber es ist so, das wäre jetzt alles irgendwie vom Kopf her.
0:45:29–0:45:34
Ich habe dann, ist aber auch Blödsinn, ich habe mir gedacht,
0:45:34–0:45:38
weil er sich ja als Ratte vorstellt, dass er, he's a rat, also er ist ein Spion,
0:45:38–0:45:43
ob er da jetzt irgendwie alle hören mit, so, das weiß ich nicht.
0:45:43–0:45:47
Vielleicht ist das eine Symbolik, die dann damals,
0:45:49–0:45:54
Und in den politischen Verhältnissen Bedeutung hatte. Aber es ist jetzt wirklich
0:45:54–0:45:55
nicht so stark aufgeführt.
Florian Clauß
0:45:55–0:45:58
Also ich finde auch gut, dass du jetzt in dem Zusammenhang nochmal ansprichst,
0:45:59–0:46:07
das repressive System, weil natürlich auch Tarkovsky immer auch Systemkritik
0:46:07–0:46:11
irgendwo impliziert in seinen Filmen.
0:46:11–0:46:14
Und können wir auch nochmal nachher besprechen.
0:46:14–0:46:18
Aber es gibt diesen, also ich würde es auch eher so um diese Sinnlichkeit,
0:46:19–0:46:23
um diese Körperlichkeit, um dann nochmal diese Wahrnehmung und dieses Trügen
0:46:23–0:46:28
von Wahrnehmung, dass du deinem Sinnesorgan nicht mehr vertrauen kannst.
0:46:29–0:46:36
Oder dass du diese Erkenntnis, und da sind wir jetzt wieder bei unseren KI-Folgen von früher,
0:46:37–0:46:43
dass eben für wirkliche Intelligenz ja auch eine Körperlichkeit,
0:46:43–0:46:47
zumindest in unserem menschlichen Kontext, vorausgesetzt wird.
0:46:47–0:46:53
Das heißt, um Sachen zu erkennen, muss man ja die auch irgendwo sinnlich erfahren.
0:46:55–0:46:59
Gehen wir nochmal auf diese Szene in der Bibliothek. In dieser Szene,
0:46:59–0:47:04
da habe ich ja auch tatsächlich nochmal viel mitgeschrieben aus dem Film,
0:47:04–0:47:07
weil das für mich, wie ich schon sagte, eine Schlüsselszene ist.
0:47:07–0:47:10
Und da möchte ich dir den Dialog vorlesen.
0:47:11–0:47:14
Also es ist die Geburtstagsfeier von Snout in der Bibliothek und da taucht er
0:47:14–0:47:16
auch viel später aus und völlig betrunken.
0:47:17–0:47:24
Sartorius und Kelvin mit Harvey sind ja schon da und Snout sagt als er erscheint,
0:47:24–0:47:27
wir wollen doch, ja und das ist genau das,
0:47:27–0:47:32
was er zum Ende der letzten Folge vorgelesen hat, wir wollen doch die Erde nur
0:47:32–0:47:36
ausweiten bis an ihre Grenzen, wir brauchen keine anderen Welten,
0:47:36–0:47:40
wir brauchen einen Spiegel, wir plagen uns ab mit dem Kontakt,
0:47:40–0:47:47
aber wir werden ihn nie bekommen und Kelvin sagt Giberian starb vor Ausweglosigkeit.
0:47:50–0:47:55
Sartorius, ich kenne meinen Platz, ich arbeite. Der Mensch wurde von der Natur
0:47:55–0:47:56
geschaffen, um sie zu erkennen.
0:47:57–0:48:03
Also hier hast du genau diese unterschiedlichen Positionen herausgearbeitet.
0:48:03–0:48:07
Harvey sagt, Chris verhält sich viel menschlicher als ihr beide.
0:48:08–0:48:11
Unter unmenschen Bedingungen sucht er Menschlichkeit, während sie,
0:48:11–0:48:18
also Sartorius, so tun, als ginge sie das nicht an. Er versucht zu lieben.
0:48:19–0:48:24
Unterbrechen Sie mich nicht. Ich bin eine Frau. Das sagt der Terrorist.
0:48:25–0:48:28
Und dann sagt er, unterbrechen Sie mich nicht. Ich bin eine Frau. Sie sind keine Frau.
0:48:29–0:48:33
Harvey ist tot. Sie sind eine mechanische Wiederholung. Eine Kopie, eine Matrize.
0:48:34–0:48:38
Eine Matrize ist auch schön, weil es ist wie das Carbon-Copy.
0:48:40–0:48:44
Und Harvey sagt, ja, schon möglich. Aber ich werde zu einem Menschen.
0:48:45–0:48:48
Ich kann schon auskommen ohne ihn. Ich liebe ihn.
0:48:48–0:48:50
Ich bin ein Mensch und sie sind sehr grausam.
0:48:51–0:48:58
Und das finde ich halt so ganz toll, weil nämlich in dieser Form von dieser
0:48:58–0:49:03
unwirklichen, unnatürlichen Harvey wird auf einmal so ein Menschlichkeitsdiskurs geführt.
0:49:04–0:49:10
Und der dann genauso gleichwertig ist, wie jetzt, als wäre sie ein echter Mensch.
0:49:10–0:49:15
Also genau in dieser Fremdartigkeit, in dem sie dann halt diese Liebe dann auch
0:49:15–0:49:20
wirklich als Emotion auch glaubhaft dann entwickelt, fängt sie ja dann an,
0:49:20–0:49:22
diese Menschlichkeit zu entwickeln.
0:49:22–0:49:26
Und das ist halt irgendwie interessant, dass Menschlichkeit ja gleichzeitig
0:49:26–0:49:32
so eine Wertigkeit ist, so eine moralische Implikation hat an der Stelle.
0:49:32–0:49:37
Und dann kommt auch diese Szene, wo dann Snout schon vorher angekündigt hat,
0:49:37–0:49:41
es wird Schneewerelosigkeit geben. Und man sieht dann in der Bibliothek nur
0:49:41–0:49:46
noch, wie dann Chris und Harvey zusammen Arm in Arm auf der Bank sind.
0:49:46–0:49:48
Auf einmal fliegt ein Buch dann
0:49:48–0:49:54
so durch das Bild und man hört so einen Kling, so einen Kling von Glas.
0:49:54–0:50:00
Und dann ist der Kronleuchter, der in der Bibliothek hängt, der faltet sich
0:50:00–0:50:01
quasi aufgrund der Schwerlosigkeit zusammen.
0:50:01–0:50:06
Und dann kommt halt dieses Kling von Glas und man sieht dann halt die beiden,
0:50:06–0:50:11
wie sie schweben. Das ist aber auch so, wie du schon beschrieben hast, so ein heimeliger Raum.
0:50:11–0:50:16
Also das heißt, es ist wirklich so noch mit so ganz kulturellen Gegenständen
0:50:16–0:50:20
aufgeladen. Du siehst das Bücherregal, du siehst dann halt auch Ikonen.
0:50:20–0:50:23
Und dann kommt halt dieses Bild von Heimkehr der Jäger.
0:50:24–0:50:29
Das ist ja dieses ganz berühmte Gemälde, wo du dann so eine Winterlandschaft siehst.
0:50:29–0:50:32
Und dieses von Brügel ist das, glaube ich.
0:50:32–0:50:37
Und diese Winterlandschaft wird dann in so Close-Ups nochmal so näher herangesoomt.
0:50:37–0:50:41
Du siehst dann die Hunde von den Jägern. Das kennt, glaube ich, jeder, dieses Bild, ne?
0:50:41–0:50:45
Du siehst dann im Hintergrund dann so diesen Teich, da wird auch nochmal näher drauf geguckt.
0:50:46–0:50:50
Wie der Teich zugefroren wird, wie dann eben Menschen auf den Teich Schlittschuh laufen.
0:50:50–0:50:55
Und du siehst dann halt auch so, im Prinzip siehst du eine Winterlandschaft,
0:50:55–0:51:01
die halt nichts mit dieser unwirklichen Atmosphäre von dem Planeten zu tun hat.
0:51:02–0:51:10
Und Chris und Harvey liegen da Arm in Arm und sind dann wirklich so für sich auf einmal, so als Paar.
Micz Flor
0:51:10–0:51:14
Ja, das ist, glaube ich, auch so eine richtige Tarkovsky-Einstellung,
0:51:14–0:51:19
wo man so merkt, das ist ihm jetzt unglaublich wichtig, dieses Bild.
0:51:19–0:51:26
Und in Bezug zum Dialog ist es so,
0:51:26–0:51:35
dass das Bild Snouts Ansicht quasi verifiziert in dem Moment und sagt,
0:51:35–0:51:37
ja, wir nehmen die Erde überall hin mit.
0:51:37–0:51:43
Auch hier sind wir in dieser Bibliothek bis hin zu einem Winterbild von Jägern und Hunden.
Florian Clauß
0:51:47–0:51:52
Ja, also wir können ja auch nur mal sagen, ich würde es jetzt ein bisschen anders
0:51:52–0:51:56
einschätzen, aber es ist auf jeden Fall so ein Tarkovsky-Moment,
0:51:56–0:52:02
weil Tarkovsky diese Schwerelosigkeit in einigen Filmen verwendet hat.
0:52:02–0:52:06
Also bei Stalker haben wir es jetzt nicht, aber bei Stalker gibt es diesen Montage-Cut,
0:52:06–0:52:14
wo auf einmal etwas Übernatürliches passiert, unerwartet in einem Setting, was übernatürlich ist.
0:52:14–0:52:19
Aber es gibt bei Andrei Rubeljov so eine Einstellung, wo dann auf einmal so
0:52:19–0:52:22
ein Kind zu schweben anfängt.
0:52:22–0:52:26
Die ganze Zeit nicht, aber das Kind fängt an zu schweben und hebt sich dann
0:52:26–0:52:29
auch über die ganzen Brückenwälder.
0:52:29–0:52:33
Aber es ist auch so ein ganz starker Moment aus so einer Ruhe heraus.
0:52:34–0:52:39
Also er hat dann halt auch wieder so eine Kraft, einfach so eine filmische Kraft,
0:52:39–0:52:42
die dann auch sich auf den Körper auswirkt in dem Moment.
0:52:43–0:52:45
Also eine Ruhe, meditativ, hypnotisch, wie auch immer.
0:52:46–0:52:51
Diese drei Stränge, die in Figuren angelegt sind, aber die auch nicht so richtig gewichtet sind.
0:52:52–0:52:58
Sondern es ist auch immer in den einzelnen Figuren unterschiedlich von der Gewichtung drin.
0:52:58–0:53:01
Das ist einmal der wissenschaftliche und zivilisatorische Strang,
0:53:01–0:53:05
der so ein bisschen durch Sartorius verkörpert ist.
0:53:05–0:53:09
Dann haben wir die Naturverbundenheit und die Transzendenz, die da auch zum
0:53:09–0:53:13
Ausdruck kommt. Das sind die Natur-Szenen, die Schwebe-Szenen,
0:53:13–0:53:17
die Musik auch, die im Hintergrund dann immer kommt.
0:53:18–0:53:22
Und es gibt das Metaphysische, das Bewusstsein, das Gewissen.
0:53:22–0:53:27
Das ist quasi der Planet, also der Ozean, das außerirdische Leben.
0:53:28–0:53:32
Und diese Stränge werden ja immer so hin und her gewuchtet.
0:53:33–0:53:38
In dem Film. Und jetzt aber noch mal so, was heißt das denn eigentlich?
0:53:38–0:53:43
Wir haben dann am Ende, wir kommen jetzt mal zum Ende, also ich glaube,
0:53:43–0:53:45
wir können das, das ist auch relativ nah.
0:53:45–0:53:51
Das heißt, auch hier folgt der Film, dem Buch, dann bringt sich eben oder in
0:53:51–0:53:56
Abstimmung, also das ist nochmal wichtig, Calvin fällt dann in einen.
0:53:58–0:54:04
Fiebertraum. Und dann vermischen sich, dann träumt er eben, Dann träumt er von seiner Kindheit.
0:54:04–0:54:10
Er als Kind wird von seiner Mutter, im Traum ist er dann aber nicht gealtert,
0:54:10–0:54:14
sondern wird als alter Mann oder als der Mann, in dem Alter er gerade ist,
0:54:14–0:54:16
wird er dann von seiner Mutter gepflegt.
0:54:16–0:54:20
Gleichzeitig schwenkt die Kamera im Raum und die Mutter sieht dann auch sehr
0:54:20–0:54:23
ähnlich zu Harvey. Also es vermischt sich diese Figuren.
0:54:24–0:54:28
Es ist dann Harvey, es ist die Mutter, die Mutter, man sieht sie dann auch gelangweilt,
0:54:28–0:54:33
wie sie raucht und dann auch in der Winterlandschaft dann irgendwie,
0:54:33–0:54:37
also man sieht halt so Kindheitsszenen irgendwo da so in diesem Traum.
0:54:37–0:54:41
Und am Ende ist es dann so, dass wenn er dann erwacht von dem Traum,
0:54:41–0:54:46
hat Harvey sich dann halt auch in ihrem eigenen Willen dazu entschlossen,
0:54:46–0:54:49
dass sie dann annulliert wird.
0:54:50–0:54:56
Das heißt, sie ist dann auch nicht mehr da. Für Calvin ist es auch so ein Moment des Verzweifelns.
Micz Flor
0:54:56–0:55:00
Und da ist es nochmal anders, in beiden Filmen, glaube ich, anders als im Buch.
0:55:00–0:55:05
Im Buch verabreicht Javier Calvin Schlaftabletten.
0:55:06–0:55:09
Aber in beiden Filmen hat Calvin diesen Fiebertraum.
0:55:11–0:55:13
Also Clooney hat den ja auch.
Florian Clauß
0:55:13–0:55:17
Und was dann quasi zum Ende des Filmes führt, dann heißt es auch,
0:55:18–0:55:23
dann diskutiert er eben mit Snout, dass er auf die Erde zurückkehrt.
0:55:23–0:55:30
Es gibt dann einen Schuss und auf einmal siehst du dann Calvin wieder an diesem
0:55:30–0:55:34
See, an dem Haus von dem Vater,
0:55:34–0:55:38
wieder dann auch da in der Landschaft. und denkt man, okay, er ist jetzt wieder auf der Erde.
0:55:38–0:55:44
Dann sieht er seinen Vater im Haus und es fängt an zu regnen.
0:55:44–0:55:50
Und da ist wieder so dieses Glitching, diese Glitches, nämlich das regnet im Haus.
0:55:50–0:55:53
Und er sieht seinen Vater und er lehnt sich so an die Scheibe.
0:55:53–0:55:58
Sein Vater tritt vor die Tür und er kniet vor seinem Vater nieder und umschlingt seine Hand.
0:55:58–0:56:06
Dann fährt die Kamera raus und auf einmal sieht man dann diese ganze Szene mit Haus, mit Teich.
0:56:06–0:56:12
Quasi so eine Scholle ist im Ozean. Und die Kamera verliert sich dann in den Wolken. Das heißt,
0:56:14–0:56:18
ist dann in dieser Simulation auf dem Ozean zurückgeblieben.
0:56:18–0:56:22
Wobei man nicht weiß, ist das jetzt... Also es wird noch offener.
0:56:22–0:56:27
Während bei dem Roman sich dann Chris entschieden hat, bewusst dann weiterzumachen,
0:56:27–0:56:31
kann das auch quasi so ein Ende sein.
0:56:31–0:56:38
Das kann der alte Memoid sein oder er ist dann wirklich gefangen im Ozean und kommt nicht mehr raus.
0:56:38–0:56:43
Also wie so die Muschel, die Perle in der Muschel. Und er ist dann verschlungen jetzt.
Micz Flor
0:56:43–0:56:48
Ja, und das ist dann das Ende und das ist quasi genau, wie du sagst,
0:56:48–0:56:50
nochmal das Haus wie vom Anfang.
0:56:50–0:56:56
Und das ist dann so eine Klammer um die ganze Geschichte, wo ich,
0:56:56–0:56:59
was ich am Anfang schon sagte, auch wieder eine Klammer.
0:57:00–0:57:04
Zuerst den Film gesehen, beide Filme gesehen, dann das Buch gelesen.
0:57:04–0:57:06
Jetzt zum ersten Mal das Buch gelesen.
0:57:06–0:57:11
Und dann frage ich mich wirklich, warum hat Tarkovsky das so gesetzt?
0:57:12–0:57:15
Warum hat der, also gut, filmisch, ich muss irgendwie sagen,
0:57:16–0:57:20
seit 100 Jahren gibt es Solaristik, dann reden halt die älteren Menschen auch schon darüber.
0:57:20–0:57:22
Aber warum ist er wieder zum Schluss beim Vater?
0:57:23–0:57:27
Ich habe es nicht so ganz gecheckt. War mir nicht klar.
Florian Clauß
0:57:27–0:57:31
Also ich Ich kann dir ja mal vielleicht einen Interpretationsansatz geben dafür,
0:57:31–0:57:33
wie ich das jetzt sehen würde.
0:57:34–0:57:39
Es ist ja eigentlich so eine, also eigentlich ist es eine Erläuterungsgeschichte.
0:57:40–0:57:46
Das heißt, Harvey erscheint, entwickelt eine Beziehung, er überdenkt seine aggressive
0:57:46–0:57:49
Haltung, den Ozean in die Luft zu jagen,
0:57:50–0:57:54
empfindet wieder Liebe, er kriegt dann wieder eine Identität,
0:57:54–0:58:01
ein Heimatgefühl, er kriegt eine Verbundenheit, er versöhnt sich mit seinem todkranken Vater.
0:58:02–0:58:06
Es gibt ja so eine, und das ist so ein bisschen wie unser Podcast,
0:58:07–0:58:11
man hat so eine Verknüpfung von Ort und Wort.
0:58:13–0:58:20
Diese Verbundenheit und diese Identität zu einem Ort, wo man erstmal überhaupt
0:58:20–0:58:22
ein Ich-Bewusstsein aufbauen kann.
0:58:23–0:58:27
Und das ist glaube ich so dieses, und da wird es wieder so politisch,
0:58:27–0:58:30
das ist halt natürlich ein total russisches Ding.
0:58:30–0:58:33
Mütterchen Russland, das ist so tief drin.
0:58:34–0:58:37
Das ist, glaube ich, auch was man kulturell eben jetzt nicht so nachvollziehen kann.
0:58:37–0:58:44
Aber dieses Mütterchen Russland, diese Verbindung zur Erde, diese Heimat,
0:58:44–0:58:49
die dann auch so tief drin ist in den Charakteren, dass sie darüber überhaupt
0:58:49–0:58:51
ihre eigene Existenz erfahren können.
0:58:51–0:58:55
Und das ist dann so ein bisschen konträr. Und da will man dann so ein bisschen
0:58:55–0:58:58
noch die Systemkritik herausholen.
0:58:58–0:59:06
Nämlich konträr zu diesem Ansatz von dieser Gesellschaft, dieses UdSSR,
0:59:07–0:59:10
eben diese Gesellschaft von Gleichmachung.
0:59:11–0:59:15
Also es wird einfach eine gewisse Leistung erwartet.
0:59:15–0:59:24
Es wird jetzt quasi nicht unterschieden. Also das ist nochmal so die Kritik an das Regime.
0:59:27–0:59:31
An den Staatsapparat, dass diese bedingungslose Rationalisierung,
0:59:31–0:59:37
die geht in so einer, da geht halt in dieser Form, geht halt die Menschlichkeit irgendwo verloren.
0:59:38–0:59:42
Und das führt eben zu so einer Heimat und zu einer Wurzellosigkeit,
0:59:44–0:59:45
Orientierungslosigkeit.
0:59:45–0:59:49
Und ich glaube, das damit, mit diesem Bild, hat das so Tarkovsky so ein bisschen
0:59:49–0:59:55
entgegengesetzt und wollte da quasi so eine Staatskritik dran üben.
0:59:55–0:59:59
Das wäre jetzt so ein Ansatz, den man da so reinlesen könnte.
0:59:59–1:00:03
Gleichzeitig wird es halt auch in anderen Kritiken, wird es dann auch sehr,
1:00:04–1:00:13
ja, dann ist halt einfach diese Liebe von Harvey zu Chris und dann ist es dieser Läuterungsprozess.
1:00:13–1:00:15
Das ist eine sehr kitschige Geschichte dann wieder.
1:00:16–1:00:20
Also es wird dann, wenn man die reine Geschichte rauszieht, ist die halt einfach
1:00:20–1:00:26
viel zu kitschig. Und man muss es, glaube ich, einbetten, einfach in den kulturellen Kontext da.
Micz Flor
1:00:27–1:00:31
Ja, das kann ich nicht so gut. Aber jetzt, wo du darüber sprichst,
1:00:31–1:00:35
kommt in mir so das Bild hoch, dass es ja auch vielleicht, er zieht ja los,
1:00:35–1:00:37
Calvin, als der, der das jetzt alles zerstören will.
1:00:38–1:00:44
Und er kommt dann zurück und der Vater ist natürlich im echten Leben schon inzwischen längst gestorben.
1:00:44–1:00:50
Das ist ja auch so ein Thema, also dass er seinen Vater nicht begraben wird.
1:00:50–1:00:53
Das wird ja auch am Anfang wirklich angesprochen.
1:00:54–1:01:01
Und dass er dann aber dieses Bild herstellt, wo er vielleicht einfach das Lebenswerk
1:01:01–1:01:07
des Solaristen, also sein Vater ist ja Solarist gewesen, von Geburt bis Tode sozusagen,
1:01:07–1:01:14
dass er dann in seinem Bild zum Schluss sich mit dem Vater irgendwie verbindet.
1:01:14–1:01:18
Und aufgrund der Erfahrung, die er dort hatte mit Harvey, dann einfach seine
1:01:18–1:01:21
Meinung ändert und als Wunschvorstellung dann auch umgesetzt wird,
1:01:22–1:01:25
dass er dem Vater gegenüber das noch mal zeigen kann.
1:01:25–1:01:30
Dass er sich dem unterwirft, buchstäblich. Das ist ja auch so ein Boden.
Florian Clauß
1:01:30–1:01:35
Ja, vielleicht, wenn man das dann halt in diesem Solaristik-Diskurs dann auflösen möchte.
1:01:36–1:01:43
Übertragen gesprochen wäre es dann auch so, wenn das Ende, der hat ja auch so
1:01:43–1:01:45
eine gewisse Metaphysik.
1:01:45–1:01:51
Also das heißt, es ist ja mystisch. Es ist irgendwie so kein klares Ende.
1:01:51–1:01:56
Und das ist ja genau der Gegenpol zu diesem wissenschaftlichen Aufklärungsdiskurs,
1:01:56–1:01:59
der immer wieder unternommen wird, um halt den Planeten zu untersuchen.
1:01:59–1:02:03
Also so findest du auch irgendwie so einen anderen Ansatz.
1:02:04–1:02:07
Das ist halt quasi nicht diese Unterwerfung nach Solaristik,
1:02:07–1:02:09
sondern das ist ja dann eher so die Frage...
1:02:10–1:02:15
Wie passiert das jetzt gerade hier? Und das wäre auch nochmal so,
1:02:16–1:02:23
dann eher dieses nach Menschlichkeit, nach Ungeklärtheit, nach Offen und nicht
1:02:23–1:02:25
nach Rationalisierung.
1:02:25–1:02:29
Es gibt viele Ansätze in Darkowskis Werken.
Micz Flor
1:02:29–1:02:36
Es ist auch total schwierig, finde ich, den Film in seiner Wirkweise in Sprache zu fassen.
1:02:36–1:02:41
Das ist wieder das, was wir immer versuchen. versuchen, wir erklären hier ja
1:02:41–1:02:43
auch die Umgebung, durch die wir laufen.
1:02:43–1:02:46
Manchmal mit einer verzweifelten, appellativen Haltung.
1:02:48–1:02:50
Keiner wird sich vorstellen können, wie irre das gerade aussieht,
1:02:50–1:02:51
dass hier alles abgesperrt ist.
1:02:51–1:02:54
Aber da versuchen wir Bilder, die wir erleben, mit Worten zu fassen.
1:02:54–1:02:59
Ein Film, der davon lebt, dass er so eine mächtige Bildsprache hat und auch
1:02:59–1:03:02
mal auskommt, ein paar Minuten einfach überhaupt keinen Text zu haben.
1:03:02–1:03:09
Das ist ja schon auch in sich selbst eine Haltung, wo man sagen muss, das muss man erleben.
1:03:09–1:03:12
Also man muss das irgendwie sehen. Das ist bei Tarkowski, glaube ich, sehr, sehr schwer.
Florian Clauß
1:03:12–1:03:20
Ja, genau. Dieses Erleben, dieses Leiden, Leben und dieses Zurückbesinnen auf das Menschliche.
1:03:20–1:03:25
Das ist vielleicht so das, was das Humane ausmacht und was dann in diesem ganzen
1:03:25–1:03:28
Solaristik-Diskurs irgendwo verloren gegangen ist.
Micz Flor
1:03:28–1:03:32
Und das ist vielleicht dann auch dein Begriff oder das Wort der Hypnose,
1:03:32–1:03:37
was du am Anfang für dieses Format genommen hast, ist dann vielleicht doch passend,
1:03:37–1:03:38
weil das ja auch sowas ist.
1:03:38–1:03:41
Die Hypnose kann man sich nicht vom Kopf her erklären und dann wird es genauso
1:03:41–1:03:48
sein, sondern die Hypnose ist etwas, dem man sich hingeben muss und dann ist
1:03:48–1:03:50
der Ausgang vielleicht ungewiss und so, aber es ist auf alle Fälle nichts,
1:03:50–1:03:52
was man einfach in Worte fassen kann.
Florian Clauß
1:03:52–1:03:57
Ja, es ist ein suggestiver Akt. Also es geht irgendwo, man weiß nicht, was rauskommt.
1:03:58–1:04:02
Okay, soweit. Wir wussten auch am Anfang nicht, was rauskommt.
Micz Flor
1:04:02–1:04:05
Genau. Wo wir rauskommen.
Florian Clauß
1:04:05–1:04:07
Wie wir und wo wir rauskommen.
Micz Flor
1:04:07–1:04:10
Wir sind auf dem wunderschönsten Planeten, auf dem ich jemals war.
Florian Clauß
1:04:10–1:04:13
Auf dem Planeten Marzahn.
1:04:16–1:04:21
Also das war jetzt eigentlich Episode 54.
1:04:22–1:04:26
Wow, 54 sind wir jetzt mittlerweile. Es geht weiter mit dem Thema.
1:04:26–1:04:32
Freut euch auf die nächste Episode, wo wir dann nochmal tiefer in den Film,
1:04:32–1:04:36
in der filmischen Interpretation von Söderberg einsteigen.
1:04:36–1:04:39
Das war's für uns soweit. Macht's gut.

Mehr

"Wir möchten einen unbekannten aber existierenden Planeten erforschen, stattdessen untersuchen wir Menschen." Snaut, Kybernetiker

Das dritte Jahr "Eigentlich Podcast" beginnen wir mit einer Solaris-Trilogie. In dieser ersten Episode geht es um den Science-Fiction-Roman "Solaris" von Stanisław Lem (1961); in den folgenden um die Verfilmungen des Stoffs durch Andrei Tarkowski (1972) und Steven Soderbergh (2002). Der Roman "Solaris" spielt auf einer Raumstation, die den gleichnamigen, mysteriösen Planeten erforscht. Im riesigen Ozean, der Solaris bedeckt, scheint eine außerirdische Intelligenz verortet zu sein. Der Psychologe Kris Kelvin landet zu Beginn der Erzählung auf der Forschungsstation, von der aus sein Kollege Gibarian ihn zu Hilfe gerufen hatte. Doch Gibarian hat sich am Tag vor Kelvins Ankunft umgebracht, sagt Snaut, einer der beiden verbliebenen Forscher auf der Station. Es bleibt unklar, was vorgefallen ist und was Kelvin jetzt tun sollte oder hätte tun sollen. In diesem Schwebezustand erfahren wir viel über die inzwischen 100-jährige "Solaristik", die Spekulationen und Erforschung der wilden Phänomene des Ozeans. Dann erscheint eine Replik von Kelvins verstorbener Geliebten, was ihn zwingt, sich seinen eigenen inneren Dämonen zu stellen. Bald erfahren wir, dass die anderen beiden auch "Gäste" haben, wie sie die von Solaris erschaffenen, menschenähnlichen, doppelgängerhaften Kopien nennen. Das Buch untersucht Themen wie das Wesen des Bewusstseins, die Grenzen der menschlichen Erkenntnis und die Schwierigkeit, das Fremde zu verstehen. Was wir bei "Eigentlich Podcast" so noch nicht gemacht haben: Alle drei Folgen zeichnen wir in einer langen Wanderung durch Berlin auf – während wir, wie immer, "beim Laufen reden und laufend reden". Flo hat eine Tour geplant, die uns von den verwachsenen Grünflächen und Grabsteinen bei Herzberge, entlang übergroßer Rohrsysteme zur abgesperrten sechsspurigen Stadtautobahn in Marzahn führt. Berlin und Solaris verschmelzen beim Wandern wie in einem Fiebertraum. Und wir erkennen: jetzt sind auch wir "Solaristen" als Teil jener Gruppe, die seit Jahren spekuliert worum es bei Solaris eigentlich geht...

Shownotes

Mitwirkende

avatar
Florian Clauß
avatar
Micz Flor

Transcript

Micz Flor
0:00:00–0:00:01
Gut.
Florian Clauß
0:00:02–0:00:03
Kommen Sie gerade von der Arbeit?
Micz Flor
0:00:04–0:00:11
Ja. Ich komme von der Arbeit. Und es war auch Arbeit. Und deshalb machen wir jetzt...
Florian Clauß
0:00:11–0:00:12
Arbeit!
Micz Flor
0:00:12–0:00:18
Nee, auch Arbeit. Schon aus Arbeit. Hallo! Willkommen zu Eigentlich Podcast.
0:00:19–0:00:24
Der Podcast, bei dem wir laufend reden und beim Laufen auch noch reden.
Florian Clauß
0:00:24–0:00:25
Ja, laufend reden quasi.
Micz Flor
0:00:25–0:00:27
Neben mir ist...
Florian Clauß
0:00:27–0:00:29
Oh, läuft auch dabei?
Micz Flor
0:00:29–0:00:33
Und ich bin Mitch und wir haben heute eine ganz besondere Folge,
0:00:33–0:00:39
nämlich die Folge nach der 52. Wie viele Wochen hat das Jahr?
Florian Clauß
0:00:39–0:00:40
52, oder?
Micz Flor
0:00:40–0:00:44
Wie oft erscheinen unsere Folgen?
Florian Clauß
0:00:44–0:00:46
Alle zwei Wochen.
Micz Flor
0:00:46–0:00:48
Das heißt, wir sind jetzt in
0:00:48–0:00:53
der ersten Episode des dritten Jahres und das ist schon ganz schön viel.
Florian Clauß
0:00:53–0:00:55
Zwei Jahre eigentlich Podcast.
Micz Flor
0:00:55–0:00:58
Genau, und zu drei Jahren machen wir dann auch gleich eine Trilogie und wir
0:00:58–0:01:01
nehmen heute alles in einem Fluss auf.
0:01:01–0:01:05
Die erste Folge ist quasi eine Gemeinschaftsfolge, die aber dann Flo schneiden
0:01:05–0:01:07
wird. Die zweite Folge ist Flo's Folge.
0:01:08–0:01:13
Ich habe ja zwei geschnitten, als du nach Freiburg warst. Und jetzt fährst du
0:01:13–0:01:14
wieder nach Freiburg, da schneidest du zwei.
0:01:15–0:01:21
Und dann die dritte Folge, die wahrscheinlich nur zwölf Minuten lang in die
0:01:21–0:01:24
Luft raus ist bei uns. Das ist dann meine Folge.
0:01:24–0:01:28
Und wir haben uns ein ganz besonderes thema ausgedacht was uns alle irgendwie
0:01:28–0:01:31
schon immer so ein bisschen kribbelt und auch irgendwie verbindet uns als ein,
0:01:32–0:01:36
typisches also ich denke viele menschen die ich kenne können mit dem oberthema
0:01:36–0:01:42
was ihr alle jetzt schon gelesen habt das hättet ihr einfach runter gesagt und,
0:01:43–0:01:46
schon kennt und das wird jetzt Flo kurz vorstellen.
Florian Clauß
0:01:46–0:01:51
Genau, weil dieses Thema ist auch schon lange, lange auf meiner Backlog-Liste
0:01:51–0:01:55
von eigentlich Themen, nämlich Solaris.
0:01:55–0:01:59
Und Mitch hat dann den Vorschlag gemacht, Mensch, hier zum zweijährigen Jubiläum,
0:01:59–0:02:05
lass uns doch über Solaris von Lem reden und dann über die jeweiligen filmischen
0:02:05–0:02:11
Adaptionen, nämlich von Tarkovsky und von Soderbergh.
Micz Flor
0:02:11–0:02:12
Soderbergh, genau. Genau.
Florian Clauß
0:02:12–0:02:18
Und so teilen wir uns auch an auf Mitch und ich machen zusammen von Stanisław.
Micz Flor
0:02:19–0:02:22
Stanisław, ja, lass mich da ganz kurz noch mal was zu sagen.
Florian Clauß
0:02:22–0:02:22
Stanisław Lem.
Micz Flor
0:02:23–0:02:31
Wir werden vielleicht sagen Lem, aber bevor wir den Namen kürzen,
0:02:31–0:02:36
dachte ich, wir können den ganz kurz uns noch mal richtig anhören,
0:02:36–0:02:37
wie er eigentlich klingt.
0:02:37–0:02:43
Und zwar spricht jetzt hier die Patentante deines Patenkindes.
0:02:44–0:02:51
Man spricht das so Stanislaw Lem. Okay, Stanislaw Lem. Stanislaw Lem.
Florian Clauß
0:02:51–0:02:54
Wir sagen aber Lem im Folgenden.
Micz Flor
0:02:54–0:02:56
Ich habe mein Leben lang Stanislaw gesagt.
Florian Clauß
0:02:57–0:03:04
Ich habe auch Stanislaw. Es hat diesen Buchstaben mit dem Strich von links unten.
0:03:04–0:03:06
Wusste ich auch nicht. Wir haben...
Micz Flor
0:03:06–0:03:06
Wie?
Florian Clauß
0:03:06–0:03:07
Wusste ich auch nicht.
Micz Flor
0:03:07–0:03:11
Ja, ich habe mit dem Standes... Also, Herr Lem,
0:03:11–0:03:16
die Frage, wie man das richtig ausspricht, meine Anekdote zu diesen Buchstaben
0:03:16–0:03:18
ist so, dass ich mit der Band mal in,
0:03:18–0:03:25
was wir im deutschen Schlager Lodz nennen, Theo, wir fahren nach Lodz,
0:03:25–0:03:31
was aber auch einen Strich vorne hat, das heißt W, und man spricht es aus.
0:03:33–0:03:38
Und als wir das dann erfahren haben, dann hat die Sängerin natürlich gleich
0:03:38–0:03:44
mit dem ersten Anspruch ans Publikum, wir waren damals Vorgruppe von Lydia Lunch,
0:03:45–0:03:49
und dann ist sie auf die Bühne und stellt sich vorhin hin und Wulz hat ganz
0:03:49–0:03:52
technisch mal gesagt so, hello Lutsch,
0:03:52–0:03:58
woraufhin die ganze Band halt ins Lachen ausgebrochen ist, was aber dann natürlich
0:03:58–0:04:02
für alle überhaupt nicht komisch war. Aber, ja.
Florian Clauß
0:04:02–0:04:07
Ja, wie ihr vielleicht hört, haben wir uns hier auch an einem Hauptverkehrspunkt
0:04:07–0:04:11
im Osten getroffen, nämlich dem Bahnhof Lichtenberg.
0:04:11–0:04:16
Und passend zu unserer Folge heute habe ich noch eine Tour ausgesucht,
0:04:16–0:04:21
die auch lange auf meiner Liste steht, weil ich finde die Tour super.
0:04:23–0:04:26
Beziehungsweise ich bin ja auch schon oft gefahren. Wir werden jetzt so Richtung
0:04:26–0:04:31
Herzberge gehen. und der eigentliche Grund, warum wir nach Herzberg gehen,
0:04:31–0:04:36
ist, da schließt sich neben dem die Allee der Kosmonauten an.
0:04:36–0:04:41
Und was gibt es Besseres, als die Allee der Kosmonauten zu diesem Thema zu begehen?
Micz Flor
0:04:41–0:04:43
Zwei Alleen der Kosmonauten.
Florian Clauß
0:04:43–0:04:48
Die Allee der Kosmonauten ist ja auch so verschachtelt, dass wir einmal auf
0:04:48–0:04:52
die Hauptstraße kommen, aber der Anfang der Allee der Kosmonauten liegt wirklich
0:04:52–0:04:54
in Herzberg herein und ist halt total im Grün.
0:04:54–0:04:58
Das ist wirklich überraschend, weil mit Allee der Kosmonauten stellt man sich
0:04:58–0:05:03
immer so eine Stalinallee im Osten vor, die gepickt ist von allen möglichen
0:05:03–0:05:06
Hochhäusern, aber ist nicht so.
0:05:06–0:05:09
Aber erstmal müssen wir noch ein bisschen den Lärm ertragen.
0:05:09–0:05:13
Wir gehen jetzt über diese Riesenbrücke, wo die Schienen drunter langführen.
0:05:15–0:05:18
Deswegen brauchen wir jetzt noch irgendein leichtes Thema, bevor wir in das
0:05:18–0:05:20
eigentliche Thema einsteigen.
0:05:21–0:05:26
Wir haben vor zwei Jahren am 26.05.
0:05:26–0:05:30
Unsere nullte Episode online gebracht.
0:05:34–0:05:34
Ja, stimmt.
Micz Flor
0:05:35–0:05:37
Worum ging es denn da nochmal?
Florian Clauß
0:05:37–0:05:40
Ja, was war denn das noch? Eigentlich die Nullte.
Micz Flor
0:05:42–0:05:44
Eigentlich die Nullte. Ja, das war der Trailer.
Florian Clauß
0:05:44–0:05:49
Da kam der Streicherchor noch mit rein, den du gebaut hast. Wir hatten ja noch viel vor.
0:05:49–0:05:53
Wir wollten ja noch rein musikalisch dann noch viel mehr machen.
0:05:53–0:05:58
Du wolltest ja auch irgendwie so eine MIDI-Matrix dann entwickeln, oder? Weißt du das noch?
Micz Flor
0:05:58–0:06:01
Ja, ja, ich hatte die Idee, dass man das vielleicht so computergeneriert,
0:06:01–0:06:07
immer Variationen eines ähnlichen Motivs und jede Folge hat eine gleiche und
0:06:07–0:06:09
immer doch wieder neue Intro-Musik und das,
0:06:09–0:06:13
was ich da hatte, war glaube ich, weiß nicht, Rübezahl, ich weiß gar nicht mehr genau.
0:06:13–0:06:16
Aber wo wir auf der brücke sind wollen wir zum
0:06:16–0:06:20
dritten jahr ich habe meine frage an dich weil ich
0:06:20–0:06:23
mache diesen podcast mit dir und ich
0:06:23–0:06:25
höre ja auch podcast und dann gibt es
0:06:25–0:06:28
ja so podcast wo man einfach die leute kennenlernen will und
0:06:28–0:06:33
dann hat man halt so zu und alles ist so ein bisschen locker und der infogehalt
0:06:33–0:06:39
ist da aber hat er so was panoramamäßiges und dann gibt es solche wissens podcast
0:06:39–0:06:42
die halt irgendwie so eine überschrift haben wo man denkt das will ich jetzt
0:06:42–0:06:45
aber auch wissen und wenn die dann aber vorneweg auch,
0:06:45–0:06:49
was man manchmal so Laber-Podcast nennt, wenn die vorneweg so viel sagen,
0:06:50–0:06:54
ey, wie geht es deinem Skateboard oder so, dann merke ich, dass es ungeduldig werde.
0:06:54–0:06:57
Du hast ja auch neulich in der Folge schon angesprochen, hast gesagt,
0:06:58–0:07:01
naja, wenn bei der tiefsten Folge unsere,
0:07:01–0:07:05
wie hast du das gesagt, so ein Marketing-Experte oder Expertin würde wahrscheinlich
0:07:05–0:07:09
Finger drauf halten und sagen, ihr müsst euch fokussieren, ihr habt keine klare
0:07:09–0:07:11
Botschaft, was ist euer Brand und so.
0:07:11–0:07:13
Und du meintest, aber das ist doch genau unser Brand.
0:07:14–0:07:16
Wir reden laufend und sind laufend.
0:07:17–0:07:24
Aber meine Frage wäre, sollten wir schneller im Thema einsteigen,
0:07:24–0:07:28
also wenn wir die Brücken vermeiden jetzt, oder sollten wir...
Florian Clauß
0:07:28–0:07:30
Ich habe deine Frage nicht verstanden.
Micz Flor
0:07:30–0:07:32
Sollten wir was ändern zum Jahr 3?
Florian Clauß
0:07:33–0:07:38
Wir hatten ja auch in den ersten Folgen, oh, der macht einen Wheelie.
0:07:42–0:07:47
Ein verrückter Ort, wirklich, so ein bisschen Lust hier.
0:07:47–0:07:52
Wir hatten ja also verschiedene Formate auch mal, die so, wie sagt man so,
0:07:52–0:07:56
in unserer Folge dann zum Schluss, was war dann eigentlich ja,
0:07:56–0:08:01
was war dann Wow-Effekt oder was war dann eigentlich Effekt bei dieser Folge, was hast du gelernt?
0:08:02–0:08:06
Das haben wir ja dann irgendwie ausgeschlichen, das hat sich ja auch nicht so richtig getragen.
0:08:06–0:08:10
Jetzt ist die Frage, was können wir ändern? Ich weiß nicht, fällt mir spontan
0:08:10–0:08:12
nichts ein. Nein, ich finde, wir haben uns jetzt ganz gut...
Micz Flor
0:08:13–0:08:16
Wir können alles verändern, aber wollen wir was verändern?
0:08:17–0:08:22
Wollen wir zum Beispiel schneller mit dem Thema einsteigen und nach hinten rausplaudern?
Florian Clauß
0:08:22–0:08:26
Ja, ich glaube, das wächst sich so. Also das geht schon so.
0:08:27–0:08:30
Ich fand jetzt, die letzten Folgen waren von der Dynamik her,
0:08:30–0:08:34
weil wir halt immer irgendwie auch auf den Weg reagieren und haben ja nicht
0:08:34–0:08:36
unser Skript vor uns liegen.
0:08:36–0:08:41
Manchmal gucken wir auf unsere mobilen Phones, was wir da noch an Notizen haben.
0:08:42–0:08:47
Ich will auch gleich mit einem Zitat einsteigen, weil wir haben uns ein bisschen aufgeteilt.
0:08:47–0:08:51
Ich habe gesagt, Mitch, mach du doch die Zusammenfassung, das kannst du so gut.
Micz Flor
0:08:51–0:08:56
Nach Expansion. Drei Bücher in 50 Minuten. Bitte sehr, danke schön.
Florian Clauß
0:08:57–0:08:59
Dann habe ich auch aus der Hörerschaftsrückmeldung gekommen.
0:09:00–0:09:02
War schon Wahnsinn, was der Mitch da alles im Kopf hat.
0:09:03–0:09:08
Wie er das da so, einen Geschichtstrang nach dem anderen einfach runterbeten
0:09:08–0:09:10
kann, ohne auszusetzen.
0:09:10–0:09:15
Beeindruckende Leistung. Deswegen mache ich so ein bisschen die Biografie von Lampen.
0:09:16–0:09:19
Wann hast du das erste Mal Solaris gelesen?
Micz Flor
0:09:19–0:09:20
Jetzt.
Florian Clauß
0:09:20–0:09:21
Wirklich?
Micz Flor
0:09:21–0:09:22
Du hast es nie gelesen?
Florian Clauß
0:09:23–0:09:25
Ich habe es nie gelesen. Ich war auch erschüttert.
Micz Flor
0:09:25–0:09:29
Da können wir gleich noch drüber reden. Ich habe schon die Episode angelegt,
0:09:29–0:09:31
weil ich so eine kleine Tabelle gegenübergestellt habe.
0:09:31–0:09:34
Eine Gegenüberstellung der drei Übersetzungen, die mir verfügbar waren.
0:09:35–0:09:36
Die eine deutsche und zwei englische.
0:09:36–0:09:39
Wobei eine englische aus dem französischen, was ich auch interessant fand.
0:09:40–0:09:46
Weil ich ja die Übersetzung war es wirklich der Bekost. Aber Entschuldigung,
0:09:46–0:09:47
das erste Mal und bei dir?
Florian Clauß
0:09:47–0:09:55
Ich habe das erste Mal, also ich habe ja viel in meinen Zwanzigern und als Jugendlicher
0:09:55–0:09:56
habe ich ja viel gelesen.
0:09:56–0:10:02
Und Solaris habe ich tatsächlich, glaube ich, so mit Anfang Zwanziger das erste Mal gelesen.
0:10:03–0:10:05
War sehr beeindruckt von der.
0:10:06–0:10:10
Ich mochte es sofort. Aber kann man auch gleich über ihn reden.
Micz Flor
0:10:10–0:10:15
Genau, dann würde ich sagen, wir fangen einfach mal mit Stanislaw Lem an.
0:10:17–0:10:25
Und du erzählst mal so ein bisschen etwas über den Autoren und Wissenschaftler oder Ingenieur.
Florian Clauß
0:10:26–0:10:32
Na, Stanislaw Lem ist 1921 in Lemberg, das ist so heute Ukraine, geboren.
0:10:33–0:10:37
Machen wir gleich das Todesdatum 2006. Also er ist relativ alt geworden.
0:10:37–0:10:42
Also 2006 ist ja noch nicht so lange her. Und hatte dann auch noch bis ins hohe
0:10:42–0:10:44
Alter hinein immer wieder eine Stimme.
0:10:44–0:10:53
Viel Essays verfasst in seinem Leben, die dann häufig anekdotisch philosophisch
0:10:53–0:10:58
waren und veröffentlicht in Zeitlogen und Zeitschriften, Magazin.
0:10:58–0:11:05
Ich habe dann bei meinen Recherchen im Netz eine auf der Wayback-Maschine,
0:11:05–0:11:07
weil die Seite war gar nicht mehr online,
0:11:08–0:11:14
von dem polnischen, von der polnischen Botschaft, die haben quasi so ein von
0:11:14–0:11:18
Stanislaw Lem, eine Biografie veröffentlicht mit seinen Werken und so weiter.
0:11:18–0:11:23
Also es ist im Rahmen von bekannten Persönlichkeiten aus der Kultur, aus Polen.
0:11:23–0:11:28
Und da ist ein Zitat, was ich gerne jetzt vorlesen möchte, weil da,
0:11:28–0:11:30
glaube ich, sehr viel zusammenkommt.
0:11:30–0:11:35
Und zwar, das Gedankengebäude, das uns Lem in seiner Prosa präsentiert,
0:11:35–0:11:40
ist dies jedoch keine in Traktaten erstarrte Philosophie.
0:11:40–0:11:44
Bei Lem ist Philosophie in ungeheuerliche Visionen verpackt,
0:11:44–0:11:50
in heilsbrecherische Abenteuer und in Erzählungen, die einem wohligen Schauer über den Rücken jagen.
0:11:51–0:11:55
Man kann die Helden von Lem begleiten, auch wenn man gar nicht bemerkt,
0:11:55–0:11:59
wie tiefschürfend die Probleme sind, die in seinen Abenteuerromanen illustriert werden.
0:12:00–0:12:04
Lem bleibt nämlich als Autor und Fantast immer noch ein Kind,
0:12:05–0:12:10
sicher ein nizianisches Kind, aber immer, genauso wie vor vielen Jahren,
0:12:10–0:12:14
dürstet es ihn nach Abenteuern in der unermesslichen Welt der Fantasie.
0:12:15–0:12:18
Das Tor zu dieser Welt ist leicht passierbar.
0:12:18–0:12:24
Es kann auch der Halbwüchsige leicht hindurch, der über die Abenteuer des Pilot Pirx begeistert ist,
0:12:24–0:12:30
der sich über die kosmischen Herrscher der Robotermärchen oder über die exzellenten
0:12:30–0:12:34
Lügengeschichten des Münchhausen-Tichy amüsieren will.
0:12:34–0:12:39
Kaum hat er es sich jedoch versehen, hat ihn der Autor schon in die fröstigen
0:12:39–0:12:43
Höhen entführt, auf denen er sich sogleich mit Fragen befassen muss,
0:12:43–0:12:45
die ihn als Mensch betreffen.
0:12:45–0:12:50
Den Menschen, der die sich immer weiterentwickelnde Intelligenz und Biologie
0:12:50–0:12:54
verkörpert, der schlussendlich Mitstreiter Gottes bei der Schöpfung ist,
0:12:55–0:12:59
wobei seine Aufgabe nicht nur im Schöpfungsvorgang besteht,
0:12:59–0:13:02
sondern auch im Verstehen und Erkennen von Wertigkeiten.
0:13:03–0:13:08
Also das fasst das, glaube ich, ganz gut nochmal zusammen, was für ein Panoptikum
0:13:08–0:13:11
von Geschichten Lem erschaffen hat.
0:13:12–0:13:17
Nämlich die ersten Bücher, aber das hast du doch gelesen, die Sterntagebücher.
0:13:19–0:13:23
Die Sterntagebücher mit der Hauptfigur Pürx, die sind großartig.
Micz Flor
0:13:24–0:13:28
Stimmt, ich erinnere mich jetzt auch an die 1990er-Jahre, hast du mir davon
0:13:28–0:13:32
auch schon mal erzählt. Kann es sogar sein, dass du mir die zugesteckt hast?
Florian Clauß
0:13:32–0:13:37
Das weiß ich nicht, aber das ist bestimmt. Was wir auf jeden Fall zusammen dann
0:13:37–0:13:39
auch mal geschaut haben, ist die Adaption.
0:13:39–0:13:44
Es gab vom ARD, ich glaube, das war in den 2000ern, sondern so eine Verfilmung
0:13:44–0:13:48
von den, es war nicht Sternenwerke, es war Ijen Tiché, Sternenwerke.
Micz Flor
0:13:49–0:13:49
Ja, genau.
Florian Clauß
0:13:49–0:13:52
Und das spielt in so einer Altbauwohnung.
Micz Flor
0:13:52–0:13:53
Ja, das ist großartig.
Florian Clauß
0:13:53–0:13:58
Also sehr trashig produziert, aber unglaublich, also war unglaublich lustig.
Micz Flor
0:13:59–0:14:02
Ja, du hattest die, glaube ich, gerippt irgendwie da und dann kam die Nummer
0:14:02–0:14:05
auf DVD raus und da hatten die dann, jetzt habe ich den Namen vergessen,
0:14:06–0:14:09
die, wie hieß die denn nochmal, das war quasi die virtuelle Frau,
0:14:09–0:14:13
die eine Schauspielerin, die damals auch sehr trending war und den Namen vergessen.
0:14:13–0:14:15
Die wurde dann, glaube ich, später noch reingeschnitten.
Florian Clauß
0:14:15–0:14:19
Ja, genau, stimmt. Die haben das dann mal so digital veredelt. Ja, die hatten das.
Micz Flor
0:14:19–0:14:21
Glaube ich, aufgemotzt. Die war, glaube ich.
Florian Clauß
0:14:21–0:14:22
Vorher gar nicht drin.
Micz Flor
0:14:22–0:14:24
Oder die hatten die vorher rausgeschnitten und dann wieder reingenommen.
Florian Clauß
0:14:24–0:14:26
Ich glaube, die haben die jetzt wirklich, weil es zu trashig war,
0:14:26–0:14:29
wollten die noch eine Leia draufsetzen, damit es noch ein bisschen schicker wird.
Micz Flor
0:14:29–0:14:30
Eine Leia Organa.
Florian Clauß
0:14:31–0:14:37
Eine Leia, genau. Lem ist in einem gutbürgerlichen Haushalt aufgewachsen.
0:14:37–0:14:40
Er kommt aus einer jüdischen Familie,
0:14:41–0:14:46
recht wohlhabend und hat am Anfang auch mit, also er ist, wie gesagt,
0:14:46–0:14:51
1921 geboren, hat dann Philosophie und Medizin studiert, keine Abschlüsse gemacht,
0:14:51–0:14:52
der Krieg kam dazwischen.
0:14:52–0:14:56
Also er galt auch damals, das finde ich ganz interessant, er galt.
0:14:58–0:15:03
Intelligentesten Kinder in Südpol. Es gab so eine Vorform von einem,
0:15:05–0:15:13
IQ-Test, der ihm dann so eine Intelligenz-Prozent von 180 attestierte. Keine Ahnung.
Micz Flor
0:15:13–0:15:15
Also nicht nur Stannis Waff, sondern auch Stannis Wow.
Florian Clauß
0:15:16–0:15:20
Genau. Stannis Wow. Ich finde, man merkt es schon so.
0:15:21–0:15:26
Man kriegt schon so eine Persönlichkeit damit, die schon sehr nerdig ist,
0:15:26–0:15:30
die sich da schon sehr der in diese Themen reinwuchsen kann und gleichzeitig
0:15:30–0:15:34
aber auch so ein Freigeist ist, weil er wirklich dann in keinem,
0:15:34–0:15:35
also er hat keinen Abschluss gemacht,
0:15:35–0:15:40
das hat ihn nicht so interessiert, dieses Studium der Medizin.
0:15:40–0:15:43
Er hat sich dann wirklich so diesen künstlerischen, diesen literarischen Themen
0:15:43–0:15:47
zugewandt. Das ist ja auch erstmal ein Schritt, den muss man ja machen in der Zeit.
0:15:47–0:15:52
Und sich da auch so ein Feld erarbeiten zum Mal Science Fiction als Genre,
0:15:52–0:15:56
ja nicht das höchst anerkannteste war damals.
0:15:56–0:16:04
Das war ja eher so ein B-Movie, im B-Picture-Bereich. Auch in der Literatur war das ja auch sehr...
Micz Flor
0:16:04–0:16:06
Na gut, in der Zeit weiß ich nicht. Aber das war, glaube ich,
0:16:06–0:16:11
schon die Zeit, wo auch in Amerika unglaublich viele Analogien,
0:16:11–0:16:13
War of the Worlds, das war ja alles schon...
Florian Clauß
0:16:13–0:16:18
Das kam, ja, stimmt. Also genau, Orson Welles und Huxley.
0:16:19–0:16:24
Also die erste Roman, die Sterntagebücher, kamen dann 1957 raus.
Micz Flor
0:16:24–0:16:27
Und noch später als ich dachte also da war ja
0:16:27–0:16:31
wirklich schon diese auch diese ganze assoziation der
0:16:31–0:16:36
assoziative raum mit dem anderen mit dem feind mit den russen in amerika war
0:16:36–0:16:40
ein riesenthema also diese ich denke dass da schon science fiction also eine
0:16:40–0:16:47
hochburg war in der zeit allerdings natürlich nicht innerhalb des literaturbetriebs
0:16:47–0:16:50
so so hoch angesehen also etwas.
Florian Clauß
0:16:50–0:16:56
Was leben auch so nachgesagt wird, ist, dass in seinen ersten Werken noch so
0:16:56–0:17:01
eine ganz große Begeisterung für Technologie und Wissenschaft herrscht.
Micz Flor
0:17:01–0:17:04
Du bist jetzt aber komplett über den Zweiten Weltkrieg drübergegangen.
Florian Clauß
0:17:04–0:17:08
Ja, er war ein sehr intelligenter junger Mann und hatte auch,
0:17:09–0:17:10
glaube ich, Kriegserfahrung.
0:17:10–0:17:14
Aber ich habe jetzt auch nicht weiter gelesen, was er da gemacht hat.
0:17:14–0:17:18
Aber mit so einem Schwung kam er dann quasi in die Welt und hat dann auch angefangen
0:17:18–0:17:23
zu schreiben, relativ schnell, in den 50er Jahren. und hat seine ersten Romane
0:17:23–0:17:28
und Schriften veröffentlicht, Poser da auch, also Fiction quasi geschaffen.
0:17:28–0:17:32
Und genau, da habe ich jetzt nicht so viel dazu gefunden.
Micz Flor
0:17:33–0:17:37
Das ist eine Sache, ja, weil ich habe da gar nicht mehr so in die Biografie
0:17:37–0:17:39
reingelegt, aber ich hatte irgendwo das mal so aufgegriffen,
0:17:40–0:17:46
dass er zum Beispiel sich natürlich keine Gedanken gemacht hat, dass er jüdisch sei.
0:17:46–0:17:49
Ich habe sogar, glaube ich, irgendwo gelesen, er wusste gar nicht,
0:17:49–0:17:53
dass er jüdisch sei. Bis das dann irgendwie auf einmal Thema wurde, politisch.
0:17:57–0:18:00
Da war ich jetzt, also ich bin da jetzt nicht tiefer eingestiegen,
0:18:00–0:18:04
aber es ist halt eben so ein Identitätsthema.
0:18:04–0:18:08
Also das glaube ich auch so ein bisschen dieses, was in Solaris so ein bisschen
0:18:08–0:18:13
auftaucht, auch dieses dysphorische Humanismusbild, so von wegen,
0:18:13–0:18:16
wie kann man jemanden erkennen,
0:18:17–0:18:21
wie kann man jemanden sehen, was heißt Identität, kann man das duplizieren, erschaffen oder so.
0:18:21–0:18:24
Also das, was da so ein bisschen für mich mitschwingt, eben da kam ich drauf.
0:18:24–0:18:27
Also dass das für ihn die Identität auf einmal sich als jüdisch zu verstehen,
0:18:28–0:18:32
für ihn, das ist jetzt keine bewertende gut oder schlecht natürlich,
0:18:32–0:18:34
aber einfach für ihn ein völlig neuer Aspekt war, das eigene,
0:18:34–0:18:38
also sein Selbst quasi zu konstituieren vor diesem Hintergrund,
0:18:38–0:18:41
was einfach für ihn die Thema war. So hatte ich das wahrgenommen.
0:18:41–0:18:46
Und dass dann natürlich die Erfahrung des Zweiten Weltkriegs und dieser Identitätswandel,
0:18:46–0:18:47
den er durchziehen musste,
0:18:48–0:18:53
weil er von außen eben als solcher gesehen wurde, ihn auch wohl in seinem Blick
0:18:53–0:18:58
auf Menschheit und Wissenschaft und so ein bisschen geprägt hat und er sich
0:18:58–0:19:01
eher der Wissenschaft zugehörig fühlte als dem Humanismus.
0:19:01–0:19:05
Das ist jetzt aber von mir ganz unten aus dem Regal gegriffen.
Florian Clauß
0:19:05–0:19:09
Aber was meinst du mit er der Wissenschaft als den Humanismus?
0:19:09–0:19:13
Weil ihm wird ja so noch ein ganz starker Humanismus,
0:19:13–0:19:17
wird mit ihm Verbindung gebracht, weil er ja da diese Wertigkeit,
0:19:17–0:19:20
die Moral auch, was wir da gerade in dem Zitat gehört haben,
0:19:20–0:19:27
immer wieder darauf zurückgeht und guckt, was ist die Menschlichkeit in den Systemen.
Micz Flor
0:19:27–0:19:31
Gut, aber dann kritisch gegenüber einem Humanismus, also da kommen wir dann
0:19:31–0:19:35
bei Solaris natürlich gleich noch drauf, dass der Mensch vielleicht ja gar nicht
0:19:35–0:19:39
in der Lage ist, anderes wirklich wahrzunehmen, sondern immer nur sich selbst sucht.
0:19:39–0:19:42
Das ist ja auch ein Zitat, was dann in Solaris so direkt vorkommt.
0:19:42–0:19:48
Also dass er da große Defizite in dem humanistischen Menschenbild sieht,
0:19:48–0:19:54
weil man nie hinter den Mensch schauen kann.
Florian Clauß
0:19:55–0:19:56
Dieser Anthropomorphismus.
Micz Flor
0:19:56–0:20:01
Ja, der aber eben in der Wissenschaft auch immer eine große Gefahr sein kann,
0:20:01–0:20:03
weil man eben immer per se biased ist.
0:20:04–0:20:09
Und dass das irgendwie als Spur gelegt wurde in dieser Jugendzeit,
0:20:09–0:20:10
frühen Erwachsenenzeit.
Florian Clauß
0:20:10–0:20:15
Okay, können wir mal mitnehmen, vielleicht ist es irgendwie die jüdische Identität,
0:20:15–0:20:21
die auf einmal quasi zum Thema wird, weil es eigentlich eine politische Motivation dahinter steht.
Micz Flor
0:20:22–0:20:25
Ich würde es da abstrahieren, weil ich würde sagen, es geht nicht um die jüdische
0:20:25–0:20:29
Identität, sondern um diese Erfahrung an sich selbst, dass man auf einmal etwas
0:20:29–0:20:32
ganz anderes ist, als man sich selbst gesehen hat und sich auch mit diesem Blick
0:20:32–0:20:34
der anderen auf sich auseinandersetzen muss.
Florian Clauß
0:20:35–0:20:36
Aber durch äußere Umstände.
Micz Flor
0:20:36–0:20:40
Genau. Und da ist es egal, was dieser Swap ist.
0:20:40–0:20:44
Also es geht einfach nur darum, wie schnell deine eigene Identität von außen
0:20:44–0:20:47
umgekrempelt wird und du dann dich damit arrangieren musst.
0:20:47–0:20:53
So und die Wahrheit natürlich oder das Reale dann dahinter nicht mehr ergreifbar ist.
Florian Clauß
0:20:54–0:20:59
Ja, also was wir auf jeden Fall auch bei Lem so mitnehmen, ist,
0:20:59–0:21:07
dass er ein, wenn er sich mit Technik beschäftigt, ist er da so tief durchgedrungen.
0:21:07–0:21:11
Ja, also er hat viele Erfindungen, die dann später dann tatsächlich produziert
0:21:11–0:21:15
wurden, wie zum Beispiel so eine 3D-Brille oder sowas, hat er schon so gedanklich
0:21:15–0:21:18
vorweggenommen, hat auch da Zeichnungen gemacht und so weiter.
0:21:18–0:21:23
Also das heißt, er hatte eine unglaublich visionäre Kraft, in dem er sich auch
0:21:23–0:21:28
ganz intensiv mit bestimmten technischen Entwicklungen auseinandergesetzt hat.
0:21:28–0:21:31
Mit wissenschaftlichen Entwicklungen, mit technischen Entwicklungen.
0:21:31–0:21:35
Tatsächlich so weit, dass er so eine Informationsgesellschaft hat,
0:21:35–0:21:36
die er auch so vorweggenommen hat.
0:21:37–0:21:41
Also diese Nähe zur Kybernetik, die er auch da mit aufbaut, auch bei seinen
0:21:41–0:21:44
Figuren immer mit reinholt.
Micz Flor
0:21:44–0:21:47
Auch ein Charakter in Solaris ist der Kybernetiker.
Florian Clauß
0:21:47–0:21:52
Ist Kybernetiker, genau. Das hat er so weit durchdacht, dass er darauf auch
0:21:52–0:21:54
wieder eine Kritik formulieren kann.
0:21:54–0:21:58
Also das heißt, wenn wir wieder von diesem Begriff des Worldbuildings ausgehen,
0:21:58–0:22:03
die Welt, die Lem auch gebaut hat, hat teilweise Leerstellen,
0:22:03–0:22:08
teilweise aber so unglaubliche Entwicklungsvorsprünge, die er da gemacht hat, geleistet hat.
0:22:08–0:22:14
Und darauf baut er dann ein gewisses moralisches System auf oder eine Wertigkeit.
0:22:14–0:22:19
Das ist das Spannende, wie er dann damit umgeht und wie er da die Geschichten entwickelt.
0:22:20–0:22:24
Und das ist eigentlich so auch der Spätere. Es wird ihm dann nachgesagt,
0:22:24–0:22:28
die ersten Romane, die er da geschrieben hat, also Sterntagebücher,
0:22:28–0:22:33
die sind auch so teilweise humoristisch, sehr lustig und paradox.
0:22:34–0:22:41
Dann gibt es Eden von 1959, habe ich nicht gelesen, Erforschung eines fremden Planetens.
0:22:41–0:22:47
Dann kommt 1961 Solaris und Solaris ist ja so eines der bekanntesten Bücher,
0:22:47–0:22:52
die aber am Anfang gar nicht so sich im Westen und im Osten,
0:22:52–0:22:54
also von Deutschland, so verbreitet haben.
0:22:54–0:22:58
Deswegen ist die westdeutsche Übersetzung auch sehr schlecht.
0:22:59–0:23:01
Das habe ich da in dem Zusammenhang gelesen, dass die da halt so.
0:23:02–0:23:07
Das irgendwann verlegt wurde, aber eine nicht so qualitativ hochwertige Übersetzung.
0:23:07–0:23:14
Und im Osten wurde es ihm aufgrund dieser, ja, diesen Zustands,
0:23:14–0:23:18
den Solaris beschreibt, wurde er jetzt nicht so verlegt.
0:23:18–0:23:25
War doch als etwas, ja nicht systemkritisch, aber war zumindest so in die Ecke da eingestuft worden.
Micz Flor
0:23:25–0:23:29
Also es war so, in der DDR erschien das auch nicht, wobei das ist jetzt in der
0:23:29–0:23:31
Biografie natürlich nicht wirklich Thema, sondern später.
0:23:31–0:23:35
Aber es war so, dass es gibt eine deutsche Übersetzung aus der DDR,
0:23:36–0:23:39
die ich nicht gelesen habe und wo es hieß von dem, was ich darüber gelesen habe,
0:23:40–0:23:47
dass die DDR-Ausgabe auch gekürzt wurde oder deutlich gekürzt oder umgestellt
0:23:47–0:23:52
wurde, vor dem Hintergrund zu sagen, es sei insgesamt so deprimierend.
Florian Clauß
0:23:52–0:24:00
Ja, 1968 hat der Pilot Pirx geschrieben, dann kommt mit 1971 der Fotorologische
0:24:00–0:24:02
Kongress, auch ein großartiges Buch.
0:24:03–0:24:09
Hast du den gelesen? Da geht es auch um eine Figur aus seinem Figuren-Universum,
0:24:09–0:24:16
nämlich Tichet besucht einen futurologischen Kongress.
0:24:17–0:24:20
Die kriegen alle so bewusstseinserweiternde Drogen. Ich weiß nicht,
0:24:20–0:24:23
ob die das bewusst nehmen oder ob das wieder übers Trinkwasser kommt.
0:24:24–0:24:31
Und alles geht aus den Fugen. Und es wird wie so ein Drogentrip beschrieben,
0:24:31–0:24:34
aber gleichzeitig halt dieser Futurismus, der dahinter steht.
0:24:34–0:24:39
Also ich finde auch bei Lem hat man deswegen hier diese Tour,
0:24:39–0:24:43
dieses osteuropäische Ästhetik da mit drin.
0:24:43–0:24:47
Also wir waren mal zusammen in Prag, da gab es ja auch diesen Fernsehturm,
0:24:47–0:24:49
der 1989 dann fertiggestellt wurde.
Micz Flor
0:24:50–0:24:51
Täter heißt der, glaube ich.
Florian Clauß
0:24:51–0:24:57
Ja, und an diesem Turm hängen dann so Babys oder Kleinkinder,
0:24:57–0:25:04
die dann krabbelnd auf die Turmspitze zu, als riesendimensionierte Kinder da.
Micz Flor
0:25:05–0:25:08
Ja, die sind bestimmt 15 Meter hoch oder sowas, muss man dazu sagen.
0:25:08–0:25:10
Ich weiß nicht, ob die noch da sind, ich weiß auch länger nicht in Prag,
0:25:10–0:25:12
weil die kamen später dazu.
Florian Clauß
0:25:12–0:25:16
Die kamen später dazu, richtig. Aber es hat mich auch an eine Szene aus Solaris
0:25:16–0:25:18
erinnert, als ich das gesehen habe.
0:25:18–0:25:23
Und diese Ästhetik, die auch dieser Turm hat, so in der Kosmologie,
0:25:23–0:25:30
sich dann wiederfindet. Also dieses unglaubliche Fassaden von...
Micz Flor
0:25:30–0:25:32
Diese brutale Architektur.
Florian Clauß
0:25:32–0:25:36
Nicht Brutalismus, sondern es ist ja auch irgendwie auch verschnörkelt,
0:25:36–0:25:39
wenn du dir die Stalinallee anguckst.
0:25:39–0:25:45
Die ist ja auch dann immer so quasi so gebaut, dass es jetzt im Detail jetzt nicht,
0:25:46–0:25:50
dich erschlägt, sondern es hat ja dann durchaus so ästhetische Elemente.
0:25:50–0:25:52
Wer im Brutalismus ist, ist ja teilweise total erschlagen.
0:25:53–0:25:54
Das ist ja nicht schön dann mehr.
Micz Flor
0:25:55–0:25:57
Ja, das stimmt. Also ich glaube schon, dass der Eindruck da im S,
0:25:57–0:26:00
wobei Prag nochmal anders ist, weil die Stadt auch viel mehr Knochen hat,
0:26:00–0:26:07
finde ich. Da sind so Berge und Gebirge und so. Die Häuser jetzt aus den Vorwendezeiten
0:26:07–0:26:09
hier gebaut wurden, die finde ich schon teilweise sehr,
0:26:11–0:26:15
mächtig im Sinne von bestimmend und bedrohlich.
0:26:16–0:26:21
Und generell habe ich immer das Gefühl, es gibt sowas wie eine Fassade der Gesellschaft.
0:26:21–0:26:27
Und das war für mich so ein Aha-Effekt, als ich erfahren habe nach dem Mauerfall,
0:26:27–0:26:32
dass es halt so bestimmte Häuser gibt hier oben im Prenzlauer Berg,
0:26:33–0:26:36
wo immer, wenn einmal im Jahr die Kameras draufstanden und Honecker da irgendwie
0:26:36–0:26:40
durchgefahren ist, da wurden halt bestimmte Häuser scheinbar angemalt und fertig gemacht.
0:26:40–0:26:43
Aber halt nur die, die in der Kamera waren, alles da neben rechts und links.
Florian Clauß
0:26:43–0:26:47
Ja, ich glaube, die Anekdote läuft auch so, dass es wirklich so ist.
0:26:47–0:26:49
Er ist ja immer im Volvo gefahren, Honecker.
0:26:49–0:26:53
Und das heißt, die Sichtkante von seinem Fenster, das, was er,
0:26:53–0:26:55
Honecker selber sieht, nicht nur die Kamera, sondern Honecker selber,
0:26:56–0:26:58
das heißt, die Sichtkante von seinem Volvo-Fenster.
Micz Flor
0:26:58–0:26:58
Er auch, ja.
Florian Clauß
0:26:58–0:27:02
Das war quasi die Linie, wo dann halt die Fassaden renoviert wurden.
Micz Flor
0:27:02–0:27:06
Müssen wir nochmal proben, diese Theorien, weil das sind jetzt zwei sehr gegensätzliche
0:27:06–0:27:07
Blickwinkel natürlich. Natürlich.
0:27:07–0:27:13
Aber das ist, finde ich, so ein bisschen Veranschaulichung dieses fassadären
0:27:13–0:27:17
Themas der Gesellschaft, so dass da hinter den Masken, was passiert denn da?
0:27:17–0:27:21
Und in gewisser Weise, um wieder zu Solaris zu greifen, hat man das Gefühl,
0:27:21–0:27:24
da gibt es so eine Station und die ist ganz wichtig.
0:27:24–0:27:29
Und gleichzeitig, was da genau passiert, so richtig weiß es dann doch keiner.
0:27:29–0:27:31
Die sind alle sehr alleingelassen.
Florian Clauß
0:27:32–0:27:37
Ja, das stimmt. Also um die Biografie, wir können ja jetzt gleich in den Roman
0:27:37–0:27:38
einsteigen, abzuschließen.
0:27:38–0:27:43
Also der Stanislav Lem war so ein Freigeist.
0:27:43–0:27:49
Er war auch so einer, der dann wirklich entgegen von anderen Meinungen doch
0:27:49–0:27:51
immer sehr diskursbestimmt war.
0:27:51–0:27:56
Mit seiner Form dann auch wirklich so in sein Zimmer sich einzuschließen,
0:27:56–0:27:58
Sachen zu durchdenken und dann
0:27:58–0:28:02
so ein Essay zu veröffentlichen oder eben diese Bücher zu produzieren.
0:28:02–0:28:06
Solaris wurde, glaube ich, in einem Jahr geschrieben.
0:28:07–0:28:14
1960 angefangen und 1961 wurde es veröffentlicht und hat das dann durchweg durchgeschrieben.
0:28:15–0:28:20
Und am Ende, also seinen letzten Roman, das war dann so in den 80ern,
0:28:21–0:28:23
hat er geschrieben. Dann hat er irgendwann auch das Schreiben aufgehört.
0:28:23–0:28:28
Und es gibt noch so ein legendäres Interview, was er noch so kurz vor seinem Tod gehalten hat.
0:28:28–0:28:31
Das können wir nochmal verlinken. Das ist ganz interessant, weil er dann auch
0:28:31–0:28:35
selber sagt, Nee, ich bin dann auch irgendwann nicht mehr, habe ich die geistige
0:28:35–0:28:39
Kapazität, nicht mehr so Romane zu schreiben. Und das ist ganz gut, wenn das andere machen.
0:28:39–0:28:44
Und er hat dann auch immer noch so Zeitgeschichte kommentiert und dazu sich
0:28:44–0:28:48
geäußert. Aber er hat dann so ein bisschen so sich nicht mehr in den Romanen
0:28:48–0:28:54
dann halt auch ausgedrückt, sondern eher so in Artikeln und Essays und so weiter.
0:28:54–0:28:57
Ja, genau so viel zu Stonis Wavlem.
Micz Flor
0:28:57–0:29:01
Ja, da möchte ich eine Anekdote, die ich irgendwo gelesen hatte,
0:29:01–0:29:05
noch anhängen. Kennst du die mit Philip K. Dick und Stanislaw Lem?
Florian Clauß
0:29:06–0:29:06
Nein.
Micz Flor
0:29:06–0:29:11
Weil da war es wohl so, dass Lem hatte schon natürlich so eine bestimmte Macht
0:29:11–0:29:15
im Literaturbetrieb und der hat sich eingesetzt, dass Philip K.
0:29:15–0:29:18
Dick wohl übersetzt wird ins Polnische, glaube ich, oder so.
0:29:18–0:29:21
Also da hat er sich so stark gemacht und hat dann auch versucht, Kontakt aufzunehmen.
0:29:21–0:29:26
Und Philip K. Dick war da scheinbar schon nicht mehr in der besten Phase seines Lebens.
0:29:26–0:29:30
Der ist dann wohl zum CIA gegangen und hat gesagt, dass irgendeine russische,
0:29:30–0:29:33
die wollen ihn da irgendwie unterlaufen. Die hießen Stanislaw Lem.
0:29:33–0:29:37
Und da müsste er es ja eh mal gucken, weil er möchte ja nichts mit zu tun haben.
0:29:37–0:29:40
Wollte es irgendwie weghalten. Hatte halt Sorge, als Stanislaw Lem,
0:29:40–0:29:44
der dann selber dachte, qua persona, hallo, ich bin es.
0:29:44–0:29:47
Wir sprechen auf Augenhöhe. Trifft dann auf einen verstörten,
0:29:47–0:29:49
alkoholisierten Philipp K. Dick.
Florian Clauß
0:29:49–0:29:54
Ja, aber der war ja eh, der Teil hat mir ja doch schon mal drüber gesprochen.
Micz Flor
0:29:54–0:29:55
Ja, ja, genau. Aber deshalb kam ich noch mal.
Florian Clauß
0:29:55–0:29:56
Voll in dieser Nixon-Ära.
Micz Flor
0:29:56–0:30:01
Es passt einfach so gut in dieses Bild rein. Die Russen haben mich kontaktiert.
0:30:02–0:30:03
Das muss ich übernehmen.
Florian Clauß
0:30:05–0:30:08
So, wir sind jetzt hier in der Herzberge. Das ist die Stadtfarm.
Micz Flor
0:30:08–0:30:10
Hat sich hier aufgebaut.
Florian Clauß
0:30:10–0:30:13
Auch so, ich glaube, das ganze Gebiet war dann so vor 20 Jahren.
0:30:14–0:30:17
Da hat er dann die Stadt überlegt, was macht sie hier mit dem Gebiet.
0:30:17–0:30:21
Stadtfarm ist so ein kleiner Betrieb, städtisch gefördert.
0:30:21–0:30:27
Und ich glaube, hier ist die größte Produktion an Fisch aus der Stadtfarm.
0:30:27–0:30:29
Hier gibt es nämlich so Viktoria-Seebarsch.
Micz Flor
0:30:29–0:30:29
Ja, wirklich.
Florian Clauß
0:30:29–0:30:33
Ja, und die bauen den an. Und die haben dann auch so ein Anbausystem.
0:30:34–0:30:36
Ja, die werden tatsächlich,
0:30:36–0:30:40
also das heißt, aus dem Fischkot und so weiter werden dann halt so schwimmende
0:30:40–0:30:45
Hochbeete gemacht, wo dann der Salat drauf wächst und so weiter.
0:30:45–0:30:48
Also die haben da so ein ganzes Kreislaufsystem hier aufgebaut,
0:30:48–0:30:50
aber es sieht so ein bisschen verwahrt aus.
Micz Flor
0:30:51–0:30:56
Es sieht lustigerweise halt so aus, wie in Tarkovskys Solaris-Verfilmung irgendwas aussehen könnte.
0:30:56–0:31:01
Es ist einer von diesen Orten, die finde ich eigentlich immer wunderbar,
0:31:01–0:31:06
wo die Orte funktional hergestellt werden und dann so ein Patina entwickeln,
0:31:06–0:31:08
weil keiner so richtig draufschaut.
0:31:08–0:31:11
Es wird immer noch mal gemäht, aber es wird trotzdem halt auch viel gelassen,
0:31:11–0:31:16
was im Westdeutschland ich immer nur an Zug, so Bahnhöfen kannte.
0:31:16–0:31:19
Da gab es immer zwei, drei Gleise bei größeren Bahnhöfen, wo dann einfach so
0:31:19–0:31:22
Holunderbüsche aus den schienen. Das fand ich immer ganz zauberhaft.
0:31:23–0:31:26
Und das hier ist so ein Ort mit
0:31:26–0:31:30
ein paar Neuerungen, die dann hier ganz pragmatisch diese Pipeline Also.
Florian Clauß
0:31:30–0:31:34
Die hatten auch eben das Modell, dass hier gibt es einen Markt,
0:31:34–0:31:38
da war ich auch schon ein paar Mal, da kann man Samstag und Sonntags kann man
0:31:38–0:31:42
hier einkaufen oder Samstag glaube ich nur, kann man halt Gemüse kaufen aus
0:31:42–0:31:46
dieser Anbau aber ich habe jetzt gelesen im Wikipedia Artikel,
0:31:46–0:31:49
dass dann nach Corona, also während Corona ist es komplett,
0:31:50–0:31:53
eingebrochen und Der Markt. Der Markt, ja.
0:31:53–0:31:57
Und dann hatten die halt so ein Abo-Modell aufgebaut.
0:31:57–0:32:00
Das heißt, dass du halt hier für eine gewisse Gebühr dann halt immer deinen
0:32:00–0:32:03
Obst- und Gemüsekorb bekommst.
Micz Flor
0:32:03–0:32:09
Also wo wir jetzt gerade vorstehen, das sieht so aus wie der größte urbane Ort,
0:32:09–0:32:11
wo Viktoriabarsche abwesend sind.
Florian Clauß
0:32:11–0:32:15
Ja, weil da hinten sind tatsächlich, wenn du mal guckst, hier kommt noch eine
0:32:15–0:32:20
Halle und da hinten sind so die ganzen Aquarien drin.
0:32:22–0:32:25
Und ich dachte, wir könnten hier nochmal, da kann man nochmal auf den Friedhof
0:32:25–0:32:27
gehen. Ach, ganz toll. Angrenzen.
Micz Flor
0:32:28–0:32:30
Herzberge, war das nicht auch diese große Nerven-Highland-Stadt?
Florian Clauß
0:32:30–0:32:37
Genau, genau. Also Herzberge, das ist das königliche Elisabeth-Krankenhaus Herzberge.
0:32:38–0:32:42
Also kommen wir gleich nochmal nachher zu. Und hier ist der Friedhof.
0:32:42–0:32:45
Ich glaube, der gehört mit zu dem Krankenhaus.
0:32:46–0:32:48
Aber ich war jetzt hier vor einigen...
Micz Flor
0:32:48–0:32:50
Das ist die beste Werbung für ein Krankenhaus, ein riesen Friedhof.
Florian Clauß
0:32:50–0:32:55
Ja, das hat auf jeden Fall eine lange Tradition, der Friedhof hier auch.
0:32:56–0:33:02
Es gibt einige Veteranengräber für den antifaschistischen Kampf.
0:33:03–0:33:07
Zumal habe ich mal hier so eine Gruppe von Antifa-Leuten, die auch so eine Flagge
0:33:07–0:33:10
hochgehalten haben und dann halt so eine Gräberpflege gemacht haben.
0:33:10–0:33:11
Fand ich so ganz interessant.
0:33:13–0:33:19
Okay, also gehen wir jetzt hier auch von diesem absonderlichen Ort in einen
0:33:19–0:33:24
anderen absonderlichen jenseitigen Ort. Solaris.
Micz Flor
0:33:24–0:33:24
Solaris.
Florian Clauß
0:33:24–0:33:31
Genau. Ich würde vorschlagen, du erzählst so ein bisschen Geschichtstrang und
0:33:31–0:33:34
wir steigen dann so an bestimmten Punkten auch gleich in die Interpretation an.
0:33:34–0:33:39
Das ist, glaube ich, einfacher, das wirklich so zu machen als im Nachhinein, oder? Wie würdest du?
Micz Flor
0:33:39–0:33:44
Dann mache ich eine ganz kurze zusammenfassende Klammer und dann fangen wir an.
0:33:45–0:33:50
Die kurz zusammenfassende Klammer ist halt, der Roman beginnt damit,
0:33:50–0:33:53
dass jemand im Anflug auf eine Raumstation ist vor einem Planeten.
0:33:53–0:33:56
Und dieser Planet wird immer beschrieben als ein großer Ozean.
0:33:57–0:34:01
Der wurde zu Hilfe gerufen in gewisser Weise und als er landet,
0:34:01–0:34:02
kümmert man sich aber gar nicht um ihn.
0:34:02–0:34:07
Und alle scheinen irgendwie sehr seltsam zu sein. Es gibt noch zwei andere auf
0:34:07–0:34:11
dieser Raumstation und der, der ihn um Hilfe gerufen hat, hat sich wohl an dem
0:34:11–0:34:13
Tag, an dem er kam, umgebracht.
0:34:15–0:34:18
Alle sind komisch und sage ihm die ganze Zeit, also er spricht eigentlich nur
0:34:18–0:34:20
mit einem, er soll immer so abwarten, er wird schon noch sehen.
Florian Clauß
0:34:20–0:34:24
Es sind noch drei Besatzungsmitglieder.
Micz Flor
0:34:24–0:34:26
Drei? Snout?
Florian Clauß
0:34:26–0:34:28
Nein, eher Snout und Sartorius.
Micz Flor
0:34:28–0:34:33
Gut, er kommt an und es sind noch zwei und der dritte, jetzt habe ich den Gabriel.
Florian Clauß
0:34:33–0:34:34
Sartorius.
Micz Flor
0:34:34–0:34:39
Sartorius ist noch da und Giberian, der hat sich umgebracht und das war ein
0:34:39–0:34:43
alter Bekannter noch von dem Planeten Erde. Und auf jeden Fall ist er dann da,
0:34:43–0:34:44
es ist alles irgendwie komisch.
0:34:45–0:34:51
Er wacht am nächsten Tag auf, nachdem er so ein bisschen sich in das Thema nochmal
0:34:51–0:34:53
eingelesen hat, warum dieser Planet so wichtig ist für die Menschheit.
0:34:53–0:34:57
Dann ist auf einmal seine verstorbene Frau neben ihm.
0:34:58–0:35:02
Das ist für ihn total unheimlich er
0:35:02–0:35:06
entledigt sich ihr wird dann so irgendwie manchmal flapsig
0:35:06–0:35:11
gesagt also er sperrt sie ein in eine kapsel und schießt die weg dem nächsten
0:35:11–0:35:14
da kommt die wieder dann lernte dass alle irgendwie solche gäste haben jetzt
0:35:14–0:35:19
geht ich aufs gaspedal die scheinbar irgendwie mit diesem planeten zu tun haben
0:35:19–0:35:24
der scheinbar irgendwie die gedanken lesen kann und Und diese Gäste kreieren kann.
0:35:24–0:35:29
Die stellen dann fest, dass die aus einem ganz seltsamen subatomaren Stoff von
0:35:29–0:35:31
Neutrinos gebaut wurden.
0:35:31–0:35:38
Und er, Calvin, unser Held sozusagen, der entscheidet sich dann,
0:35:38–0:35:42
bei seiner Frau zu bleiben, die sich auf der Erde umgebracht hat,
0:35:42–0:35:44
wo er sich auch ein bisschen verantwortlich fühlt.
0:35:44–0:35:48
Die anderen sagen, das geht aber gar nicht, weil sie wahrscheinlich die Station nie verlassen können.
0:35:48–0:35:51
Weil dann würde die vielleicht zerfallen. Er weiß das auch, sie weiß das auch.
0:35:51–0:35:52
Auch sie wird immer bewusster.
0:35:53–0:35:55
Sie weiß allerdings natürlich nicht alles.
0:35:56–0:36:01
Und das Ganze endet dann darin, dass sie selber entscheidet,
0:36:01–0:36:03
dass sie nicht sie selber ist oder nicht genau weiß,
0:36:03–0:36:09
wo sie herkommt und irgendwie etwas ist, was sie nicht weiß zu sein und lässt
0:36:09–0:36:12
sich dann von den anderen beiden Wissenschaftlern umbringen.
0:36:12–0:36:18
Und weil sie am Tag vorher noch von Calvin die Gehirnwellen per harten Röntgenstrahlen
0:36:18–0:36:22
auf den Planeten geschickt haben, hat sich da auch was verändert und diese Gäste
0:36:22–0:36:23
werden auch nicht wieder erschaffen.
Florian Clauß
0:36:23–0:36:27
Wir müssen, ich glaube, wir haben noch nicht einmal gesagt, dass diesen Planeten,
0:36:27–0:36:31
der Ozean, dass das eine außerirdische Intelligenz darstellt.
Micz Flor
0:36:31–0:36:35
Ja, das ist etwas, wo lange darüber diskutiert wurde.
0:36:35–0:36:39
100 Jahre wird über diesen Planeten schon diskutiert, ob der intelligent ist
0:36:39–0:36:43
oder nicht oder wie das sein kann, weil der eben sogar die Möglichkeit hat,
0:36:43–0:36:49
physikalische Gesetze so zu beugen, dass er als Planet, der um Doppelsterne kreist,
0:36:49–0:36:51
trotzdem eine stabile Laufbahn hat.
0:36:52–0:36:57
Da kommen wir dann gleich noch mal ein bisschen mehr dazu. Und zum Schluss entscheidet
0:36:57–0:37:02
Calvin, auf dem Planeten zu landen und in gewisser Weise auch auf der Station
0:37:02–0:37:03
zu bleiben und nicht mehr zur Erde zurück zu gehen.
0:37:05–0:37:06
Das ist die kurze Fassung.
Florian Clauß
0:37:07–0:37:15
Danke, Mitch. Ja, sehr cool. Sehr fixiert auf die Beziehung zwischen Harvey und Chris.
0:37:15–0:37:21
Die auch sicher dadurch jetzt so fixiert, weil die filmischen Umsetzungen sich
0:37:21–0:37:23
auch immer sehr auf diese Beziehung fixieren.
0:37:24–0:37:28
Kommen wir da später zu? Kommen wir in den nächsten Episoden zu?
Micz Flor
0:37:28–0:37:32
Dann kommt jetzt die lange. Fangen wir mal woanders an. Also nicht Calvin und
0:37:32–0:37:35
seine Frau, sondern die Erde, die Menschheit.
Florian Clauß
0:37:35–0:37:38
Darf ich noch ganz kurz die Geschichte dazu erzählen?
0:37:38–0:37:42
Das erste Mal, und das fand ich so ganz interessant, weil wir uns das erste
0:37:42–0:37:46
Mal dieses Solaris gelesen haben, dann hatte ich so rückblickend im Kopf,
0:37:47–0:37:53
dass auf den ersten 80 Seiten nur über die Solaristik, das ist quasi dieser
0:37:53–0:37:58
Diskurs, dieser wissenschaftliche Diskurs, der über diesen Ozean geführt wird,
0:37:58–0:38:01
wo dann verschiedene Lager und so weiter, Also das ist wirklich,
0:38:01–0:38:05
über 100 Jahre gibt es dann halt schon diese, vor 100 Jahren wurde er entdeckt,
0:38:05–0:38:07
dann gibt es halt diese Station und so weiter.
0:38:07–0:38:11
Aber es wurde ganz massiv dann immer diskutiert und es gab verschiedene Lage.
0:38:11–0:38:15
Das hat mich damals total fasziniert an dem Buch, dass es zwar auf einmal so
0:38:15–0:38:19
ein Wissenschaftsdiskurs da stattfindet, ja, über eine Sache und dann aber auch
0:38:19–0:38:24
mit so verschiedenen Positionen, die alle irgendwo auch sich versuchen zu belegen,
0:38:24–0:38:26
ja, also wie halt ein Wissenschaftsbetrieb läuft.
0:38:26–0:38:29
Und dann hattest du mir aber gesagt, als ich das nochmal gelesen habe,
0:38:30–0:38:32
dann dachte ich so, habe ich eine falsche Ausgabe vielleicht?
0:38:33–0:38:37
Ich hatte das Gefühl, es wäre viel, viel länger. Und dann meinte ich so,
0:38:37–0:38:39
nee, nee, das sind erst mal die ersten Seiten.
0:38:39–0:38:44
Und dann, als ich das dann ganz gelesen habe, dann dieser Diskurs über die Solaristik,
0:38:44–0:38:48
das wird ja überall eingeflochten, das wird ja dann auch später immer weiter ausgebalzt.
0:38:48–0:38:51
Aber ich hatte dann im Rückblick, hatte ich so die komprimierte Vorstellung,
0:38:51–0:38:53
sind die ersten 100 Jahre.
Micz Flor
0:38:53–0:38:57
Nee, es sind zwei große Blöcke, wo das passiert. Am Anfang so ein bisschen und
0:38:57–0:38:58
dann halt diese eine große.
0:38:58–0:39:02
Nee, und dann sind es sogar drei Teile, weil er dann nochmal diese kleine Akrophyfe
0:39:02–0:39:03
oder wie das heißt, sucht da.
Florian Clauß
0:39:04–0:39:07
Ja, die kleine Akrophyfe. Weißt du, was eine Akrophyfe ist?
Micz Flor
0:39:07–0:39:07
Nee.
Florian Clauß
0:39:07–0:39:09
Da habe ich nämlich nur nachgeschlagen extra.
Micz Flor
0:39:10–0:39:12
Danke fürs Bloßstellen und danke für die Hilfe.
Florian Clauß
0:39:14–0:39:19
Nein, weil ich auch dachte, was ist das denn? Akrophyfe werden die Teile genannt.
Micz Flor
0:39:19–0:39:21
Ich muss sagen, ich weiß nicht, ob es Akrophyfe ausgesprochen wird.
0:39:21–0:39:23
Mit ein bisschen immer nach Apokryph.
Florian Clauß
0:39:24–0:39:30
Apokryph wird es ausgesprochen. Und zwar ist ein Apokryph die Teile,
0:39:30–0:39:31
die es nichts in die Bibel geschafft haben.
0:39:32–0:39:36
Das sind so quasi die geheimen Bibelteile. Also entweder, weil es halt nicht
0:39:36–0:39:39
so Mainstream war oder aber, weil dann halt so Geheimnisse drin sind.
0:39:40–0:39:47
Und das Ding ist ja, dass das Buch von Gibertian, wo er bestimmte Zitate oder
0:39:47–0:39:50
bestimmte Bücher der Solaristik,
0:39:51–0:39:56
referenziert, die Hinweise enthalten, dass es halt nicht ganz so ein Mainstream-Diskurs ist.
0:39:57–0:40:03
Also die geheimen Botschaften und die geheimen Wahrheiten über Solaris sozusagen.
0:40:04–0:40:06
Also so würde ich das lesen.
Micz Flor
0:40:06–0:40:10
Das Kapitel. Ja, so wird es auch beschrieben.
0:40:10–0:40:13
Das sind ja quasi die Take-outs, die Sachen, wie du sagst, die es nicht in den
0:40:13–0:40:17
Kodex geschafft haben als wissenschaftlicher Kanon.
Florian Clauß
0:40:17–0:40:21
Das ist sehr schön, der wissenschaftliche Kanon. Und dann kommt halt dieser
0:40:21–0:40:25
Bertrand, der dann zum Beispiel in Tarkovsky eine viel größere Rolle hat.
Micz Flor
0:40:25–0:40:27
Ja, das finde ich auch spannend, wenn wir über die Filme sprechen,
0:40:27–0:40:32
was da so umgestellt wurde und verständlicherweise und gleichzeitig aber auch
0:40:32–0:40:34
leider, wie ich manchmal denke.
0:40:34–0:40:39
Aber jetzt kommt die lange Zusammenfassung, wo wir dann einsteigen werden.
Florian Clauß
0:40:39–0:40:40
Ja, sehr gerne.
Micz Flor
0:40:40–0:40:43
Mit Fußnoten und Interpretation, wann immer es gerade passt.
Florian Clauß
0:40:44–0:40:45
Also jetzt quasi.
Micz Flor
0:40:45–0:40:50
Also es geht allgemein um Solaris. Es ist der Name eines Planeten,
0:40:50–0:40:51
auf dem ein großer Ozean ist.
0:40:52–0:40:56
Und in der Erforschung von extraterrestrischem Leben auf der Erde wurde man
0:40:56–0:41:00
auf diesen Planeten aufmerksam, weil man anfangs einfach nur gemerkt hat,
0:41:00–0:41:04
dass das ein Planet in einem System mit zwei Sonnen ist.
0:41:04–0:41:08
Und wie wir seit Trisolaris und dem Dreikörperproblem jetzt alle wissen,
0:41:08–0:41:11
sind die Flugbahnen da nicht gut vorhersehbar.
0:41:11–0:41:13
Zwei Körper geht, drei Körper geht nicht.
0:41:14–0:41:20
Längst hätte Solaris in eine der Sonnen fallen müssen, beziehungsweise man konnte
0:41:20–0:41:24
dann merken, dass die vorhergesehene Bahn nicht gehalten wird.
0:41:24–0:41:29
Und hat sich dann überlegt, wie kann das sein und dann irgendwie begonnen,
0:41:29–0:41:33
diesen Solaris-Planeten sich genauer anzuschauen und gemerkt,
0:41:33–0:41:37
dass der fast komplett von einem Ozean bedeckt ist.
0:41:37–0:41:43
Der bei Tarkovsky, finde ich, sehr schön visualisiert wird, auch wenn Lem das
0:41:43–0:41:49
nicht so dachte. Und dieser Ozean allerdings irgendwie sich auch zu bewegen
0:41:49–0:41:50
scheint, zu wandern scheint.
0:41:50–0:41:51
Es gibt immer wieder auch mal
0:41:51–0:41:55
trockene Plätze, Inseln, einen ganz kleinen Prozentsatz der Oberfläche.
0:41:55–0:42:01
Aber die ganze Zeit ist der Ozean wie, wie soll ich sagen, wie lebendig.
0:42:01–0:42:05
Später merkt man, da greife ich jetzt schon mal voraus, dass da aber keine Zellen
0:42:05–0:42:06
gibt oder keine Strukturen gibt.
0:42:07–0:42:10
Also man kann sich das alles gar nicht erklären. Man merkt aber nur,
0:42:10–0:42:17
dass dieser Planet in der Lage ist, aktiv sich oder die physikalischen Gesetze um ihn zu biegen.
0:42:17–0:42:21
Da sind wir ein bisschen wieder bei Expanse, wo dann auch die Physik ein bisschen
0:42:21–0:42:25
gebogen wird, um Ionenkanäle zu verändern.
0:42:26–0:42:31
Was dazu führt, dass dieser Planet eine stabile Umlaufbahn um diese beiden Sonnen halten kann.
0:42:31–0:42:33
Ich weiß nicht, ob es jetzt ein ist, das wird nicht genau erklärt,
0:42:33–0:42:34
aber auf jeden Fall erstürzt es nicht.
Florian Clauß
0:42:34–0:42:35
Es sind zwei Sonnen.
Micz Flor
0:42:35–0:42:36
Zwei Sonnen, aber...
Florian Clauß
0:42:36–0:42:37
Es ist eine rote und eine blaue Sonne.
Micz Flor
0:42:37–0:42:41
Aber was seine Umlaufbahn ist, ob das jetzt quasi ein Kreis ist,
0:42:41–0:42:41
das wird doch genau gesagt.
Florian Clauß
0:42:41–0:42:45
Du hast ein chaotisches System. Entweder, wie du sagst, stürzt der Planet in
0:42:45–0:42:48
der Sonne raus oder er wird weggepfeffert.
Micz Flor
0:42:48–0:42:55
Und wir kommen in die Geschichte, als es schon 100 Jahre von Forschung gibt über...
Florian Clauß
0:42:55–0:42:59
Ja, die Station, das wird auch nicht irgendwo genau beschrieben,
0:43:00–0:43:03
aber wahrscheinlich ist, dass diese Station auch schon seit mehreren Jahrzehnten,
0:43:03–0:43:05
wenn nicht sogar das Jahrhundert, schon da ist.
0:43:05–0:43:09
Und in dem Zusammenhang finde ich auch nochmal interessant,
0:43:09–0:43:16
wie kunstvoll das Lemm arrangiert, nämlich er macht sich da jetzt auch so rein
0:43:16–0:43:20
fiktional nicht angreifbar, nämlich diese Frage von Entfernung,
0:43:20–0:43:24
Zeitreise, also überhaupt Raumreise.
Micz Flor
0:43:25–0:43:28
Zeitschuld, wie wir bei Imperium gesagt haben.
Florian Clauß
0:43:28–0:43:31
Genau, weil das kommt auch in irgendeiner Beschreibung, nämlich dann,
0:43:31–0:43:37
wenn am Ende, wenn dann eben der Bericht von Snout verfasst und von Chris Kelvin,
0:43:37–0:43:39
so heißt unsere Hauptfigur, dem Protagonisten.
0:43:40–0:43:44
Der dann halt mehrere Monate unterwegs ist, wenn nicht sogar Jahre.
0:43:44–0:43:46
Also da wird beschrieben von Orion und so weiter.
0:43:46–0:43:51
Vermutlich ist wirklich Solaris, das ganze System, ist halt Lichtjahre entfernt von der Erde.
0:43:52–0:43:56
Und das finde ich halt so toll, dass das halt wirklich überhaupt gar nicht so
0:43:56–0:43:57
beschrieben ist. Und es wird auch in keinem Film...
Micz Flor
0:43:58–0:43:59
Die Lichtjahre nicht viele Monate.
Florian Clauß
0:43:59–0:44:03
Ja, viele Monate. Aber man weiß ja nicht, ob trotzdem die Technologie...
0:44:03–0:44:09
Also es wird... Also da die Lokalisation des Planetens ist Lichtjahre von der Erde entfernt.
0:44:09–0:44:13
Also muss ja quasi. Aber Monate vielleicht haben die eine Technik entwickelt,
0:44:13–0:44:18
wo die halt so Spice-mäßig schneller als Licht reisen können oder sowas.
0:44:18–0:44:19
Also es wird überhaupt nicht beschrieben.
0:44:20–0:44:23
Und das ist für mich aber so ein genialer Kniff, um dann halt auch nicht in
0:44:23–0:44:25
diese Erklärungsnot zu kommen.
Micz Flor
0:44:25–0:44:30
Das bringt mich dann, ich glaube wir brauchen, wir müssen eine zweite Wanderung machen zum Reden.
0:44:30–0:44:32
Wir werden wahrscheinlich gar nicht durchkommen, weil was mich ja immer,
0:44:33–0:44:38
das ist eine grundfesten Frage, weil es wird dann immer von Hard Science Fiction
0:44:38–0:44:41
und eher so Fantasy Science Fiction. Das hatte ich ja auch bei Dan Simmons schon
0:44:41–0:44:44
besprochen, dass da immer gesagt wird, das ist ja eher Fantasy.
0:44:45–0:44:49
Und Stanislaw Lem wird immer hochgehalten als Hard Science Fiction.
0:44:50–0:44:54
Aber What the F ist da irgendwie Hard Science Fiction? Was ist da?
Florian Clauß
0:44:54–0:44:59
Ja, aber das würde mich wundern, weil ich habe es anders gelesen,
0:44:59–0:45:02
dass nicht der Science Fiction so ausschließlich zuordnenbar ist.
0:45:03–0:45:09
Weil du hast ja wirklich hier auch ein Genre-Crossover. Es fängt an wie so ein Horror-Setup.
Micz Flor
0:45:09–0:45:09
Das Ganze.
Florian Clauß
0:45:10–0:45:14
Es wird aber dann mehr Science-Fiction oder wissenschaftlicher Roman.
0:45:15–0:45:19
Und dann am Ende ist es dann irgendwie so ein philosophisches Grundstück,
0:45:19–0:45:20
was dann beschrieben wird.
0:45:20–0:45:26
Also das heißt, Lem lässt sich eigentlich nie in diese, also dass er hart Science-Fiction
0:45:26–0:45:30
ist, im Sinne hart von, dass bestimmte Voraussetzungen gemacht werden,
0:45:31–0:45:35
die es halt irgendwie gar nicht mehr so, die es halt nur in der Zukunft als Annahmen gebe.
Micz Flor
0:45:35–0:45:41
Ja, so eine Möglichkeit. Also das ist die Möglichkeit, eine extrapolierte Tangente
0:45:41–0:45:46
in die Zukunft könnte sein, dass, wie du schon gesagt hast, aus dem Fernseher
0:45:46–0:45:48
ein Tablet wird oder ein Handy.
Florian Clauß
0:45:49–0:45:53
Aber darf ich nur mal ganz kurz, weil ich das auch so, das fand ich so abgefahren,
0:45:53–0:45:56
das ist für mich halt wirklich so, weil auf der einen Seite gibt es halt dieses,
0:45:56–0:46:02
man weiß nicht, wie der da hingekommen ist, wie er diese extreme Distanz überwunden hat.
0:46:02–0:46:05
Aber dann ist man doch irgendwie so verhaftet wieder in so...
0:46:06–0:46:10
In so Interfaces, weil das wird so kurz beschrieben, dann wird halt irgendwie
0:46:10–0:46:12
so eine Plakette leuchtet auf mit dem Erde.
0:46:13–0:46:19
Und das heißt, es gibt halt nichts von so kontextbasiert Darstellung von UI oder sowas.
0:46:19–0:46:24
Also von so Interface, das ist halt wirklich so, damals konnte man sich das ja nicht denken.
0:46:24–0:46:29
Du hast den Bildschirm und der Bildschirm sich dann halt aufgrund seines Kontextes
0:46:29–0:46:30
dann quasi funktional anpassen kann.
0:46:31–0:46:35
Mit den ganzen Buttons drauf und so weiter. Es ist alles hart verdrahtet,
0:46:35–0:46:39
es sind die Kippschalter und es gibt dann halt vielleicht so eine Matrize,
0:46:39–0:46:43
die du dann halt überlegen kannst, wenn du diesen Schalter umschaltest,
0:46:43–0:46:44
dann haben die alle eine neue Funktionseinheit.
0:46:45–0:46:50
Das ist immer noch so in diesem Raumschiffsdesign so mit reingestrickt,
0:46:50–0:46:53
ja, aber das kannst du dir halt auch nicht anders vorstellen.
Micz Flor
0:46:53–0:46:59
Aber das ist ja dann dieser Witz in dem dritten Prequel von Star Wars,
0:46:59–0:47:06
wo dann Darth Vader das erste Mal atmet, wo dann irgendwie die ganze Zeit diese
0:47:06–0:47:09
absoluten Hightech-CGI-Roboter irgendwie rumgurken.
0:47:10–0:47:14
Und dann kommt halt dieser alte End-70er-Jahre mit diesen drei großen Buttons,
0:47:14–0:47:18
die rote Lampe, ein Drehknopf am Bauch.
Florian Clauß
0:47:18–0:47:20
Und das haben die so konsequent durchgehalten.
Micz Flor
0:47:20–0:47:24
Musst du ja auch, das ist ja ikonisch. und das ist genau das, was du,
0:47:24–0:47:28
sagst, was man halt Darth Vader damals reingeschrieben hat, wo man dachte,
0:47:28–0:47:33
so sieht die Zukunft aus, es gibt große Buttons auf dem Bauch und dann später
0:47:33–0:47:37
siehst du das nirgends, also genau, so sah die Vergangenheit der Zukunft aus.
Florian Clauß
0:47:37–0:47:41
Ja, aber das finde ich auch, wie sie konsequent das am Set-Design durchgezogen
0:47:41–0:47:43
haben, jetzt auch bei diesen ganzen neuen Spin-Off-Serien.
Micz Flor
0:47:43–0:47:46
Weil Solaris ist ein gutes Beispiel für das, was du sagst, auch,
0:47:46–0:47:50
dass er dann in diesem Raum, wo er später dann irgendwie sich einrichtet,
0:47:50–0:47:54
unter dem Bett ein Tonbandgerät findet und dieses Tonbandgerät dann auch von
0:47:54–0:47:58
seiner verstorbene Frau später entwendet wird und er es gerne wieder hätte.
Florian Clauß
0:47:58–0:48:04
Genau, wo dann die Dead Media quasi drin vorkommt. Also alte Aufzeichnungstechnologien.
0:48:05–0:48:09
Kommen wir auch nochmal zu einem ganz kurzen Sidekick zu Mondnacht.
0:48:09–0:48:11
Hast du mir nochmal geschickt den Link?
0:48:11–0:48:14
Ja, ich habe es nämlich genau dieses, wo er auch unglaublich intelligent,
0:48:15–0:48:17
also... Das ist jetzt eine andere Geschichte.
0:48:17–0:48:21
Eine andere Geschichte, die heißt Ich weiß gar nicht, ob das nur eine Hörbuchfassung
0:48:21–0:48:22
ist oder auch eine Kurzgeschichte.
0:48:23–0:48:28
Aber es geht auch darum, dass eben zwei Astronauten auf dem Mond,
0:48:28–0:48:32
auf der Mondstation, in eine Situation kommen, dass sie keinen Sauerstoff mehr kriegen.
0:48:33–0:48:36
Und ich kriege sie mir ganz zusammen, weil ich es wirklich so auch immer beim
0:48:36–0:48:37
Einschlafen gehört habe.
0:48:37–0:48:43
Und dass eben die in so einer Situation sind, dass sie das Tonband überlisten müssen.
0:48:43–0:48:48
Also quasi diese ganze Observer-Technologie, die heute, also wo du halt auch
0:48:48–0:48:51
wirklich schon heute so dieses Angriffsszenario, Mario, wie schaffe ich das,
0:48:51–0:48:55
bestimmte Observer-Technologien zu umgehen, um dann zu meinem Ziel zu kommen?
0:48:56–0:49:00
Hat er das als dramaturgischer Aufbau in diese Geschichte mit reingeschrieben?
0:49:00–0:49:07
Ich kriege es aber nicht ganz zusammen. Aber wo du auch irgendwie merkst, er baut eine Szene auf,
0:49:07–0:49:12
aber geht dann noch zwei Schritte weiter und macht dann eben daraus so einen
0:49:12–0:49:16
Technologie-Plot raus. Aber jetzt habe ich dich rausgerissen.
Micz Flor
0:49:16–0:49:19
Nee, gar nicht. Wir fangen jetzt, das ist ein guter Schnitt,
0:49:19–0:49:22
weil jetzt geht es los. Jetzt geht dann die Geschichte eigentlich los,
0:49:22–0:49:26
weil wir dann eben doch wieder bei unserem Protagonisten Chris Calvin sind.
0:49:27–0:49:30
Mit K. Chris und K. Calvin.
0:49:31–0:49:37
Der ist ein Psychologe und wurde von Gibarian, seinem Bekannten aus der Erde, irgendwie angerufen.
0:49:37–0:49:41
Er solle doch bitte zu Hilfe kommen. Wir brauchen deine Hilfe, Chris.
0:49:43–0:49:47
Und gespielt von Ulrich Tukur in der 2002er Version von Soderbergh,
0:49:48–0:49:52
wo wir dann in vier Wochen, heute drüber reden werden, aber erst in vier Wochen,
0:49:52–0:49:53
werden alle drüber reden.
Florian Clauß
0:49:56–0:50:01
Genau, und die Motivation, warum dann Dr. Calvin auf die Station kommt,
0:50:01–0:50:03
ist bei allen Varianten unterschiedlich.
0:50:04–0:50:09
Also bei Solaris, bei dem von Lem, ist es so, dass er wirklich zur Hilfe gerufen wird.
0:50:09–0:50:13
Also wir haben hier ein Problem mit der Besatzung. Bitte schau mal,
0:50:13–0:50:16
dass du das als Psychologe uns da unterstützen kannst.
0:50:16–0:50:21
Bei Tarkowski und Suderberg sind es andere Motivationen. Kommen wir nochmal hin.
Micz Flor
0:50:23–0:50:27
Und er kommt an, er wird losgeschossen, wie in so einer Kanonenkugel.
0:50:27–0:50:30
Das ist auch sehr schön so hart Science-Fiction-mäßig beschrieben.
0:50:30–0:50:34
Er kommt dann in so einen Gefährt rein, dann bläst sich sein Schutzanzug auf.
0:50:35–0:50:38
Dann ist er da so reingepropft, sodass er dann auch gleichzeitig geschützt,
0:50:38–0:50:39
aber auch eingesperrt ist.
0:50:40–0:50:43
Wird dann losgeschossen. Das geht aber alles so smooth, dass er selber gar nicht
0:50:43–0:50:45
genau mitbekommt, dass er schon fliegt.
0:50:45–0:50:48
Dann hat er so einen kleinen Schlitz, kann er so rausgucken,
0:50:48–0:50:52
kommt immer näher an den Planeten Solaris. kommt dann irgendwann in diesen Punkt,
0:50:52–0:50:56
wo er sagt, das fand ich sehr schön, wo er sagt so, ab da falle ich.
0:50:57–0:51:00
Vorher ist er auf etwas zugeflogen und dann auf einmal gab es oben und unten
0:51:00–0:51:04
in seiner Wahrnehmung, was ich schon einen schönen Blick auf dieses Menschliche finde.
0:51:04–0:51:09
Also der Mensch braucht oben und unten, sobald es geht, wird das als Kompass,
0:51:09–0:51:11
als Orientierungssystem eingeschaltet.
0:51:12–0:51:16
Und dann versucht er die ganze Zeit Kontakt aufzunehmen mit der Raumstation,
0:51:16–0:51:20
aber die kreist um den Planeten beziehungsweise nicht, dass sie kreislich ist.
0:51:20–0:51:21
Sie kann sich auch bewegen.
0:51:21–0:51:24
Also sie ist quasi aber eben in einer, wahrscheinlich nicht mal in einer Umlaufbahn,
0:51:25–0:51:26
aber sie schwebt über dem Planeten.
Florian Clauß
0:51:26–0:51:28
Weißt du noch, wie die Raumstation heißt?
Micz Flor
0:51:29–0:51:29
Nee.
Florian Clauß
0:51:30–0:51:30
Prometheus.
Micz Flor
0:51:31–0:51:33
Nee, Prometheus schießt ihn ab.
Florian Clauß
0:51:34–0:51:35
Nee, Prometheus ist die Raumstation.
Micz Flor
0:51:36–0:51:38
Nee, Prometheus schießt ihn weg, verlässt Prometheus.
Florian Clauß
0:51:39–0:51:41
Aber Prometheus ist die Trägerrakete.
Micz Flor
0:51:42–0:51:46
Prometheus ist der Ort, von dem er in dieser Kapsel weggeschossen wird.
Florian Clauß
0:51:46–0:51:49
Okay, das hatte ich anders in Erinnerung.
Micz Flor
0:51:49–0:51:52
Aber ich lese nachher noch schlechte Beispiele der Übersetzung vor.
Florian Clauß
0:51:53–0:51:56
Ich glaube nicht, dass es auf die Übersetzung zurückzugehen ist.
Micz Flor
0:51:57–0:51:58
Aber danke.
Florian Clauß
0:51:58–0:51:59
Dass du mir.
Micz Flor
0:51:59–0:52:01
Das gesagt hast. Da kommt Prometheus drin vor und deshalb weiß ich,
0:52:01–0:52:03
dass das da ist, wo er herkommt.
Florian Clauß
0:52:03–0:52:07
Okay, dann hat er die Raumstation, hat gar keinen Namen, oder?
0:52:08–0:52:10
Ich dachte immer, das wäre Prometheus.
Micz Flor
0:52:10–0:52:11
Nee.
Florian Clauß
0:52:11–0:52:16
Aber sie ist namenlos. Die Lagestation.
Micz Flor
0:52:17–0:52:20
Namentliche, namenlose Raumstation. Auf die fliegt er zu. Er landet da auch.
0:52:20–0:52:24
Er hat keinen Kontakt, außer mit dem Bordcomputer, der sich um ihn kümmert.
0:52:24–0:52:28
Alles sicher. Er sagt, wir übernehmen dich. Du kommst jetzt hier an. Er steigt aus.
0:52:29–0:52:32
Keiner empfängt ihn. Er ist da alleine. Er weiß gar nicht, wo er ist.
0:52:32–0:52:34
Aber dann ist alles irgendwie so durcheinander.
0:52:35–0:52:38
Und er findet dann, glaube ich, auch eine Blutspur.
Florian Clauß
0:52:39–0:52:39
Nee.
Micz Flor
0:52:40–0:52:41
Also da müsste ich auch nochmal...
Florian Clauß
0:52:42–0:52:45
Die Blutstube kommt nur bei Sudaberg vor.
Micz Flor
0:52:45–0:52:47
Ja, da bin ich mir eben nicht ganz sicher. Da muss ich nochmal gucken,
0:52:47–0:52:50
weil die Frage... Es wurde ja...
0:52:52–0:52:54
Lem wurde ja auch natürlich gefragt, worum geht es eigentlich?
0:52:55–0:52:57
Also was wir heute auch ein bisschen rumdaddeln im Dunkeln.
0:52:57–0:53:02
Und Lem meinte von sich aus, ja, was heißt, worum geht es eigentlich?
0:53:02–0:53:05
Sie weiß doch, wenn ich so eine Geschichte schreibe, weiß doch selber nicht genau, wo es hingeht.
0:53:05–0:53:10
Als zum Beispiel Calvin ankam und dann findet er diese Spur,
0:53:10–0:53:12
da wusste ich selber nicht, wie es weitergeht.
0:53:12–0:53:14
Aber dann habe ich weitergeschrieben und dann wusste ich, wie es weitergeht.
0:53:15–0:53:18
Das war so seine, also da könnte man natürlich psychoanalytisch sagen,
0:53:19–0:53:20
sein Unbewusstes schreibt ihn da.
Florian Clauß
0:53:20–0:53:24
Ja, das ist aber interessant, weil er wirklich da über den Schreibensprozess
0:53:24–0:53:25
dann sich nochmal äußert.
0:53:25–0:53:29
Und es ist tatsächlich so, dass er die nicht vorher so zurechtgelegt hat,
0:53:29–0:53:34
die Geschichte, sondern dass sie so, wenn man ihm glaubt, dann so beim Schreiben entstanden ist.
Micz Flor
0:53:35–0:53:40
Auf der Station, Gbarian stellte schnell fest, hat sich das Leben genommen.
0:53:40–0:53:46
Er findet oder trifft den Kybernetiker Snout, der sich ihm gegenüber sehr komisch verhält.
0:53:46–0:53:49
Das ist auch sehr schön geschrieben. Wir plot-spoilern rechts,
0:53:49–0:53:52
links und in der Mitte. Deshalb sage ich das erst gleich.
0:53:52–0:53:58
Weil erst später wird Calvin klar, dass Snout anfangs gar nicht wusste,
0:53:58–0:54:00
ob er denn nicht vielleicht auch ein Gast ist.
0:54:01–0:54:04
Deshalb war er da sehr, sehr zurückhaltend. Er musste sich da irgendwie...
0:54:04–0:54:10
Aber wir sind in dem Moment wirklich noch in Chris Calvins Blick auf die ganze Geschichte.
0:54:10–0:54:12
Und er checkt nicht, warum Snout so komisch ist.
Florian Clauß
0:54:12–0:54:16
Das ist so schön. Das passt gerade zum Thema Gast. Wir treten hier gerade auf
0:54:16–0:54:20
eine kleine Lichtung und mit einer Kapelle und auf der Kapelle steht und sie leben doch.
Micz Flor
0:54:21–0:54:25
Und es gibt noch Sartorius. Sartorius, den lernen wir erst später kennen.
0:54:26–0:54:29
Und die sind so ein bisschen komplementär zueinander.
0:54:29–0:54:37
Snout ist eher so ein bisschen freundlich, aber irgendwie total innerlich erschöpft und zerrissen.
0:54:37–0:54:43
Und Sartorius ist eher so Teflon-Wissenschaftler, distanziert,
0:54:43–0:54:49
kalt, aber gleichzeitig der, der halt irgendwie wahrscheinlich seine Unsicherheit
0:54:49–0:54:53
kompensiert über eine Entschlossenheit und einen Plan.
0:54:57–0:55:02
Die Untersuchungen so treibt, ne? Und dann eben das in den Trino-Feld und so weiter rausbekommt.
0:55:03–0:55:07
So, und Calvin wird von Snout gesagt, Calvin solle doch einfach vorsichtig sein,
0:55:07–0:55:11
erstmal gucken, komm erstmal an, so in der Art, ne, weil Snout zu Recht auch
0:55:11–0:55:13
irgendwie schon antizipiert, er kann es jetzt gar nicht erklären.
0:55:14–0:55:17
Erstens, weil er scheinbar noch unsicher ist, wer dieser Calvin überhaupt ist,
0:55:17–0:55:22
aber zweitens auch, weil er es erleben muss, um es wirklich zu glauben.
0:55:22–0:55:23
So, ne, es ist einfach nicht fassbar.
0:55:24–0:55:28
Dann ist es so, dass Calvin auf der Station versucht, sich zu orientieren und
0:55:28–0:55:31
dann auch so Stimmen hört aus den Laboren von den Kollegen.
0:55:32–0:55:38
Und er begegnet dann einer etwas korpulenteren, wird sie beschrieben,
0:55:39–0:55:40
barfüßigen, halbnackten Frau.
0:55:40–0:55:44
Er hört so platschende Schritte und sieht die dann und folgt ihr auch.
Florian Clauß
0:55:44–0:55:50
Ja, das ist eine schwarze Frau. In der ursprünglichen Übersetzung wird noch das N-Wort benutzt.
Micz Flor
0:55:50–0:55:54
Ich habe das rausgenommen, weil ich es nicht relevant fand. Ich habe überlegt,
0:55:54–0:55:56
ob ich das korpulente auch rausnehme.
Florian Clauß
0:55:56–0:56:05
Ja, aber es ist insofern schon dafür, dass die Beschreibung dieser Abstrusität,
0:56:05–0:56:08
das ist da, wo quasi der Horrorplot anfängt.
0:56:08–0:56:11
Weil da kriegst du ja wirklich das Grauen. Was passiert hier?
0:56:11–0:56:16
Also es ist ja quasi ein Mensch, den man da so nicht erwarten würde in diesem Umfeld.
Micz Flor
0:56:16–0:56:20
Genau, und das Schwarz sollte das noch so verdichten, dass ich es nicht zeitgemäß
0:56:20–0:56:23
empfunden habe, das jetzt irgendwie als Andersheit oder Feindheit.
Florian Clauß
0:56:23–0:56:32
Ja, also ja, im Sinne von, dass es komplett klar ist, dass diese Figur nicht
0:56:32–0:56:35
in irgendeinem wissenschaftlichen Kontext dahin gekommen sein kann.
Micz Flor
0:56:36–0:56:38
Aber das ist doch nicht, weil sie schwarz ist.
Florian Clauß
0:56:38–0:56:43
Na doch, in dem Sinne schon, weil so wie die damals aufgestellt waren,
0:56:44–0:56:49
in diesem Ganzen, und sie wird ja quasi so als halbnackt, also das heißt wie
0:56:49–0:56:53
so eine Indigene beschrieben. So ein Bild hatte ich dann.
0:56:53–0:56:58
Das ist eine andere Zivilisation, die sie da halt auch so mit verkörpert.
Micz Flor
0:56:58–0:57:02
Da bleibe ich jetzt mal kurz stecken, weil das ist so ein bisschen ein Vorgriff
0:57:02–0:57:07
und ein sehr gutes Beispiel für das, was wir dann später lernen und wo es einfach
0:57:07–0:57:09
unklar ist und keiner kann es richtig verstehen.
0:57:09–0:57:17
Aber es wird wohl deutlich, dass der Planet sich in gewisser Weise in die Menschen,
0:57:17–0:57:19
die da sind, jetzt auch Calvin,
0:57:19–0:57:27
Snout, Sartorius, hineinbegeben kann, wie auch immer, um darin Bilder zu finden
0:57:27–0:57:33
und aus diesen Bildern zum Beispiel eben auch besagte Frau erstellt.
0:57:36–0:57:43
Die unglaublich akkurat abbilden, wie diese Menschen, die auf der Station gar
0:57:43–0:57:46
nicht sein könnten, wirklich waren bzw.
0:57:46–0:57:48
Erinnert werden von denen, die da sind.
0:57:49–0:57:52
Und das, was du jetzt gemacht hast, war, finde ich, ganz interessant.
0:57:52–0:57:57
Genauso ist es, um das in der Literatur zu sagen, Lem beschreibt etwas und dann entsteht ein Bild.
0:57:57–0:58:03
Und wenn man das das erste Mal liest, dann bekommst du ein Bild von seiner Beschreibung,
0:58:04–0:58:10
was eben an ganz vielen Punkten so überzogen ist, dass dann wirklich das Andere erscheint.
0:58:10–0:58:13
Also sowas erscheint, das kann da gar nicht sein.
0:58:13–0:58:16
Das geht schon los, dass sie irgendwie mit den platzschenden Füßen ist und sie
0:58:16–0:58:19
ist so dick und sie ist halbnackt und sie ist eine Frau, was ja damals auch
0:58:19–0:58:22
nicht denkbar war. Und dann ist sie auch noch schwarz.
0:58:23–0:58:26
Und das ist quasi ganz, ganz wichtig natürlich.
0:58:27–0:58:29
Aber ich fand es jetzt gerade interessant von dem Hintergrund,
0:58:29–0:58:33
dass das, was der Planet macht, nämlich Charaktere erschaffen,
0:58:34–0:58:37
dass das natürlich das Buch auch macht, was wir innerlich dann erleben,
0:58:37–0:58:37
wie wir uns die vorstellen.
0:58:38–0:58:40
Das fand ich, hast du irgendwie ganz gut nochmal so illustriert.
Florian Clauß
0:58:40–0:58:50
Ja, zumindest in diesem Prozess des Erschaffens durch diesen Ozean,
0:58:50–0:58:55
ist es ja so, dass es zu einer echten Entität wird.
0:58:55–0:59:01
Und das ist ja auch so diese Frage nach Moral und Identität, Entität.
0:59:01–0:59:09
Also dass die einzelnen Figuren, die da rausfallen aus dieser Matrix von den
0:59:09–0:59:16
Wirten, also von der Besatzung, dass die ja wirklich anfangen eine Identität zu entwickeln.
Micz Flor
0:59:16–0:59:19
Da kommen wir auch noch zu, weil das ist auf alle Fälle total spannend,
0:59:20–0:59:24
aber ich möchte trotzdem festhalten, dass in dem Buch diese,
0:59:24–0:59:29
wie du sagst, diese erschaffenen Gäste, wie sie auch genannt werden,
0:59:30–0:59:33
dass die anders sind.
0:59:33–0:59:37
Ja, man guckt dann, so subatomar findet man, dass die anders sind,
0:59:37–0:59:39
also sind quasi von innen aufgebaut.
0:59:40–0:59:45
Aber natürlich sind in der Tatsache, dass wir als Lesende das erschaffen in
0:59:45–0:59:51
unserem Kopf, in unserer Fantasie, vor unserem Hintergrund, sind die nicht anders als Calvin.
0:59:52–0:59:57
Also die sind natürlich für uns gleichermaßen literarische Fiktion.
Florian Clauß
0:59:57–1:00:03
Ja, auf jeden Fall. Es ist schön, nochmal so auf dieser Metaebene das einzuordnen.
Micz Flor
1:00:03–1:00:08
Gut, aber zurück in die Geschichte. Jetzt kommt ein wichtiger Punkt. Er sieht diese Frau,
1:00:08–1:00:15
er sieht dann auch den Gebarian, er findet den tiefgekühlt, auf ihm drauf liegt eben,
1:00:15–1:00:18
das ist genau die Frau, die legt sich auf Gebarian und liegt dann inzwischen
1:00:18–1:00:24
schon auf Gebarian, das weiß ich nicht mehr genau, unter so einer Decke und in so einem Kühlraum.
1:00:24–1:00:29
Das Ganze ist für ihn einfach so erschütternd und so nicht erklärlich, dass das,
1:00:31–1:00:35
Er denkt, ich bin wahnsinnig. Also die beste mögliche Erklärung nach Einstein
1:00:35–1:00:36
ist immer die einfachste.
1:00:37–1:00:41
Und Calvin kommt an den Punkt und sagt, okay, das hier alles ist so unwahrscheinlich,
1:00:41–1:00:43
dass es viel wahrscheinlicher ist, dass ich wahnsinnig bin.
1:00:43–1:00:46
So, und jetzt will er aber rausfinden, ob er wirklich wahnsinnig ist.
1:00:46–1:00:51
Und dann kommt er auf so einen Kniff, dass er bestimmte Kalkulationen macht
1:00:51–1:00:55
für irgendeine Umlaufbahn und den Computer bittet, diese Kalkulationen auch zu machen,
1:00:55–1:00:58
aber dann irgendwie so einen Faktor einrechnet, dass erst nach der zehnten Stelle
1:00:58–1:01:01
eine Abweichung entstehen dürfte zwischen seinem Den und sowas.
1:01:01–1:01:06
Und das macht er, um zu überprüfen, ob er das alles träumt oder ob es wahr ist,
1:01:06–1:01:08
weil er kann ja die Zahlen des Computers nicht vorhersehen.
1:01:08–1:01:11
Und dann kommt das Ergebnis und es entspricht seiner Hypothese,
1:01:11–1:01:16
aber gleichzeitig merkt er, okay, und das möchte ich sagen, ist wie so ein Gottesbeweis-Thema.
1:01:16–1:01:20
Also, weil er dann halt merkt, ja gut, aber auch das kann ich mir ja einbilden.
1:01:20–1:01:22
Und das Thema Gott kommt eher zum Schluss nochmal rein.
Florian Clauß
1:01:22–1:01:26
Ja, aber an der Stelle muss man auch nochmal sagen, das Interessante ist,
1:01:26–1:01:28
ist, dass Ghibarian genau das Gleiche gemacht hat.
Micz Flor
1:01:28–1:01:29
Das lernen wir später.
Florian Clauß
1:01:30–1:01:33
Also das heißt, auch er ist dann irgendwie auf die Idee gekommen,
1:01:33–1:01:34
er hat dann nochmal ein anderes Setup genommen,
1:01:34–1:01:39
aber eben versucht eine Objektivität, oder nee, er hat ja eine Objektivität
1:01:39–1:01:44
versucht herzustellen, indem er dann halt wissenschaftliche Fakten durch Berechnung
1:01:44–1:01:47
dann auch so belegen kann, dass es tatsächlich so ist.
1:01:48–1:01:49
Dass es nicht aus seinem Kopf kommt.
Micz Flor
1:01:50–1:01:53
Das ist der Plan. Und zum Schluss bleibt es aber dann offen,
1:01:53–1:01:57
weil er dann selber auch einsieht, das ja alles erfunden haben könnte.
Florian Clauß
1:01:57–1:02:03
Ja, das Leben ist ein Traum. Das Leben ist ein Traum und alles ist erfunden.
1:02:03–1:02:04
Ich habe nochmal eine Theorie.
1:02:05–1:02:07
Eine Theorie, die ich nirgendwo anders sehe.
Micz Flor
1:02:07–1:02:08
Ich habe auch eine.
Florian Clauß
1:02:08–1:02:11
Okay, sehr gut. So revolutionär ist das.
Micz Flor
1:02:11–1:02:16
Können wir jetzt ein neues Kapitel anfangen? Flo's Theorie auf,
1:02:17–1:02:17
Solaris.
Florian Clauß
1:02:18–1:02:22
Das aber nicht jetzt, das machen wir am Ende. Wir müssen erst mal so...
Micz Flor
1:02:23–1:02:24
Ah, da kommt eine zu diesem Punkt jetzt.
Florian Clauß
1:02:24–1:02:30
Es kommt... Wenn wir dann so an einem Punkt sind, wo dann so eine gewisse Reife...
1:02:30–1:02:32
Wir müssen auch mehr in die Solaristik einsteigen.
Micz Flor
1:02:32–1:02:36
Okay, super cool. Also mein Aufhängerpunkt ist schon längst vorbei übrigens.
1:02:37–1:02:39
Aber meine Theorie kommt auch nachher.
Florian Clauß
1:02:39–1:02:41
Das heißt, okay, ich bin gespannt auf deinen...
Micz Flor
1:02:41–1:02:45
Auf jeden Fall überrechnet er. Zum Schluss legt er sich den...
1:02:45–1:02:51
Ihr seht das nicht, Flo ist gerade wieder 14 und will es sofort erzählen.
1:02:51–1:02:53
Guck mal, was ich dir zu Weihnachten gebaut habe.
Florian Clauß
1:02:54–1:02:56
Aber es ist doch erst in sieben Monaten.
Micz Flor
1:02:59–1:03:02
Aber Calvin sagt nicht jetzt Flo, er legt sich schlafen.
1:03:03–1:03:08
Und am nächsten Morgen wacht er auf. Und um halb schlafen ist noch nicht ganz klar, was da los ist.
1:03:08–1:03:13
Aber er sieht dann seine, also Harry spreche ich es jetzt aus,
1:03:13–1:03:17
H-A-R-E-Y wird sie geschrieben in der deutschen Übersetzung.
1:03:17–1:03:18
Ich weiß nicht, wie es...
Florian Clauß
1:03:18–1:03:22
Harvey. Harvey. Harry. Es gibt so verschiedene... Es gibt natürlich,
1:03:22–1:03:28
je nach Übersetzung und nach Film, das macht ja der Soderbergh bewusst,
1:03:28–1:03:31
dass er da bestimmte Verdrehungen in den Buchstabenketten macht.
Micz Flor
1:03:31–1:03:33
Also wir können es Harry nennen.
Florian Clauß
1:03:33–1:03:37
Harvey. Harry? Nee, Harry. Da hat man so ein komisches Bild an dem Kopf.
Micz Flor
1:03:38–1:03:42
Hooray. Darf ich Harry sagen? Oder wie möchtest du sie nennen?
Florian Clauß
1:03:42–1:03:44
Ne, Harvey habe ich.
Micz Flor
1:03:44–1:03:44
Harvey? Ne, ohne V.
Florian Clauß
1:03:45–1:03:46
Ich habe ein V in meiner Übersetzung.
Micz Flor
1:03:47–1:03:51
Gut, dann nenne ich es jetzt Harvey. Das kann ich ganz gut aussprechen,
1:03:51–1:03:53
aber ich glaube, das ist nicht, wie es sein sollte.
1:03:54–1:03:57
Gut, also auf jeden Fall ist Harvey da.
1:03:57–1:04:02
Das ist eine Situation, wo er zuerst denkt, er träumt noch und dann sich irgendwie
1:04:02–1:04:05
auch mit dem Messer schneidet, das Blut läuft, er wacht nicht auf.
1:04:05–1:04:09
Er beschreibt dann auch später, wie er längst nicht mehr daran glaubt,
1:04:09–1:04:13
es sei ein Traum und trotzdem noch irgendwie versucht, glauben zu dürfen, es sei ein Traum.
1:04:13–1:04:16
Und er immer mehr halt eben in diesem Horror landet. Was ist denn da los?
1:04:17–1:04:22
Es ist dann auch diese Szene, die in Tarkovskys Film auch nochmal vorkommt,
1:04:23–1:04:29
dass dieses Erschaffene, also dieses Künstliche, was ja sowieso schon die logische
1:04:29–1:04:31
Herleitung ist, dann nochmal unterstrichen wird von der Tatsache,
1:04:31–1:04:35
dass sie ein Kleid anhat und dieses Kleid kann man gar nicht öffnen.
1:04:35–1:04:40
Also das wurde quasi um sie drum geschlossen. Das muss man aufschneiden.
Florian Clauß
1:04:40–1:04:42
Ja, das ist toll. Die Szene ist so großartig.
Micz Flor
1:04:43–1:04:47
Dass diese Person natürlich auch total vertraut ist.
1:04:47–1:04:50
Das ist ja wieder Freuds Idee von dem Unheimlichen. Sie ist heimelig,
1:04:50–1:04:53
das ist seine Ex. Sie ist zwar verstörend, aber gleichzeitig auch anziehend.
1:04:54–1:04:57
Später möchte er ja mit der Frau auch gemeinsam zur Erde fliegen,
1:04:57–1:05:00
wie wir später erfahren, und den Rest seines Lebens mit ihr verbringen.
1:05:01–1:05:06
Aber sie wird dann deutlich unheimlich in dem Moment, als er das Zimmer verlassen möchte.
1:05:07–1:05:09
Die Szene ist bei Tarkovsky, finde ich, auch gut dargestellt.
1:05:09–1:05:14
Und sie dann einfach das nicht aushalten kann, von ihm getrennt zu sein.
1:05:16–1:05:20
Und unglaubliche Kräfte entwickelt, um die Tür auszuhebeln, Tür rauszureißen.
1:05:20–1:05:23
Und dann auch gleichzeitig im Film, zumindest im Buch, weiß nicht,
1:05:23–1:05:27
gezeigt wird, dass sie auch dann sofort wieder heilt, wo sie von diesem Kraftakt
1:05:27–1:05:29
eben auch Verletzungen nach sich zieht.
1:05:29–1:05:35
Und dann wird sie halt eben sehr unheimlich, so horrormäßig und er möchte sich ihr entledigen.
Florian Clauß
1:05:35–1:05:42
Aber dieses mit der Tür, das kommt dann nicht bei der ersten HW vor,
1:05:42–1:05:43
sondern das ist bei der zweiten.
1:05:45–1:05:54
Bei der ersten ist es so, dass er sich wirklich da in das Raumschiff einsperrt und das wackelt.
Micz Flor
1:05:54–1:05:54
Ja, genau.
Florian Clauß
1:05:55–1:05:58
Und er weiß nicht, und dann, wenn das zweite Mal sie auftaucht,
1:05:58–1:06:01
das ist auch der Moment, wo er sie anfängt so ein bisschen zu akzeptieren.
1:06:02–1:06:05
Also mit der Tür, wo sie die Tür quasi einreißt.
Micz Flor
1:06:06–1:06:11
Ja, okay. Also gut, das habe ich jetzt durcheinandergebracht in meiner Erinnerung.
1:06:11–1:06:18
Dann ist es so, dass er sie dann wohin begleitet und sie dann einlädt,
1:06:18–1:06:19
in so eine kleine Kapsel zu gehen.
1:06:19–1:06:23
Dann schließt er diese Kapsel und dann merkt man schon die brutale Kraft von,
1:06:23–1:06:25
von diesem Gast oder dieser Gästin.
1:06:26–1:06:29
Und er schießt dann diese Kapsel in eine Planetumlaufbahn,
1:06:30–1:06:33
Also er bringt sie nicht um, aber er parkt sie gewissermaßen.
Florian Clauß
1:06:33–1:06:39
Ja, und es kommt dann zum späteren Zeitpunkt nochmal so als Beweis dafür, was passiert mit denen.
1:06:39–1:06:43
Dann schlägt ihm Snout, glaube ich, vor oder ich weiß nicht, ob es der Taurus ist.
1:06:43–1:06:46
Schau doch mal in die Kapsel, hol die doch mal wieder ran und schau doch mal
1:06:46–1:06:48
nach, wer ist denn da jetzt drin.
Micz Flor
1:06:48–1:06:52
Genau, ja. Ja, und das ist nämlich der Punkt, dass Snout auch,
1:06:52–1:06:57
und das ist ganz spannend, finde ich, vom Erzählen her, Weil Snout ist am Anfang
1:06:57–1:07:00
für uns auch nicht greifbar, aber immer mehr merken wir, dass Snout eigentlich
1:07:00–1:07:04
alles schon weiß und dann immer sozusagen Calvin das nochmal machen lässt.
1:07:04–1:07:08
Und Snout lernen wir nämlich kennen, dass er starke Verbrennungen im Gesicht und sowas hat.
1:07:09–1:07:12
Und jetzt ist es so, dass Calvin, also unser Held, mit dem wir die Geschichte
1:07:12–1:07:16
erlernen, der schießt diese Kapsel ab und das macht er alles so schnell,
1:07:16–1:07:18
dass er auch sich da verbrennt.
1:07:18–1:07:21
Und er hat dann auch so, er pult sich so ein bisschen Haut im Gesicht ab und
1:07:21–1:07:23
dann sieht er Snout wieder und dann checkt er in dem Moment ein bisschen wie
1:07:23–1:07:27
bei der einen Folge von Sterntagebüchern, wo er immer den Montag,
1:07:27–1:07:29
Dienstag, Mittwoch, wo er sich immer wieder begegnet.
1:07:29–1:07:31
Und dann auf einmal hat er ein blaues Auge und dann weiß er,
1:07:31–1:07:35
okay, bevor morgen vier Uhr ist, habe ich ein blaues Auge, ich weiß bloß noch nicht, warum.
1:07:35–1:07:41
So, und da ist es dann so, dass er dann versteht, dass Snout genau das Gleiche
1:07:41–1:07:47
auch hatte und Snout ihm das dann auch sagt, so, ah, okay, du hast nicht diese Geschichte.
Florian Clauß
1:07:47–1:07:50
Die Geschichte, die du gerade erwähnt hast zum Sidekick, das ist ja im Prinzip
1:07:50–1:07:54
Memento, auch die Idee von Memento, dass er sich selber begegnet.
Micz Flor
1:07:54–1:08:01
Am nächsten Morgen ist Harvey, wie sie jetzt heißt, wieder da und er nimmt sie
1:08:01–1:08:04
dann mit und er nimmt ihr ein bisschen Blut ab und er checkt das dann irgendwie
1:08:04–1:08:07
und lernt dann relativ früh schon kennen in ihrer Struktur,
1:08:07–1:08:13
dass sie auf diesem unglaublich zukünftigen Mikroskop, was er da hat, dass sie,
1:08:14–1:08:19
und er ist schon durch die Blutzellen durch, er ist schon auf der Molekülebene,
1:08:19–1:08:23
er ist schon auf der Atomebene und sieht die Atome und sieht alles immer noch menschlich aus.
1:08:23–1:08:28
Aber dann hinter der Atomebene sieht er, dass sie eben aus Neutrinos oder irgendwas
1:08:28–1:08:30
Neutrino-ähnlichem gebastelt ist.
1:08:30–1:08:34
Das heißt, die Teilchen, die keine Ladung haben, die sich eben auch nicht abstoßen,
1:08:34–1:08:36
die man viel kleiner noch zusammenpacken kann.
1:08:37–1:08:41
Stichwort Neutrinostern, da weiß Flo mehr als ich. Aber auf jeden Fall sieht man...
Florian Clauß
1:08:46–1:08:49
Neutrinos entstehen halt, die sind halt, man sagt ja immer so,
1:08:49–1:08:55
die dunkle Materie, weil sie eben nicht wechselwirkt mit irgendwas, was wir kennen.
1:08:55–1:09:02
Aber es ist überall da. Also die entstehen halt in so Fusions, also durch die Sonne.
1:09:02–1:09:06
Die Sonne schießt eine unglaubliche Anzahl von Neutrinos.
1:09:06–1:09:09
Die laufen alle durch dich durch. aber dadurch, dass sie nicht reagieren,
1:09:09–1:09:11
keine Wechselwirkung haben.
1:09:11–1:09:16
Es gibt diese Neutrino-Detektoren, teilweise gibt es so ein Feld,
1:09:16–1:09:19
das ist dann wirklich so ein Eis-Cube.
1:09:19–1:09:27
Das heißt, die haben in der Arktis so Eisfelder, die dann über Kilometer gehen,
1:09:27–1:09:30
haben die halt mit Lichtdetektoren, die dann halt irgendwie so ein Kilometer,
1:09:30–1:09:31
mal ein Kilometer, mal ein Kilometer.
1:09:32–1:09:37
Und dann gibt es eine bestimmte Neutrino-Art, die, das ist halt so das Abgefahrene,
1:09:37–1:09:40
Das heißt, die wechselwirken, wenn die durch die ganze Erde geflossen sind.
1:09:40–1:09:46
Also das heißt, die Erde ist quasi das Schild, aber das sind jetzt nicht die
1:09:46–1:09:49
normalen Neutrinos, die von der Sonne kommen, sondern die kommen halt von ganz
1:09:49–1:09:51
woanders her, die halt noch einen anderen Spin haben.
1:09:51–1:09:56
Das heißt, die Erde ist quasi so der Bleimantel, dass sie überhaupt da hinten
1:09:56–1:10:00
beim Detektor was anschlagen kann und dafür werden drei im Jahr entdeckt.
1:10:01–1:10:06
Aber es ist trotzdem die größte Masse im Universum, bilden quasi Neutrinos.
1:10:07–1:10:13
Das ist verrückt. Und an dem Punkt ist halt auch die Frage, wann kam dieses
1:10:13–1:10:15
Neutrino-Konzept in der Physik auf?
1:10:15–1:10:20
Das muss auch, glaube ich, ich weiß gar nicht, ob das jetzt wirklich so eine
1:10:20–1:10:25
hohe Idee war, die dann auch gar nicht so physikalisch dann durchdacht war,
1:10:25–1:10:29
oder ob das schon quasi so ein berechnetes Teilchen war,
1:10:29–1:10:33
wo es dann halt schon so in der normalen Physik angenommen wurde, dass es die gibt.
1:10:34–1:10:37
Und das würde mich halt interessieren, ob das jetzt, wie das,
1:10:37–1:10:39
aber das habe ich nicht nochmal nachgeguckt.
Micz Flor
1:10:39–1:10:43
Na gut, ich meine, es wird schon gegeben haben, oder meinst du,
1:10:43–1:10:44
die haben es nach seinem Buch benannt?
Florian Clauß
1:10:45–1:10:49
Nein, das natürlich nicht, aber ob das jetzt quasi so in einem Standardmodell
1:10:49–1:10:51
der Physik schon so akzeptiert war, das meine ich.
1:10:52–1:10:56
Oder ob das jetzt noch so eine Idee war, die noch gar nicht in das Standardmodell mit reingeflossen ist.
Micz Flor
1:10:57–1:11:02
Wenn ich jetzt einfach nur raten müsste, aufgrund meines kulturellen Hintergrundes,
1:11:02–1:11:06
mit dem ich Solaris beackert habe, würde ich sagen, dass es auf Higgs zurückgeht.
1:11:06–1:11:10
Weil in der Soderbergh-Verfilmung sprechen die von einem Higgs-Feld.
Florian Clauß
1:11:10–1:11:16
Ja, genau. Das Higgs-Teilchen wurde erst später nachgewiesen.
Micz Flor
1:11:16–1:11:20
Aber das war ja schon lange in der theoretischen.
Florian Clauß
1:11:20–1:11:23
Sicht so mitbedacht.
Micz Flor
1:11:23–1:11:26
Aber warum ist das für uns jetzt hier erschütternd wichtig?
1:11:26–1:11:32
Weil es heißt, dass diese hergestellten Künstlichen sind fast identisch mit
1:11:32–1:11:36
uns, beziehungsweise sind quasi identisch, wenn man nicht durch die Atome durchguckt
1:11:36–1:11:38
und dann merkt, und das muss man sich mal vorstellen,
1:11:38–1:11:43
dass auf einer noch viel größeren Skala, auch wenn es kleiner ist natürlich,
1:11:43–1:11:46
diese Gäste gebaut werden.
1:11:46–1:11:52
Also wenn man so kleine Bausteine hat, wie feinteilig kann dieser Ozean,
1:11:52–1:11:57
von dem wir ausgehen, dass der die gebaut hat, überhaupt erschaffen und so schnell und so akkurat.
Florian Clauß
1:11:57–1:12:00
Also was ich hier nochmal so unglaublich wieder als Konzept,
1:12:00–1:12:05
als Idee von LEM finde, ist dieses Prinzip des Reverse-Engineerings.
1:12:05–1:12:10
Also das heißt, diese Information, und zwar auf dieser ganz stofflichen,
1:12:10–1:12:15
kleinsten stofflichen Ebene, muss ja dieser Ozean irgendwo rausgelesen haben,
1:12:15–1:12:18
um überhaupt diese Ebene dahinter zu bauen.
1:12:18–1:12:26
Ja, also die Gäste, die funktionieren ja auf einer physikalischen Ebene,
1:12:26–1:12:28
also die verhalten sich ja mehr oder weniger normal,
1:12:28–1:12:33
das heißt, sie können dann irgendwann schlafen, sie können dann halt auch essen
1:12:33–1:12:37
und trinken, wenn nicht so viel, ja, aber das heißt, sie funktionieren ja auf
1:12:37–1:12:40
so einer physikalischen, körperlichen Ebene, funktionieren die ja normal.
1:12:42–1:12:48
Aber was ist das denn für eine Kraft, diese ganzen Mechanismen da so rauszulesen?
1:12:48–1:12:51
Ich finde das halt so geil, diese Vorstellung, weißt du was?
1:12:51–1:12:54
Ich meine, das ist eine klassische Reverse-Engineering-Methode.
1:12:54–1:12:58
Du hast irgendwas und legst eine Layer drauf, die kleiner ist,
1:12:58–1:13:02
und kannst darüber halt die Funktion der Größeren nachbilden,
1:13:02–1:13:05
abbilden, indem du nur guckst, was raus und rein kommt.
1:13:05–1:13:10
Und damit schaffst du ein Modell, was halt auf dieser Ebene dann funktionieren kann.
Micz Flor
1:13:11–1:13:14
Ja, ich weiß nicht mehr als Beispiel dazu nochmal, ich weiß nicht mehr in welchem
1:13:14–1:13:16
Buch das war, aber wahrscheinlich gibt es es mehr als einmal.
1:13:17–1:13:19
Diese Nanotechnologie Diskussion, die es ja auch mal so gab,
1:13:20–1:13:23
wo dann irgendwie so Architektur, also Städte wurden so gebaut,
1:13:23–1:13:28
dass man quasi einfach kübelweise so Nanopartikel ausgeschüttet hat,
1:13:28–1:13:33
die das Haus als Bild vor sich hatten und dann einfach da hochgeklettert sind,
1:13:33–1:13:36
bis sie an einem Punkt waren, wo sie nicht weiter kamen, da sind sie einfach geblieben.
1:13:36–1:13:40
Und so haben die Nanopartikel dann eben komplexe Häuser geschaffen in diesem Buch.
1:13:40–1:13:44
Und das ist eine ähnliche Idee, weil diese Nanopartikel so klein sind,
1:13:44–1:13:47
dass man dann, wenn man auf den ersten Blick drauf guckt, sich sogar vorstellen
1:13:47–1:13:49
kann, dass man ein Ziegelhaus sieht.
1:13:49–1:13:52
Also das aber erst, wenn man rein sucht, man sieht, ach nee,
1:13:52–1:13:53
das ist ja Nanotechnologie.
1:13:53–1:13:57
Und die Ziegel und die Fugen und all das und diese Kratzer hier,
1:13:57–1:14:04
das ist alles aus dem Masterplan entstanden für dieses Haus und nicht durch die Zeit von außen.
Florian Clauß
1:14:04–1:14:07
Aber es sind ja keine potenckischen Dörfer, ne?
1:14:10–1:14:14
Eine Simulation von etwas, was keine Funktion hat, sondern die funktionieren ja.
1:14:15–1:14:20
Also sie funktionieren zwar nicht ganz sauber oder sind overengineert,
1:14:20–1:14:24
das heißt, die können sich generieren in unglaublich kurzer Zeit.
1:14:24–1:14:29
Das heißt, es ist eine andere Kraft da. Okay, also das heißt,
1:14:29–1:14:30
es ist etwas komplett anderes.
Micz Flor
1:14:30–1:14:34
Und gleichzeitig entsteht natürlich das Schauerliche darin, dass es Maschinen
1:14:34–1:14:39
sind. Das sind ja dann so Stepford Wives mäßig. Also diese Horrorfilme,
1:14:39–1:14:41
die ganzen Frauen wurden ersetzt durch Roboter.
1:14:41–1:14:44
Und ähnlich ist es da auch. Also auf der Fassade funktioniert es.
1:14:44–1:14:49
Es ist uns sogar irgendwie vertraut, es spricht mit uns, hat die gleiche Stimme,
1:14:49–1:14:50
hat auch gleiche Themen.
1:14:50–1:14:55
Man kann sich damit innerlich auch verbinden und trotzdem sind es Maschinen
1:14:55–1:14:56
und das macht es natürlich dann so.
Florian Clauß
1:14:56–1:15:01
Aber würdest du die wirklich als Maschinen dann definieren?
Micz Flor
1:15:02–1:15:07
Also, das ist jetzt, die Sartorius, ja, ne, Snout irgendwie auch,
1:15:07–1:15:09
die wollen das ja loswerden. Ja.
1:15:09–1:15:13
Und dann ist es natürlich ein Selbstschutz zu sagen, es ist nur eine Maschine,
1:15:13–1:15:16
so wie das Tier ja nur ein Tier ist und kein Mensch, deshalb darf man es essen.
1:15:16–1:15:23
Es ist zumindest etwas, was über Nacht hergestellt wurde und nicht ganz unfehlbar
1:15:23–1:15:27
ist, weil scheinbar ja Solaris, sollte Solaris die hergestellt haben,
1:15:27–1:15:28
das wird ja auch nicht wirklich erklärt,
1:15:30–1:15:33
kein Konzept von einem Reißverschluss hat oder von einem Kleid.
1:15:35–1:15:40
Sodass natürlich erst in dem Moment, dieses Kleid wurde scheinbar nicht entdeckt in Calvin.
1:15:41–1:15:43
Die Person hatte aber, der Reißverschluss wurde nicht entdeckt,
1:15:44–1:15:44
das Kleid wurde aber geschaffen.
1:15:45–1:15:48
Und erst als Calvin den Reißverschluss aufmachen möchte, ich weiß jetzt gar
1:15:48–1:15:51
nicht mehr, es geht da nicht um Sexualität, oder mit dem Reißverschluss?
Florian Clauß
1:15:51–1:15:54
Also ich habe mich auch gefragt, nee, sie muss dann, sie will duschen,
1:15:54–1:15:55
will das Kleid ausmachen.
1:15:55–1:16:01
Aber die Frage ist natürlich, das wird, glaube ich, in dem Soderbergh-Film dann
1:16:01–1:16:03
am ehesten beantwortet, ob die einen Sex haben.
Micz Flor
1:16:03–1:16:06
Ja, bei Soderbergh gibt es ja diese eine Traumsequenz als Rückblende auf die
1:16:06–1:16:09
Erde, wo er von ihr träumt und dann wacht er auf und dann haben die auch Sex
1:16:09–1:16:14
im Raumschiff und dann schneiden sich so diese beiden Farbschemata ineinander,
1:16:14–1:16:16
die Vergangenheit der Erde, die Gegenwart der Station.
Florian Clauß
1:16:16–1:16:20
Aber da kommen wir ja nochmal später zu. Das heißt, aber ich habe auch,
1:16:20–1:16:27
also es ist so ein bisschen so beschrieben, dass durchaus da bei der Romanvorlage,
1:16:27–1:16:30
dass es dass es zu sexuellen Handlungen kommt.
1:16:30–1:16:34
Gerade im Ersten, als er dann noch nicht so richtig realisieren kann,
1:16:34–1:16:39
dass es sich um einen Traum handelt oder nicht um einen Traum.
Micz Flor
1:16:39–1:16:42
So, auf jeden Fall ist dann da ein Schnitt,
1:16:45–1:16:48
nachdem quasi klar ist, dass jeder da irgendwie so einen Gast hat.
1:16:49–1:16:53
Also das ist so, dass man die im Buch gar nicht wirklich beschreibt.
1:16:53–1:16:56
Oder Claire Znaut nennt das einmal, glaube ich. Aber ich habe es vergessen, ob es so oder weiss.
Florian Clauß
1:16:56–1:16:58
Ich wollte nur mal ganz kurz einhaken
1:16:58–1:17:03
bei dem Punkt, weil ich mich bei dem Begriff Maschine gestört habe.
1:17:03–1:17:10
Ich glaube, man müsste dann eher so die Schere aufmachen zwischen künstlich und natürlich.
1:17:10–1:17:14
Weil ich glaube, Maschine klingt so nach Steampunk.
1:17:14–1:17:20
Aber es ist ja quasi was künstlich Erschaffenes, was quasi nicht von dieser Welt sein kann.
1:17:21–1:17:23
Ich würde es, glaube ich, eher so aufschneiden.
Micz Flor
1:17:23–1:17:29
Ja, aber das verdreht ja nur, weil was wir Menschen am Handy gemacht haben,
1:17:29–1:17:31
das ist künstlich, zum Beispiel, meinst du?
Florian Clauß
1:17:32–1:17:37
Ja, es ist was quasi künstlich Erschaffenes, also dieser Diskurs zwischen künstlich und natürlichem.
1:17:37–1:17:43
Der Mensch, der quasi so der Natur entspringt, während was künstlich ist,
1:17:43–1:17:47
was dann halt aus einem kulturellen Raum dann gebaut werden kann.
Micz Flor
1:17:47–1:17:51
Ja, aber das ist ja dann auch wieder ein Argument des Humanismus sozusagen,
1:17:52–1:17:53
diese Andersartigkeit des Menschen.
1:17:54–1:17:58
Weil ja, es stimmt, aber wir sind ja natürlich, also ist das ja verlängert auch
1:17:58–1:18:02
natürlich, wo macht man da den Schnitt?
Florian Clauß
1:18:02–1:18:02
Die Projektion dann.
Micz Flor
1:18:03–1:18:05
Ja, ist das Schneckenhaus natürlich?
Florian Clauß
1:18:06–1:18:08
Ja, klar.
Micz Flor
1:18:08–1:18:09
Und das Handy nicht?
Florian Clauß
1:18:09–1:18:15
Ja, nee, weil das ja aus einem kulturellen Zivilisationsprozess dann erstmal so entstehen kann.
Micz Flor
1:18:17–1:18:17
Okay.
Florian Clauß
1:18:17–1:18:22
Das Schneckenhaus kommt ja quasi aus dem Genpool, würde ich sagen.
Micz Flor
1:18:23–1:18:26
Machen wir mal eine Folge zu, weil ich finde es total spannend, was ist natürlich.
Florian Clauß
1:18:27–1:18:29
Nein, aber das ist jetzt einfach nur so.
Micz Flor
1:18:29–1:18:35
Also dann nehme ich deinen Vorschlag an und wir unterscheiden die Kelvin, Snout und Sartorius.
1:18:35–1:18:41
Das sind natürliche Maschinen und die anderen sind künstliche Maschinen. Ist das besser?
Florian Clauß
1:18:41–1:18:43
Du willst Maschinen, ja. Okay, bleib dabei.
Micz Flor
1:18:44–1:18:49
Menschin, wir nennen sie Menschin, okay? Es sind natürliche Gäste und künstliche Gäste.
1:18:50–1:18:55
Wir sind alle nur Gäste in diesem Universum. Okay, also jeder hat seinen Gast.
1:18:55–1:19:00
Und dann geht es jetzt nämlich zum ersten Mal eben in diese wissenschaftliche Bibliothek.
1:19:00–1:19:04
Weil bis dahin geht die Geschichte wirklich so, wir sind bei Calvin,
1:19:05–1:19:06
wir erschließen uns das.
1:19:06–1:19:10
Und jetzt ist dann so ein Schnitt, wir nehmen Pause auch. Und da geht es in,
1:19:10–1:19:18
ich möchte fast sagen, unfassbar komplex, völlig frei erfundene Wissenschaftsdialoge der letzten 100 Jahre.
1:19:19–1:19:23
Da werden Gruppierungen benannt, die sagen, nein, diese Planetenprojektur...
Florian Clauß
1:19:23–1:19:25
Also wir sind jetzt bei der Solaristik, ne?
Micz Flor
1:19:25–1:19:29
Solaristik heißt es, ja. Und Solaristen, es gibt keine Innen,
1:19:29–1:19:31
es gibt nur Solaristen und Solaristik.
1:19:31–1:19:34
Die Solaristen sind die, die sich damit beschäftigen.
1:19:35–1:19:38
Und es gab dann immer wieder so Höhen und Tiefen.
1:19:38–1:19:40
Also er beschreibt dann wirklich einfach
1:19:40–1:19:44
so an diesem Beispiel so einen Wissenschaftsablauf, nehme ich mal an.
1:19:44–1:19:48
Dass es so ein Trending-Topic ist und dann ist irgendwie scheinbar kein Geld
1:19:48–1:19:51
mehr da und dann geht es mal wieder ein bisschen runter, dann passiert irgendwas.
Florian Clauß
1:19:51–1:19:54
Also man kriegt auch die Geschichte der Station mit, dass dann viel mehr,
1:19:55–1:20:01
also Kapazität von 80 Wissenschaftler, die Stationen waren auch wohl da.
1:20:01–1:20:04
Und jetzt ist die halt so ein bisschen so, das ist diese Verwahrlose,
1:20:04–1:20:06
also dieser ganze Zyklus.
Micz Flor
1:20:06–1:20:08
Es ist halt echt lustig, dass wir hier in Herzberge so rumdaddeln,
1:20:09–1:20:12
weil wir sind wirklich auf der Solaris-Station gerade.
1:20:12–1:20:16
Also hier ist alles so schön und man kann sich mal vorstellen...
Florian Clauß
1:20:17–1:20:18
Ja, wir sind auf dem Friedhof.
Micz Flor
1:20:18–1:20:19
Wir sind auch auf dem Friedhof, ja.
Florian Clauß
1:20:19–1:20:21
Wir sind nur auf dem Friedhof.
Micz Flor
1:20:21–1:20:21
Niemand anders.
Florian Clauß
1:20:21–1:20:23
Wir laufen die ganze Zeit nur kurz auf dem Friedhof.
Micz Flor
1:20:24–1:20:25
Wollen wir mal wieder runtergehen?
Florian Clauß
1:20:25–1:20:27
Ja, wir gehen jetzt hier nochmal raus zu Herzberge und dann gehen wir jetzt
1:20:27–1:20:30
nochmal auf diese größere Wiese da hinten.
Micz Flor
1:20:30–1:20:33
Also Kapitelmarke Solaristik kommt jetzt. Das geht jetzt zurück.
1:20:33–1:20:38
Magst du da ein bisschen drüber erzählen? Weil ich muss sagen, mir war das fast zu viel.
1:20:38–1:20:43
Ich kann dazu nur sagen, die wichtigste Sache, die ich für mich da jetzt so
1:20:43–1:20:47
reingenommen habe für unsere Nacherzählung, ist dann in all diesen Dokumenten,
1:20:47–1:20:52
die Entwicklung über die Zeit, die Hypothesen, ist das jetzt nur ein mechanischer Planet,
1:20:52–1:20:55
korrigiert der das automatisch? Ist es Zufall?
1:20:56–1:20:59
Muss es intelligent sein oder nicht? Das sind alles so Fragen,
1:20:59–1:21:00
die werden da diskutiert.
Florian Clauß
1:21:00–1:21:06
Aber werden die da, hast du die da wiedergefunden? Das habe ich nämlich nicht
1:21:06–1:21:10
wiedergefunden, dass tatsächlich die Bahnberechnungen da untersucht werden.
1:21:12–1:21:14
Also die Bahnkorrekturen von dem Planeten.
Micz Flor
1:21:14–1:21:17
Doch, das ist die... Ja, genau, doch.
Florian Clauß
1:21:17–1:21:23
Das wird in der Solaristik als Thema untersucht. Weil ich habe das nur am Anfang quasi so...
Micz Flor
1:21:23–1:21:28
Da wurde nur gesagt, sehr schnell konnte man feststellen, dass die vorhergesehenen Bahnen...
Florian Clauß
1:21:28–1:21:32
Genau, aber das ist der Einstieg. Und dann wird aber nicht weiter von dieser
1:21:32–1:21:36
Bahnkorrekturen, wird in der Solaristik nicht weiter gesprochen.
1:21:36–1:21:41
Es kommt immer wieder, und da verstehe ich halt auch wirklich die Solaristik als Prinzip da nicht.
1:21:41–1:21:45
Nämlich wird ja immer wieder angezweifelt, dass dieser Planet Intelligenz hat,
1:21:45–1:21:50
dass der Ozean wirklich ein intelligentes Lebewesen ist oder eine intelligente
1:21:50–1:21:51
Form, wie auch immer ist.
1:21:52–1:22:00
Obwohl der Beweis dafür ist ja quasi diese Warnberechnung, die er machen kann,
1:22:00–1:22:04
um halt nicht aus diesem Drei-Körper-Problem rauszufliegen.
Micz Flor
1:22:04–1:22:09
Ja, und da ist ja eben das Argument, glaube ich, oder wäre das Gegenargument,
1:22:10–1:22:11
wäre dann zu sagen, dass,
1:22:11–1:22:19
so wie bei Wall-E, war das Pixar oder Disney, Wall-E, der macht immer Müll und
1:22:19–1:22:22
stapelt Müll und ist das einzige in Anführungszeichen Lebewesen,
1:22:22–1:22:23
aber ist natürlich ein Roboter.
1:22:23–1:22:29
Und das Argument da war wohl zu sagen, ja, dass es einen Planeten gibt,
1:22:29–1:22:33
der seine Umlaufbahn korrigiert, das kann ja sein, aber das heißt doch nicht,
1:22:33–1:22:35
dass da irgendwie Intelligenz auf dem Planeten sein muss.
1:22:35–1:22:38
Das kann doch irgendwie installiert sein, so ein bisschen wie die Artefakte
1:22:38–1:22:42
eben auch bei The Expanse vor Billionen Jahren hergestellt wurden von einer
1:22:42–1:22:47
längst vergessenen Zivilisation, alle tot und trotzdem reagieren die noch mit der Umwelt,
1:22:48–1:22:51
schalten sich ein, explodieren und so weiter. Das ist das Argument.
1:22:52–1:22:56
Dass der Planet das kann, heißt nicht, dass da drauf intelligent sein muss.
1:22:56–1:23:02
Das kann einfach auch nur ein sehr komplexes System sein, was einfach sich über
1:23:02–1:23:05
die Sonne mit Energie versorgt und einfach immer noch läuft.
1:23:06–1:23:10
Das war, glaube ich, dann eben die Frage. Aber in dieser Wissenschaftsbibliothek
1:23:10–1:23:16
gibt es dann eben diese Dokumente von Burton oder Bertrand oder ich weiß nicht,
1:23:16–1:23:16
wie würde ich das denn aussprechen?
Florian Clauß
1:23:17–1:23:19
Also der wird nicht Breton, sondern Berton.
Micz Flor
1:23:22–1:23:26
Berton, das war ein Pilot. Die fliegen so mit Hubschrauber ähnlichen Dingen
1:23:26–1:23:27
dann immer wieder auf dem Planeten.
1:23:28–1:23:31
Es wird da auch beschrieben in der ersten Begegnung. Das finde ich schon auch toll.
1:23:32–1:23:37
Wird versucht, alles, was dieser Ozean auch tut, weil der kann riesige,
1:23:37–1:23:42
kilometerhohe Säulen hochschießen, die dann fest werden und die sich bauen und Plateaus.
1:23:42–1:23:47
Und dann gibt es, der versucht das zu kartografieren, da gibt es Symmetriaden,
1:23:47–1:23:50
die Asymmetriaden, die Mimodeiden und so.
1:23:50–1:23:54
Also wird halt versucht, alles, was da so hergestellt wird, zu benennen.
Florian Clauß
1:23:56–1:23:58
Also vielleicht, weil du dir jetzt gerade so eingeworfen hast,
1:23:58–1:24:02
die Begriffe. Also das heißt, der Planet ist ähnlich wie so ein Tintenfisch,
1:24:02–1:24:07
der über so das Korallenriff gleitet, der dann irgendwelche Ausformungen an
1:24:07–1:24:08
seiner Haut annehmen kann.
1:24:09–1:24:15
Der Planet kann halt so gigantische Ausformungen, die sind unterteilt in verschiedenen Klassen.
1:24:15–1:24:18
Und das ist halt auch so ein ganz langer Zweig der Solaristik,
1:24:18–1:24:22
nämlich dass die halt diese Ausbuchtung dann katalogisieren.
1:24:22–1:24:28
Und die heißen Symmetriaden und Asymmetriaden. Die Asymmetriaden sind halt symmetrisch
1:24:28–1:24:30
und bilden halt so Riesenhallen.
1:24:30–1:24:35
Auch wird beschrieben von, hat nichts Menschliches, hat aber eine symmetrische,
1:24:35–1:24:36
ästhetische Form, wie auch immer.
1:24:37–1:24:44
Und die Asymmetriaden sind halt nur so Plops, die dann halt keiner Symmetrie oder sowas folgen.
Micz Flor
1:24:44–1:24:47
Und dann gibt es eben diese Memoiden, heißen die.
Florian Clauß
1:24:47–1:24:53
Memoiden, genau. Und das ist das, was das Ende von dem Buch auch dann so mit reinbringt.
1:24:53–1:24:58
Nämlich das Ende, das können wir jetzt vorwegnehmen, da sitzt eben,
1:24:58–1:25:02
da steht Chris Calvin, der sich entschieden hat, das hast du ja auch schon erzählt,
1:25:02–1:25:04
dass er dann doch auf der Station bleiben wird,
1:25:05–1:25:09
ist auf einen so und wird jetzt auch zum ersten Mal, kriegt er die Motivation
1:25:09–1:25:12
tatsächlich mal so rauszufahren und den Planeten zu besteigen,
1:25:12–1:25:17
also den Ozean und hat dann eine Manifestation, nämlich dieser Memoid.
1:25:17–1:25:21
Darauf setzt er sich und bleibt da und streckt seine Hand aus und beschreibt
1:25:21–1:25:23
dann ein Phänomen, was schon die ersten,
1:25:24–1:25:29
Solaristen beschrieben haben, nämlich, dass diese Welle, die dann sich um seine
1:25:29–1:25:36
Hand, so wellenförmige Bewegung des Randes von diesen Memoiden und dass es wie so Fühler sind,
1:25:36–1:25:40
die aber in dem Moment, wenn man seine Hand ausstreckt, diese Fühler sich so ganz,
1:25:41–1:25:44
fein drumherum bewegen, niemals in direkten Kontakt mit seiner Hand kommen.
1:25:45–1:25:51
Und dieses Phänomen, dieses Verhalten beschreibt er nochmal und referenziert nochmal.
1:25:51–1:25:55
Das sind so die ersten Beobachtungen, die gemacht wurden, als die ersten Solaristen
1:25:55–1:25:57
hier den Fuß auf den Planeten gesetzt haben.
1:25:58–1:26:03
Und das finde ich, das geht wieder so ganz zurück. Das heißt, alles ist wieder offen.
Micz Flor
1:26:03–1:26:07
Und das ist genau das, was wir da erleben. Ziemlich langwierig,
1:26:07–1:26:08
aber man muss es halt irgendwie lesen.
1:26:09–1:26:13
Nämlich, dass es dann teilweise seitenweise wird dann erklärt und dann kommt
1:26:13–1:26:18
von unten etwas raus, was sich oben in der Mitte teilt und dann schiebt sich
1:26:18–1:26:21
ja lertartig der Ozean zu den Seiten aus, wird dabei hart.
1:26:22–1:26:27
Die Rande bleiben schäumend, sind allerdings von den Wellen des Ozeans nicht betroffen.
1:26:27–1:26:32
Das Ganze wird dann zwischen 30 und 2 Kilometer groß. Also das muss man sich
1:26:32–1:26:34
wirklich reinziehen. Das geht ewig.
1:26:34–1:26:38
Es ist wirklich einfach reine Deskription, Vermessung.
1:26:38–1:26:43
Jetzt sind wir wieder hier bei die, wie hieß es nochmal, die Geometrie der Liebe
1:26:43–1:26:46
oder sowas, was du gemacht hattest. In der deutschen...
Florian Clauß
1:26:46–1:26:47
Theorema.
Micz Flor
1:26:47–1:26:50
Ja, genau. Nicht die Geometrie, die Mathematik der Liebe.
1:26:53–1:26:57
Und so ist, so fühlt sich das an, also der Versuch, dem Herr zu werden.
1:26:57–1:27:01
Ich bleibe jetzt bei Herr, nicht Frau. Herr zu werden, indem man das alles vermisst,
1:27:01–1:27:06
kartografiert und dann fast schon so Google-mäßig das in so einem Cloud-Prozess
1:27:06–1:27:08
hofft, irgendwie verstehen zu können.
Florian Clauß
1:27:08–1:27:13
Es sind auch verschiedene Lager, die sich da bilden, verschiedene Gruppen.
1:27:14–1:27:18
Und die dann halt auch gegeneinander argumentieren, bestimmte Verhaltensweisen
1:27:18–1:27:19
dann so und so interpretieren.
1:27:19–1:27:22
Also es ist wirklich so, ich glaube, wir brauchen auch nicht mehr weiter im
1:27:22–1:27:27
Detail darauf einzusteigen, nur dass es halt diese Wissenschaftsdiskursapparat
1:27:27–1:27:32
gibt, der sich da aufbaut und der dann halt in dieser Bibliothek von dem Raumschiff
1:27:32–1:27:34
auch so mitgeführt wird.
1:27:34–1:27:40
Das ist so das Wissen und auch so diese Faszination, die Chris Calvin erzählt ja immer,
1:27:40–1:27:48
dass Gibarian so sein Doktorvater oder sein Mentor ihn da in diese ganze Geschichte
1:27:48–1:27:53
von Solaris über die Wissenschaft dann so eingeführt hat.
Micz Flor
1:27:53–1:27:57
Als Psychologen, das ist nochmal wichtig, finde ich, weil es geht jetzt also
1:27:57–1:28:00
hier nicht um den Mensch, der in die Natur guckt,
1:28:00–1:28:07
sondern es geht um einen Mensch, der eben sich mit der Psyche des Wahrnehmens
1:28:07–1:28:08
und Beschreibens auch beschäftigt.
1:28:08–1:28:12
Also der wird zur Hilfe geholt, um dem allen irgendwie Sinn abzugewinnen.
1:28:13–1:28:16
Wichtig ist aber, dass wir den Berton nochmal kurz erklären.
1:28:16–1:28:20
Und zwar der erste Tote war ein gewisser Physiker Fechner. als die losgeflogen
1:28:20–1:28:24
sind, dann kam irgendwie Gewitter oder was weiß ich, wie man es nennen möchte.
1:28:24–1:28:28
Also das war dann so ein schleimiges Ding, auf jeden Fall ist einer abgestürzt.
1:28:28–1:28:32
Fechner ist in den Ozean gefallen, wurde auch nicht wiedergefunden.
1:28:32–1:28:39
Und Berton oder Burton ist dem hinterher geschickt worden oder hinterher geflogen, um ihn zu suchen.
1:28:39–1:28:43
Ist dann irgendwie abgekommen, er weiß nicht mehr warum. Es war alles so ein
1:28:43–1:28:45
bisschen schleimig, er hatte keine Sicht gehabt.
1:28:46–1:28:50
Und dann sieht er, ich weiß nicht in welcher Reihenfolge, er sieht aber zwei
1:28:50–1:28:52
Dinge. Ich glaube, als erstes sieht er Gärten.
1:28:53–1:28:58
Als erstes sieht er ein Abbild, aber eben aus diesem Material des Ozeans, alles in einer Farbe.
1:28:58–1:29:03
Aber sehr detailliert sieht er von oben einen Garten. Dann sieht er Städte.
1:29:03–1:29:10
Also der Ozean formt dann, wie wir vorhin schon beschrieben haben,
1:29:10–1:29:13
die Personen, die Gäste, geformt werden.
1:29:13–1:29:16
Wird aus dieser masse wird was geformt was
1:29:16–1:29:20
aber eben farblich dann immer gleich bleibt aber detailgetreu eine
1:29:20–1:29:23
nachbildung ist von skyscrapern und daneben
1:29:23–1:29:26
aber auch ein garten und später sieht er
1:29:26–1:29:30
dann noch vor sich ein mehrere meter groß ist und von
1:29:30–1:29:36
florian vorhin schon indirekt erwähntes baby oder kind und dieses kind türmt
1:29:36–1:29:39
sich vor ihm auf ist also er fliegt er relativ dicht am boden entlang oder an
1:29:39–1:29:43
der oberfläche und er sieht dass es höher ist als er kalkuliert das muss etwa
1:29:43–1:29:46
so zwischen drei und sechs Meter hoch sein oder so eine Art.
1:29:47–1:29:54
Und das hat ihn total erschüttert, weil es war einfach ein Kind in einer unglaublich
1:29:54–1:29:58
detailgetreuen Abbildung. Ein Kind, das er selber nicht kannte.
1:29:59–1:30:04
Aber dieses Kind hat seine Arme und Beine und alles irgendwie bewegt in einer
1:30:04–1:30:07
Art, als ob es lernen wollte, sich zu bewegen.
1:30:07–1:30:10
Also da haben wir auch wieder so einen Horrormoment. Das ist so ein klassisches
1:30:10–1:30:15
Klassording, wenn der Kopf sich um 180 Grad dreht oder der Arm nach hinten geht.
Florian Clauß
1:30:15–1:30:20
Ich glaube, es war dann auch so beschrieben, dass auf dem Gesicht die zwei Gesichtshälften
1:30:20–1:30:25
des Kindes ganz konträre Gefühle abgebildet haben.
1:30:26–1:30:31
Die eine Gesichtshälfte hat gelacht, die andere dann halt geschrien.
1:30:32–1:30:36
Und an was erinnert dich das? Ich glaube, wir haben beide den gleichen Gedanken dazu.
Micz Flor
1:30:37–1:30:37
Das ist Akira.
Florian Clauß
1:30:38–1:30:44
Akira? Nee, das jetzt nicht, sondern was bedeutet, also was hat das für eine Bedeutung quasi?
1:30:46–1:30:50
Also was passiert denn da ganz, also ganz, was diesen Film auch,
1:30:50–1:30:53
oder nee, diesen Stoff auch wieder so aktuell macht, ja?
Micz Flor
1:30:54–1:30:58
Ach so, das stimmt. Das ist natürlich für uns heute erst so eine Interpretation,
1:30:58–1:31:03
was ich mal als Witz rumgeschickt habe, wo Will Smith selber so ein Video gemacht
1:31:03–1:31:05
hat, Will Smith eating Spaghetti.
1:31:06–1:31:10
Also, weil, und schreibt dann auch dazu, it's crazy how far this has gone.
1:31:11–1:31:15
Also diese Idee, dass man jetzt mit künstlicher Intelligenz die Welt nochmal
1:31:15–1:31:19
nachbaut, Aber dann der Hund fünf Beine hat und dann doch wieder nur drei.
1:31:20–1:31:24
Oder dass eben bei Will Smith die Spaghetti zwar mit zusammengekniffen Augen
1:31:24–1:31:26
sieht es echt aus, aber wenn man genau hinguckt, merkt man, nee,
1:31:26–1:31:29
das ist nicht echt. Und da wird es genauso unheimlich.
Florian Clauß
1:31:29–1:31:36
Da wird so dieses Glitches, aber es ist ja tatsächlich noch irgendwie so in der Beschreibung hier,
1:31:36–1:31:43
also da gibt es keine sechs Zehen oder sechs Finger, sondern was da passiert,
1:31:43–1:31:45
so würde ich das interpretieren, dieser Ozean trainiert.
1:31:46–1:31:49
Es ist quasi ein Modell, was trainiert wird.
1:31:49–1:31:55
Es kriegt gerade Daten und es wird gefüttert von Daten und es fängt jetzt an zu trainieren.
1:31:56–1:31:59
Und das ist so, ich glaube, deswegen finde ich das so,
1:31:59–1:32:04
das will ich dann auch nochmal nachher ausführen in meiner Interpretation,
1:32:04–1:32:08
aber das ist so entscheidend für die heutige Sichtweise von dem Stoff,
1:32:08–1:32:12
weil du hast ja wirklich so ein Riesenmodell, quasi eine Planetenform,
1:32:12–1:32:15
was dann halt auch entsprechend trainiert werden kann.
Micz Flor
1:32:15–1:32:17
Die Antwort ist 42.
Florian Clauß
1:32:18–1:32:21
Die Antwort, die ist ja noch nicht da.
Micz Flor
1:32:21–1:32:23
Aber das ist ja dann auch schon ein Planet.
Florian Clauß
1:32:23–1:32:27
Genau, das stimmt. Das ist der Planet, der dann die Frage erst macht.
Micz Flor
1:32:28–1:32:31
Und da ist natürlich dann, wenn wir die Analogie aufgreifen und die Diskussion
1:32:31–1:32:35
der Solaristen oder in der Solaristik, dass manche vielleicht zu Recht sagen
1:32:35–1:32:38
können, es handelt sich um ein großes, semantisches Lernen,
1:32:39–1:32:43
bio organisch wie auch immer lernen entität
1:32:43–1:32:46
die das einfachste schon geschafft hat
1:32:46–1:32:49
nämlich in kurskorrektur bei wänden wächst bei
1:32:49–1:32:55
komplexen gravitationsfeldern und jetzt obendrauf auch noch alles lernen was
1:32:55–1:32:59
sie so begegnet das wäre deshalb muss die intelligenz nicht da sein sondern
1:32:59–1:33:03
wie du schon sagst vielleicht kann das einige schon und lernt jetzt noch mehr
1:33:03–1:33:07
aber das ist stimmt das ist auf alle fälle im bild was sie auch hatte dafür aber.
Florian Clauß
1:33:07–1:33:09
Vielleicht kann man hier nur mal einschieben, wenn wir davon ausgehen,
1:33:09–1:33:11
dass das jetzt irgendwie eine Form von,
1:33:12–1:33:17
Intelligenz, Lebewesen, organisch oder wie auch immer ist, ja, was ist das denn?
1:33:17–1:33:22
Also das finde ich so krass, dass Lem da ein Bild geworfen, entworfen hat,
1:33:22–1:33:28
was so diametral von irgendwie Leben, wie wir uns das hier auf der Erde entwickelt
1:33:28–1:33:30
hat und so weiter, wie wir uns das vorstellen,
1:33:30–1:33:34
hat er einfach so einen großen Ozean genommen und man weiß nicht,
1:33:34–1:33:41
ob das jetzt quasi so das nach außen gestülpte Gehirn ist, ob das jetzt wirklich so eine große Zelle ist,
1:33:41–1:33:46
ja, das Aber ob das jetzt irgendwie so ein Kommunikationsverband von Zellen ist?
Micz Flor
1:33:46–1:33:50
Das weiß man alles, dass es das nicht ist. Also das wissen sie alles,
1:33:50–1:33:51
dass es das nicht ist. Das ist ganz wichtig.
1:33:51–1:33:55
Die wissen, dass es nicht eine Zelle ist. Die wissen nicht, dass es eine verbandene
1:33:55–1:33:57
Struktur ist. Es hat keine Systematik dahinter.
Florian Clauß
1:33:57–1:34:02
Das hat die Solaristik schon alles herausgefunden. Aber trotzdem,
1:34:02–1:34:04
diese Idee von diesem...
1:34:05–1:34:08
Da geht Lem nochmal so drei Schritte weiter, wie ich vorhin meinte.
1:34:08–1:34:15
Er schafft eine außerirdische Intelligenz und hat aber gleichzeitig schon ein
1:34:15–1:34:18
Diskursapparat obendrauf gelegt, was es alles nicht ist.
1:34:19–1:34:24
Das heißt, damit kommt er erstmal in diesen Raum, wo er dann später überhaupt
1:34:24–1:34:28
diese ganzen philosophischen Fragen stellen kann.
Micz Flor
1:34:28–1:34:31
Und vor allen Dingen da auch die Frage natürlich sich auftut,
1:34:31–1:34:34
die dann aufgrund der eigenen,
1:34:34–1:34:39
das ist dann eben auch ein Zitat, was Lem Calvin in den Mund gelegt hat,
1:34:39–1:34:41
genau in dieser Szene, das lese ich nachher nochmal kurz vor,
1:34:41–1:34:48
in einer nicht so guten Übersetzung, und die Frage, wer erforscht hier eigentlich gerade wen?
1:34:49–1:34:54
Es ist halt so man bleibt immer dabei dass man die menschen erforschen den planeten
1:34:54–1:34:57
und dieser planet macht dann so aber wie du gerade schon gesagt hast du hast
1:34:57–1:35:01
gefühlt das system lernt probiert aus baut nachher guckt mal was könnte das
1:35:01–1:35:03
denn sein und macht es dann aber sogar,
1:35:04–1:35:08
interessanterweise mehr noch als der mensch in so einer körperlichkeit ich brauche
1:35:08–1:35:12
mal so eine stadt die haben alle so komische städte ich baue mal ich will mal
1:35:12–1:35:15
wissen wie sich das anfühlt also das Das könnte man jetzt einfach so darunter legen.
1:35:16–1:35:19
Und dieser Fechner, und das ist halt, wo Bertrand, das ist noch wichtig,
1:35:19–1:35:23
Bertrand sagt von einem Ausschuss aus, der auch eine wichtige Rolle spielt,
1:35:23–1:35:26
ziemlich am Anfang in dem Film, den du gleich besprechen wirst,
1:35:27–1:35:32
da sagt er schon ganz viel, alles, was ich gerade gesagt habe,
1:35:32–1:35:37
und sagt dann aber, er möchte jetzt nicht mehr sagen, bevor nicht von ihm jetzt,
1:35:37–1:35:43
vom Zentralrat oder auch immer gesagt wird, dass das was das das was er jetzt
1:35:43–1:35:47
sagt noch wissenschaft ist ja also aber ihm wird dann rückgemeldet nein er sei
1:35:47–1:35:53
wahnsinnig und dann entscheidet er sich nicht mehr zu sprechen möchte nicht noch mehr sagen und.
1:35:55–1:35:59
Hat dann aber einen Neurologen aus diesem Gremium, die das entschieden haben,
1:35:59–1:36:04
dass er wahnsinnig sei, der nimmt noch mit ihm Kontakt auf, die haben auch ein Gespräch.
1:36:04–1:36:09
Und dieses Gespräch ist auch dann später noch in einem Umschlag,
1:36:09–1:36:11
in einem Buch, in einem Heft.
1:36:12–1:36:16
Das ist eins dieser Dinge, wo dann eben wir erfahren von diesem Kind.
1:36:16–1:36:19
Ich glaube, das war nämlich im eigentlichen Bericht noch nicht drin.
1:36:20–1:36:25
Und dass sich da nämlich herausstellt auch, dass dieses Kind das Kind von Fechner
1:36:25–1:36:27
ist, was Bernd Thornton später auf der Erde sieht.
Florian Clauß
1:36:27–1:36:28
Genau, was er noch gar nicht kennen konnte.
Micz Flor
1:36:29–1:36:35
Genau, er hat empirisch die Situation, die Calvin künstlich versucht herzustellen,
1:36:35–1:36:36
indem er die Berechnung macht.
1:36:37–1:36:39
Also er weiß, dass ich es nicht weiß.
1:36:40–1:36:45
Dann erst erfahren wir, dass die über die Geschichte von Calvin und Harvey,
1:36:45–1:36:49
dass die sich das Leben genommen hat, dass er sich teilweise verantwortlich
1:36:49–1:36:54
fühlt, indem er da in einem Kühlschrank irgendwelche,
1:36:55–1:36:59
Spritzen hat liegen lassen von einem Forschungsprojekt und ihr nur gesagt hat,
1:36:59–1:37:00
die sind gefährlich, Finger weglassen.
1:37:01–1:37:03
Und sie hat sich damit das Leben genommen.
1:37:04–1:37:09
Und das ist etwas, woran sich,
1:37:10–1:37:14
Gast, eben Harvey als künstliche Menschine,
1:37:16–1:37:20
zu erinnern beginnt. Aber sie kriegt kein volles Gefühl.
1:37:21–1:37:25
Sie ist halt irgendwie, sie ist nicht diese Person, aber sie beginnt in ihrem
1:37:25–1:37:28
Bewusstsein, in ihrem Verständnis, auch das wird ein bisschen mit dem,
1:37:28–1:37:32
was du meintest, mit dem Lernen zu tun haben, dass sie versucht,
1:37:32–1:37:35
mehr herauszufinden, was in ihr ist.
1:37:35–1:37:41
Und das halt tut, indem sie in Kontakt ist mit diesem, fragt ihn ja auch die ganzen Sachen.
1:37:42–1:37:45
Er fragt zuerst sie, wie sind wir hergekommen? Sie meint so,
1:37:45–1:37:48
keine Ahnung, was sind deine Klamotten? Keine Ahnung, vielleicht in dem Schrank.
1:37:48–1:37:55
Und später fragt sie ihn und versucht, ihre Existenz und ihre Narrativ herauszufinden.
Florian Clauß
1:37:55–1:38:02
Ja, also es kommt aber zu einem Zeitpunkt, wo sie schon über ihre Herkunft dann aufgeklärt wurde.
1:38:02–1:38:07
Das heißt, ihr ist klar, dass sie dann nicht eben die Originale ist,
1:38:08–1:38:10
Sondern sie ist eine Kopie.
Micz Flor
1:38:10–1:38:13
Und weil sie kein Original ist, das ist ein wichtiger Punkt,
1:38:13–1:38:14
möchte sie sich umbringen.
1:38:15–1:38:19
Auf jeden Fall trinkt sie flüssigen Sauerstoff und Calvin findet sie dann auch scheinbar tot.
1:38:19–1:38:23
Aber sie kommt wieder zum Leben. Also sie kommt dann wieder zum Leben.
Florian Clauß
1:38:23–1:38:26
Es hat er ja schon gesagt, dass sie sich sehr schnell regenerieren kann.
Micz Flor
1:38:26–1:38:30
Genau, aber selbst diese komplette Zerstörung heilt dann wieder.
1:38:30–1:38:34
Und sie ist dann verzweifelt sogar, dass sie merkt, sie kann sich nicht umbringen.
1:38:34–1:38:37
Und sie hat ja interessanterweise dann auch menschliche Gedanken,
1:38:38–1:38:40
dass sie sich mit einem flüssigen Besorger umbringen könnte.
1:38:40–1:38:43
Also es ist ganz interessant, dass sie merkt, dass sie dann nochmal doppelt
1:38:43–1:38:45
merkt, ich gehöre ja nicht zu den Menschen.
Florian Clauß
1:38:46–1:38:50
Ja, aber es entwickelt sich so eine Beziehung zwischen den beiden dadurch.
1:38:51–1:38:57
Das heißt, es wird auch die Frage gestellt, dass sie, also von ihr selber die
1:38:57–1:39:04
Frage gestellt, dass sie dann aus den Erinnerungsstücken von Chris zusammengesetzt ist,
1:39:04–1:39:08
Und das heißt, sie ist ja niemals sie selbst gewesen. Das kann ja jetzt in dieser
1:39:08–1:39:09
Kopie nicht sich selbst sein.
1:39:10–1:39:17
Die nähern sich aber durch diese Distanzierung von der originalen Figur,
1:39:17–1:39:20
nähern die beiden sich dann wieder an und fangen dann quasi,
1:39:20–1:39:25
also es wird dann unterschiedlich in den einzelnen Filmen und in der Buchvorlage
1:39:25–1:39:29
ist es eher distanziert, aber sie beginnen sich neu zu verlieben irgendwie. wie.
1:39:29–1:39:34
So ein bisschen. Und es gibt auch tatsächlich dann von den beiden die Vorstellung
1:39:34–1:39:40
ausgesprochen, dass die von der Station dann auf die Erde verreisen möchten.
Micz Flor
1:39:40–1:39:44
Das ist so ein bisschen der Plan, den die haben. Und da ist es auch ganz interessant,
1:39:44–1:39:48
dass Calvin dann halt eben doch kein Hard Scientist ist, sondern ein Psychologe,
1:39:48–1:39:49
weil der denkt, ach, wir können ja vielleicht zur Erde fahren.
1:39:50–1:39:53
Muss dazu sagen, das ist so der engste Punkt von den beiden,
1:39:53–1:39:57
nachdem die da wieder raus kommt aus diesem flüssigen Sauerstoff-Tod.
1:39:58–1:40:02
Dann wollen die eben auf die Erde und dann ist alles große Liebe.
1:40:02–1:40:06
Aber danach beschreibt Calvin auch öfter, ja, wir sind halt hier zusammen,
1:40:06–1:40:08
sie blättert in einem Magazin und ich hänge hier rum.
Florian Clauß
1:40:08–1:40:11
Es kommt so diese ganz kühle Distanz.
Micz Flor
1:40:11–1:40:16
Ja, also ich hatte so ein Bild, so Südfrankreich, irgendwie so ein gemietetes
1:40:16–1:40:19
Haus, irgendwie in der Nähe vom Strand, da bin ich ganz am Schauen,
1:40:19–1:40:21
man hängt da so rum, weil man jetzt nach drei Wochen auch nicht mehr weiß.
Florian Clauß
1:40:21–1:40:24
Was man heute noch machen kann. Ja, ich hatte tatsächlich auch so ein Bild,
1:40:24–1:40:29
dann so ein bisschen so wie Antonioni oder so, wo dann halt die Liebe vergangen
1:40:29–1:40:34
ist, so La Notte, die Nacht, wo alles so Oberfläche ist und alle so ein bisschen gelangweilt sind.
1:40:35–1:40:38
Aber so richtig zusammen können die nicht mehr kommen.
1:40:39–1:40:43
Und so ein Bild baut sich da auf. Und ich glaube, das ist halt auch mal für
1:40:43–1:40:45
die ein Teil wichtig, dass die sich was vormachen.
1:40:45–1:40:49
Das sagt er dann aus der Perspektive von der Figur von Chris.
1:40:49–1:40:53
Der beschreibt das ja auch so, ja, wir sagen uns das, aber es ist klar,
1:40:53–1:40:55
dass wir das irgendwie nur...
Micz Flor
1:40:55–1:40:59
Und das weiß er aber erst, nachdem er Snout gesagt hat, ha, wir fliegen auf die Erde.
1:40:59–1:41:02
Also er kommt ja wirklich so auch wieder wie so ein Achtjähriger,
1:41:02–1:41:03
der was zu Weihnachten gemacht hat.
1:41:03–1:41:08
Und Snout sagt, okay, alles klar. Und du denkst wirklich, dass das geht?
1:41:08–1:41:11
Also bist du dir sicher, dass dieses Feld zusammengehalten werden kann,
1:41:11–1:41:14
dass dieser künstliche Menschuit halt nichts auseinanderfällt,
1:41:14–1:41:16
wenn die im Raum stehen? Wie stellst du dir das vor?
1:41:16–1:41:21
Und er selber dann auch später, danach ist er dann desillusioniert und sie reden nicht mehr drüber.
1:41:21–1:41:25
Aber er selber stellt sich dann auch nochmal vor, ja wie soll das denn gehen,
1:41:25–1:41:26
wenn wir an der Erde ankommen?
1:41:26–1:41:30
Ich meine, sie hat keinen Pass, also da kommen wir sowieso nicht rein.
Florian Clauß
1:41:30–1:41:36
Ja, aber es wird nicht, also es ist quasi wie so ein Traum, so eine Vision von
1:41:36–1:41:39
den beiden, das nicht weiter in Frage gestellt,
1:41:39–1:41:44
sondern beide brauchen das als Bild, um sich dann noch mit der Situation überhaupt
1:41:44–1:41:46
erträglich zurecht zu kommen.
1:41:47–1:41:50
Und ich meine, sie nimmt ja die Entscheidung dann für Chris,
1:41:50–1:41:54
indem sie dann zu Sartorius geht.
Micz Flor
1:41:54–1:41:58
Ja, also es ist dann so, es gibt Sartorius, Snout sagt, Sartorius will jetzt
1:41:58–1:42:00
was tun. Es gibt zwei Möglichkeiten.
1:42:00–1:42:05
Das eine ist, er möchte, das hatten sie nämlich vorher schon mit Gebarian irgendwie
1:42:05–1:42:07
angefangen, wollte er jetzt nochmal besser machen,
1:42:07–1:42:15
er möchte die Hirnströme von Kelvin aufzeichnen und mit harter Röntgenstrahlung,
1:42:15–1:42:18
Frequenz moduliert, eben auf dem Planeten strahlen,
1:42:18–1:42:22
weil das hatten sie vorher schon mal ein bisschen probiert und dann ging das
1:42:22–1:42:24
los mit den Gästen, so erinnere ich mich zumindest.
Florian Clauß
1:42:24–1:42:28
Die haben mit Röntgenstrahlen da, also die wollten dann irgendeine Reaktion
1:42:28–1:42:31
provozieren und dann sind die halt zu dem Schluss gekommen, ja,
1:42:32–1:42:34
wir machen jetzt irgendwie, wir wenden harte Strahlen an.
1:42:34–1:42:39
Ja, es ging ja auch so weit, dass einige Vertreter der Solaristik dann angefangen
1:42:39–1:42:44
haben, da einen Vorschlag zu machen, man könnte mal eine Atombombe draufwerfen und gucken.
Micz Flor
1:42:44–1:42:46
Was dann passiert. Und auch das, was Ghibarien da gemacht hat,
1:42:46–1:42:50
kann Calvin zuerst gar nicht glauben, weil es ist halt gegen die Bestimmung,
1:42:50–1:42:54
der Planet Erde würde doch sowas nie zu, das geht ja gar nicht.
Florian Clauß
1:42:54–1:42:58
Genau, aber es gibt zwei Sachen. Der Sartorius hat ja einmal diese Idee,
1:42:58–1:43:01
dass man dann eben diese modulierten Strahlen da drauf schickt,
1:43:01–1:43:07
um dann quasi so kodiert dem Ozean mitzuteilen, dass diese Gäste nicht erwünscht
1:43:07–1:43:09
sind auf der Station. Das ist die eigentliche Motivation.
1:43:09–1:43:14
Die andere Sache ist, dass er noch einen Anilator entwickelt hat.
1:43:15–1:43:19
Annihilator, der dann eben dieses Neutrino-Feld auflösen kann.
1:43:19–1:43:27
Also das heißt, man sieht die Gäste der anderen Besatzungsmitglieder nicht nur bedingt.
1:43:27–1:43:32
Also bei Snout kriegt man nie mit, was der da für ein Gast oder Gästin gibt.
Micz Flor
1:43:32–1:43:33
Ich glaube, er erwähnt das irgendwie.
Florian Clauß
1:43:35–1:43:36
Es wird nicht ausgesprochen.
Micz Flor
1:43:36–1:43:38
Bei mir gehen auch die Filme und...
Florian Clauß
1:43:38–1:43:41
Ja, ja, aber das ist wirklich, ich habe auch dann nochmal nachgelesen und bei
1:43:41–1:43:46
Sartorius ist es so, dass es tatsächlich, wenn das erste Mal Chris Kelvin dann
1:43:46–1:43:52
Sartorius trifft, muss der mit Kraft die ganze Zeit diese Tür halten im Hintergrund.
1:43:52–1:43:56
Und das ist auch dieser Horrormoment. Man merkt nur, dass und er sieht dann
1:43:56–1:43:58
halt nur, dass irgendwas Kleines da ist.
Micz Flor
1:43:58–1:44:02
Ja, was Kleines, aber eine große und das finde ich ganz wichtig.
1:44:02–1:44:07
Es ist eine, er sieht so auf Auf Hüfthöhe sieht er eine große,
1:44:07–1:44:10
runde, goldene Scheibe kurz hinter der Tür vorbei.
1:44:10–1:44:16
Und das finde ich total wichtig, weil es nicht wirklich klar ist, ob alle Menschen haben.
1:44:16–1:44:20
Die heißen zwar immer Gäste, aber es ist jetzt nicht so, dass wir wirklich wissen.
1:44:20–1:44:24
Also wir sehen die nicht. Und das ist leider, finde ich, in dem Film irgendwie nicht gut gelöst.
Florian Clauß
1:44:24–1:44:28
Ach so, okay. Das hatte ich zum Beispiel noch gar nicht so, dass es eine Scheibe war.
1:44:28–1:44:33
Okay, aber dass du daraus schließen kannst, dass es halt irgendwie kein Mensch mehr ist.
Micz Flor
1:44:33–1:44:38
Sie nennen das ja alle Gäste. Also es sind auf alle Fälle irgendeine Form von Lebewesen.
1:44:38–1:44:43
Aber ich finde es halt total wichtig, dass es da nochmal zusätzlich kodiert wird.
1:44:43–1:44:47
Es wird quasi nochmal verschlüsselt, nicht kodiert, aber es wird nochmal zusätzlich
1:44:47–1:44:50
verschlüsselt. Also wir kriegen mitgeteilt, was da hinter dem vorbei huscht.
1:44:50–1:44:56
Und nachdem Sartorius, wie gesagt, mit hoher, schriller Stimme sagte, gehen Sie, gehen Sie.
1:44:56–1:45:01
Und dann geht die Tür kurz auf und dann sieht er ganz kurz eben so eine goldene
1:45:01–1:45:02
Scheibe vorbeiflitzen.
1:45:03–1:45:08
Und das finde ich total gut, weil dann wir uns nicht damit verbinden können.
1:45:08–1:45:11
Es bleibt anders. Es bleibt was anderes.
Florian Clauß
1:45:12–1:45:17
Also so rein vom Verhalten und sowas wird bei Sartorius dann so eher nachgelegt,
1:45:17–1:45:22
dass es in Richtung von Kind geht, dass es irgendein Kind ist oder ein Zwerg
1:45:22–1:45:24
oder ein kleinwütiger Mensch.
Micz Flor
1:45:24–1:45:26
Ja, das ist auch wieder im Film bei Tarkovsky ist das,
1:45:27–1:45:32
Ein kleinwüchsiger Erwachsener, der halt da kurz rausrennt und den einfängt wieder reinzuziehen.
Florian Clauß
1:45:32–1:45:37
Auf jeden Fall wird es da nicht aufgelöst. Aber die anderen,
1:45:37–1:45:42
also sowohl Sartosis wie auch Snout, sind ja immer alleine.
1:45:43–1:45:46
Die kommen ja dann quasi nicht mit ihren Gästen.
Micz Flor
1:45:46–1:45:49
Und er bringt halt sozusagen seine Frau immer mit, das stimmt.
Florian Clauß
1:45:49–1:45:58
Und das, was jetzt auch nochmal zurück zu Harvey, was sie dann nochmal so erlernt, sie lernt ja dazu,
1:45:58–1:46:04
ist auch, dass sie sich dann länger von Chris trennen kann.
1:46:04–1:46:08
Und dass die auch wirklich eine körperliche, dass die auch eine physische Distanz
1:46:08–1:46:10
aufbauen kann. Weil vorher war das immer so, dass die immer um ihn herum.
1:46:11–1:46:14
Und sie ist auch so gut beschrieben, wie sie das dann aushält.
1:46:14–1:46:16
Wie sie dann halt irgendwie so, ich habe es geschafft.
1:46:17–1:46:20
Und unter welcher starken, starken Spannung sie steht.
1:46:20–1:46:23
Aber gleichzeitig sich selbst beweisen und ihn auch beweisen möchte,
1:46:23–1:46:27
dass sie es aushält, eben nicht immer bei ihm zu sein.
1:46:27–1:46:30
Also man weiß ja auch nicht, liest sie oder liest sie nicht.
1:46:30–1:46:35
Also es ist halt so eine völlige oberflächliche, aber gleichzeitig so ein fühlendes
1:46:35–1:46:37
Wesen, ein stark fühlendes Wesen.
Micz Flor
1:46:38–1:46:42
Und dann geht die Geschichte zu Ende relativ schnell. Und zwar ist es so,
1:46:42–1:46:46
dass sie dann, also die Sartorius, also Snout vermittelt zwischen Sartorius
1:46:46–1:46:50
und Calvin, irgendwas müsste ja passieren, Sartorius wird schon irgendwas tun,
1:46:50–1:46:51
du darfst es jetzt aussuchen.
1:46:51–1:46:56
Und Calvin erfindet schnell die Hypothese, dass wenn dieses Feld,
1:46:56–1:47:00
das Neutrinofeld, irgendwie destabilisiert wird, dass wir dann alle explodieren werden.
1:47:00–1:47:05
Dann macht er doch lieber das andere, nämlich seine Gehirnströme darunter strahlen
1:47:05–1:47:06
zu lassen, wenn er schon keine Wahl hat.
1:47:07–1:47:11
Dann nehmen die das auch auf, und Sartorius ...
1:47:11–1:47:15
Richtet ihm dann auch noch ein er soll irgendwie ganz genau ich weiß
1:47:15–1:47:18
gar nicht genau was das wäre es wahrscheinlich wichtig ich habe es nicht mit
1:47:18–1:47:22
dem kopf wasser ihm eintrichtert was er sagen soll in seinen gedanken also woran
1:47:22–1:47:25
er denken soll woran er nicht denken soll das ist auch so ein schöner schöne
1:47:25–1:47:30
ideen die gedanken sind frei und calvin ist es aber irgendwie so ein bisschen
1:47:30–1:47:34
wurscht weil er halt plottet glaube er sagt dann in seinen gedanken immer tool
1:47:34–1:47:37
habe Harvey nichts, tu Harvey nichts oder sowas in der Art.
1:47:38–1:47:42
Und dann wird das auch weggeschickt und dann gibt es eine Nacht,
1:47:42–1:47:47
wo er das Gefühl hat, dass Harvey kurz weg war und mit Snouch gesprochen hat
1:47:47–1:47:49
und dann fragt er sie aber nicht und dann fragt er sie.
Florian Clauß
1:47:49–1:47:53
Nein, das ist aber, das ist auch nochmal so, das wird auch in den Filmen und
1:47:53–1:47:57
so weiter, wird es sehr kurz von der Zeitspanne, aber es gehen tatsächlich mehrere
1:47:57–1:47:59
Wochen um, bis eine Reaktion kommt.
1:47:59–1:48:02
Das ist genau diese Phase der Lethargie.
1:48:02–1:48:06
Das heißt, die hängen die ganze Zeit ab, es passiert nichts und alles ist irgendwie
1:48:06–1:48:08
so, der Ozean ist still und so weiter.
1:48:08–1:48:12
Aber es ist eigentlich eine ziemlich lange Zeitspanne, die jetzt nur ganz kurz
1:48:12–1:48:13
beschrieben wird in dem Buch.
Micz Flor
1:48:13–1:48:17
Okay, also dann passiert nichts, ein Plateau, zeitliches Plateau,
1:48:17–1:48:19
auf dem die einfach nur warten.
1:48:19–1:48:24
Und zum Ende dieses Plateaus, also im Narrativ zum Ende, es könnte sich länger
1:48:24–1:48:29
ausdehnen, Aber zumindest dann entscheidet Harvey, umgebracht,
1:48:29–1:48:32
in Anführungszeichen annihiliert zu werden, wie man es nennen möchte.
1:48:32–1:48:37
Und schreibt dann auch noch eine Abschiedsnachricht, dass ihr Wunsch war,
1:48:37–1:48:41
dass Snout ein Guter ist und dass Calvin nicht böse sein soll.
1:48:41–1:48:43
Und wird dann auch annihiliert.
1:48:43–1:48:45
Die anderen Gäste sind scheinbar auch schon annihiliert.
Florian Clauß
1:48:45–1:48:48
Ich putze mal zu diesem Abschiedsbrief, weil das auch nochmal interessant ist.
1:48:48–1:48:51
Sie unterschreibt ja dann mit Harvey und streicht dann Harvey durch.
1:48:53–1:48:54
Also in dem Buch.
Micz Flor
1:48:54–1:48:58
Genau, das ist ja auch dieses Zeichen mit dem kleinen Strich,
1:48:58–1:49:02
mit so einem kleinen Düttel vorne links, das heißt nicht in der Logiksprache, also nicht Harvey.
Florian Clauß
1:49:03–1:49:06
Nicht Harvey, genau, das logische Nicht.
Micz Flor
1:49:07–1:49:10
Calvin ist halt außer sich und sagt dann, sie wird wiederkommen,
1:49:10–1:49:11
sie wird morgen wiederkommen.
1:49:11–1:49:15
Und dann sagt halt Snout, nee, seit wir die Strahlen runtergeschickt haben,
1:49:15–1:49:17
kommen sie nicht wieder. Daher wissen wir, dass die anderen Gäste scheinbar
1:49:17–1:49:19
auch schon annihiliert sind.
1:49:19–1:49:23
Und dann wird ein Bericht geschrieben,
1:49:23–1:49:28
Snout hat den schon quasi vorgeschrieben und dann guckt, also irgendwie versöhnt
1:49:28–1:49:32
sich Calvin damit auch und entwickelt in dem Moment dann auch den Wunsch,
1:49:32–1:49:36
auf der Station zu bleiben, den ich nicht so richtig nachvollziehen konnte.
Florian Clauß
1:49:37–1:49:37
Ein Trinsuch.
Micz Flor
1:49:38–1:49:39
Ich? Wie meinst du?
Florian Clauß
1:49:40–1:49:43
Aus der Figur des Calvins heraus, den du als...
Micz Flor
1:49:43–1:49:49
Ich konnte den, ich konnte, also das Gefühl war, was ich hatte,
1:49:49–1:49:52
war, er will in der Nähe von Harvey bleiben und irgendwo muss sie ja sein.
1:49:53–1:49:56
Snout sagt ja vorher nochmal, willst du einfach die andere wiederholen,
1:49:56–1:49:58
die da in diesem, die in die Kapsel geht.
1:49:59–1:50:01
Fand ich auch ganz interessant, weil die will ja keiner mehr haben.
1:50:02–1:50:06
Nee, nee, nee. Die gab es schon. Froh, dass die weg ist. Aber die andere, die war richtig gut.
1:50:07–1:50:10
Auf jeden Fall kommt es dann dazu, Snout bleibt, glaube ich, auch.
Florian Clauß
1:50:12–1:50:16
Der Tor ist, taucht überhaupt nicht mehr auf. Das habe ich auch nochmal so extra
1:50:16–1:50:20
nachgeguckt, nachdem, der wird dann halt nur noch, aber der taucht als Figur
1:50:20–1:50:22
nicht mehr irgendwie auf.
1:50:22–1:50:25
Das ist nur noch ein Ding zwischen Snout und Calvin.
Micz Flor
1:50:25–1:50:31
Und dann ist es so, dass Calvin eben entscheidet, als echter Solaristiker muss
1:50:31–1:50:35
er doch auch mal den Planeten betreten und fliegt dann mit einem dieser Hubschrauber
1:50:35–1:50:37
runter und landet auf diesem,
1:50:37–1:50:42
was ich mir bildlich vorstelle, wie so ein Seerosenblatt, ein Mimmoid oder Mim,
1:50:42–1:50:44
wie auch immer die heißen.
1:50:44–1:50:48
Und will dann da eben auch den Ozean berühren und schaut dann,
1:50:48–1:50:50
den letzten Satz habe ich jetzt blöderweise nicht da, aber er schaut halt quasi
1:50:50–1:50:52
irgendwie so positiv in die Zukunft.
1:50:52–1:51:00
Dann ist die Geschichte zu Ende und schließen möchte ich mit einem Zitat von
1:51:00–1:51:06
etwas, was Calvin in der Mitte so beschreibt für die Solaristik und auch ein bisschen das,
1:51:06–1:51:11
was Lem selber gesagt hat über diesen Roman er sagt,
1:51:11–1:51:16
Calvin, wir brechen den Kosmos auf wir sind auf alles vorbereitet das heißt
1:51:16–1:51:20
auf die Einsamkeit, auf den Kampf, auf Martyrium und Tod aus Bescheidenheit
1:51:20–1:51:23
sprechen wir es nicht laut aus aber wir denken uns manchmal,
1:51:23–1:51:25
dass wir großartig sind.
1:51:25–1:51:29
Indessen ist das nicht alles und unsere Bereitschaft erweist sich als Theater.
1:51:30–1:51:36
Wir wollen gar nicht den Kosmos erobern, wir wollen nur die Erde bis an seine Grenzen erweitern.
1:51:36–1:51:41
Die einen Planeten haben voll Wüste zu sein wie die Sahara, die anderen eisig
1:51:41–1:51:44
wie der Pol oder tropisch wie der brasilianische Urwald.
1:51:45–1:51:49
Wir sind humanitär und edel, wir wollen die anderen Rassen nicht unterwerfen.
1:51:49–1:51:55
Wir wollen ihnen nur unsere Werte übermitteln und als Gegengabe ihrer aller Erbe annehmen.
1:51:56–1:51:59
Wir halten uns für die Ritter vom heiligen Kontakt.
1:52:00–1:52:01
Das ist so eine komische Übersetzung.
Florian Clauß
1:52:02–1:52:03
Ja, das ist komisch.
Micz Flor
1:52:03–1:52:07
Das ist die zweite Lüge. Menschen suchen wir niemanden sonst.
1:52:08–1:52:11
Wir brauchen keine anderen Welten. Wir brauchen Spiegel.
1:52:12–1:52:14
Mit anderen Welten wissen wir nichts anzufangen.
1:52:15–1:52:18
Das sagt er im Kapitel, die kleine Apokryphe.
Florian Clauß
1:52:18–1:52:23
Genau, das ist genau dieser Kernsatz, der auch immer wieder in anderen Kontexten
1:52:23–1:52:25
auftaucht. Bei Tarkowski wird er auch erwähnt.
Micz Flor
1:52:26–1:52:31
Und Lem hat über diesen Roman auch gesagt, Papa la Papp, alle Deutungen,
1:52:31–1:52:34
ich wollte einfach nur was schreiben, was einfach mal veranschaulicht.
1:52:35–1:52:41
Ist, wenn wir etwas begegnen, was wir überhaupt nicht verstehen können und was das mit uns macht.
1:52:41–1:52:47
Und er ist der Meinung, dass er sehr gut eigentlich alles in dem Roman gesagt
1:52:47–1:52:48
hat, was er sagen wollte.
1:52:48–1:52:52
Und damit ist das Ding für ihn geschlossen. Und er hat auch explizit,
1:52:52–1:52:54
deshalb habe ich die Übersetzung, wenn das für dich okay ist,
1:52:54–1:52:56
würde ich das schnell noch raushauen mit den Übersetzungen.
Florian Clauß
1:52:56–1:52:59
Lass uns nochmal da bei dem Punkt bleiben, weil das ist, glaube ich,
1:52:59–1:53:01
der Kernpunkt von dem ganzen Roman.
1:53:01–1:53:07
Es geht um eine Projektion, Ja, also das heißt, das, was man da irgendwie so
1:53:07–1:53:10
an Wissenschaftskritik vielleicht bei Lämmen reinlesen möchte,
1:53:10–1:53:16
wäre es ja dieser, was wir schon erwähnt haben, Anthropomorphe und davon der Ismus.
1:53:17–1:53:20
Anthropomorph bedeutet Anthropomorphismus.
Micz Flor
1:53:21–1:53:23
Genau, Anthropomorphismus und dann bei Ismus abbiegen.
Florian Clauß
1:53:23–1:53:31
Ja, und das ist ja die Art zu projizieren, dass irgendwo überall ein Stück Mensch drinsteckt.
1:53:31–1:53:36
Ja, also das ist halt dieses Bedürfnis, wenn du irgendwann irgendwas,
1:53:36–1:53:39
irgendeine Struktur siehst oder im Umfeld bist, das dir nicht bekannt ist,
1:53:39–1:53:43
dass du dann sofort irgendwo guckst, okay, da ist ein Gesicht oder das ist das.
1:53:43–1:53:48
Und dieses Menschliche in dem Anderen zu suchen und zu finden.
1:53:48–1:53:51
Und das ist ja so, weil Urmenschliche, das hatten wir ja auch schon in anderen
1:53:51–1:53:55
Kontexten mal beschrieben, dass eben diese Identifikation des Menschen ganz
1:53:55–1:54:03
stark mit diesen Anthropomorphen einhergeht. Diese Situation des Scheiterns, es gibt keine Antwort.
1:54:04–1:54:09
Und das ist so stark auf diesen Punkt gespielt, dass eben klar ist,
1:54:09–1:54:15
wir finden da nichts, nichts, was uns irgendwie so ähnelt, was uns widerspiegelt,
1:54:15–1:54:18
sondern es ist einfach was komplett anderes.
1:54:18–1:54:20
Und es ist eine Geschichte des Scheiterns.
1:54:20–1:54:25
Und es ist dann auch so eine Frage, also das ist für mich auch so krass wichtig
1:54:25–1:54:30
für Wissenschaft, sich dieser Frage zu stellen, was passiert denn an einem Punkt, wo wir,
1:54:30–1:54:34
wirklich dann nicht mehr weiterkommen, wo wir nicht mehr diese Erkenntnisse
1:54:34–1:54:38
haben, wo wir wirklich da an einem Punkt sind, wo wir nichts mehr rausziehen können.
1:54:38–1:54:43
Wie geht man damit um? Und das ist, finde ich, in dieser Figur das Christ dann
1:54:43–1:54:46
am Ende seiner Entscheidung, du hast gerade gesagt, du kannst es nicht nachvollziehen,
1:54:46–1:54:49
aber ich finde, genau dann hat er diesen Punkt für sich gelöst,
1:54:50–1:54:52
weil er ist ja quasi durch dieses ganze Tal gegangen,
1:54:53–1:54:58
und hat das durchlebt Und ist an dem Punkt, wo er keine Erwartungen mehr hat
1:54:58–1:54:59
und keine Erkenntnis mehr erwartet.
1:54:59–1:55:05
Und kann dann irgendwo neu, frisch anfangen, ohne irgendwie eine Vorstellung
1:55:05–1:55:07
von irgendwas zu haben, weil er hat schon alles.
Micz Flor
1:55:07–1:55:10
Aber genau, die absichtslose Absicht.
Florian Clauß
1:55:10–1:55:13
Und das kannst du jetzt nicht nachvollziehen in der Figur?
Micz Flor
1:55:13–1:55:17
Ich kann das als Konzept nachvollziehen, aber...
1:55:18–1:55:24
Aber in der Geschichte finde ich es nicht für mich glaubwürdig hergeleitet.
1:55:24–1:55:28
Und das liegt vielleicht an mir oder es liegt an der Geschichte oder vielleicht
1:55:28–1:55:31
musste Lem fertig werden, weil es gab gleich Essen.
1:55:31–1:55:34
Aber ich habe das Gefühl, zum Schluss gibt er so Gas und dann stehst du auf
1:55:34–1:55:39
einmal mit dem da und dann schickt er das Ding zum Verlag und es wird gedruckt.
1:55:39–1:55:42
Also mir fehlt zum Hinten raus, fehlt mir die Wende.
1:55:42–1:55:46
Diese Transformation, die du beschreibst, ist natürlich angelegt,
1:55:46–1:55:48
Aber ich kann nicht mitgehen.
Florian Clauß
1:55:48–1:55:54
Ich finde, es ist ganz stark in diesem Bild auf den Memorien dann angelegt.
1:55:54–1:55:56
Und das finde ich auch total poetisch und sinnfällig.
Micz Flor
1:55:56–1:56:02
Ja, das ist doch total okay. Ich kann ja vom Lesen her vielleicht noch ganz
1:56:02–1:56:03
kurz sagen, es war echt verrückt.
1:56:03–1:56:07
Weil ich am Anfang, als wir wussten, dass wir es schon machen werden,
1:56:07–1:56:13
und ich war noch relativ weit am Anfang, ich bin nach ein, zwei Seiten immer todmüde geworden.
1:56:13–1:56:16
Ich fand es unglaublich anstrengend. Ich lese dann eh auf dem E-Reader nur nachts
1:56:16–1:56:20
und bin dann echt dauernd eingepennt und habe das so trotzdem dann wieder aufgenommen.
1:56:20–1:56:23
Da habe ich mich geärgert, dass ich es vorgeschlagen hatte als Thema.
1:56:23–1:56:27
Es war irgendwann dran, habe ich dann gedacht, jetzt muss es halt irgendwie auch passieren.
1:56:27–1:56:33
Aber es war wirklich so, es hat was mit mir gemacht. Es hat was mit mir gemacht.
1:56:33–1:56:34
Ich glaube auch die gruselige Übersetzung.
1:56:35–1:56:38
Und ich fand es unglaublich anstrengend zu lesen. Echt?
1:56:41–1:56:45
Es hat gleichzeitig auch was mit mir gemacht, mit dem Hinblick,
1:56:45–1:56:49
dass ich die Filme nicht mehr so gut fand wie das Buch, was ich aber in sich
1:56:49–1:56:51
selbst auch nicht gut fand. Also ich fand dann die Umsetzung...
Florian Clauß
1:56:51–1:56:53
Okay, du warst mit allem ein bisschen unzufrieden.
Micz Flor
1:56:53–1:56:56
Ja, und was dann aber passiert ist, deshalb kam ich auf die Übersetzung.
1:56:56–1:57:01
Ich habe dann halt nochmal gegoogelt, Audiobook Solaris und habe dann die komplette,
1:57:01–1:57:06
also es sind siebeneinhalb Stunden, dann hat man das Buch auch durchgelesen, in Englisch gefunden.
1:57:06–1:57:09
Und das ist eben, glaube ich, das Englisch aus der französischen Übersetzung
1:57:09–1:57:12
aus den 70er Jahren, glaube ich. Bin mir nicht sicher, kann auch die von 2017 sein.
1:57:14–1:57:18
Aber da war das so smooth. Da habe ich die gelesen und gesagt,
1:57:18–1:57:21
ey, da war es richtig spannend. War es richtig interessant.
1:57:22–1:57:25
Und deshalb möchte ich jetzt das mit der Übersetzung loswerden.
1:57:25–1:57:29
Weil ich finde, es gibt jetzt eine englische Übersetzung von der,
1:57:29–1:57:36
der das LEM Institut oder der Nachlass, so zu sagen, die Super von Bill Johnston 2017,
1:57:37–1:57:39
auch glaube ich in einem polnischen Verlag erschienen.
1:57:39–1:57:43
Das ist eine englische Übersetzung, der es aus dem polnischen direkt übersetzt hat.
1:57:43–1:57:49
Es gibt dann die Übersetzung von Joanna Kilmartin und Steve Cox von 1970.
1:57:52–1:57:56
Allerdings aus dem Französischen übersetzt wurde. Die habe ich in Ausschnitten,
1:57:56–1:57:58
wo habe ich das denn nochmal gelesen?
1:57:59–1:58:02
Warum weiß ich das? Das weiß ich jetzt gar nicht mehr, weil ich das weiß.
1:58:02–1:58:07
Und es gibt dann eben die Deutsche von Irmtraut Zimmermann-Göllheim von 1972.
1:58:08–1:58:10
Ja, genau. Das ist die, die wir, glaube ich, auch haben.
1:58:11–1:58:15
Ja, und da habe ich jetzt auf dem, ist schon angelegt, wenn du es publikierst,
1:58:15–1:58:18
das ist eine Tabelle, wo ich dann einen Ausschnitt aus dem ersten Kapitel,
1:58:18–1:58:24
dieser Anflug auf die Raumstation, weg von Prometheus hin zur Raumstation,
1:58:25–1:58:28
da habe ich die mal gegenübergestellt, so einen Ausstand, wo man ein Gefühl
1:58:28–1:58:31
dafür kriegt, dass es echt ganz schön schwierig ist. Und da ist dann so ein
1:58:31–1:58:33
Zitat jetzt von der deutschen Übersetzung.
1:58:33–1:58:39
Ich wartete, wann sich der erste Stern eintrüben sollte. Ich gewarte es nicht.
1:58:40–1:58:43
Wenn man schon wartete sagt, dann sagt man nicht noch gewarte.
1:58:43–1:58:46
Das ist doch wie ein schlechter Reim. Aber auf jeden Fall, ich wartete,
1:58:46–1:58:50
wann sich der erste Stern eintrüben sollte. Ich gewarte es nicht.
1:58:50–1:58:53
Zweiteres Zitat, da kommt Prometheus drin vor.
1:58:54–1:58:57
Zweiteres Zitat, das fängt ja auch schon an. Zweiteres Zitat.
1:58:58–1:59:03
Ich bedauerte, dass es mir nicht geglückt war, den Prometheus noch zu sehen.
1:59:03–1:59:07
Er muss schon außer Sicht weiter gewesen sein, als die austomatische Vorrichtung
1:59:07–1:59:08
das Sichtfenster öffnete.
1:59:08–1:59:12
Das klingt irgendwie wie so ein komisches Polizeiprotokoll aus einem dritten
1:59:12–1:59:15
Programm von irgendeinem WDR-Krimi. oder sowas.
1:59:16–1:59:21
Worum es da eigentlich geht, ist zu sagen, ich bedauerte, dass ich die Prometheus,
1:59:21–1:59:25
würde man sagen, oder Prometheus, das Raumschiff, wo er losgeflogen ist,
1:59:25–1:59:27
die hätte er gerne noch mal gesehen.
1:59:27–1:59:30
Aber bis ich das Sichtfenster öffnete, war er quasi schon zu weit weg davon.
1:59:31–1:59:34
Es gab dann eben noch von Kurt Kelm eine deutsche Übersetzung,
1:59:34–1:59:37
die möchte ich auch noch mal irgendwo auftreiben.
1:59:37–1:59:43
Ist 83 im Verlag Volk und Welt in Berlin entschieden, aber die habe ich leider nicht gefunden.
1:59:43–1:59:48
So, sind wir jetzt erst mal am Ende. Also wir haben quasi die Geschichte zusammengefasst.
1:59:48–1:59:50
Es ist gleich schon zwei Stunden durch.
Florian Clauß
1:59:50–1:59:52
Ja, ich wollte, aber ich bin auch noch nicht ganz fertig.
Micz Flor
1:59:52–1:59:54
Nee, nee, genau. Ich wollte nur sagen, jetzt kommen wir an den Punkt,
1:59:55–1:59:59
wo wir quasi Calvin da ablegen.
1:59:59–2:00:03
Snout bleibt da, Sartoris ist eh schon verschwunden, die Gäste sind alle weg.
Florian Clauß
2:00:03–2:00:10
Okay, wir legen Calvin ab. Da warst du an dem Punkt. Wir zoomen jetzt raus. Wo kommen wir hin?
Micz Flor
2:00:11–2:00:15
Wir verlassen den Text und jetzt kommen wir in das Reich der Interpretation.
Florian Clauß
2:00:15–2:00:19
Oh, wir waren noch nicht in dem Reich der Interpretation. Okay,
2:00:19–2:00:20
aber möchtest du loslegen?
Micz Flor
2:00:22–2:00:23
So ein bisschen jetzt wäre...
2:00:25–2:00:33
Also meine Interpretation kann ich dir kurz... Magst du sie kurz hören?
Florian Clauß
2:00:33–2:00:33
Ja, gerne.
Micz Flor
2:00:33–2:00:36
Also es ist quasi, wenn wir uns die ganze Geschichte angucken,
2:00:36–2:00:41
für mich ist es so, es geht da um den Akt der Empfängnis.
2:00:41–2:00:43
Und Prometheus ist der Mann.
2:00:43–2:00:50
Das Sperma ist quasi eingeklemmt in dieser Kapsel.
2:00:50–2:00:55
Und diese Kapsel schießt dann nach dem Orgasmus in die Ovarien,
2:00:55–2:00:59
das ist Solaris mit der Raumstation, nistet sich da ein, kommt dann da an und
2:00:59–2:01:01
ist dann in der Zellteilung dabei,
2:01:01–2:01:07
eben selber irgendwie Komplexität zu entlangen und dieses Bewusst-Gewusst-Werden,
2:01:07–2:01:10
also dieser Prozess ist da irgendwie beschrieben.
2:01:10–2:01:16
Das ist für mich meine Interpretation. Es geht um den Akt der Fortplatzung.
Florian Clauß
2:01:16–2:01:20
Interessant. Ja. Und was ist denn der Ozean?
Micz Flor
2:01:21–2:01:26
Das ist dann die Symbiose. Das ist der symbiotische Raum.
2:01:26–2:01:28
Also es geht jetzt nicht darum, dass es hier biologisch ist,
2:01:28–2:01:31
sondern quasi der Sperme verlässt den Mann, kommt dann zu der Frau.
2:01:32–2:01:39
Und dann entsteht eben dieser symbiotische Raum, in dem der werdende Mensch oder das Kind,
2:01:39–2:01:45
der Säugling, dann auch eben diese Matrix von Solaris benötigt,
2:01:45–2:01:48
um sich zu orientieren in der Welt, um die Dinge zu verstehen.
2:01:48–2:01:52
Und die Spiegelung durch den Planeten ist dann quasi die Mutter,
2:01:52–2:01:58
die Emotionen spiegelt, die Verbindungen spiegelt, die überhaupt Bindungsfähigkeit
2:01:58–2:02:00
mitentwickelt in dieser frühkindlichen symbiotischen Zeit.
Florian Clauß
2:02:01–2:02:09
Okay. Es stocket deswegen, weil es gibt auch eine Kritik über Solaris,
2:02:09–2:02:13
über den Ozean, die aber ein bisschen abwegig ist.
2:02:13–2:02:20
Da hat er geschrieben, dass Solaris, der Ozean, die weibliche Vagina ist.
2:02:20–2:02:26
Weil diese Ausbuchtung und diese Beschreibung, die kann man sehr sexualisiert
2:02:26–2:02:31
lesen und kann dann halt auch dieses Bild bekommen, dass es halt so eine Vulva
2:02:31–2:02:33
beschreibt, ja, in allen Formen und so weiter.
2:02:34–2:02:38
Aber, was dann quasi der Schluss, das Conclusio ist, ist halt so,
2:02:38–2:02:43
dass dann diese, das Weibliche, als das Unerkannte, Unerforschte, ja,
2:02:44–2:02:47
da kommen wieder so Stereotypen, die halt total überholt sind auf,
2:02:47–2:02:51
ja, und die halt auch da sich manifestieren in dieser Kritik.
2:02:51–2:02:56
Deswegen ist die Kritik eigentlich eher so aus einem patriarchischen Diskurs gefallen.
Micz Flor
2:02:56–2:02:56
Ja.
Florian Clauß
2:02:56–2:03:00
Aber deswegen frage ich nochmal nach, was bei dir der Ozean bedeutet.
Micz Flor
2:03:00–2:03:03
Also das, was du jetzt sagst, wäre natürlich dann in gewisser Weise so ein bisschen
2:03:03–2:03:08
wie die zweite Geschichte von Hyperion, wo du sagst, das ist ja so eine Jungensfantasie.
2:03:08–2:03:13
Also dann hätte Lem ein Buch geschrieben, was sagt, all die Männer checken nicht,
2:03:13–2:03:17
wie Frauen funktionieren, weil sie immer nur versuchen, das Kleid aufzumachen
2:03:17–2:03:20
und nie quasi das Weibliche dahinter irgendwie erschließen.
2:03:20–2:03:23
Das meine ich gar nicht, sondern ich fand es halt eher so interessant,
2:03:23–2:03:29
dass dieser Versuch zu lernen, den du jetzt natürlich auch den Planeten beschreibst,
2:03:29–2:03:32
ist ja auch nicht falsch, aber diese Spiegelung, vielleicht sogar eben in diesem
2:03:32–2:03:38
Kind, da spiegelt die Mutter dem Kind irgendwas zurück, aber das...
2:03:39–2:03:44
Dieses in die Welt kommen, in die Symbiose zur Mutter in dem Moment entlassen
2:03:44–2:03:48
zu werden, dann einen Raum schafft, in dem man selber auch versucht, die Welt zu verstehen.
2:03:48–2:03:53
Und in dieser sehr frühen Phase auch diese Grenzen noch gar nicht so existieren
2:03:53–2:03:54
zwischen was ist ich und was ist das andere.
2:03:55–2:03:58
Das ist dann erst später möglich, was ja auch darin beschrieben wird,
2:04:00–2:04:06
dass man das Nicht-Ich vom Ich unterscheiden kann. Vorher gibt es ja diese symbiotische
2:04:06–2:04:11
Verschmelzung auch quasi mit der guten Mutterbrust, die immer stillt und die
2:04:11–2:04:14
immer verfügbar ist und so. Und dann die böse Brust, die irgendwie sich verweigert und so.
Florian Clauß
2:04:14–2:04:22
Also dann quasi diese Verschmelzung, das heißt, dieser Akt, wie Bewusstsein
2:04:22–2:04:28
entsteht, das als diese ganze Phase, was der Roman beschreibt.
Micz Flor
2:04:28–2:04:39
Das ist sozusagen die frühe Kindheit. Also Calvin ist der frühe Säugling.
2:04:39–2:04:41
Also ich muss sagen, ich habe mir das so als Idee.
2:04:41–2:04:46
Eigentlich habe ich gedacht, dass du lachst, weil du sagst, wie damals mit dem Wald und den Jägern.
2:04:47–2:04:49
Das geht immer wieder bei Mitch.
2:04:51–2:04:56
Genau, bei Mitch geht es immer um Sex. Aber trotzdem, ich finde schon,
2:04:56–2:04:57
dass es in gewisser Weise hält.
2:04:58–2:05:01
Es ist halt dann die Frage, warum schreibt er so eine lange Geschichte darüber?
2:05:01–2:05:05
Aber dann ist es natürlich sowieso bei der Interpretation so,
2:05:05–2:05:08
dass wir in gewisser Weise von Lem gehört haben, er hat alles gesagt, was er sagen wollte,
2:05:08–2:05:14
ist auch wahr und dann müssen wir ihm die Geschichte wegnehmen und müssen dann
2:05:14–2:05:19
natürlich da einsteigen zu überlegen, weshalb ist diese Geschichte so interessant,
2:05:19–2:05:22
was berührt uns daran, was sehen wir darin.
2:05:22–2:05:26
Das ist dann natürlich nicht mehr das, was die Intention des Autors ist in dem Moment.
2:05:27–2:05:32
Und da, finde ich, hält dieses Konzept schon zu sagen, wenn wir diese...
2:05:33–2:05:39
Empfängnis und diese intrauterine und postuterine Zeit uns anschauen,
2:05:39–2:05:43
dann könnte man doch sagen,
2:05:43–2:05:48
dass wir da in einem Raum sind, wo auch schon intrauterin,
2:05:48–2:05:53
also noch in der Raumstation selbst Calvin schon lernt,
2:05:53–2:05:58
die Umgebung lernt, so wie das Kind auch im Bauch schon Stimmen verstehen kann
2:05:58–2:06:04
und Tageszeiten verstehen kann und einen Rhythmus entwickelt und dann mit der
2:06:04–2:06:07
Geburt quasi auf diesen Mond entlassen wird,
2:06:07–2:06:12
auf Solaris entlassen wird und dann da eben auch diesem Raum begegnet, in der Lage ist,
2:06:12–2:06:17
unsere Gefühle des Säuglings zu spiegeln, sie nicht eins zu eins wiederzugeben,
2:06:17–2:06:21
also die Städte, die Gärten, das ist alles ein bisschen anders.
2:06:21–2:06:27
Aber es geht nicht darum, dass Wissenschaftler verstehen, warum Solaris intelligent
2:06:27–2:06:31
ist, sondern es geht darum, dass wir in dem Roman lernen, dass Menschen immer
2:06:31–2:06:34
versuchen, sich mit etwas zu verbinden.
2:06:34–2:06:36
Das ist ja auch der Vorwurf, den Calvin gleichzeitig hatte eben,
2:06:36–2:06:38
wir sehen immer nur das Menschliche.
2:06:38–2:06:43
Aber genau das passiert ja beim Säugling, der sich selber erkennen lernt über
2:06:43–2:06:47
den Kontakt mit etwas, was nicht ich ist und was er versteht,
2:06:47–2:06:50
erst, wenn er wirklich in die Welt kommt.
2:06:51–2:06:55
Und dadurch entsteht die eigene Identität in diesem symbiotischen.
2:06:56–2:07:02
In diesem dialektischen, symbiotischen Moment, in dem Solaris oder als Mutter
2:07:02–2:07:07
als das andere Symbiotische in Teilen spiegelt.
Florian Clauß
2:07:08–2:07:12
Ja, also ich schaffe es noch nicht ganz alles so aufzulösen,
2:07:13–2:07:16
welche Position was ist, weil für mich ist ja nochmal so diese,
2:07:16–2:07:22
Es gibt ja diese Jahrhunderte, also ein Jahrhundert Forschung um Solaris.
2:07:22–2:07:25
Das heißt, es gibt ja schon die ganze Historie.
2:07:26–2:07:31
Und jetzt, wo dann quasi das ganze Ding so am Ausfaden ist, passiert auf einmal was.
2:07:32–2:07:35
Vielleicht gab es das schon vorher und man hat es nur nicht irgendwie protokolliert
2:07:35–2:07:38
gesehen, weil das dann wieder so eine Randbezeichnung ist. Also es ist dann
2:07:38–2:07:42
wieder verschwunden, wie eben diese Kindesbeobachtung von Bertrand.
2:07:42–2:07:45
Ja, vielleicht ist es ja auch irgendwo, es gibt ja viel mehr Geschichten,
2:07:45–2:07:46
die sowas dann halt zeigen.
2:07:47–2:07:52
Also das heißt, aber wir befinden uns quasi am Ende von einer Ära, wo irgendwas passiert.
2:07:53–2:08:00
Also das heißt, es ist eine Form von vielen, die irgendwie da entstanden ist.
2:08:00–2:08:07
Oder es ist ja quasi kein Prozess, der dann zu diesem Bewusstsein führt oder zu diesem...
2:08:08–2:08:12
Zu dieser Entität oder was du da...
Micz Flor
2:08:12–2:08:17
Ne, genau, also da würde man, wenn man jetzt meine provokante Interpretation
2:08:17–2:08:20
einfach mal auf so einem Solaris-Panel... Ich meine, das ist ja auch das Lustige
2:08:20–2:08:24
auf einer Meta-Ebene, diese Solaristik, die gibt es jetzt ja.
2:08:24–2:08:28
Also es gibt unglaublich viele Interpretationen von Solaris,
2:08:28–2:08:31
aber die gibt es nicht auf einer physikalischen Ebene, sondern die gibt es halt
2:08:31–2:08:33
auf einer literaturwissenschaftlichen.
2:08:33–2:08:40
Die Solaristik ist existent und wir sind jetzt aktiv involviert in dem Prozess
2:08:40–2:08:46
des Solarismus, in dem wir aber die Geschichte versuchen, neu zu beleuchten oder zu erfassen.
2:08:46–2:08:50
Und da war es einfach so eine steile Hypothese, so ein Paper am Nachmittag um
2:08:50–2:08:52
14 Uhr, wo wir eh noch beim Essen sind,
2:08:52–2:08:55
sitzt dann halt jetzt einer da und sagt, ja, es geht hier um den Sexualakt und
2:08:55–2:09:00
die intrauterine Entwicklung des Kindes, was letztendlich dann in den symbiotischen
2:09:00–2:09:02
Raum mit der Mutter entlassen wird. Fragen?
2:09:04–2:09:12
Also das ist ja genau so, es ist jetzt einfach Teil des Solarismus, meine These.
2:09:12–2:09:16
Oh, das ist toll, mach mal ein Foto.
Florian Clauß
2:09:16–2:09:20
So darf ich dann meine Interpretation noch?
2:09:20–2:09:29
Die ist ja auch so, also im Prinzip ist sie ja schon mehr oder weniger verschiedentlich angeklungen.
2:09:29–2:09:34
Also jetzt deswegen, der Planet ist für mich quasi ein System,
2:09:35–2:09:42
was irgendwo in seiner Existenz eine Korrekturberechnung ständig drin hat.
2:09:42–2:09:46
Damit steigen wir ein. Das ist so ein erster Absatz, wo ich dann dachte,
2:09:46–2:09:50
wow, als ich das gelesen habe, wie, das ist hier ein Dreikörperproblem,
2:09:50–2:09:52
das habe ich doch überhaupt nicht mehr in Erinnerung.
2:09:52–2:09:57
Dann denke ich so, okay, was ist denn das für ein geiles Szenario zu sagen,
2:09:57–2:10:06
ein Planet kann seine Bahn so korrigieren, dass es halt stabil läuft mit zwei Sonnen.
2:10:06–2:10:11
Das finde ich so, also damit ist ja quasi schon als Axiom, ist ja gesetzt.
2:10:12–2:10:15
Da gibt es eine Intelligenz, die so eine Korrektur machen kann.
2:10:15–2:10:21
Was ich dann bei der Solaristik vermisst habe, ist eben, was so offensichtlich
2:10:21–2:10:23
ist in diesem ganzen Ding.
2:10:23–2:10:27
Das Offensichtlichste, was eben diese Korrektur machen kann,
2:10:28–2:10:32
sind ja genau diese Symmetriaden und Asymmetriaden.
2:10:32–2:10:34
Und zwar in zweierlei Hinsicht.
2:10:34–2:10:38
Einmal ist es die Berechnung selber. Da wird quasi der Rechenschritt selber
2:10:38–2:10:42
quasi prozessiert und in der Form zum Ausdruck gebracht.
2:10:42–2:10:45
Das ist Rechenleistung. Das passt da genau.
2:10:45–2:10:52
Die chaotische Bahnführung, das sind die Asymmetriaden. Und die Asymmetriaden
2:10:52–2:10:53
sind dann quasi die Korrektur davon.
2:10:53–2:10:58
Und gleichzeitig ist es auch Ergebnis, nämlich die Gewichtsverlagerung.
2:10:59–2:11:04
Also es ist ja so, dass der Planet quasi durch diese Ausformung so seine Schwerkraft
2:11:04–2:11:08
verändern kann, dass dann die Bahnkorrektur gleichzeitig mit der Berechnung offen ist.
Micz Flor
2:11:08–2:11:09
Ja, das kann er ja nicht.
Florian Clauß
2:11:09–2:11:14
Doch, der Mittelpunkt wird natürlich verlagert. Das ist ja das Prinzip von Schwerkraftverlagerung.
2:11:14–2:11:20
Das kann man doch nachmessen, das hatten wir doch zuletzt bei den Grundwasserverlagerungen
2:11:20–2:11:25
in Kalifornien oder in Indien ist es auch so.
2:11:25–2:11:28
Und das kann man an der Bahnberechnung eines Planeten nachweisen.
2:11:28–2:11:35
Die sind Millimeter, wo sich die Erde tatsächlich durch diese Grundwasser-Umpumpung
2:11:35–2:11:38
soweit die Bahn verändert, dass man das nachweisen kann.
2:11:38–2:11:42
Das heißt, du kannst durch eine Schwerkraftverlagerung, weil du ja da natürlich
2:11:42–2:11:45
deinen Schwerpunkt woanders hin verlagerst, kannst du die Bahn beeinflussen.
2:11:46–2:11:50
Also jetzt rein physikalisch ist das nachweisbar, dass sich eben durch eine
2:11:50–2:11:55
Masseverlagerung quasi der Planet eben korrigieren kann. Das ist so.
2:11:56–2:12:01
Und das, was ich bei der Solaristik vermisst habe, dass keiner das irgendwie erwähnt hat.
2:12:01–2:12:05
Dass keiner so, ey, lasst uns doch mal diesen Zusammenhang zwischen Symmetriaden,
2:12:05–2:12:09
Asymmetriaden und der Bahnberechnung machen. Weil das ist so das Offensichtlichste.
2:12:09–2:12:14
Warum hat das keiner gemacht? Das ist doch alles da, diese Information.
2:12:14–2:12:18
Das muss doch mal wissenschaftlich untersucht werden. Wenn da irgendwie die
2:12:18–2:12:21
Ausspruchung entsteht, dass dann halt so und so viel Grad dann die Bahn sich
2:12:21–2:12:22
abweicht und wie er das macht.
2:12:23–2:12:27
Das ist jetzt so erstmal der erste Punkt meiner Interpretation.
2:12:27–2:12:32
Der erste Punkt ist, dass es halt eine riesen Korrekturmaschine ist auf diesem
2:12:32–2:12:37
Planeten, der dann eben seine Bahn durch Berechnung und so weiter macht.
2:12:37–2:12:42
Das andere Ding, was dazu kommt, ist, dass dieser Planet ja niemals irgendwie feindselig ist.
2:12:42–2:12:47
Das heißt, in der Konfrontation mit der Station sind ja alle Opfer,
2:12:47–2:12:52
sind ja mehr oder weniger durch Unvorsichtigkeit oder Unfälle, entstehen die.
2:12:52–2:12:56
Also es ist ja nicht so, dass der Planet dann anfängt, irgendwie dann so da
2:12:56–2:12:58
böswillige Absichten zu zeigen.
2:12:59–2:13:06
Und auch dieses Erscheinen der Gäste ist ja so, dass die Gäste...
2:13:07–2:13:10
Und es wird ja auch in dem Buch gesagt, dass die dann nicht,
2:13:10–2:13:13
um die Besatzung dann irgendwie zu
2:13:13–2:13:17
verwirren oder sowas, sondern es wird angenommen, dass die was Gutes tun.
2:13:17–2:13:21
Und wenn du aus der Perspektive dieser Korrekturmaschine dann da so drauf guckst,
2:13:21–2:13:23
auf so eine Besatzung, und du siehst dann halt irgendwie so,
2:13:23–2:13:25
und das wird ja auch gesagt,
2:13:25–2:13:27
ich glaube, das haben wir in der Explizität noch nicht gesagt,
2:13:27–2:13:33
dass alle Erscheinungen sind ja immer so tiefe Traumata von den Personen.
2:13:33–2:13:40
Also das heißt, Harvey ist quasi das größte Trauma von Chris und dann gibt es
2:13:40–2:13:45
die anderen Figuren, bei der Frau von Liberian wird es auch nochmal gesagt,
2:13:45–2:13:46
das hat irgendwas mit ihm zu tun.
2:13:46–2:13:52
Also das heißt, aus dieser Sicht der Korrekturmaschine guckst du auf diese Besatzung,
2:13:52–2:13:55
auf die Station und wenn du dann halt wirklich so die Kraft von Reverse Engine
2:13:55–2:13:59
siehst, dann siehst du irgendwie so Felder, die so Hotspots sind.
2:13:59–2:14:05
Und dann gehst du da rein und siehst auf einmal so, okay, da ist diese Figur drin in diesem Hotspot.
2:14:05–2:14:09
Und dann fängt das halt an auch so, wie kann ich denn das korrigieren?
2:14:09–2:14:16
Und dann fängt das halt an so, das ganze Ding, okay, dann mache ich jetzt mal hier eine Figur rein.
2:14:16–2:14:21
Und dann wird es vielleicht wieder gut. Und dann schickt er diese Figur.
2:14:21–2:14:25
Und das ist halt so eigentlich eine total positive Ansatz.
2:14:25–2:14:29
Als dieses irgendwie, ich will mein Umfeld immer so korrigieren,
2:14:29–2:14:31
dass alles gerade läuft, im geraden Wahn.
Micz Flor
2:14:31–2:14:32
Das ist ein bisschen so Wall-E dann wirklich.
Florian Clauß
2:14:33–2:14:37
Ja, so dieses Aufräumen und dann okay, das hier läuft schief und dann kann ich das da hinschicken.
2:14:37–2:14:42
Und dann, also das heißt, dadurch entwickeln sich ja auch die Figuren weiter.
2:14:42–2:14:47
Das heißt, das Trauma von Chris ist ja auch damit irgendwie auch bearbeitet.
2:14:47–2:14:50
Oder zumindest jetzt nicht abgearbeitet, aber zumindest irgendwie so,
2:14:50–2:14:54
es ist jetzt nicht mehr so als Trauma dann so eingeschrieben in seinem Kopf,
2:14:54–2:14:56
sondern es ist herausgekommen.
2:14:57–2:15:00
Und das ist halt so die Korrektur. Und jetzt noch einen Schritt weiter,
2:15:01–2:15:06
wenn man das halt so meint, ist die überhaupt die Idee von dieser,
2:15:07–2:15:09
also wir haben ein lernendes Modell.
2:15:09–2:15:15
Ein lernendes Modell, das irgendwo dann bestimmte Missstände sieht und darauf
2:15:15–2:15:17
reagiert und das dann versucht wieder auszugleichen.
2:15:17–2:15:21
Und das hast du nämlich vorhin in so einem Seitensatz gesagt,
2:15:21–2:15:23
da habe ich mich ein bisschen geärgert.
2:15:23–2:15:28
Da habe ich die Spitze von dem. Nämlich, was wäre das, wenn das überhaupt gar
2:15:28–2:15:30
keine Intelligenz ist, sondern tatsächlich nur so ein Werkzeug,
2:15:30–2:15:35
was dann von Aliens als Technologie da mal so hingeworfen wurde.
2:15:35–2:15:39
Und die haben gesagt, okay, unser, also dann bin ich wieder ein bisschen bei
2:15:39–2:15:43
drei Sonnen, wo die halt auch ihren, wir haben hier irgendeine Technologie entwickelt,
2:15:44–2:15:47
da war ich eher so ein bisschen bei Gebrüder Strudgatzki, wo dann halt auch
2:15:47–2:15:51
dieses Picknick am Wegesrand, diese Artefakte aus der Zone, die dann halt auch
2:15:51–2:15:54
so komische Wirkung haben, ja, dass es halt einfach nur eine Technologie ist
2:15:54–2:15:57
von irgendwelchen Aliens, die dann halt gesagt haben, okay, wir gucken,
2:15:57–2:16:00
wir erproben jetzt einfach mal hier so eine Warnkorrektur.
2:16:01–2:16:04
Technik, die brauchen wir für unseren Planeten. Das ist unser Testplanet.
2:16:04–2:16:08
Wir werfen das mal drauf und dann beobachten und dann, okay,
2:16:08–2:16:11
es funktioniert und ziehen halt weiter, weil sie das Ding nicht mehr mitnehmen wollen.
2:16:12–2:16:16
Das ist Müll. Das ist einfach nur eine große, klumpen Elchentechnologie,
2:16:16–2:16:20
der dann halt einfach so eine riesen Korrekturmaschine ist, die dann halt so
2:16:20–2:16:25
die ganzen Umläufe und alles, was in seine Nähe kommt, dann halt anfängt zu korrigieren.
2:16:25–2:16:28
Aber dann halt auch wie so eine generative KI.
2:16:28–2:16:33
Kein Bewusstsein hat, sondern immer nur quasi spiegelt oder in dem Sinne irgendwelche
2:16:33–2:16:36
Sachen sieht und dann halt die korrigiert.
Micz Flor
2:16:36–2:16:41
Ja, stimmt, Spiegel ist das falsche Wort, weil die KI ja dann quasi schon erstellt.
Florian Clauß
2:16:41–2:16:45
Ja, simuliert dann halt quasi, aber es ist eine reine Simulation.
2:16:46–2:16:48
Also das ist meine Theorie.
Micz Flor
2:16:48–2:16:51
Cool, also ich meine, was natürlich auch interessant ist, wenn wir jetzt da gehen,
2:16:52–2:16:55
dass halt bestimmte Werkzeuge für bestimmte Probleme geschaffen wurden,
2:16:55–2:16:58
dann kann man sich natürlich vorstellen dass
2:16:58–2:17:00
die also ich bleibe jetzt
2:17:00–2:17:04
mal bei dir wir schreiben jetzt mal von außen noch mal ein kapitel
2:17:04–2:17:08
dazu dass wir sagen ja das gab diese raumschiff station und dann war halt irgendwie
2:17:08–2:17:13
waren 80 leute drauf und höhe riesen forschungsprojekt und sowas und und dann
2:17:13–2:17:16
irgendwann sind die halt abgezogen
2:17:16–2:17:21
worden und dann war nur noch snout wie sartorius und Ghibarian drauf.
2:17:21–2:17:25
Und dann guckt die Korrekturmaschine auf einmal so, drei Körperprobleme,
2:17:25–2:17:28
drei Körperprobleme. Also er kennt diesen Hotspot so.
2:17:28–2:17:32
Das ist, ich bin das Werkzeug dafür. Ich löse euch, ich mache euch das.
2:17:32–2:17:33
Also wir brauchen jetzt hier einen, hier einen.
2:17:34–2:17:37
Und in dem Moment, wo Ghibarian sich dann umbricht, kommt dann Calvin dazu und
2:17:37–2:17:40
wird dann quasi gleich wieder auch in diesen Lösungsprozess.
2:17:40–2:17:46
Aber dass genau diese drei Menschen dann auch nochmal das als Trigger für,
2:17:46–2:17:51
dass die Maschine dann wirklich halt anfängt zu handeln, weil das ist hier jedes
2:17:51–2:17:54
mal mit den drei körperproblem hast auch wenn du teil davon bist oder wenn das was ist.
Florian Clauß
2:17:54–2:17:58
Ja na ja
2:17:58–2:18:01
gut na das ist jetzt sehr zusammengefaltet sind ja
2:18:01–2:18:04
auch ich würde es jetzt auch nicht als einzelne körper sondern es ist wahrscheinlich
2:18:04–2:18:08
so ein geflecht was in der wahrnehmung der diese maschine ist einfach nur geflecht
2:18:08–2:18:13
wo es dann halt so bestimmte hotspots gibt so punkte und da geht es ja rein
2:18:13–2:18:17
da fängt es an zu korrigieren also es muss irgendwie aber ich Ich finde dieses
2:18:17–2:18:22
Bild sehr gut für unsere Geschichte.
Micz Flor
2:18:23–2:18:23
Okay.
Florian Clauß
2:18:23–2:18:29
Ja, ich glaube, wir haben das jetzt erschöpfend, aber nicht ausgiebig und zumindest
2:18:29–2:18:32
für uns erschöpfend erzählt.
2:18:34–2:18:34
Solaris.
Micz Flor
2:18:34–2:18:38
Also ich denke, dies ist eine richtig satte Folge geworden. Für die nächste
2:18:38–2:18:43
Folge wäre es ja dann Cliffhanger, wenn wir jetzt sagen, es geht um Solaris
2:18:43–2:18:44
und es geht um Tarkowski.
2:18:45–2:18:50
Und es geht natürlich um die Interpretation des Stoffes durch den Regisseur Tarkovsky.
2:18:50–2:18:54
Und jetzt greifen wir mal ganz zurück auch noch, weil du hast ja schon was über
2:18:54–2:18:55
Tarkovsky gemacht, nämlich...
Florian Clauß
2:18:56–2:18:57
Über Stalker.
Micz Flor
2:18:57–2:19:02
Stalker, genau. Und Slavoj Žižek hat so einen ganz schönen Vergleich von Stalker
2:19:02–2:19:06
und Solaris gemacht, von den beiden Tarkovsky-Filmen, in dem er gesagt hat,
2:19:07–2:19:11
in Solaris hat Lem etwas erschaffen.
2:19:11–2:19:15
Er sagt halt, it's an id machine, as an object which realizes your nightmares,
2:19:16–2:19:18
desires, fears, even before you ask for it.
2:19:18–2:19:24
Also diese Solaris erkennt all dein, also bevor du überhaupt danach fragen kannst,
2:19:24–2:19:29
erkennt es deine Ängste, deine Sorgen, deine Wünsche, das erkennt es alles und reagiert darauf.
2:19:30–2:19:32
Das war der eine Film, den Tarkovsky gemacht hat.
2:19:32–2:19:35
Und der andere Film war das genaue Gegenteil, nämlich Stalker.
2:19:45–2:19:50
Also diese Idee, dass in Stalker eben genau so eine Wunsch-Erfüllungsmaschine gemacht wird.
2:19:50–2:19:55
Und die Menschen von Intakovskys Film sind entweder auf der Solaris-Seite,
2:19:55–2:20:00
in dem ihre Ängste, Wünsche, wie auch immer wir es beschreiben,
2:20:00–2:20:03
Desires irgendwie realisiert werden von Solaris.
2:20:03–2:20:06
Solaris und in der Zone, die auch ja ein mystischer Raum ist,
2:20:06–2:20:10
in dem man nicht genau weiß, wie die Logik da funktioniert, der ja nicht von
2:20:10–2:20:14
dieser Welt zu sein scheint, da ist genau das Gegenteil der Fall.
2:20:14–2:20:17
Wenn du deine Wünsche genau formulieren kannst, dann werden sie auch wahr.
2:20:18–2:20:21
Aber die Sorge ist, dass man das einfach eben nie genau kann.
2:20:22–2:20:27
Das fand ich so ganz schön, um Tarkovsky und Solaris in den Mix zu schmeißen.
Florian Clauß
2:20:27–2:20:31
Ja, vielen Dank. Wir werden hören. Das war Episode,
2:20:33–2:20:40
53 Solaris und wir haben schon angekündigt, es geht in zwei Wochen weiter mit Tarkovsky und Solaris.
2:20:40–2:20:44
Und dann in vier Wochen hören wir Söderberg und Solaris.
2:20:44–2:20:48
Wenn ihr noch mehr Infos haben wollt, dann guckt auf unsere Seite,
2:20:48–2:20:51
auf eigentlich-podcast.de und da
2:20:51–2:20:54
findet ihr auch den Track, den wir heute gegangen sind. Ich fand's toll.
2:20:55–2:20:57
Ich kenne viele Sachen hier nicht.
Micz Flor
2:20:57–2:21:00
Geht noch weiter. Wir sind wirklich in so einem Tarkovsky-Film, oder?
Florian Clauß
2:21:01–2:21:04
Wir sind schon wieder in der Zone. Ja, aber wir sind auch im Osten.
Micz Flor
2:21:04–2:21:07
Ich mache die letzte Fußnote noch, falls ihr euch wundert.
2:21:07–2:21:13
Nein, wir wissen doch, dass es diesen russischen Fernsehfilm Solaris gibt aus dem Jahre 1968,
2:21:14–2:21:18
den man auch komplett auf YouTube sehen kann mit englischen Untertiteln und
2:21:18–2:21:23
der wirklich auch sehr, sehr nah an der Originalgeschichte dran ist und der
2:21:23–2:21:26
auch mit, ich glaube, hat 144 Minuten oder sowas.
2:21:26–2:21:29
Das ist gar nicht so kurz für einen Fernsehfilm, aber ich glaube,
2:21:29–2:21:32
das sind zwei Teile, die dann zusammengeschnitten wurden in einem Film.
2:21:32–2:21:35
Ist auch sehr sehenswert, aber wir haben uns hier einfach auf die.
Florian Clauß
2:21:37–2:21:42
Blockbuster wir haben uns auf die Blockbuster konzentriert. Also macht's gut und bis bald.
Micz Flor
2:21:42–2:21:43
Bis dann, tschüss.
2:21:46–2:21:48
Das war echt ne Flohfolge.
Florian Clauß
2:21:50–2:21:52
Ich kann jetzt auch nicht mehr viel erzählen.

Mehr

"Wir fassen den Trieb als den Grenzbegriff des Somatischen gegen das Seelische"

Wir rotieren um das Engelbecken in Kreuzberg, während unsere Gedanken kreisen. Im Zentrum des Gedankenwirbels steht zum vierten Mal in Serie die Künstliche Intelligenz. Drumherum weben wir einen Strudel, dessen Zubereitung -- wie es sich für einen Strudel gehört -- in Wien vor über 100 Jahren begann. Die Füllung im Zentrum ist eine Melange aus KI-Bewusstsein, der Entwicklung des Selbst und neusten neurologischen Erkenntnissen. Oder konkret formuliert: muss eine KI sich selbst simulieren, damit sie sich selbst bewusst werden kann? Micz beginnt mit dem Konzept des Selbst, das in der psychodynamischen Theorie als Hilfskonstrukt des freudianischen Instanzen-Modells seinen Ursprung hatte. Das Selbst war anfangs wenig mehr als eine regulierende Schnittstelle zwischen Es, Umwelt und somatischem Erleben. Mit der Ich-Psychologie wurde dem Selbst immer mehr Platz eingeräumt, es entstand zum ersten Mal das Konzept des Selbst als einer Abstraktion als Konstrukt. Wir bleiben lange in der Psychodynamik und klinischen Psychologie verhaftet, bis wir schließlich wieder über das Thema Identität und Bias zurück zur KI kommen. Und dann ist schon Schluss. Danke für's zuhören!

Shownotes

Mitwirkende

avatar
Micz Flor
Erzähler
avatar
Florian Clauß

Transcript

Micz Flor
0:00:02–0:00:06
Hm. Hallo. Was? Du nicht.
Florian Clauß
0:00:04–0:00:05
So?
0:00:07–0:00:14
Ähm. Ich meine, wir müssen nochmal klatschen, weil ich gerade auf Freestylen gekommen bin.
Micz Flor
0:00:14–0:00:16
Klatschen. Männlichkeit auf der Bühne. Willkommen. Okay.
Florian Clauß
0:00:19–0:00:28
Hallo und herzlich willkommen! Eigentlich Podcast Podcast Episode 21 Wir laufen
0:00:28–0:00:29
beim Reden und Reden laufend.
0:00:29–0:00:37
Heute laufen wir in einem Jahr im Chor Kids rum oder kann man so sagen.
Micz Flor
0:00:36–0:00:41
Ja konkret. Wir sind mitten in Kreuzberg und laufen jetzt um Erkelenz.
0:00:41–0:00:44
Ist das auch der Kleinstadt? Hier nördlich Richtung Engelbecken? Auf jeden Fall.
0:00:44–0:00:50
Wo inzwischen ein Park ist, wo früher ein Kanal war. Auf dem glaube ich auch.
0:00:52–0:00:55
Kohlen und was weiß ich transportiert wurden, aber der dann irgendwann zugeschüttet
0:00:55–0:01:00
wurde, weil der voller Fäkalien war und als stehendes Gewässer wohl nicht sehr.
Florian Clauß
0:01:01–0:01:07
Wann war das? Im 18. Jahrhundert oder so.. Okay. Ja.
Micz Flor
0:01:03–0:01:06
Nee, das war, glaube ich nach dem ersten Weltkrieg irgendwann genau,
0:01:06–0:01:08
weiß es nicht. Aber vielleicht es gibt drüben.
0:01:09–0:01:12
Falls wir denn heute abschließend noch was essen gehen,
0:01:13–0:01:17
dann können wir das vielleicht sogar noch nachschauen, weil es gibt hier ein
0:01:17–0:01:20
kleines Restaurant Stiege und da hängt oben noch so eine,
0:01:20–0:01:24
groß aufgezogene Schwarz Weiß Postkarte als Bild und da steht glaub ich die
0:01:24–0:01:28
Jahreszahl drauf und da sieht man noch, dass Wasser drin war.
Florian Clauß
0:01:29–0:01:35
Ja eigentlich Podcast D. Daher könnt ihr auch die Tracks finden,
0:01:36–0:01:39
die wir während unserer Aufnahme laufen.
0:01:40–0:01:50
Heute ist der vierte Teil unserer Episode unserer Serie über künstliche Intelligenz und den.
0:01:51–0:01:53
Also du hattest ja quasi die ganze.
0:01:53–0:01:57
Die ganze Serie dann ins Leben gerufen und das hat sich dann entwickelt.
0:01:58–0:02:08
Und zuletzt habe ich über bioelektrische Organsysteme und Künstliche Intelligenz
0:02:08–0:02:11
Vergleich von Deep Learning und Biologie.
0:02:11–0:02:14
Heute 12:00. Heute bist du mit einem Thema dabei.
Micz Flor
0:02:13–0:02:20
Heute bin ich dran. Genau. Also ja. Der vierte Teil von der Miniserie Künstliche Intelligenz.
0:02:22–0:02:25
Da möchte ich über das Selbst sprechen.
0:02:26–0:02:30
Wie bin ich darauf gekommen? Was ja immer noch in dieser künstlichen Intelligenz
0:02:30–0:02:37
Forschung dann so schreckhaft befürchtet wird oder von anderen einfach sehr
0:02:37–0:02:39
gesucht wird und schwer zu realisieren ist.
0:02:39–0:02:44
Diese Frage von Bewusstsein Consciousness, also dieses Thema,
0:02:44–0:02:48
dass man sich selbst bewusst ist.
0:02:49–0:02:57
Und da ist es so, dass das es einen Bereich gibt, in dem vermutet wird,
0:02:58–0:03:03
dass Bewusstsein nur dann entstehen kann, wenn man sich selbst simuliert.
0:03:03–0:03:06
So, und genau dieses Thema möchte ich eigentlich besprechen.
0:03:06–0:03:11
Und zwar, dass selbst die Entstehung, die Entwicklung des Selbst,
0:03:11–0:03:12
wie werden wir das Selbst?
0:03:14–0:03:19
Und das ist dann wieder so vor einem entwicklungspsychologischen Hintergrund,
0:03:20–0:03:25
und in meinem Fall auch so ein bisschen mit einem psychodynamischen Anstrich.
0:03:25–0:03:29
Jetzt kein verhaltenstherapeutischer, sondern eher ein psychodynamischer Hintergrund.
Florian Clauß
0:03:30–0:03:37
Und das Selbst. Wir reden jetzt vom Menschen. Jetzt also.
Micz Flor
0:03:36–0:03:40
Genau. Ja, wir sind. Wir sind eine Biologie. Und ich bin ja generell so ein
0:03:40–0:03:42
bisschen dafür, dass es geht.
0:03:42–0:03:45
Manchmal bei der künstlichen Intelligenz Forschung so ein bisschen unter.
0:03:45–0:03:47
Ich habe so das Gefühl, dass Wissenschaftler so gerne unter sich ist,
0:03:47–0:03:52
dass alles irgendwie so ein bisschen außen vor gelassen wird.
0:03:52–0:03:55
Man geht halt schon irgendwie in die Neurologie, in die Biologie,
0:03:56–0:03:58
in die Informationstechnologie sowieso.
0:03:59–0:04:03
Also jetzt ist es natürlich so, dass man auch argumentieren könnte,
0:04:04–0:04:07
wenn man wirklich am Bewusstsein rumschrauben möchte,
0:04:08–0:04:12
wäre es nämlich auch sinnvoll, so was wie eine klinische Psychologie Psychotherapie
0:04:12–0:04:17
Psychiatrie da wirklich mit hinein zu lassen, weil.
0:04:19–0:04:26
Es ist ja zu erwarten, wie wir es ihm nach vielen, vielen Generationen Evolution
0:04:26–0:04:30
auch wissen. Es ist ja zu erwarten, dass nicht alles immer gleich genau so aus
0:04:30–0:04:32
der Dose kommt, wie man das gerne hätte.
Florian Clauß
0:04:32–0:04:36
Endlich meint man, man kann gleich die erste Hilfe implementieren.
Micz Flor
0:04:37–0:04:40
Nicht unbedingt Erste Hilfe. Aber vielleicht ist es ja nicht falsch.
0:04:40–0:04:46
Wir hatten doch diese Folge mit den Ameisen, wo ich meinte, dieser eine Dialogmoment,
0:04:46–0:04:52
wo der Linguist in dem Film von Phase 4567 welche Phase war es nun mal?
0:04:53–0:04:59
Der meinte, dass sie mit den Orcas sprechen können, aber nur mit denen, die Psychosen haben.
Florian Clauß
0:05:00–0:05:06
Das ist so ein bisschen Sonia Cosa, die von dir vor zwei folgen mit deinem Bild,
0:05:06–0:05:11
dass die außerirdische Lebensform kommt auf die Erde, und sie kann nur mit Fröschen
0:05:11–0:05:13
reden. Und die verstehen nicht.
0:05:14–0:05:15
Das sind Gary Larson.
Micz Flor
0:05:16–0:05:19
Stimmt. Ja. Ja, stimmt. Jetzt, wo du es gerade sagst, fällt mir ein,
0:05:19–0:05:25
dass sogar ein Star Trek Motiv Nobody die Wale bei im Star Trek Film sieht. Doch dann Kinofilm.
Florian Clauß
0:05:24–0:05:25
Ich glaube, wir.
Micz Flor
0:05:26–0:05:29
Das Gespräch mit Walen, die inzwischen ausgestorben sind.
0:05:30–0:05:33
Das heißt, gehen wir hier durch. Das ist auch weniger Wind.
0:05:34–0:05:38
So wie deine ewig lange Einleitung. Also mir geht es darum, um die Entwicklung
0:05:38–0:05:41
des Selbst zu sprechen, von psychodynamischen Hintergrund.
0:05:42–0:05:44
Ich werde da auch wieder Freud zu Wort kommen lassen, aber nicht,
0:05:44–0:05:49
weil ich mich als Freudianer verstehe. Da gibt es sicherlich vieles, was aufzuarbeiten ist.
0:05:50–0:05:54
Und gleichzeitig finde ich, dass wenn man die Originaltexte liest,
0:05:54–0:06:00
auch vieles an den Vorwürfen finde ich schon nicht in der Brisanz,
0:06:01–0:06:03
in der Freud manchmal kritisiert wird,
0:06:05–0:06:09
zu finden ist. So und vor allen Dingen in den deutschen Texten.
0:06:09–0:06:11
In den Amerikanern, also in der englischen Version ist es nun mal anders.
0:06:11–0:06:12
Vielleicht komme ich da noch.
Florian Clauß
0:06:13–0:06:16
Ähm, wo ist der Kontext zur künstlichen Intelligenz?
Micz Flor
0:06:16–0:06:21
Der Kontext der künstlichen Intelligenz ist, dass man vermutet,
0:06:21–0:06:24
dass so eine Form wie Bewusstsein oder Selbstbewusstsein nur dann entstehen
0:06:24–0:06:29
kann, wenn ein neuronales Netz in der Lage ist. In einer bestimmten Abstraktionsform
0:06:29–0:06:30
ist das eh schon geschehen.
0:06:31–0:06:36
Aber dann sich selbst noch mal zu simulieren, also dass man noch einen Abstraktionslayer einbaut.
0:06:38–0:06:42
Der noch was obendrauf, also Abstraktion bedeutet. Eine Programmiersprache in
0:06:42–0:06:48
der Regel, dass man versucht, sich nicht mit dem Bread und Butter Business von
0:06:48–0:06:49
irgendwelchen Niederungen zu,
0:06:50–0:06:53
beschäftigen, sondern nur auf das zu konzentrieren, was man wirklich machen will.
0:06:54–0:06:56
Ich kann ein gutes Beispiel geben. Noch als ich in die Schule gegangen bin,
0:06:56–0:07:00
hatten wir einen PC Lab. Da durfte man nur mitmachen, wenn man auch programmieren
0:07:00–0:07:04
konnte und ich konnte das nicht gut genug. Ich durfte eigentlich nicht mitmachen,
0:07:04–0:07:08
aber ein Freund von mir, der saß da drin und hat dann so den Witz gemacht.
0:07:08–0:07:13
Er konnte programmieren und hat dann am Terminal vom C64 rein getippt Make me
0:07:13–0:07:17
a game of Space Invaders, Enter und dann stand Command, Not,
0:07:17–0:07:20
FH und oder sowas. Und der guckt mich dann so an und meinte,
0:07:20–0:07:22
das kennt der Space Invaders nicht.
0:07:22–0:07:25
Und das war so ein Witz. Aber in Wahrheit sind wir da ja heute angekommen.
0:07:25–0:07:31
Also du kannst ja relativ bald einfach so sagen Please make me gamers,
0:07:31–0:07:35
bacon, Waters und schon geht's los. Und das ist Abstraktion.
0:07:35–0:07:38
Man muss dann also genau das ist dann quasi eine Abstraktion der künstlichen
0:07:38–0:07:40
Intelligenz, was obendrauf sitzt.
0:07:40–0:07:47
Sprache versteht, Intention, versteht, seinen Nutzer auch oder Nutzerinnen immer
0:07:47–0:07:52
besser kennenlernt und dementsprechend dann wirklich auch reagieren kann.
0:07:53–0:08:02
Und diese Abstraktion für Bewusstsein ist die Simulation.
0:08:03–0:08:08
Seiner selbst. So, also das ist quasi die Königsdisziplin. Das ist auch nichts,
0:08:08–0:08:10
was irgendwie gerade passiert.
0:08:10–0:08:14
Aber als ich das gelesen habe, hatte ich irgendwie gedacht, das ist ja wirklich
0:08:14–0:08:20
die Entwicklung des Selbst und das Selbst ist ein interessantes Konstrukt.
0:08:24–0:08:26
Fang erst mal!
0:08:28–0:08:31
Es ist eigentlich ein Konstrukt, das sowieso in der Philosophie,
0:08:31–0:08:36
aber eben auch in der Psychologie der psychotherapeutischen Psychodynamik irgendwie
0:08:36–0:08:38
mit gefunden werden kann.
0:08:38–0:08:44
Ich fang gleich mal irgendwie mit Freud an und in den Dingen,
0:08:45–0:08:47
die eigentlich alle über Freud kennen,
0:08:48–0:08:53
das sind diese beiden, wie sie heißen, topischen Modelle, also wirklich örtliche
0:08:53–0:08:55
Modelle von einer psychischen Struktur.
0:08:55–0:09:00
Der hat also etwas aufgezeichnet und versucht zu erklären, was eigentlich,
0:09:01–0:09:03
würde man heute sagen, schon eine Form von Abstraktion ist.
0:09:03–0:09:06
Aber er hatte wirklich versucht, das als Bild so darzustellen,
0:09:07–0:09:12
dass er ein Körper zeichnet und da ist unten ein Esel und obendrüber ist ein
0:09:12–0:09:17
Ich und das Ganze, das möchte ich auch dann noch in unsere Galerie reinnehmen.
0:09:17–0:09:22
Das erste topische Modell. Das Ganze ist auch so ein bisschen wie so eine einfache
0:09:22–0:09:27
Eizelle gezeichnet und er hat dann oben dran noch so ein kleines Quadrat Würfelchen gemacht.
0:09:27–0:09:32
Das ist, glaube ich, das akustische Interface zur Welt.
0:09:33–0:09:37
Akustisches Interview hat. Er hatte wirklich so die Akustik dann noch mal draufgeschrieben,
0:09:37–0:09:46
und die Theorie von Freud besagt ja, dass das Es ist der eigentliche Herr im Haus.
0:09:46–0:09:51
Da sind wir natürlich wieder bei einer Sprache, die heute auch gerne kritisiert wird. Das ist sehr.
Florian Clauß
0:09:51–0:09:55
Er sagte wortwörtlich. Also Herr im Haus.
Micz Flor
0:09:53–0:09:58
Ähm, wir sind nicht Herr im eigenen Haus. Es ist, glaube ich der wörtliche.
0:09:59–0:10:02
Also, das ist es, was uns bestimmt.
Florian Clauß
0:10:02–0:10:04
Ich frage jetzt. Freud setzt aber ab, merkst du?
Micz Flor
0:10:04–0:10:09
Ja, genau. Ich habe noch ein paar Sachen auswendig gelernt, dann reinwerfen kann.
Florian Clauß
0:10:09–0:10:10
Es ist immer gut als.
Micz Flor
0:10:11–0:10:16
Der Hintergrund, der Hintergrund ist zweierlei.
0:10:17–0:10:21
Das eine ist natürlich, da geht es um dieses Thema Freier Wille im weiteren Sinne.
0:10:22–0:10:29
Wenn wir wirklich nur in Anführungszeichen getrieben werden,
0:10:29–0:10:32
buchstäblich, weil das Wort Trieb kommt ja auch bei Freud vor.
0:10:34–0:10:37
Wie viel freien Willen haben wir überhaupt, Dinge zu entscheiden?
0:10:38–0:10:41
Es gibt sicherlich zum Beispiel ein Moment auf so einer somatischen Embryo so
0:10:41–0:10:44
viel Hunger haben, dass wir einfach nicht mehr gerade denken können.
0:10:44–0:10:47
Und da ist es sehr spürbar. Kann sich jeder vorstellen.
0:10:48–0:10:52
Aber wenn es schon beim Hunger so ist, was ist es denn noch, was uns alles,
0:10:54–0:10:59
was, was unser Verhalten, unsere Emotionen, unser in der Welt Sein so stark bestimmen kann?
0:11:00–0:11:02
Und das sind eben bei ihm die Triebe.
0:11:04–0:11:10
Und neben dem freien Willen ging es Freud aber vor allen Dingen auch um was Zweites.
0:11:11–0:11:14
Und zwar hat er versucht.
0:11:16–0:11:20
Ähm. So ein ganz großes Problem zu lösen, was wir jetzt auch wieder lösen wollen, nämlich dieses.
0:11:23–0:11:29
Leib Seele Dualismus. Also wo berühren sich Körper und Geist oder Leib und Seele,
0:11:29–0:11:31
wie man es nennen möchte?
0:11:31–0:11:36
Das hatte ich ja auch in der Folge mit Roger Penrose und Quantenphysik und so,
0:11:36–0:11:44
wo man jetzt wieder versucht herauszufinden, ob nicht Teil unserer Neuronen über Quanten,
0:11:45–0:11:51
wie auch immer quantenmechanische Worte mit ja mit etwas anderem verbunden sind.
Florian Clauß
0:11:48–0:11:49
Ein Fehler.
Micz Flor
0:11:51–0:11:57
Also man versucht da auch wieder so eine Schnittstelle zu finden zwischen Leib und Seele.
0:11:57–0:12:01
Und Freud wollte das auch. Also dieses Problem wollte er lösen.
0:12:01–0:12:05
Und er hat dann auch buchstäblich mal geschrieben wir fassen den Trieb als den
0:12:06–0:12:09
Grenzbegriff des Somatischen gegen das Seelische.
0:12:10–0:12:12
Was hat er damit gemeint?
Florian Clauß
0:12:12–0:12:16
Es wird, aber ich muss quasi das Körperliche gegen das Seelische ist der.
Micz Flor
0:12:17–0:12:18
Und dass der Grenzbegriff der.
Florian Clauß
0:12:18–0:12:23
Das ist eine Grenze. Es ist eine Abgrenzungsaktion, oder?
Micz Flor
0:12:25–0:12:29
Also der Grenzbegriff des Somatischen gegen das Seelische.
Florian Clauß
0:12:29–0:12:34
Und das heißt, der Trieb ist dann eher semantisch zuzuordnen, oder?
Micz Flor
0:12:36–0:12:40
Der Trieb, also das Seelische und das Körperliche oder physikalisch und Geistige,
0:12:40–0:12:44
wie man es nennen möchte, hat ja dieses große philosophische Problem.
0:12:45–0:12:48
Das Geistige nimmt keinen Platz ein oder hat keinen Ort.
0:12:48–0:12:53
Das Physikalische ist halt ortsgebunden. Wie kann was, was nicht örtlich ist,
0:12:53–0:12:56
ein örtliches irgendwie miteinander interagieren? Wie können die sich berühren?
0:12:57–0:13:02
Ungelöst. Und Freud hat gesagt Ich hab's.
0:13:05–0:13:10
Im Körper. In diesem saftigen, lebendigen Saft, den wir da sind.
0:13:11–0:13:14
Da gibt es diese Triebe und diese Triebe entstehen im Körper.
0:13:16–0:13:18
Ich habe vorhin Hunger genannt. Nehmen wir einfach mal Hunger als Beispiel.
0:13:18–0:13:20
Und das entsteht im Körper.
0:13:20–0:13:24
Und es wirkt aber auf das Seelische. Das ist wie so ein Interface zwischen diesen
0:13:24–0:13:27
beiden Elementen. Das verbindet die beiden zusammen.
0:13:27–0:13:32
Es entsteht im Körper und es wirkt ins Seelische hinein, ins Gemüt, in die Emotion.
0:13:32–0:13:36
Und das ist dann aber auch der Sexualtrieb.
0:13:36–0:13:40
Das ist ja ein ganz wichtiges Thema, dass Sexualität sehr, sehr bestimmend ist,
0:13:41–0:13:46
auch schon, was ganz verpönt war damals auch schon im Kindesalter,
0:13:46–0:13:52
im frühen Kindesalter eben die sexuelle Entwicklung auch ein wichtiger Teil der,
0:13:53–0:13:56
Entwicklung allgemein ist. Das wollte man damals gar nicht hören.
0:13:57–0:14:02
Und dieser Trieb ist also laut Freud.
0:14:04–0:14:12
Die Verbindung zwischen Leib und Seele oder Körper und Geist und.
Florian Clauß
0:14:09–0:14:10
Okay.
Micz Flor
0:14:15–0:14:21
Jetzt gibt es in diesem ersten utopischen Modell, also in diesem Oval,
0:14:21–0:14:28
was da unten, das ist oben, das Ich und obendrauf noch diesen kleinen Höcker mit dem Akustik.
Florian Clauß
0:14:28–0:14:30
Ich muss die Bilder dann auf jeden Fall.
Micz Flor
0:14:30–0:14:34
Dem muss ich da reinmachen, weil dieses für mich ist das total wichtig.
0:14:34–0:14:37
Wir reden jetzt über eine Form der Simulation, über eine Abstraktion.
0:14:37–0:14:42
Aber du merkst, Freud war ja ursprünglich Arzt, ausgebildeter Arzt,
0:14:42–0:14:45
hat sich später aber dann irgendwie in seiner Entwicklung.
0:14:47–0:14:51
Das ist psycho dynamischen Modelle davon auch ein bisschen distanziert und hat
0:14:51–0:14:57
eigentlich gesagt, dass die die Ausbildung zum Arzt, die ja wirklich immer sehr stark auf,
0:14:58–0:15:03
somatische Sachen reagiert, dass das nicht unbedingt hilfreich ist für,
0:15:04–0:15:06
das Verständnis psychischer Prozesse.
0:15:07–0:15:13
Und trotzdem war natürlich im Körperlichen, also so im Sinne Herkunft war halt
0:15:13–0:15:17
dieser Körper der Ort, an dem der Trieb entsteht.
0:15:17–0:15:21
Und dann muss der aber natürlich irgendwie reguliert werden,
0:15:21–0:15:25
weil wir leben ja als soziale Wesen miteinander. Es gibt ein Interface nach
0:15:25–0:15:27
außen, wie zum Beispiel dieses kleine dörfliche mit Akustik,
0:15:28–0:15:30
aber wir sind mit anderen Menschen in Kontakt.
0:15:30–0:15:34
Das war für Freud anfangs gar nicht so ein großes Thema, weil er sehr stark
0:15:34–0:15:37
auf die intrapsychischen Prozesse fokussiert
0:15:37–0:15:43
war. Aber das Ich bildet die Schnittstelle zwischen Umwelt und Es.
0:15:44–0:15:53
Das Ich war für Freud eigentlich permanent unter Druck und musste die ganze
0:15:53–0:15:55
Zeit dieses Es in Schach halten,
0:15:56–0:16:01
damit der komplette Organismus in der Welt gut navigieren kann, gut sein kann.
0:16:05–0:16:06
An uns vorbei.
0:16:12–0:16:15
Es ist wieder so windig. Das Lustige nördlich vom Engelberg.
Florian Clauß
0:16:15–0:16:21
Ich mache mal so eine Compilation von dir mit allen Folgen, wo du sagst Ich
0:16:21–0:16:24
weiß gar nicht, wo wir sind, ich habe keine Ahnung.
0:16:24–0:16:29
Wo sind wir eigentlich? Nicht jede Folge. Ich kenn es nicht.
Micz Flor
0:16:25–0:16:30
Naja, hier weiß ich, wo wir sind. Ich weiß genau, wo wir sind.
Florian Clauß
0:16:30–0:16:33
Ich weiß überhaupt nicht, wo wir sind. Du bist doch hier zu Hause.
Micz Flor
0:16:31–0:16:34
Na gut, dann nehme ich mal die Führung. Genau.
Florian Clauß
0:16:36–0:16:40
Also das ich das ist und das und der Trieb dazwischen.
Micz Flor
0:16:41–0:16:46
Der Trieb, aus dem es drängt auf das Ich. Das Ich ist quasi der regulierende Faktor.
0:16:46–0:16:52
Und dann hat Freud später im zweiten topischen Modell auch das über Ich eingeführt,
0:16:52–0:16:55
dann ist das Ich wirklich unter Beschuss.
Florian Clauß
0:16:54–0:16:55
Der Höcker.
Micz Flor
0:16:55–0:16:59
Das war dann oben drüber noch das ist auch das werde ich dann unten zeigen das
0:16:59–0:17:01
heißt das überich ist in.
0:17:02–0:17:07
Es ist vereinfacht gesagt so, das was man so mitbekommt, auf welche Art auch
0:17:07–0:17:10
immer über Bindung, Beziehung, Kultur an Regeln.
0:17:10–0:17:17
Also so von oben wird nochmal reguliert, von unten drängt es es, was es alles will.
0:17:17–0:17:22
In der Gestalttherapie heißt es auch der Underdog, der von unten versucht irgendwie
0:17:22–0:17:26
sein Zeug durchzusetzen, von oben der Topdog, also das über ich drückt halt
0:17:26–0:17:28
runter, sagt das geht so nicht
0:17:28–0:17:32
und das ich in der Mitte muss zwischen diesen Instanzen moderieren,
0:17:32–0:17:35
damit man überhaupt einigermaßen gerade durch die Welt kommen kann.
0:17:37–0:17:41
Freud hat dann auch das selbst eingeführt. Das kam so als kleines,
0:17:41–0:17:43
als kleine Hilfesituation, weil,
0:17:45–0:17:49
es gibt halt bestimmte Dinge in seinem Konstrukt und du weißt,
0:17:49–0:17:54
dass es jetzt eine andere Form der Wissenschaft, es ist jetzt keine Neurologie,
0:17:54–0:17:59
es ist auch keine IT, sondern das ist eine Wissenschaft, in der man Hypothesen,
0:17:59–0:18:03
Plausibilitäten und so was dann erst mal in Theorien packt und guckt,
0:18:03–0:18:04
ob man nicht später irgendwie.
0:18:07–0:18:12
Belegen kann. So, aber er hat halt in seinem logischen Denken gemerkt Moment
0:18:12–0:18:16
mal, ich muss noch eine Instanz einführen, weil nicht alles,
0:18:16–0:18:23
was das Ich bedrängt, kommt entweder von außen als in Form des Überichs, als irgendwelche
0:18:23–0:18:27
kontrollierenden Elemente von oben oder von unten drängt aus dem Eis,
0:18:27–0:18:32
sondern es gibt auch so ganz banale Sachen wie zum Beispiel somatische Bedürfnisse, Pinkeln,
0:18:33–0:18:36
Essen, so Sachen, die hat er natürlich nicht im es gegeben.
0:18:36–0:18:41
Die Triebe des Ichs sind zum Beispiel eben der Sexualtrieb.
0:18:41–0:18:45
Dann später hat er noch den Todestrieb gefunden, hat sich dann aber auch selber
0:18:45–0:18:49
ein bisschen dagegen ausgesprochen, dass alle Menschen auf einmal irgendwelche
0:18:49–0:18:53
Triebe erfinden, den Innovationstrieb, den.
Florian Clauß
0:18:54–0:18:59
Sie hätte es schon so versucht in so eine Taxonomie zu bringen, oder?
Micz Flor
0:18:59–0:19:02
Ja, ja und vor allen Dingen, das ist auch noch wichtig zu betonen,
0:19:02–0:19:04
ist nämlich in der englischen Übersetzung ganz verloren gegangen.
0:19:04–0:19:09
Er wollte exklusiv eine Sprache finden, die einfach ist mit Worten,
0:19:09–0:19:12
die auch alle irgendwie kennen. Das heißt es und ich.
0:19:13–0:19:18
Und in der englischen Übersetzung, weil Amerika so damals schon sehr wissenschaftsgläubig
0:19:18–0:19:22
war und alles musste wissenschaftlich gefasst sein, wurde das dann.
0:19:22–0:19:28
Es wurde mit IT und ich mit Ego übersetzt und Superego.
0:19:28–0:19:32
Also da wurden Begriffe gefunden, die halt dann irgendwie so einen wissenschaftlicheren
0:19:32–0:19:37
Anstrich hatten und Fehlhandlungen zum Beispiel die Freudschen Fehlleistungen
0:19:37–0:19:41
kennst du ja, wo man diese Versprecher macht, wo die wahren Anführungszeichen
0:19:41–0:19:42
Intentionen zum Vorschein kommen,
0:19:43–0:19:46
angeblich das,
0:19:48–0:19:48
was.
Florian Clauß
0:19:49–0:19:54
Nee, sorry, das ist jetzt keine rauswerfen, aber hier ist eine Eckkneipe,
0:19:54–0:19:59
die sieht so aus, als ob man hier Skat spielen kann. Berliner Wappen.
Micz Flor
0:19:58–0:20:00
Ja, es steht, ist sogar preisgekrönt.
Florian Clauß
0:20:00–0:20:02
Und ich finde ja solche Eckkneipen immer sehr.
Micz Flor
0:20:02–0:20:05
Es gibt nicht hier Skaturnier. Das ist 18..
Florian Clauß
0:20:05–0:20:10
Schwach Skat ohne Eier. Doch habe ich richtig am 18. zweite mit Fasching.
Micz Flor
0:20:08–0:20:09
Und Faschings.
0:20:13–0:20:18
Herr. Gut. Auf jeden Fall. Danke. Du hast mich jetzt unterbrochen,
0:20:18–0:20:19
also kann ich wieder zurückkommen.
0:20:20–0:20:26
Hat Freud diesen Begriff des Selbst schon eingeführt? Hat aber irgendwie sehr
0:20:26–0:20:31
an seinem biologischen System sozusagen so ein bisschen festgehalten, finde ich.
0:20:31–0:20:35
Sieht man auch in diesen Zeichnungen von Freud. Gibt es eigentlich keine Diagramme,
0:20:35–0:20:38
wie man die heute kennt. Pfeile oben, unten, rechts, links und so?
0:20:39–0:20:43
So, aber dieses Wort selbst, das war dann schon in der Welt.
0:20:43–0:20:45
Jetzt überlegt man Was ist denn das Selbst?
Florian Clauß
0:20:46–0:20:46
Hey, Julian.
Micz Flor
0:20:47–0:20:51
Es ist ja, überlegst du, Kannst du.
Florian Clauß
0:20:49–0:20:52
Überlegst du? Nee. Soll ich?
Micz Flor
0:20:53–0:20:56
Wie würdest du denn in diesem. Wenn das selbst der Ort des.
Florian Clauß
0:20:56–0:21:01
Also in diesem, in diesem, in diesem Gespann. Also das heißt eigentlich.
Micz Flor
0:20:59–0:21:00
Wir haben also die Triebe von unten.
Florian Clauß
0:21:01–0:21:04
Eigentlich möchte man doch meinen, das Selbst wäre doch das Ich.
0:21:05–0:21:08
Aber irgendwie scheint ja dann selbst wieder so eine Reflexion zu sein.
0:21:08–0:21:10
Das heißt, es muss ja durch so einen Filterprozess gehen.
Micz Flor
0:21:12–0:21:17
Das ist nämlich genau der Punkt. Der Punkt ist nämlich, dass in diesem Selbst
0:21:17–0:21:22
anfangs für Freud nur so was wie somatische Bedürfnisse so ein bisschen drin waren.
0:21:23–0:21:28
Und dann kam aber zunehmend auch auf in der Forschung, in der kleinen Säuglingsforschung,
0:21:28–0:21:33
so später, hieß es ja auch der kompetente Säugling, das war deutlich später
0:21:33–0:21:37
und man hat schon früh gemerkt, na ja, also diese Kompetenzen des Ichs,
0:21:38–0:21:44
das ist schon ein bisschen mehr als irgendwie Hunger haben oder ähm, aufs Klo müssen.
0:21:45–0:21:50
Das ich kann schon ganz schön viel. Da sind Dinge angelegt, da sind Kompetenzen da das es gibt.
0:21:50–0:21:56
Und das ist der Punkt, den hat ein Herr Hartmann später so formuliert Es gibt
0:21:56–0:21:59
eine konfliktfreie Zone. Das ist nicht nur einfach getrieben,
0:21:59–0:22:01
sondern es ist kompetent.
0:22:01–0:22:03
Das Ich kann sich in der Welt orientieren.
0:22:03–0:22:06
Entschuldigung, das Selbst kann sich in der Welt orientieren.
0:22:06–0:22:12
Das Selbst kann eben der Ort, wo, wo wir zum Beispiel auch Modelle über die
0:22:12–0:22:15
Welt später fassen können, das ist alles in einem selbst.
0:22:18–0:22:24
Gehalten. Und dieses Selbst, das ist es.
0:22:24–0:22:26
Lustig. Ich glaube heute, die Folge wird vielleicht ganz kurz,
0:22:26–0:22:27
wenn du mich nicht unterbrichst.
0:22:27–0:22:36
Dieses Selbst ist der Ort, in dem wir genau das tun, was jetzt in dir,
0:22:36–0:22:42
in der neuronalen Netz Überlegungen, Forschung, so was reflektiert wird.
0:22:42–0:22:48
Da entsteht in gewisser Weise eine Simulation von uns, das Ich und diese ganzen
0:22:48–0:22:51
Ich Prozesse, das ist eher wirklich auf diese somatischen Ebene.
0:22:52–0:22:57
Das Selbst ist ein Bild von uns, was wir von uns haben und dieses Bild von uns,
0:22:57–0:23:05
das wir generieren, das wird über die Zeit auch immer, wie soll ich sagen, immer abstrakter.
0:23:05–0:23:11
Es gibt in diesen Entwicklungen aus psychosozialen Entwicklungstheorien,
0:23:11–0:23:15
gibt es so bestimmte Phasen, dann gibt es halt die, die Phasen,
0:23:15–0:23:19
die jeder kennt von Freud, oral, anal, ödipale Phasen.
0:23:19–0:23:22
Aber es wurde dann später von anderen noch weiter ausgebaut,
0:23:22–0:23:24
von Erikson so was wie Lebensaufgaben.
0:23:24–0:23:28
Und wenn man dann mal so genau hinguckt, wenn man auch selber mal Kinder hatte,
0:23:28–0:23:32
da sieht man das besser, als wenn man an seine eigene Biografie denkt.
0:23:33–0:23:38
Dann gibt es immer so Formen von Abstraktion,
0:23:38–0:23:43
also wo du merkst, das heißt dann immer Entwicklungsschübe in solchen Kindern,
0:23:43–0:23:48
Entwicklungsbüchern, wo du merkst, da kommt eine Form von Erkenntnis,
0:23:48–0:23:53
die natürlich ganz früh immer so noch verbal ist, da kann sich auch keiner mehr dran erinnern.
0:23:53–0:23:57
Aber wo man selber merkt, gerade hat irgendwas Klick gemacht.
0:23:57–0:24:01
Man denkt da auch oft als Eltern somatisch, jetzt kommen die Zähne oder so.
0:24:01–0:24:07
Aber es gibt eben auch so kognitive Schübe, wo auch ganz früh am Anfang auf
0:24:07–0:24:12
einer organischen Ebene zum Beispiel die Augen auf einmal scharfstellen können
0:24:12–0:24:14
und die Welt dadurch natürlich anders wahrgenommen wird.
0:24:14–0:24:18
Das sind so organische Ebene, aber es entstehen auch kognitive Ebenen.
0:24:18–0:24:25
Irgendwann kommt diese Sprachkompetenz, es entwickelt sich ja alles in vergleichbaren Zeitabständen.
0:24:25–0:24:32
Also man merkt auch, dass das in diesem Selbst immer mehr Kompetenzen heranwachsen,
0:24:33–0:24:36
die alle auch sozial entstehen und die dann.
0:24:39–0:24:45
Ja die Kompetenz des Organismus, sag ich mal, erhöhen. Das ist der eine Teil. Und Freud würde,
0:24:47–0:24:51
intra psychisch eben so Entwicklungsphasen auch natürlich sowieso annehmen.
0:24:51–0:24:54
Das hat man ja irgendwie oral anal schon erlebt.
0:24:54–0:24:57
Aber was ganz wichtig ist, ist.
0:25:00–0:25:07
In dieser Entwicklung das soziale Element. Die Frage ist Wie entsteht dieses
0:25:07–0:25:09
Selbst in der menschlichen Entwicklung?
0:25:10–0:25:12
Da ist es so, dass.
0:25:16–0:25:18
Wenn man noch mal einen Schritt zurückgeht, der auf einer rein somatischen.
0:25:19–0:25:25
Das aufgrund der Anatomie des menschlichen Lebens, aufgrund des großen Gehirns.
0:25:25–0:25:28
Und so ist es ja so, dass wir inzwischen davon ausgehen können,
0:25:28–0:25:35
dass Kinder im Vergleich zu anderen Säugetieren irgendwie fast ein Jahr zu früh geboren werden.
0:25:35–0:25:39
Also sie sind auf der Welt völlig.
0:25:41–0:25:45
Erst mal angewiesen auf Versorgung. Die.
Florian Clauß
0:25:45–0:25:48
Glaube ich kein anderes Tier,
0:25:50–0:26:00
wo quasi die nach der Geburt das das Kind so wenig kann.
0:26:01–0:26:04
Oder fällt ihr da noch irgendwie anders ein? Ich meine die meisten stehen dann
0:26:04–0:26:08
ja gleich auf und fangen an zu laufen. Irgendwelche Gnus oder so?
Micz Flor
0:26:09–0:26:12
Ja, es ist auch krass, wenn du dann bestimmt nicht meins gibt,
0:26:13–0:26:16
weil ich das gesehen. Also ein Video von einem Chamäleon Baby,
0:26:16–0:26:22
das aus dem Ei schlüpft und was dann sofort losläuft und von einem Blatt aufs andere kletterten und.
Florian Clauß
0:26:22–0:26:23
Also die haben schon voll das Programm.
Micz Flor
0:26:24–0:26:29
Ja, und es wird eben. Da kann ich dir jetzt ganz gut diese Übersetzungsproblematik
0:26:29–0:26:31
zwischen Deutsch und Englisch schon mal so,
0:26:33–0:26:40
aufzeigen. Der Mensch ist eigentlich ein ein Lebewesen,
0:26:41–0:26:49
was im Vergleich oder wo der Anteil der Instinkte relativ gering ist zu anderen
0:26:49–0:26:51
Tieren, also so was wie Instinkt.
0:26:52–0:26:57
Wir können unglaublich viel regulieren. Wir sind da unglaublich anpassungsfähig,
0:26:57–0:27:00
können uns zurückhalten, wir können höchsten.
0:27:00–0:27:07
Wir können also diese Instinkte zum Beispiel würde man habe ich mal irgendwo gelesen, würde man ein,
0:27:08–0:27:13
Flugzeug, ne Boeing 747 mit Schimpansen besetzen und versuchen über den Atlantik
0:27:13–0:27:15
zu fliegen, würden sie sich gegenseitig einfach umbringen.
0:27:15–0:27:19
ZEIT Während Menschen dann irgendwie so geduldig und dann Gut,
0:27:19–0:27:22
die kriegen dann wahrscheinlich psychosomatische Leiden irgendwann.
0:27:22–0:27:26
Und trotzdem ist es so, dass der Mensch in der Lage ist, das,
0:27:26–0:27:30
was bei anderen Tieren instinktgeladen ist oder instinktgetrieben ist.
0:27:33–0:27:40
Zu regulieren, innerlich zu regulieren. Und das hat auch mit diesem Wort des Triebes zu tun.
0:27:40–0:27:44
Der Trieb ist etwas, was regulierbar ist.
0:27:44–0:27:48
Du kannst den Hunger irgendwie hinauszögern, irgendwann, jetzt nicht mehr.
0:27:48–0:27:51
Aber du kannst mit mit diesen Dingen, die von unten drängen,
0:27:51–0:27:53
Sexualtrieb. Und so kannst du.
0:27:59–0:28:05
Nicht instinkthaft, sondern eben du kannst das beeinflussen.
0:28:05–0:28:08
Und der Instinkt, da geht es halt nicht. Wenn du halt mit einer Katze mit dem
0:28:08–0:28:10
Laserpointer von einem Teppich, die kann nicht anders.
0:28:11–0:28:14
Das sieht man manchmal sogar bei Katzen, dass die dann aussteigen wollen,
0:28:14–0:28:17
indem sie weggucken, weil sie merken, solange dieses Ding vor mir hin flackert.
0:28:17–0:28:19
Ich muss, ich muss, ich muss.
0:28:19–0:28:24
Das heißt, wir haben als Menschen relativ wenig Instinkte. Und wie du sagtest,
0:28:24–0:28:29
wenn wir geboren werden, haben wir deshalb auch ziemlich viel zu lernen,
0:28:29–0:28:32
weil unglaublich wenig von automatisch irgendwie rein kickt.
0:28:32–0:28:36
Da gibt es so ein paar Vitalzeichen, dazu gehören auch Greifreflexe und so.
0:28:37–0:28:40
Aber die verlernen wir dann schnell. Dann kann man irgendwie auch automatisch,
0:28:40–0:28:43
wenn man fällt, die Luft anhalten als ganz kleines Kind.
0:28:44–0:28:48
Aber das verlernen wir alles wieder. Und dann sind wir angewiesen auf Versorgung.
0:28:49–0:28:51
Die kurze Fußnote zu diesem Übersetzungsthema.
0:28:52–0:28:59
Im Englischen wird nicht Trip mit Drive übersetzt und Trip ist ja auch im Deutschen
0:28:59–0:29:02
erst mal wieder auch so ein Wort, wo jeder was intuitiv mit anfangen kann.
0:29:03–0:29:10
Sondern statt Drive wurde da Instinkt verwendet, was, was natürlich ein völlig
0:29:10–0:29:15
falsches Bild aufmacht. Auch was Diese Rolle des Triebes im Sinne von Instinkt
0:29:15–0:29:17
kann man nicht regulieren.
0:29:17–0:29:23
Ein Instinkt ist halt eine Reaktion auf einen Reiz oder auf einen Kontext, auf eine Situation.
0:29:23–0:29:25
Ein Trieb hingegen, der ist regulierbar.
0:29:26–0:29:32
Und ja, das noch mal zu dieser Übersetzung sthematik, weil im Englischen die
0:29:32–0:29:36
Psychoanalyse oft eben sofort auch in diese medizinische Wissenschaft gepackt
0:29:36–0:29:40
wurde, während die Psychologie ursprünglich in,
0:29:41–0:29:44
Europa eher mit der Philosophie noch verbandelt war.
0:29:49–0:29:53
Das heißt, wir sind jetzt da. Wir sagen, es gibt so was wie den Begriff des Selbst.
0:29:54–0:29:58
Und jetzt ist natürlich die Frage, wie komme ich dazu, den zu entwickeln?
0:29:58–0:30:01
Wie kann ich. Als kleines Kind komme ich auf die Welt. Ich habe ein paar Instinkte,
0:30:01–0:30:06
die meisten davon verlerne ich. Dann bin ich auf Hilfe angewiesen.
0:30:07–0:30:13
Diese Hilfe bekomme ich natürlich, weil ich auch extrem süß bin und gleichzeitig ja.
0:30:13–0:30:19
Und das entsteht aber auch in dieser Beziehungsdynamik eine Form von,
0:30:21–0:30:25
von in Anführungszeichen Kontrolle, wo das Kind es scheinbar herstellen kann,
0:30:26–0:30:29
einerseits süß zu sein, andererseits aber so nervtötend auch mal zu schreien
0:30:29–0:30:33
oder aber einfach auch seine Wünsche zu vermitteln.
0:30:34–0:30:39
Das ist schon irgendwie angelegt. Wir sind eben nicht nur intrapsychische Einzelkämpfer
0:30:39–0:30:45
und Kämpferinnen, sondern wir sind soziale Wesen, die im Kontakt hauptsächlich
0:30:45–0:30:49
in der Regel mit der Mutter in ganz jungen Zeiten.
0:30:52–0:30:59
Lernen wir lernen und das erste, was wir lernen, ist, dass wir in der Welt sein
0:30:59–0:31:05
dürfen, dass wir getragen werden, dass wir gestillt werden, dass wir meistens auch gewickelt werden.
0:31:09–0:31:15
Und diese Begleitung ist etwas.
0:31:16–0:31:21
Was? Und jetzt mach ich einen kleinen Sprung. Ähm.
0:31:22–0:31:29
Ein Herr Kohout aus, äh, in Amerika hat den Begriff der Selbstpsychologie,
0:31:29–0:31:33
der Selfsychologie entwickelt und hat,
0:31:34–0:31:39
fand ich so ganz schön beschrieben, was so ein Kind durchlebt,
0:31:39–0:31:40
wenn man es vereinfacht darstellt.
0:31:40–0:31:42
Das erste ist, dass das Kind.
0:31:45–0:31:49
Omnipotenz Phantasien entwickelt, vielleicht in der Form, weil es wird überall
0:31:49–0:31:51
hingetragen und muss sich um nichts kümmern. Es wird gefüttert.
0:31:51–0:31:52
Es ist quasi einfach sehr,
0:31:55–0:31:58
sehr es wird, es wird einfach die ganze Zeit versorgt.
0:31:58–0:32:02
Das zweite ist dann, das ist natürlich mit zunehmendem Wachsen,
0:32:02–0:32:07
zunehmenden, auch körperlichen Kompetenzen, die dazukommen, immer wieder natürlich
0:32:07–0:32:09
auch bestimmte Frustrationen erlebt.
0:32:09–0:32:15
Es wird nicht immer nur rechtzeitig gestillt und getragen und es gibt dann irgendwann
0:32:15–0:32:20
auch zunehmend Frustration, die auch teilweise einfach im eigenen Fähigkeiten angelegt sind.
0:32:20–0:32:24
Zum Beispiel kann es nicht von vornherein krabbeln, das muss es halt alles irgendwie
0:32:24–0:32:26
lernen. Das kann man ihm auch nicht abnehmen.
0:32:26–0:32:31
Irgendwann will es das ja auch lernen. Du hast ja auch kleine Kinder schon um,
0:32:31–0:32:34
die hält das die am Boden auch schon versuchen quasi sich so abzudrücken.
0:32:34–0:32:39
Da sind schon Sachen angelegt, die zu entwickeln ist harte Arbeit und es ist
0:32:39–0:32:44
frustrierend und gut meint so das in ganz natürlich in dem Ablauf,
0:32:45–0:32:50
von der Geburt so über die ersten ein zwei Jahre hinweg das Kind zunehmend durch
0:32:50–0:32:53
die Frustration und Herausforderung, aber auch Dinge lernt,
0:32:54–0:33:00
sich in der Form dann auch autonomer von der Mutter wieder trennt und.
0:33:02–0:33:06
Die Rolle der Eltern, wenn sie als solche erkannt werden.
0:33:07–0:33:11
Anfangs eine Rolle ist von so Gottähnlichen. Da könnte man auch sagen,
0:33:11–0:33:15
dass die Titanen und die Zeus und die griechischen Götter, dass das so Bilder
0:33:15–0:33:18
sind von sehr frühen Eltern, die alles können, die einen Ruhm tragen,
0:33:18–0:33:20
die Essen an den Tisch bringen, die eigentlich immer so.
Florian Clauß
0:33:20–0:33:21
Und bestrafen.
Micz Flor
0:33:21–0:33:22
Und auch bestrafen,
0:33:24–0:33:25
und aber auch fördern und lieben.
0:33:25–0:33:28
Also das ist alles auch angelegt und.
0:33:30–0:33:30
Und.
0:33:33–0:33:36
Auch da ist es so, dass mit zunehmendem Wachsen dann diese Eltern,
0:33:36–0:33:42
natürlich diese, diese gottgleichen Fähigkeiten ein bisschen verlieren und aus,
0:33:43–0:33:47
wie er sagt, ist halt das aus diesem Eltern. Imago nennt er das.
0:33:47–0:33:54
Also diese überhöhte Darstellung, das das zieht sich dann zusammen in so eine Art von Wertesystem.
0:33:54–0:33:58
Also was bleibt von den Eltern, von der Beziehung? Beziehungserfahrungen ist
0:33:58–0:34:01
halt, dass man so ein Wertesystem mitbekommt.
0:34:02–0:34:05
Und das ist dann auch ein bisschen wieder an die ein Kind of Age.
0:34:05–0:34:07
Diese transgenerational Weitergabe von.
Florian Clauß
0:34:06–0:34:11
Aber wir gehen auch jetzt so in der Nähe. Nur hier sind wir auch langgegangen.
Micz Flor
0:34:11–0:34:13
War das hier? Nee, das war doch da unten, oder?
Florian Clauß
0:34:11–0:34:12
Weil ich ihn kannte. Er hätte.
0:34:13–0:34:16
Naja, du bist nicht weit, aber es ist schön auf den Pfaden.
Micz Flor
0:34:16–0:34:19
Auf den gleichen Plan. Dann erinnere ich mich vielleicht einfach.
Florian Clauß
0:34:19–0:34:27
Na, wir sind ja auch da hinten geendet. Mit ihnen kannst du also um die Ecke aber okay fahren.
Micz Flor
0:34:24–0:34:24
Ja.
0:34:27–0:34:29
Mein Faden, Herr.
Florian Clauß
0:34:29–0:34:34
Also was mich jetzt total interessiert oder was ich jetzt interessant finde,
0:34:35–0:34:37
ist wie kriegen wir dass wir auf das Modell der KI zurück?
Micz Flor
0:34:38–0:34:45
Ja, also das Modell der KI ist, wenn wir in die Neurologie hineinschauen,
0:34:45–0:34:51
dann kann man sagen okay, Freud und Winnicott und dieser Code,
0:34:51–0:34:52
die können ja alle viel erzählen.
0:34:54–0:35:00
Ist das denn so, oder ist das nicht so? Und da fand ich, dass also der aktuelle
0:35:00–0:35:08
Wissensstand dazu ist auch auf einer neurologischen Ebene, dass es in der Tat so ein Areal gibt.
0:35:08–0:35:13
Also man hat dann so bildgebende Verfahren, wie funktioniert da die Technik, Das heißt,
0:35:14–0:35:24
man kann Aktivitäten, nicht einzelne ruhen, aber so Bereiche im Gehirn sichtbar machen.
0:35:24–0:35:30
Man kann also zum Beispiel einen optischen Reiz geben und gleichzeitig ins Gehirn kurz reinschauen.
0:35:30–0:35:35
Und wenn man das bei einer Person oder bei vielen Personen und dann auch oft
0:35:35–0:35:40
macht, dann entsteht Folgendes In der kompletten Gehirnaktivität,
0:35:41–0:35:46
gibt es immer wieder irgendwo irgendwas an Aktivitäten, aber bei sage ich mal
0:35:46–0:35:48
1000 2000 einzelnen Bildern,
0:35:49–0:35:52
die immer eine Sekunde nach einem bestimmten Stimulus folgen,
0:35:53–0:35:59
kann man dann davon ausgehen, dass dieses Zufällige wie ein Rauschen sich gegenseitig aufhebt.
0:36:00–0:36:03
Aber die Dinge, die wirklich ursächlich mit diesem Stimulus verbunden sind,
0:36:04–0:36:10
die bleiben dann weiterhin sichtbar, wenn man diese Bilder alle übereinanderlegt. Also ich meine.
Florian Clauß
0:36:10–0:36:14
Also ein bisschen wie vor zwei Folgen hattest du ja.
0:36:14–0:36:22
Dann deine ersten Gehversuche in Lisp mit den acht Bit, also mit den acht Pixel acht mal acht.
Micz Flor
0:36:18–0:36:20
Ja, genau. Ja.
Florian Clauß
0:36:22–0:36:28
Wenn man alle Buchstaben quasi übereinander legen würde und man hätte dann quasi
0:36:28–0:36:34
so ein Durchleuchtungsfeld und da, wo es am dunkelsten ist, ist quasi der Stimulanz.
0:36:34–0:36:36
Das ist die größte Deckungssumme.
Micz Flor
0:36:36–0:36:39
Ja, dass wir genau da wieder zu bleiben, dass wir in einen Punkt,
0:36:39–0:36:43
der wenig Aussagekraft hätte der dunkelste in dem Fall, weil der gilt quasi
0:36:43–0:36:45
für ganz viele Buchstaben.
0:36:45–0:36:49
Aber in diesem Modell, was ich jetzt gerade gesagt habe, man legt diese ganzen
0:36:49–0:36:51
Bilder des Gehirns übereinander und sieht dann ach guck mal,
0:36:51–0:36:56
genau eine Sekunde, nachdem wir diesen Reiz gegeben haben, ist in diesem Bereich
0:36:56–0:36:59
des Gehirns immer eine Aktivität zu sehen.
0:37:00–0:37:01
Und da hat man.
0:37:04–0:37:09
Also Neurowissenschaftler und Wissenschaftlerinnen sind ja auch smarte Menschen
0:37:09–0:37:12
viele Experimente gemacht und hat eine ganze Reihe von Dingen gefunden,
0:37:13–0:37:18
zum Beispiel da kann man es am besten finde ich darstellen. Hat man.
0:37:19–0:37:21
Ich komme jetzt über einen Umweg, ich komme jetzt über die Schmerzforschung,
0:37:21–0:37:28
hat halt gemerkt, dass wenn wir als soziale Wesen mit Menschen empathisch sind.
0:37:30–0:37:36
Dann ist es so, dass wenn wir, vereinfacht gesagt, wenn wir jemanden sehen im
0:37:36–0:37:41
Video oder so was, der einen Unfall hat, der auf den Kopf fällt oder wo irgendwas passiert,
0:37:41–0:37:46
wo wir so zusammenzucken, wo wir einfach so wir fühlen fast selber.
0:37:46–0:37:52
Wir können es uns vorstellen, dass man da merkt, dass bestimmte Bereiche im
0:37:52–0:37:54
Schmerzzentrum, im Gehirn aktiv
0:37:54–0:37:58
sind, die identisch sind, wenn wir den Schmerz wirklich selber haben.
Florian Clauß
0:37:58–0:37:59
Also diese Spiegelneuronen.
Micz Flor
0:38:00–0:38:04
Nee, das nicht. Das ist nun mal was anderes. Und da ist es auch so.
Florian Clauß
0:38:04–0:38:07
Aber es ist eine empathisch, quasi eine empathische Reaktion,
0:38:07–0:38:09
die einen neuronalen Nachweis.
Micz Flor
0:38:10–0:38:14
Es gibt eine Resonanz, also eine Spiegelung oder Resonanz, die da entsteht,
0:38:14–0:38:19
die besagt, wenn wir wieder in diesen Abstraktion Layers von KI oder wie auch immer reden,
0:38:20–0:38:26
es gibt einen Layer für die Darstellung von Schmerz in unserem Gehirn, den kann man verorten.
0:38:26–0:38:31
Und wenn wir jemanden sehen, der eine bestimmte Form von Schmerz erlebt und
0:38:31–0:38:35
wir oder wir erleben die selbst, dann ist das fast identisch.
0:38:36–0:38:40
Diese Darstellung, diese dieser Fingerabdruck sozusagen, ist fast identisch
0:38:40–0:38:41
an dieser Stelle im Gehirn.
0:38:41–0:38:46
Der einzige Unterschied ist, dass Menschen, die den Schmerz selber erleben.
0:38:47–0:38:54
Da entsteht eine Brücke zwischen dem sensorischen und dem Schmerzzentrum.
0:38:55–0:39:01
Das heißt, wir fühlen dann den Schmerz, während bei anderen Menschen oder wenn
0:39:01–0:39:04
wir etwas sehen, wenn wir etwas sehen, wie jemand Schmerz hat,
0:39:04–0:39:05
dann entsteht dieses Modell.
0:39:05–0:39:09
Wir können das quasi mitfühlen, aber wir fühlen es nicht wirklich selber.
0:39:09–0:39:13
Und das hat man wiederum dann auch feststellen können, dass es eben Menschen
0:39:13–0:39:15
gibt, die dann eine Störung haben,
0:39:16–0:39:21
auf neurologischer Ebene, die, wenn die einen Menschen Schmerz sehen,
0:39:21–0:39:25
dem Schmerz zugefügt wird, auch im Video, dann erleben die das wirklich.
0:39:25–0:39:29
Die haben diese Inhibition nicht, das heißt, die erleben den Schmerz wirklich.
0:39:30–0:39:33
Es ist nicht nur Schmerz, es sind auch andere Dinge, es ist auch Streicheln.
0:39:34–0:39:39
Das ist auch Essen im Mund. Das sind auch andere körperliche Sachen,
0:39:39–0:39:45
die wir wahrnehmen können, die wir in uns dann auch als Modell erkennen und
0:39:45–0:39:48
im Gehirn, in einer bestimmten Region für Empfindungen,
0:39:50–0:39:53
wie eben ein Modell oder eine Simulation herstellen können.
0:39:54–0:39:59
Und bei diesen Menschen ist diese Brücke nicht an oder aus, die ist immer an.
0:39:59–0:40:01
Das heißt, die erleben das wirklich, die erleben.
0:40:04–0:40:07
Wenn sie sehen, wie jemand gestreichelt wird, dann spüren sie das auch.
0:40:07–0:40:08
Eine Schuld zum Beispiel.
0:40:10–0:40:12
Und das Gleiche gibt es auch.
0:40:16–0:40:19
Zum Selbst. Das ist im Frontal Cortex.
0:40:19–0:40:25
Das heißt, es gibt da einen Bereich des Gehirns, wenn wir im Gespräch zum Beispiel
0:40:25–0:40:31
auf unsere Meinung oder irgendwelche Dinge angesprochen werden.
0:40:35–0:40:38
Was ist denn deine Meinung dazu? Oder geht es dir gerade gut oder bist du traurig?
0:40:39–0:40:44
Dann ist es nicht so, dass wir da direkt eine Antwort daraus formulieren aus
0:40:44–0:40:49
dem ganzen Fundus unseres Geld, sondern das geht über einen Bereich,
0:40:49–0:40:52
der für dieses Bild des Selbst zuständig ist.
0:40:52–0:40:56
Das ist im frontalen Frontal Cortex.
0:40:57–0:41:02
Und das lässt sich auch über diese bildgebenden Verfahren zeigen.
0:41:03–0:41:08
Das heißt, es gibt diese Abstraktion, diese Simulation.
0:41:09–0:41:17
Die, mit der wir in Kontakt treten, wenn wir eine Aussage über uns selbst fällen müssen.
0:41:18–0:41:24
Und das ist im Prinzip der Mechanismus, von dem manche ausgehen.
0:41:24–0:41:28
Wenn ich Bewusstsein herstellen möchte, eine neuronale Netz oder künstliche
0:41:28–0:41:32
Intelligenz, dann muss ich eben genau das schaffen. Ich muss noch mal eine Simulation
0:41:32–0:41:36
und noch mal ein Modell davon schaffen, auf die ich gucken kann,
0:41:36–0:41:38
um dort nachzufragen, sozusagen.
Florian Clauß
0:41:39–0:41:40
Jetzt haben wir einen Bogen. Sehr gut.
Micz Flor
0:41:40–0:41:42
Ja, du hast Hunger.
Florian Clauß
0:41:43–0:41:46
Nein, nein, nein, nein, nein. Nein. Ich habe die ganze Zeit darauf gewartet.
0:41:46–0:41:49
Wo kommt er her? Jetzt wird es total rund.
Micz Flor
0:41:47–0:41:53
Das ist jetzt zurück zum Anfang. Ja, und? Das heißt, ähm.
0:41:55–0:41:59
Und dann gibt es dazu noch zwei Dinge. Das eine ist, es gibt auch Karl Jaspers
0:41:59–0:42:03
zum Beispiel im Existenzialismus Existenzielle Philosophie.
0:42:03–0:42:06
Jaspers war früher auch Psychiater. Und der hat.
0:42:07–0:42:10
Der hat mal so was. Ich paraphrasiere. Ich habe das Zitat nicht gefunden,
0:42:10–0:42:15
aber der hat mal so was gesagt, wie das ist, dass es immer wieder existenzielle
0:42:15–0:42:21
Ereignisse geben kann, also ganz grundlegende Ereignisse geben kann, in denen wir.
0:42:22–0:42:28
Diesen Vorhang, in dem wir uns wirklich selbst sehen, ein bisschen öffnen können.
0:42:28–0:42:29
Aber dann ist er wieder zu.
0:42:29–0:42:33
Also diese Form ist, wir haben nicht wirklich einen Bezug zu uns und ich finde,
0:42:33–0:42:35
das kann man auch gut nachempfinden.
Florian Clauß
0:42:34–0:42:35
M na.
Micz Flor
0:42:35–0:42:39
Wenn ich dich jetzt fragen würde, so angenommen du wärst als Corona positiv,
0:42:39–0:42:41
wirst du trotzdem Restaurant gehen oder nicht?
0:42:42–0:42:46
Dann würdest du mir jetzt sagen, was du denkst von dir selbst.
0:42:46–0:42:50
Du würdest dich quasi abfragen über dieses Konstrukt und würdest mir dann sagen,
0:42:51–0:42:56
entweder ach, Corona ist eine Lüge oder würdest du sagen auf keinen Fall, ich würd.
0:42:56–0:42:59
Ich würde jetzt Abstand halten, eine Maske tragen, wie auch immer.
0:43:01–0:43:04
Aber es gibt Situationen, in denen wir das erst wissen, wenn es wirklich passiert.
0:43:05–0:43:08
Wenn ich jetzt angegriffen werde mit dem Messer, würdest du dazwischen gehen oder nicht?
0:43:09–0:43:11
Da hast du auch ein Bild von dir, wie du denkst, wie du handelst,
0:43:12–0:43:17
aber in ganz existenziellen Situationen, in dem man auch nicht üben kann,
0:43:17–0:43:18
wo man auch nicht viel überlegen kann.
0:43:19–0:43:22
Da sagt Jaspers, da lernen wir uns dann noch mal kennen.
0:43:22–0:43:26
Und das ist, glaube ich, wirklich was, was, was man auch manchmal in seinem
0:43:26–0:43:29
eigenen Leben als einschneidende Elemente erlebt, wo man sagt.
Florian Clauß
0:43:28–0:43:29
Ja klar.
Micz Flor
0:43:30–0:43:31
Das hätte ich selber von mir nicht.
Florian Clauß
0:43:32–0:43:37
Na ja, oder so was wie Bungeejumping oder so, wo du also in solche Zustände
0:43:37–0:43:40
kommst, du halt nicht so.
0:43:41–0:43:45
Nicht so normal einordnet, dann löst ja auch was auf.
Micz Flor
0:43:45–0:43:48
Ja genau. Und da werde ich überlegt, gerade um das so einzuordnen.
0:43:48–0:43:53
Da wird dann die Frage so also zum Beispiel, wenn du dann merkst,
0:43:54–0:43:57
ich habe gar keinen Schiss gehabt zu springen, das hätte ich nie gedacht.
0:43:57–0:43:59
Oder andersherum Du denkst ja, ich habe mich so darauf gefreut,
0:43:59–0:44:02
Ich habe das Geld gespart und dann bin ich nicht gesprungen.
0:44:03–0:44:05
Hätte ich nicht gedacht. Also es sind dann immer so Momente,
0:44:05–0:44:13
wo man sein, sein simuliertes Selbst noch mal gegenchecken kann mit einer Realität,
0:44:13–0:44:14
die sonst nicht zur Verfügung steht.
0:44:15–0:44:20
Und das können wir in der Psychologie tun. So, also da wird eben,
0:44:20–0:44:21
da geht es ja auch genau darum.
0:44:22–0:44:27
Und das Gleiche ist natürlich dann interessant, wenn man das auf die KI überträgt.
0:44:28–0:44:33
Wenn es eine Simulation gibt. Wir haben halt über so Bias und so was gesprochen auch schon,
0:44:33–0:44:37
dass halt die neuronalen Netzwerke manchmal so Baisse haben,
0:44:37–0:44:40
die halt reinkommen, weil die einfach schlechte Daten gefüttert werden oder
0:44:40–0:44:44
nicht nicht die richtigen Incentives bekommen haben oder sonst was.
0:44:45–0:44:49
Aber wenn man mit diesem Modell geht, dann könnte man natürlich diesen Spiegel
0:44:49–0:44:55
des Selbst, der hat man ein bisschen mehr Kontrolle drüber als über das,
0:44:55–0:44:57
was das Gehirn wirklich lernt.
0:44:58–0:45:01
Und vielleicht ist das dann eben auch so diese Brücke zu diesem übrig Konzept
0:45:01–0:45:04
von Freud, was irgendwie vorformuliert war.
0:45:04–0:45:07
Und ich sage jetzt überhaupt nicht, dass es über Ich einen Ort im Gehirn hat,
0:45:08–0:45:14
aber in der in der Art und Weise der Wirksamkeit von diesem Konzept könnte man
0:45:14–0:45:16
sich ja vorstellen, wenn es so ein,
0:45:17–0:45:19
Ort gibt, der aktiviert wird,
0:45:20–0:45:24
der immer mit Dingen zusammenhängt, wenn wir Aussagen über uns selber treffen sollen.
0:45:26–0:45:31
Dann ist es in der Wirkungsweise ähnlich wie dieses Konzept des überechne soziale Erwünschtheit.
Florian Clauß
0:45:31–0:45:39
Kann man sagen, das ist auch so ein Zentrum des des, der Individualität ist.
Micz Flor
0:45:42–0:45:46
Es ist interessant, weil natürlich, wenn man jetzt diese sozialen Aspekt den
0:45:46–0:45:50
gesellschaftlichen Aspekt mit rein nimmt, ist Individualität natürlich auch
0:45:50–0:45:55
was, was bei uns kulturell vielleicht manchmal zu sehr unterstützt wird.
0:45:55–0:45:57
Also wir sind hier,
0:46:00–0:46:03
ein Held ist, wenn man ein einzelner Mensch, der alles irgendwie alleine schafft.
0:46:04–0:46:08
Die Wissenschaft auch jetzt Klimaforschung, aber auch in der Biologie und so.
0:46:08–0:46:11
Wir wissen inzwischen, wir sind alles Interdependenz Systeme,
0:46:11–0:46:14
die sich gleichzeitig evolutionär entwickeln.
0:46:15–0:46:18
Also das ist wirklich so, dass wir mit allem mehr irgendwie verbunden sind.
0:46:19–0:46:26
Und trotzdem haben wir hier vielleicht noch ein anderes Gefühl für die eigene
0:46:26–0:46:31
Autonomie, die eigene Unabhängigkeit wie vielleicht in anderen Gesellschaften.
0:46:31–0:46:33
Das muss ich jetzt irgendwie spekulieren, das weiß ich nicht.
0:46:34–0:46:38
Insofern würde ich nicht sagen, dass es der Ort ist für für.
0:46:39–0:46:42
Es ist ein Ort für Identität, Das würde ich sagen.
Florian Clauß
0:46:41–0:46:48
Identity. Ich ich vielleicht nochmal anders ausgeholt um den Gedanken auf die KI um.
0:46:48–0:46:52
Es geht ja darum, quasi andere Modelle zu finden. Und wir hatten ja auch in
0:46:52–0:46:54
den Folgen davor gesagt, dass,
0:46:57–0:47:05
das ja quasi in neuronalen Netzen gesucht wird nach der absoluten.
0:47:06–0:47:09
Also nach dieser 100 %, dann nach dieser.
0:47:09–0:47:14
Je mehr Daten, desto besser und eindeutiger wird das ganze System.
0:47:15–0:47:19
Wenn man jetzt aber so eine quasi so eine Instanz hätte, in so einem,
0:47:20–0:47:25
in so einem Netzwerk, in so einem künstlichen, wo meinetwegen jetzt schon so
0:47:25–0:47:28
ein BIOS drin ist mit irgendwie.
0:47:30–0:47:35
Dass bestimmte Bilder da zu bevorzugten Ergebnissen kommt,
0:47:36–0:47:40
und dann gibt es gab es ja gibt es ja die eher die Bemühung wir wollen diesen
0:47:40–0:47:46
Bias dann wieder rausrechnen und wir lernen dagegen ja ein anderes Modell wäre zu sagen okay,
0:47:47–0:47:50
ich gebe dir diese Information, dass du das hast.
0:47:50–0:47:54
Man würde ja dann quasi so ein Selbst implementieren und sagen so,
0:47:54–0:47:59
dann ist es halt so ein so ein, so ein weiß ich nicht, so ein Old White Men,
0:47:59–0:48:05
Network, was dann halt diesen BIOS drin hat und dann aber auch eine gewisse Individualität. Oder,
0:48:07–0:48:14
was meintest du jetzt? Identität? Ja, also dass man da quasi so eher so versucht, statt mit viel,
0:48:15–0:48:19
Ressourcen dagegen zu arbeiten, das dann halt auszuprägen und das dann einfach
0:48:19–0:48:22
so stehen zu lassen und dann halt ein anderes Netzwerk, was ja auch eine gewisse
0:48:22–0:48:28
Identität hat, dass man solche eher so Cluster bildet und die dann wieder zusammenschalten.
0:48:28–0:48:32
Dann kriegt man dann vielleicht nochmal irgendwie ein besseres Ergebnis in der Summe.
0:48:32–0:48:36
Weißt du, was ich meine? Also, dass man so was vielleicht dann aufbauen könnte.
Micz Flor
0:48:36–0:48:40
Ja, ist interessant, weil wenn man jetzt diesen Begriff des über aus diesem
0:48:40–0:48:41
freudianischen Universum heranzieht,
0:48:41–0:48:47
dann würde man sagen, man könnte dann eventuell einen Layer einbauen,
0:48:47–0:48:52
der so eine Form von diesen Asimov schen Gesetzen zum Beispiel dass wir zum
0:48:52–0:48:57
Beispiel dass würde man diese Asimov Gesetze würde man dann auf einer Abstraktionsebene
0:48:57–0:49:02
rein geben in der dann dagegen irgendwie noch mal,
0:49:03–0:49:09
getestet werden kann und in in einem gewissen Konzept könnte das vielleicht sogar,
0:49:11–0:49:15
parallel entwickelt werden zu dem, was dann also unabhängig von dem,
0:49:15–0:49:21
was die Deep Learning neuronalen Netze dann irgendwie spezielles Anwendung machen, gibt es das oben drüber.
Florian Clauß
0:49:21–0:49:26
Ja okay, das wäre dann nochmal eine andere Schicht quasi. Es wäre ja die Identität.
Micz Flor
0:49:24–0:49:25
Ja, und das.
Florian Clauß
0:49:26–0:49:30
Würde ich hier nicht oben drüber, die würde ich hier dann eher so mittendrin sehen.
Micz Flor
0:49:30–0:49:34
Na ja, es wäre ja schon. Wenn du jetzt diese Asimov schen Gesetze nimmst.
0:49:34–0:49:39
Dann ist ja die Frage an welchem Punkt würden die fassen? Würden die erst fassen,
0:49:39–0:49:44
nachdem das Netz eine Aktion entschieden hat oder würden die vor der Aktion
0:49:44–0:49:45
schon irgendwie eingreifen?
Florian Clauß
0:49:46–0:49:50
Wenn die müssten, die müssten ganz tief drin sein.
0:49:50–0:49:56
Die Asimov Gesetze, weil die ja quasi so blocker sind für bestimmte Aktionen.
Micz Flor
0:49:56–0:49:58
Ja, aber auf welcher Ebene denn?
Florian Clauß
0:49:58–0:50:01
Ich meine, die müssten eigentlich. Also das müsste wirklich so auf der untersten
0:50:01–0:50:06
Ebene sein, weil es darf sich ja nicht erst mal eine Aktion in irgendeiner Form
0:50:06–0:50:11
vorbereiten, die dann blockiert wird, sondern es müsste ja in dem Moment schon auf der untersten Ebene,
0:50:13–0:50:14
verhindert werden.
Micz Flor
0:50:14–0:50:20
Ja, das ist interessant, weil ich glaube, dass das auf der technischen Seite
0:50:20–0:50:22
so nicht implementiert werden könnte, weil,
0:50:23–0:50:26
dadurch, dass diese ganzen Bias und so was, das ist unglaublich schwer,
0:50:26–0:50:33
so ein neuronales Netz, das irgendwas gelernt hat, dann wieder zu diagnostizieren, wo das Problem ist.
0:50:33–0:50:36
Das ist das ist wirklich total schwierig.
0:50:36–0:50:41
Wenn du dann unglaublich viel Geld und Zeit reingesteckt hast in so ein neuronales
0:50:41–0:50:43
Netz, um das zu erstellen und dann merkst,
0:50:45–0:50:49
was, hatte ich neulich das Beispiel mit dem, mit dem Lineal und das Lineal,
0:50:49–0:50:54
was halt bei diesen Hautkrebs Dingern drauflegen hat und dann guckt sich das
0:50:54–0:50:56
Lineal und dann stehst du da und hast das Ding irgendwie so
0:50:56–0:51:00
vollgepumpt, Geld reingepumpt, Zeit reingepumpt und denkst halt okay,
0:51:00–0:51:04
können wir das jetzt wegschmeißen oder kann ich irgendwie mit so einem Lasotool
0:51:04–0:51:06
dieses Lineal rausschneiden?
Florian Clauß
0:51:06–0:51:13
Ich habe ein Netzwerk entwickelt, was Lineal findet, was Lineale in Hautpraxen findet.
Micz Flor
0:51:09–0:51:14
Ja, genau. Wer braucht das? Daher wurde auch das gemacht.
Florian Clauß
0:51:16–0:51:17
Das gibt besonders wichtig.
0:51:19–0:51:24
Genau. Wie viel hast du dafür ausgegeben? Wie viel hast du dafür ausgegeben?
Micz Flor
0:51:26–0:51:32
Ähm, aber was ich damit sagen will ist halt, dass die Form der Kontrolle die muss dann eher,
0:51:34–0:51:38
die muss dann eher vor der Ausgabe sein, denke ich. Weil du kannst im Netz selber
0:51:38–0:51:40
kannst du es nicht wirklich einziehen.
0:51:40–0:51:45
Es gibt ich weiß gar nicht, hatte ich irgendwo mal gesehen. Auch da gab es halt diese diese,
0:51:47–0:51:52
Idee. Was ist denn eigentlich ein Gedanke und ein Gedanke? Hat dann jemand gesagt,
0:51:52–0:51:56
sozusagen wie so ein Snapshot in einem?
0:51:57–0:52:02
Layer eines neuronalen Netzes kurz vor der Aktion oder kurz vor der Ausgabe.
0:52:03–0:52:04
Das ist quasi ein Gedanke.
0:52:05–0:52:09
Und auf der Ebene, bevor der Gedanke dann Ausgabe wird.
0:52:09–0:52:13
Ich denke, dass da dann dieses Selbst eingezogen wird und dann wird noch mal
0:52:13–0:52:19
geprüft und dann würde da vielleicht Asimov sche Regeln als Roboter über.
0:52:19–0:52:23
Ich würde dann halt da in dem Moment sagen ich würde gerne, aber stopp!
Florian Clauß
0:52:25–0:52:27
Nein, ich glaube, das ist eine rein,
0:52:30–0:52:34
theoretische Diskussion, an welcher Stelle wir die Sachen implementieren.
0:52:34–0:52:37
Aber müsste man mal so ein Architekturmodell durchgehen?
0:52:38–0:52:42
Da wäre es interessant, ob das tatsächlich in einer Eingabe irgendwie erfasst werden kann.
0:52:44–0:52:50
Aber du kannst natürlich nicht die Eingabe danach filtern, weil du weißt ja
0:52:50–0:52:51
nicht, wie die Reaktion darauf ist.
Micz Flor
0:52:52–0:52:56
Vor allen Dingen wird es einfach erst mal im übertragenen Sinne die Reize zur
0:52:56–0:53:00
Verfügung stellen. Und dann fängt das neuronale Netz an. Anhand dessen,
0:53:00–0:53:03
was das alles gelernt hat, diese Reize zu interpretieren.
0:53:04–0:53:08
Und es ist aber noch nicht konkret. Das ist einfach noch in diesem Gewusel,
0:53:08–0:53:09
Das ist einfach eine Aktivität.
0:53:09–0:53:12
Wahrscheinlichkeiten hin und her fließen, Spikes oder was auch immer,
0:53:13–0:53:16
aber erst in dem Moment, wenn es wirklich auf diesem,
0:53:17–0:53:21
wenn man es örtlich machen will, auf diesem letzten Layer, vor Ausgabe oder
0:53:21–0:53:24
vor Action erst da könnte dann
0:53:24–0:53:28
irgendwie dieses, dieser Abgleich mit einer Form von selbst passieren.
0:53:29–0:53:31
Aber ich fand es halt einfach erst einmal interessant, dass es halt.
0:53:32–0:53:36
Es gibt so verschiedene Sachen, wo ich dann denke, okay, das ist jetzt auch
0:53:36–0:53:41
nicht weiter überraschend, aber in neuronalen Netzen wird es dann halt so hochgehalten
0:53:41–0:53:44
als eine große Erkenntnis.
0:53:44–0:53:50
Zum Beispiel hat man gemerkt, dass neuronale Netze. Manche Problemlösungsnetze
0:53:50–0:53:58
können besser lernen, wenn sie einen hohen Reward bekommen, wenn sie das erste
0:53:58–0:53:59
Mal eine neue Lösung gefunden haben.
0:54:01–0:54:04
Wie kannst du diesen Knopf drücken Mit dem Daumen? Okay, super.
0:54:05–0:54:10
Geht ja. Kriegste keine Ahnung, kriegst du zehn Punkte und dann nächstes Mal Daumen.
0:54:11–0:54:13
Nimmst du wieder, kriegst du noch acht Punkte, Dann kriegst du noch sechs Punkte
0:54:13–0:54:15
und dann kriegst 0,5 Punkte.
0:54:15–0:54:21
Und du denkst dann eben in der denkst nicht aber, dass das Netz denkt dann okay,
0:54:21–0:54:24
vielleicht kann ich mir was anderes probieren, weil diese zehn Punkte haben
0:54:24–0:54:25
sich echt gut angefühlt.
0:54:25–0:54:28
Ich bleibe jetzt in der menschlichen Sprache und dann drückt es den Zeigefinger,
0:54:28–0:54:32
kriegt zehn Punkte und dann Akku 10.7 irgendwas der Zeigefinger an.
0:54:33–0:54:37
Das heißt, es gibt so einen höheren Read für eine neue Lösung des gleichen Problems,
0:54:38–0:54:41
um mehrere alternative Lösungen überhaupt brauchen.
Florian Clauß
0:54:40–0:54:45
Macht. Zeit gibt es auch. Ja, ich habe den mehrmals die gleiche Frage gestellt
0:54:45–0:54:47
und es kommen immer andere Antworten.
Micz Flor
0:54:48–0:54:56
Okay. Und? Und das zum Beispiel ist halt bei Menschenaffen, bei,
0:54:56–0:54:59
bei, bei vielen Säugetieren auch so. Oder auch Echsen.
0:55:00–0:55:04
Du hast. Im menschlichen Gehirn ist es Dopamin. Du hast und Dopamin.
0:55:04–0:55:05
Spike. Wenn du das erste Mal.
0:55:07–0:55:12
Du hast mir dieses Video gezeigt von diesem Mädchen. Was? Diesen Flipper.
0:55:12–0:55:15
Wie heißt das nochmal mit dem Skateboard? Diesen Flipper macht.
Florian Clauß
0:55:15–0:55:17
Er. Oli.
Micz Flor
0:55:15–0:55:19
Wie heißt denn der Schritt noch mal? Olli Genau. Macht einen Olli zum Ersten
0:55:19–0:55:23
Mal. Klappt. Und du siehst halt die Freude, die da drin ist.
0:55:23–0:55:27
Das ist halt so ein Dopamin Rush, so ein Glücksgefühl und nach 20 Ollis ist
0:55:27–0:55:29
der halt nicht mehr so groß. Dann kommt der nächste Trick.
0:55:30–0:55:34
Das heißt, es gibt im Lernen, im Lernprozess gibt es das schon.
0:55:34–0:55:38
Das weiß man auch schon lange und jetzt hat man herausgefunden,
0:55:38–0:55:43
dass man das Lernen optimieren kann, wenn man so was auch so ein neuronalen Netz einbaut.
0:55:45–0:55:48
Und das ist ja nicht weiter verwunderlich, weil es halt einfach so ist.
0:55:49–0:55:54
Und da bin ich oft so ein bisschen, wie soll ich sagen, ich bin.
0:55:54–0:55:58
Ich bin viel im total positiv gegenüber eingestellt, weil es in der Tat so ist,
0:55:58–0:56:03
das halt gerade im diagnostischen Bereich mit Bildmaterial diese neuronalen
0:56:03–0:56:06
Netze einfach unglaublich überlegen sind.
0:56:06–0:56:11
Die können ja einfach unglaublich viel unermüdlich einfach lernen und Dinge erkennen.
0:56:12–0:56:19
Und in anderen Bereichen ist es so, dass ich denke, dass zum Beispiel eben dieses
0:56:19–0:56:22
Konzept des Selbstentwickeln dasselbe ist, auch die kindliche Entwicklung,
0:56:22–0:56:26
dass selbst, dass das gar nicht falsch wäre,
0:56:27–0:56:34
so was dann im IT Bereich auch mal mit zu vermitteln, weil das sicherlich inspirierend
0:56:34–0:56:38
ist für bestimmte Prozesse, die man sonst einfach nur.
0:56:41–0:56:46
Noch mal neu erfinden müsste bei uns dazu ja auch schon. Viel Literatur gibt,
0:56:46–0:56:48
es ja. Das war's für heute.
Florian Clauß
0:56:48–0:56:56
Wow. Wow. Wow. Wow. Mensch, du hast echt also wirklich aus dem Stand monologisiert.
0:56:57–0:57:02
Aber sehr spannend. Also, was ich auch wirklich immer wieder faszinierend,
0:57:03–0:57:08
wenn es um Freud geht. Finde es diese Begriffe, diese Sachen die er entwickelt
0:57:08–0:57:11
hat damals, dass die immer noch so zur Anwendung kommen.
0:57:11–0:57:15
Und es gibt ja auch so eine Wissenschaftstradition mittlerweile.
0:57:15–0:57:18
Das scheint ja irgendwo auch so.
0:57:20–0:57:24
Hatte er dann auch da Punkte getroffen, die funktionieren?
Micz Flor
0:57:25–0:57:30
Ja, also das ist vielleicht eine andere Frage, weil die Psychodynamik oder Psychoanalyse
0:57:30–0:57:32
vor allen Dingen Amerika wird gerade so,
0:57:33–0:57:38
also hat geradezu keinen guten Stand, weil aber das ist ein völlig anderes Thema,
0:57:38–0:57:43
indirekt, aber damit vielleicht sogar verwoben weil die wissenschaftliche Erfassung
0:57:44–0:57:47
die funktioniert mit so einem medizinischen Denken, da müssen die Dinge eben
0:57:47–0:57:49
operationalisiert und gemessen werden,
0:57:49–0:57:54
und du kannst halt so was wie Trieb und übrig und so nicht messen.
0:57:54–0:58:00
Die Leute tun sich schon schwer genug in der Neurologie, so was wie die,
0:58:01–0:58:04
die Zeiten zu messen zwischen einer Entscheidung und einer Bewegung.
0:58:04–0:58:08
Also wie kannst du so was operationalisieren, dass du messbare Daten bekommst?
0:58:09–0:58:17
Und es gibt immer ein großes Problem, wenn ein sage ich in dem Fall ein statistisch
0:58:17–0:58:22
mathematisches Modell was sagt hier kann nicht die Wahrheit der Wirksamkeit finden.
0:58:23–0:58:32
Wenn das als wertfrei hingestellt wird, während in Wahrheit da drinnen genauso Bias sind.
0:58:32–0:58:36
Man könnte ja auch anders sagen, man kann sagen ja. Ich fragte ihn einfach zwei
0:58:36–0:58:39
Jahre nach der Therapie, wie es ihm geht, aber es geht gar nicht.
0:58:40–0:58:41
Also man kann zum Beispiel sich
0:58:41–0:58:44
nicht darauf verlassen, dass die Patienten dann lügen, die vielleicht.
0:58:45–0:58:47
Das heißt, du möchtest das alles rausrechnen, aber es ist doch menschlich.
0:58:47–0:58:49
Es geht doch um menschliche Interaktion.
0:58:50–0:58:56
Also das ist immer so der Punkt. Und deshalb wollte ich nur sagen Freud hat gerade, ich bin ja auch.
0:58:56–0:59:01
Es ist jetzt auch wirklich nicht so, dass ich so ein, so ein Freudianer bin.
0:59:01–0:59:04
Das ist gar nicht. Aber ich finde schon, dass in den Texten,
0:59:04–0:59:09
wenn man sie liest, wirklich einfach auch Sachen drin stecken,
0:59:09–0:59:12
die deutlich tiefer gehen als das, was man noch so kalendersprüche man.
0:59:14–0:59:17
Das finde ich schon. Da denke ich.
0:59:18–0:59:20
Tut man gut, den Originaltext zu lesen.
Florian Clauß
0:59:20–0:59:25
Aber vielleicht kann man ja dann wirklich solche Konzepte in neuronalen Netzwerken
0:59:25–0:59:28
einfach implementieren und trainieren. Aber das ist.
0:59:28–0:59:32
Und gucken, wie wirksam die sind und dann wieder operationalisieren.
0:59:33–0:59:34
Also das wäre ein.
Micz Flor
0:59:35–0:59:40
Die genau den Mensch erforschen. Über. Über Chips, die dem Menschen nachempfunden
0:59:40–0:59:43
sind. Mit neuronalen Netzen, die dem Menschen offen sind.
0:59:44–0:59:49
Da gibt es ein sehr schönes Buch von Alan Watts. Ich weiß gar nicht mehr genau, wie das heißt.
0:59:49–0:59:53
So ein kurzer Text ist als Buch aufgearbeitet, der halt irgendwie so die Geschichte
0:59:53–0:59:57
erzählt, wie jemand so eine Tänzerin mal gesehen hat und gedacht hat,
0:59:57–0:59:59
Ach, das würde er sich gerne öfter anschauen.
0:59:59–1:00:03
Und dann malt er so ein Bild von der Tänzerin und dann ist er erst mal glücklich
1:00:03–1:00:07
und denkt Ach super, so, ein bisschen Dopamin wieder und dann sehr bald aber denkt Ach!
1:00:08–1:00:11
Vielleicht mache ich es noch bunt, weil die Farben fehlen mir und dann auch
1:00:11–1:00:14
wieder kurz Dopamin und dann irgendwann so ach nee, vielleicht sollte sich bewegen.
1:00:14–1:00:17
Er macht halt einen Film oder eine Skulptur usw. immer weiter.
1:00:18–1:00:24
Und dann geht es ja im Endeffekt wieder dahin, das eigentlich herzustellen,
1:00:24–1:00:26
was die Wahrheit und Realität ist.
1:00:27–1:00:30
Aber man fängt zuerst an, das Ganze wieder von hinten aufzurollen.
1:00:31–1:00:34
Und manchmal ist es, glaube ich leider auch in der Forschung so,
1:00:34–1:00:37
dass man versucht, die Sachen alle nochmal zu entwickeln.
1:00:38–1:00:43
Ich stelle mir vor, Zuse hätte auf seinen mechanische Z1 obendrauf noch so eine
1:00:43–1:00:47
Abstraktion Layer für neuronale Netze gebaut, was sicherlich mechanisch möglich
1:00:47–1:00:51
wäre für einfache Sachen wie Würmer, aber.
1:00:54–1:01:03
Ja, insofern manchmal glaube ich, ist die Beobachtung und Interpretation no sorry, no smoking.
Florian Clauß
1:01:06–1:01:11
Mit. Vielen Dank für. Für die Ausführung.
Micz Flor
1:01:12–1:01:13
Nichts zu danken.
Florian Clauß
1:01:13–1:01:17
A. Und auch dann wieder.
1:01:18–1:01:23
Ich glaube, wir sind mit dieser Figur, mit unserer Miniserie von künstlicher
1:01:23–1:01:25
Intelligenz sicher nicht am Ende.
1:01:25–1:01:33
Aber jetzt erst mal. Also am Thema Ende, sondern jetzt wenden wir erst mal diese Serie.
Micz Flor
1:01:33–1:01:33
Der.
Florian Clauß
1:01:34–1:01:40
Und nächstes Mal haben wir dann ein anderes Thema wieder. Dann bin ich an der Reihe.
Micz Flor
1:01:39–1:01:42
Bin ich an der Reihe. Ich muss eine Reihe. Ich bin auch gespannt.
Florian Clauß
1:01:40–1:01:43
Mal gucken, was dann kommt. Ich bin schon gespannt.
1:01:45–1:01:46
Ja, dann würde ich sagen,
1:01:49–1:01:56
Danke auch fürs Zuhören. Ihr könnt mehr Informationen auf Podcast D finden,
1:01:56–1:02:00
dann seht ihr auch die Route, die wir heute hier gelaufen sind.
1:02:00–1:02:04
Im Kreis, im weiten Kreis. Und ich finde auch, wir haben gute Straßen.
1:02:04–1:02:08
Wir müssen immer gucken, wie wir. Wie wir mit den Straßen umgehen. Weil der Ort.
Micz Flor
1:02:08–1:02:12
Ich bin heute so ein bisschen rum rumgewusel, zum Schluss hin und her.
1:02:13–1:02:21
Ich bin gespannt auf die Route. Okay, vielen Dank. Und wir sehen uns. Zu Folge 22 wieder.
1:02:21–1:02:24
Ja, Bis dahin macht's gut. Tschüss.

Mehr

"Die Evolution hat nicht Lösungen zu spezifischen Problemen entwickelt, sondern generelle Problemlösungs-Maschinen" Michael Levin

Intelligenz kann in der Biologie überall angetroffen werden, wo Zellen sind. Zellen sind nichts weiter als kleine Automaten, die gegen die Entropie arbeiten. Leben ist Ordnung und die Intelligenz das Programm dazu. Diese Sichtweise leiten wir uns aus den Vorträgen und Interviews von Josha Bach und Michael Levin ab. Josha Bach liefert uns die Definition von Intelligenz als Fähigkeit Modelle zu entwerfen und daraus Handlungen abzuleiten, die auf Kausalität geprüft werden. Michael Levin hat Plattwürmer so weit bioelektrisch modifiziert, dass sie in der Mitte durchgeschnitten statt eines Schwanzes einen zweiten Kopf regenerieren. Er und sein Team entwickeln ein Framework, um diverse Intelligenzformen zu entdecken, zu untersuchen und auch künstlich herzustellen: Biologie stellt ein tief verschachteltes System dar und jede Ebene ist dabei sehr kompetent Probleme zu lösen.

Shownotes

Mitwirkende

avatar
Florian Clauß
Erzähler
avatar
Micz Flor

Transcript

Florian Clauß
0:00:01–0:00:05
Danke. Deins läuft 20?
Micz Flor
0:00:04–0:00:07
Am 20.. Die.
0:00:12–0:00:16
Wir sind alarmiert. Wie man im Hintergrund hört, ist ein wichtiges Thema.
0:00:18–0:00:22
Flo hat es ja in der letzten Folge schon ein bisschen anmoderiert.
0:00:23–0:00:27
Das überlasse ich dir dann gleich. Wir sind Flo.
0:00:27–0:00:32
Links neben mir. Ich bin Matze vom eigentlich Podcast, in dem wir.
0:00:33–0:00:39
Eigentlich wandern, aber meistens in der Stadt rumgurken, zu Fuß reden,
0:00:39–0:00:42
beim Laufen und laufend reden und,
0:00:43–0:00:48
immer abwechselnd ein Thema vorbereiten und dann trotzdem heimlich wünschen,
0:00:48–0:00:49
dass daraus ein Gespräch wird.
0:00:50–0:00:55
Und mit diesen einleitenden Worten übergebe ich an dich, Flo.
Florian Clauß
0:00:55–0:01:02
Ja hallo auch von meiner Seite ja heute Episode eigentlich Podcast 20.
0:01:03–0:01:10
Und der dritte Teil unserer Serie Serie zu künstlicher Intelligenz.
0:01:11–0:01:18
Und mit ähnlich wie es ihr das letzte Mal gegangen ist, nämlich ein Seminar
0:01:18–0:01:20
vorzubereiten. So ging es mir auch.
0:01:20–0:01:28
Ich hatte dir auch in der Vorbereitung zu der Sendung kam mir einen Vortrag unter.
0:01:30–0:01:36
Der abgehalten wurde im Panel von Intel Labs dagegen ist um.
0:01:39–0:01:45
Tina Ristic. Es ging um Vertreter der AI und Deep Learning. Und.
Micz Flor
0:01:45–0:01:48
Also Artificial Intelligence, die englische KI.
Florian Clauß
0:01:47–0:01:51
Genau genau dieses Mal war Joscha Bach eingeladen.
0:01:51–0:01:58
Es war noch Michael Levin als weiterer Gast eingeladen.
0:01:59–0:02:03
Und dieser Vortrag hat mich dann so fasziniert, dass ich dann halt,
0:02:05–0:02:09
mich hingesetzt habe und den halt auch nochmal durchgehört und dann würde ich
0:02:09–0:02:10
gerne nochmal so referieren.
0:02:11–0:02:16
Und ich habe auch ein bisschen mehr von den beiden gehört.
0:02:16–0:02:22
Die treten häufig in einigen Podcasts zusammen auf, haben aber auch einzelne,
0:02:23–0:02:27
Episoden mit anderen Interviewern, wo sie interviewt werden.
0:02:27–0:02:32
Und Joscha Bach ist uns ja auch schon oft untergekommen.
0:02:32–0:02:38
Er war auch quasi so mit ein Initiationserlebnis für den Podcast,
0:02:39–0:02:43
nämlich als wir damals alternativlos die Folge gehört.
Micz Flor
0:02:42–0:02:43
42.
Florian Clauß
0:02:44–0:02:48
Genau, Alternativlos war, dass die Folge 42. Ja, stimmt.
Micz Flor
0:02:46–0:02:49
Ja, das war ja der Witz. Die haben ja ewig drauf gewartet wegen die Antwort
0:02:49–0:02:53
auf alle Fragen. Und dann hatten sie ja schon Bach eingeladen.
Florian Clauß
0:02:54–0:03:00
Genau wo dann halt in der Alternativloses der Podcast von Felix von Leitner
0:03:00–0:03:04
und Frank Rieger und die hätten Joscha Bach das Ganze.
0:03:04–0:03:10
Die kommen alle aus dem Chaos Computer Club, das heißt die kennen sich dann,
0:03:10–0:03:18
untereinander und wir hatten damals diese Folge beim Begehen der Bürgerspitze. Genau.
Micz Flor
0:03:16–0:03:17
Biker Spitze.
Florian Clauß
0:03:19–0:03:24
Ja, ein langer, mühsamer Weg und wir mussten uns irgendwie ablenken.
Micz Flor
0:03:20–0:03:21
Ein mühsamer.
Florian Clauß
0:03:24–0:03:28
Um halt durch über diese Schotterfeld, was dann wirklich drei Stunden gedauert hat.
0:03:28–0:03:33
Und das war echt sehr zermürbend, aber faszinierend zugleich.
0:03:33–0:03:39
Und ich meine, Joscha Bach, du kennst seine Art es ist der ist auf auf,
0:03:39–0:03:46
auf uns also sehr schnell und sehr komprimiert was er sagt.
0:03:46–0:03:51
Also er hat sehr viele Referenzen und man muss da in jedem Satz ist da schon,
0:03:51–0:03:54
ganz viel Informationen reingefaltet deswegen.
Micz Flor
0:03:54–0:03:57
Ja, ich bin da so ein bisschen hin und hergerissen. Ich magister das und ich
0:03:57–0:04:02
habe gleichzeitig oft das Gefühl, das muss alles irgendwie computing sein.
0:04:02–0:04:05
Also es wird alles. Es geht immer nur um Informationsflüsse,
0:04:05–0:04:07
alles wird auf Information runtergebrochen.
0:04:07–0:04:13
Und das ist ja in meiner letzten Folge, meiner kommenden Folge immer so, diese Grenze.
0:04:13–0:04:18
Du bist halt bei diesem einen Body Problem ganz viel, wenn es um um lebendige Systeme geht.
0:04:20–0:04:25
Und da ist es mir dann manchmal ein bisschen zu schnell, weil ich habe,
0:04:26–0:04:30
Ich finde es immer total toll, auch was er auf Twitter so schreibt und manchmal
0:04:30–0:04:34
hat man so das Gefühl, das ist zu 99,7 % wahr,
0:04:35–0:04:37
aber diese 0,3 %,
0:04:37–0:04:39
da wird es halt wirklich spannend.
0:04:40–0:04:43
Aber wie gesagt, ich bin ja auch nicht auf der auf der Ebene.
Florian Clauß
0:04:44–0:04:50
Also Joscha Bach ist Kognitionswissenschaftler, ist jetzt glaube ich auch tatsächlich
0:04:50–0:04:57
in diesem Intel Lab mit als beteiligt und kann da seine Untersuchung seine Forschung treiben.
0:04:57–0:05:04
In dem Rahmen hat hat glaube ich auch in der Humboldt Uni in 2009 hat er glaube
0:05:04–0:05:10
ich auch sein sein, seine Arbeit geschrieben.
0:05:10–0:05:14
Ich weiß nicht, ich bin mir nicht sicher, ob er ein PhD gemacht hat oder bei Master.
0:05:15–0:05:23
Er hat im Bereich der ganzen Computer Sciences da auch Vorreiter.
0:05:23–0:05:27
Also er ist dann halt genau dieses in Kognitionswissenschaften.
0:05:27–0:05:29
Er bringt dann halt das.
0:05:31–0:05:36
Also im Prinzip in so einem interdisziplinären Feld, wo er viel auch biologische,
0:05:36–0:05:44
Systeme mit vergleicht, aber auch in diesem Eiki und Learning Umfeld aktiv ist.
0:05:45–0:05:51
Michael Lewin stell ich auch kurz vor, ist Biologe, hat viele Untersuchungen
0:05:51–0:05:52
im Bereich Morphologie.
0:05:53–0:05:58
Ist wird so ein bisschen gehandelt als der neue Nobelpreisträger, weil der hat schon sehr,
0:06:00–0:06:04
sehr weitgehende Experimente gemacht und seine Ansätze die er da vorstellt Ich,
0:06:04–0:06:07
ich gehe, ich, ich mache viele plastische Beispiele und,
0:06:08–0:06:14
was er da so was er da so halt so erforscht und das ist extrem spannend und
0:06:14–0:06:18
die beiden zusammen, die haben sich in den Vorträgen auch immer so die Bälle
0:06:18–0:06:21
zugeworfen, das heißt, die haben, glaube ich auch zusammen eine Firma gegründet,
0:06:22–0:06:24
wo die dann teilweise ihre.
0:06:26–0:06:31
Ihre Erkenntnisse und auch dann auch entsprechend dann umsetzen können im Rahmen der Firma.
0:06:33–0:06:39
Genau. Also es ging eben so ein bisschen um Beyond Artificial Intelligence bei
0:06:39–0:06:43
dem Vortrag, das heißt Beyond ist jetzt von mir eingebracht, also so ein bisschen,
0:06:45–0:06:50
wo steckt dann halt die künstliche Intelligenz mit diesem Machine Learning Modell,
0:06:50–0:06:55
mit neuronalen Netzen, wo steckt die fest und was gibt es in der Biologie quasi
0:06:55–0:06:58
für Modelle, die da eventuell,
0:06:58–0:07:02
einfach so auch neue Wege zeigen können, die man dann adaptieren könnte,
0:07:03–0:07:06
in diese Bereiche rein und.
0:07:08–0:07:12
Die Frage ist natürlich Und da bist du der Mensch?
0:07:12–0:07:17
Nein, genau was du zu Joscha Bach gesagt hast. Was ist denn jetzt eigentlich Intelligenz?
0:07:17–0:07:20
Wie würdest du Intelligenz beschreiben? Und so wie er es beschreibt,
0:07:20–0:07:28
ist Intelligenz die Möglichkeit, ein Modell von der Welt.
0:07:31–0:07:38
Also so berechenbar zu machen, um so quasi die nächsten Schritte einzuleiten.
0:07:38–0:07:42
Also du machst dir ein Bild von dem, von dir, von deinem Universum,
0:07:42–0:07:46
von deinem Environment und diese.
0:07:46–0:07:50
Also wie auch immer, eine Virtualisierung und du kannst quasi mit.
0:07:50–0:07:55
Aufgrund dessen kannst du dann quasi die nächsten Schritte berechnen und dann
0:07:55–0:08:00
wieder als Handlung die Welt in eine Umgebung wieder zurücktragen.
0:08:00–0:08:05
Nee, also das ist, das ist jetzt mal ganz grob gesprochen eine Definition von Intelligenz.
Micz Flor
0:08:06–0:08:11
Genau. Also, dass man kurz gesagt, man kann Probleme lösen, indem man die Dinge
0:08:11–0:08:15
erfasst, die das Problem sind bzw.
0:08:15–0:08:20
Herstellen und dass man dann auf eine Form kreativ nicht nur eine und immer
0:08:20–0:08:25
gleiche, sondern auch unterschiedliche Lösungen für dieses Problem.
Florian Clauß
0:08:25–0:08:30
Es ist die Fähigkeit, Modelle zu entwerfen.
Micz Flor
0:08:28–0:08:30
Ja, Ja, ja.
Florian Clauß
0:08:33–0:08:38
Und die Modelle sind dann nichts weiter als berechenbare Funktion, die dann halt wieder.
0:08:39–0:08:43
Also es gibt da eine gewisse Simulalität, das heißt kann es so und so viele
0:08:43–0:08:47
Modelle dann halt in einem Kopf vorhalten oder so und so viele Aktionen daraus
0:08:47–0:08:49
ableiten. Das ist eine gewisse Parallelisierung.
0:08:50–0:08:53
Und wenn ich das mache, dann passiert das. Und wenn ich das mache, dann passiert das.
0:08:54–0:08:57
Und dann daraufhin eine Entscheidung treffen, wie gehst du dann,
0:08:57–0:08:58
wie machst du es dann halt.
0:08:59–0:09:04
Das ist so die Möglichkeit und damit ist es halt wieder so. Abstrakter ausgedrückt,
0:09:04–0:09:08
im Prinzip ist es dann halt auch Intelligenz wieder berechenbar.
0:09:08–0:09:11
Und da sind wir wieder bei der Turingmaschine.
Micz Flor
0:09:11–0:09:14
Ja, genau. Ja, genau.
0:09:14–0:09:20
Die Turingmaschine, die ja nur dann Intelligenz bezeugt bekommt,
0:09:20–0:09:24
wenn ein wie auch immer gearteter Beobachter, der scheinbar ein bisschen höher
0:09:24–0:09:29
steht als Turing, Intelligenz in der Lage ist zu sagen, es sei nicht unterscheidbar.
0:09:29–0:09:32
Und das finde ich halt immer genau diesen Sprung zwischen dem,
0:09:33–0:09:40
zwischen dem deskriptiven und dann diesem metaphysischen Ansatz. Aber.
Florian Clauß
0:09:40–0:09:46
Oje. Dann ist auch die Frage von der Anwendung von eben.
0:09:47–0:09:51
Also wie wirksam das ist. Wenn du deine Umgebung beeinflusst,
0:09:51–0:09:56
dann, wenn du halt irgendwie handelst in irgendeiner Form, also rein zufällig,
0:09:57–0:09:58
dann passiert was. Aber du?
0:09:58–0:10:01
Die Frage ist natürlich, wie du zielgerichtet handeln kannst,
0:10:01–0:10:03
um dann letztendlich dein Ziel zu erreichen.
0:10:04–0:10:07
Das ist ja so immer dieses. Also dieses Goal driven.
Micz Flor
0:10:08–0:10:12
Ja nicht nur Gold und das ist das Prozedurale auch das halt.
0:10:12–0:10:15
Das wird oft eben bei diesem Deep Learning auch nicht wirklich.
0:10:16–0:10:19
Wie du in der letzten Folge gesagt hast. Gibt halt so einen Trigger,
0:10:19–0:10:21
man fragt was und dann kriegt man auch eine Antwort drauf.
0:10:22–0:10:27
Aber diese Idee, dass man vorausschauend prozedural etwas entwickelt oder auch auf,
0:10:28–0:10:34
auf was sie angeht, gibt so ein bisschen ist aber eben auf Dinge reagiert und
0:10:34–0:10:40
die Mittel to take into account, also dass die mit in einem Prozess mit berücksichtigt werden.
0:10:41–0:10:47
Das ist natürlich noch mal eine ganz andere Hausnummer, dass man eben vorausschauend
0:10:47–0:10:51
Modelle irgendwie auf die Welt anwendet und dann Ziele, Motivation und diese
0:10:51–0:10:53
Sachen alles reinbringt.
Florian Clauß
0:10:53–0:10:59
Also hier vielleicht. Du hast schon referenziert, was jetzt so gibt der Unterschied
0:10:59–0:11:06
zu dem anderen was, was jetzt Deep Learning eigentlich ist, Deep Learning oder Learning.
0:11:07–0:11:10
Das ist im Prinzip, das skaliert.
0:11:11–0:11:15
Je mehr Daten ich habe, desto besser wird mein Modell.
0:11:16–0:11:19
Und das ist ja genau dieser Ressourcenverbrauch, den du auch angemerkt hast.
0:11:20–0:11:24
Es ist genau diese Sache. Ich muss unglaublich viele Ressourcen in das System
0:11:24–0:11:28
stecken und je mehr ich da reinpumpe, desto besser wird es.
0:11:29–0:11:39
Das ist ja. Also Beispiel Bildverarbeitung oder Bilderkennung und Bildgenerierung ist ja so, je mehr,
0:11:39–0:11:45
Bilder ich dann in dieses System gebe, desto besser wird dann halt auch der Output von dem System.
0:11:45–0:11:51
Und es ist im Prinzip also so, so wie es momentan funktioniert.
0:11:51–0:11:53
Es ist ja so, dass du das das,
0:11:56–0:11:59
du kannst, du Kleiner also du kannst. Wenn du ein Ergebnis hast,
0:11:59–0:12:03
dann kannst du sagen ja, mache ein bisschen das und das und dann kriegt es ein
0:12:03–0:12:05
anderes Ergebnis. Also du kannst so kleine.
0:12:07–0:12:12
Kleine. Direktiven ändern und kriegst dann halt ein anderes Ergebnis.
0:12:12–0:12:17
Es wird so, weil es eben aufgrund dieser Masse dann halt genau diese ganzen,
0:12:17–0:12:18
Ergebnisse liefern kann.
0:12:19–0:12:26
Gleichzeitig ist es extremst ressourcenaufwendig, weil es immer so eine Einzelbild Betrachtung hat.
0:12:27–0:12:34
Das heißt wenn du auf dem Bild, wenn du halt so keine 51.000 Bilder von Stühlen hast,
0:12:34–0:12:39
dann fängst du an und trainierst das System und sagst hier so der Umriss,
0:12:39–0:12:42
so sieht ein Stuhl aus in einer anderen Ebene.
0:12:42–0:12:47
Von dem neuronalen Netz sagst du halt so der Stuhl kann schwarz oder braun sein,
0:12:47–0:12:49
also oder der Stuhl kann.
0:12:49–0:12:52
Du hast ja dann so verschiedene Verknüpfungen sebene, um nur halt irgendwie,
0:12:52–0:12:57
so eine Gestaltswahrnehmung auf unterschiedlichsten Ebenen miteinander zu verknüpfen.
0:12:57–0:13:01
Aber du bist die ganze Zeit dabei, diesem System zu sagen das ist ein Stuhl,
0:13:01–0:13:04
das ist ein Stuhl, das ist ein Stuhl und dann kriegt es halt irgendwie.
0:13:04–0:13:07
Das System sagt dann halt nach dem ersten Trainingsrunde ah,
0:13:07–0:13:10
zu 80 % bin ich mir sicher, dass das ein Stuhl ist.
0:13:10–0:13:14
Und dann sagst du Nein. Doch, und dann und dann halt irgendwie trainiert das,
0:13:14–0:13:20
dann doch irgendwie. Zu 99,7 % bin ich mir sicher, dass es ein Stuhl ist. Und das ist.
Micz Flor
0:13:20–0:13:22
Wer und das ist aber nochmal wichtig festzuhalten, was du da beschreibst,
0:13:22–0:13:26
ist glaube ich in der Tat gerade das Ziel, dass man das halt so perfekt schafft,
0:13:27–0:13:31
weil natürlich momentan am meisten durch die Presse geht, Wenn irgendwie eine
0:13:31–0:13:35
künstliche Intelligenz, die ein Auto lenkt, für Unfälle und Tode sorgt.
0:13:35–0:13:42
Das ist halt wirklich angsteinflößend und deshalb ist es halt gerade so ein
0:13:42–0:13:45
Incentives, das Ding perfekt zu machen.
0:13:45–0:13:50
Und das wird eben dann aber wiederum auch auf einer sozialen Ebene durch Publikationen
0:13:50–0:13:52
gefördert. Das heißt, es werden halt mehr Sachen publiziert,
0:13:52–0:13:54
wo es halt noch besser wird. Noch besser wird noch.
0:13:54–0:13:59
Wenn allerdings irgendwann das Ganze kippt und man merkt, man kann das einfach
0:13:59–0:14:01
mit der bestehenden Energie nicht mehr,
0:14:03–0:14:07
weder moralisch noch finanziell irgendwie durch pushen, dann kann es gut sein,
0:14:07–0:14:11
dass auf einmal das Ziel wird zu sagen energieeffizient.
0:14:11–0:14:12
Das gleiche Ergebnis.
0:14:13–0:14:17
Sagen wir mal, das Ergebnis ist uns jetzt gut genug und jetzt gewinnt immer
0:14:17–0:14:21
die Publikation, die energieeffizient Algorithmen entwickelt oder Hardware entwickelt,
0:14:21–0:14:22
die das Gleiche herstellen kann.
0:14:23–0:14:26
Also ich glaube diese Idee, dass dass es.
0:14:27–0:14:33
Dass es immer darum geht, das System noch zu verbessern. Das ist angelegt auch,
0:14:33–0:14:38
in Einladungen, auf Konferenzen, in Publikationen, im Magazin. Das.
Florian Clauß
0:14:39–0:14:43
Ja, ich meine aber, wie du sagst. Du wirst dann irgendwann in diesem in diesem
0:14:43–0:14:48
exponentiellen Bereich, wo du für eine Verbesserung des Systems,
0:14:48–0:14:52
wie bei Bitcoin dann halt so viel mehr Aufwand reinstecken musst,
0:14:52–0:14:56
dass sich das dann halt in der Energiebilanz gar nicht mehr lohnt.
Micz Flor
0:14:56–0:15:01
Ja und das spannende ist ja auch das, dass es sich eben nicht mehr lohnt, Dinge auszusitzen.
0:15:01–0:15:04
Das war früher so, dass man oft zum Beispiel Patente angemeldet hat für bestimmte,
0:15:05–0:15:07
Algorithmen, um Datenbanken zu durchsuchen.
0:15:07–0:15:12
Nicht weil die gut sind, sondern weil man wusste okay, spätestens in fünf Jahren,
0:15:13–0:15:15
ist die Hardware gut genug, das zu rechnen.
0:15:15–0:15:18
Jetzt gerade geht es dann nicht. Aber der Algorithmus, den kann ich schon mal patentieren lassen.
0:15:18–0:15:23
Und diese, dieses Warten auf bessere, schnellere Hardware, das kommt gerade
0:15:23–0:15:24
ein bisschen ins Stocken.
0:15:25–0:15:30
Wird neue Hardware entwickelt und deshalb ist es auf einmal noch ein ganz anderes
0:15:30–0:15:35
Incentives, auch energiesparend zu arbeiten, weil man nicht mehr davon ausgehen
0:15:35–0:15:39
kann, dass es halt bis die Doktorarbeit publiziert ist. Der wird schon gehen.
Florian Clauß
0:15:39–0:15:42
Ja, ja, ja, ja, genau.
0:15:42–0:15:46
Also auch die Frage, wie kriegt man da jetzt eine neue Ära oder andere Modelle
0:15:46–0:15:51
rein? Und da ist jetzt auch den Ansatz, den jetzt dann Joscha Bach und Michael
0:15:51–0:15:55
Lewin liefern ist halt ähm das eben.
0:15:56–0:16:03
Also und dann aus der Biologie angelehnt, dass man quasi die einzelnen Teile,
0:16:04–0:16:09
in einem neuronalen Netz dass die dann halt quasi,
0:16:10–0:16:13
viel berechnender sind also,
0:16:15–0:16:17
jetzt wie so kleine Turingmaschine,
0:16:18–0:16:23
die dann halt auch eben auf dieser Ebene Entscheidungen treffen können,
0:16:23–0:16:28
die dann nicht mehr dieses Ganze den Kontext brauchen, sondern halt eine eigene.
0:16:28–0:16:32
Ich sag mal so eine eigene Logik mitbringen, eigenes Programm,
0:16:32–0:16:37
was sie dann halt abfahren können und was dann halt quasi auf die eine,
0:16:37–0:16:39
auf die Umwelt dann wieder wirkt.
0:16:40–0:16:44
Das heißt, das ist genau dieser, dieser Ansatz, das, dass es halt,
0:16:46–0:16:51
an der Stelle effektiver und energieeffizienter wird und da kommst du halt in
0:16:51–0:16:57
diesem Bereich der zellulären Turingmaschine, weil Zellen sind halt Turingmaschine.
0:16:57–0:17:00
Das ist halt so, das kann man halt einfach so sagen.
0:17:01–0:17:05
Ich hab auch Cherrypity gefragt und er hat gesagt ja geht.
Micz Flor
0:17:03–0:17:04
Was soll ich sagen?
Florian Clauß
0:17:06–0:17:12
Darf ich sagen, Zellen sind einzelne Turingmaschinen, weil es gibt dann halt.
Micz Flor
0:17:06–0:17:07
Die Wirtschaft.
Florian Clauß
0:17:12–0:17:17
111 Reiz, ein Einwirken, es gibt ein Programm, was abläuft und es gibt dann
0:17:17–0:17:22
halt ein eine Reaktion oder eine Aktion, die daraus folgt.
0:17:22–0:17:25
Es ist ja im Prinzip und jetzt ist es halt rein deterministisch,
0:17:26–0:17:28
es läuft halt durch den Zellkern, wie auch immer.
0:17:29–0:17:32
Aber es ist ja sehr programmatisch, das ist eine Turingmaschine,
0:17:32–0:17:35
die kann dann halt bestimmte Antworten formulieren.
Micz Flor
0:17:35–0:17:39
Aber dann springe ich nur ganz kurz in die Konrad Zuse Folge. Ich finde es.
Florian Clauß
0:17:38–0:17:40
Ja, ja, genau das will ich. Sehr gut.
Micz Flor
0:17:40–0:17:46
Nein, da gab es ja diese, diese Grenzen, diese kleinen Maschinenbauwerks Werkbank
0:17:46–0:17:48
oder ich weiß gar nicht mehr genau, wie es hieß,
0:17:49–0:17:57
der ja die Überlegung hatte also der Erfinder des ersten Computers mechanisch
0:17:57–0:18:01
und dann später mit Relais und dann später mit Transistoren.
0:18:01–0:18:05
Der hatte dann irgendwie schon in den 60er Jahren die Idee, man könnte eben,
0:18:05–0:18:08
eine Werkbank bauen, die vollautomatisch sich selbst replizieren kann.
0:18:09–0:18:13
Und nicht nur das, sondern sie könne sich dann auch selbst replizieren und immer kleiner machen.
0:18:13–0:18:16
Also eine Art Universalmaschine. Nicht als Computer in der digitalen,
0:18:16–0:18:19
symbolisierten Welt, sondern in einer materiellen Welt.
0:18:20–0:18:25
Und das war wirklich auch so inspiriert von der Biologie ist damals natürlich,
0:18:25–0:18:30
das haben wir ja dann irgendwie im Moment im Technikmuseum erlebt,
0:18:30–0:18:32
an dem Energiethema gescheitert.
0:18:34–0:18:38
Aber genau da ging es auch darum, Zellen zu bauen.
0:18:39–0:18:44
Die Zellen, die, wie wir vermuten, trans episodenhaft vermuten,
0:18:44–0:18:49
mit Quantenmechanik Dinge stemmen können, die Newtonsche Materie einfach nicht kann.
0:18:50–0:18:53
Und ja, zu Punkt.
Florian Clauß
0:18:53–0:18:57
Ja ne, genau. Dann muss ich auch daran denken, dass es im Prinzip also dieser
0:18:57–0:19:02
Ansatz, den auch Suse dann halt gemacht hat, eben diese, diese sich immer verkleinerten
0:19:02–0:19:05
Maschinen, die dann aber auch immer ein Programm fahren.
0:19:06–0:19:10
Also genau das ist immer so aus der aus der Biologie ist es so,
0:19:10–0:19:14
dass die Ressource die quasi teuer ist.
0:19:16–0:19:21
Wenn du jetzt auf biologische Systeme guckst, ist die Zeit ne.
0:19:21–0:19:26
Während du bei so einem Machine Learning, bei so einem ist Zeit kein nicht teuer.
0:19:26–0:19:32
Zeit ist fast unbegrenzt verfügbar, weil du hast diese extreme hohe Taktfrequenz
0:19:32–0:19:36
hast, während du biologische Systeme live laufen, einen ganz anderen Takt.
Micz Flor
0:19:37–0:19:40
Wenn die schneller Attacken würden, würden sie verbrennen.
Florian Clauß
0:19:40–0:19:45
Ja, genau. Nein, die laufen halt in Millisekunden.
0:19:45–0:19:49
Diese weiß, wie viel Rechenleistung einfach durch diese extrem hohe Taktfrequenz
0:19:49–0:19:52
und die Parallelisierung dadurch ist, zeigt keinen.
0:19:52–0:19:56
Deswegen kann man diese ganzen Millionen Bilder überhaupt prozessieren,
0:19:56–0:19:59
weil Zeit dann halt irgendwie keine Rolle spielt.
0:19:59–0:20:06
Wenn im Gehirn oder im biologischen System ist das halt eine sehr rare Ressource.
0:20:06–0:20:14
Das heißt, hier gibt es dann eben diese Notwendigkeit, dass man halt operationalisiert,
0:20:14–0:20:18
indem man halt diese Berechnung, also das heißt,
0:20:18–0:20:23
es werden durch diese, wenn man diese kleinen Turing Dinger da die Zellen dann
0:20:23–0:20:28
sieht, dass die halt quasi parallel alle möglichen Zustandsformen berechnen können.
0:20:29–0:20:34
Das ist halt so das, was ein biologisches System wieder schneller macht oder effektiver.
0:20:35–0:20:39
Das heißt, diese, ich sage jetzt mal, diese Intelligenz ist dann halt viel mehr
0:20:39–0:20:44
in diesen einzelnen Knoten aufgehoben, die dann halt aber autark für sich dann
0:20:44–0:20:46
halt bestimmte Berechnungen ausführen können.
0:20:48–0:20:50
Und dass dadurch das effektiver wird.
0:20:50–0:20:55
Gleichzeitig gibt es dann halt auch diese, diese Möglichkeit.
0:20:56–0:20:59
Was jetzt gemacht wird, ist dann halt eine Parallelisierung.
0:20:59–0:21:07
Da kommt wieder dieser Begriff von ah, das ist so aus dem Darwinismus entlehnt.
0:21:07–0:21:11
Das ist dann halt quasi die Wirklichkeit,
0:21:12–0:21:17
also die Idee, dass das Gehirn quasi,
0:21:17–0:21:23
ein sowieso ein Multiversum ist, weil alle möglichen Realitäten schon irgendwo
0:21:23–0:21:27
als Modelle in diesem Gehirn zeitgleich ablaufen, bis dann halt tatsächlich
0:21:27–0:21:30
das reale Handeln dann einfach ein Modell Wirklichkeit werden lässt.
0:21:30–0:21:34
Aber es ist halt eigentlich das Gehirn funktioniert wie ein Multiversum,
0:21:35–0:21:39
weil halt genau diese ganzen Zustände schon irgendwo vorhanden und berechnet werden.
0:21:39–0:21:42
Und das ist halt so, diese Effektivität von biologischen Systemen.
0:21:43–0:21:45
Also es ist sehr abstrakt, aber so?
Micz Flor
0:21:45–0:21:49
Ja, ja, es geht. Da glaube ich auch darum, dass du natürlich in dem Multiversum
0:21:49–0:21:54
hast du halt immer dieses, dieses Bild, dass alles, was möglich ist,
0:21:54–0:21:56
parallel auch schon irgendwie ist oder so.
0:21:57–0:22:00
Während in biologischen Systemen, glaube ich, ist über die Zeitkomponente,
0:22:00–0:22:04
was du gerade gesagt hast, das auch immer ein bisschen eingeschränkt.
0:22:05–0:22:10
Wir haben ja natürlich jedes Mal Ende des Jahres gibt es die besten Wünsche
0:22:10–0:22:14
für das nächste Jahr und dann irgendwelche Kalendersprüche oder so Bilder, die uns aufzeigen.
0:22:15–0:22:18
Die Reise ging jetzt bis hier. Das heißt aber nicht, dass sie in die Richtung
0:22:18–0:22:21
weitergehen musst Du bist frei, dich immer wieder irgendwohin zu drehen,
0:22:21–0:22:27
was Neues anzufangen, während in Wahrheit biologische Systeme natürlich nicht determiniert sind.
0:22:27–0:22:32
Allerdings der Möglichkeitsraum ist eingeschränkt, Es sind nicht alle möglichen
0:22:32–0:22:38
Universen parallel existent, aber von allen Möglichkeiten, die es gibt,
0:22:38–0:22:40
was ein begrenzter Raum ist,
0:22:41–0:22:45
wird dann eine gewählt und das determiniert dann eben den nächsten Schritt.
Florian Clauß
0:22:47–0:22:52
Genau. Ähm, also die. Die machen auch so ein bisschen.
0:22:52–0:22:56
Also die jetzt Joscha Bach und Michael Lewin, die bashen auch so ein bisschen
0:22:56–0:23:00
gegen die bestehenden Biologieansichten.
0:23:01–0:23:07
Was jetzt in der Neurowissenschaft usw. jetzt so dafür Modelle eben vorherrschen. Also ein.
0:23:07–0:23:10
Ein Beispiel ist halt das ähm.
0:23:12–0:23:16
Dass die Neurowissenschaftler eigentlich keine geeigneten Tools haben,
0:23:16–0:23:22
die versuchen, das Gehirn zu verstehen, indem sie halt draufgucken und dann halt beobachten.
0:23:22–0:23:26
Aber jetzt zum einen Ein,
0:23:27–0:23:30
Experiment hat gezeigt, dass sie zum Beispiel auch Neurowissenschaftler mit
0:23:30–0:23:36
ihren Tools wenn die dann zum Beispiel nur so einen Mikroprozessor Reverse Engineering
0:23:36–0:23:38
sollen, dass die das nicht hinbekommen haben.
0:23:38–0:23:41
Also du guckst dann auch und ich meine, das Gehirn ist noch viel komplexer.
0:23:42–0:23:45
Also wenn du noch nicht mal das schaffst, ein Mikroprozessor,
0:23:45–0:23:50
dann halt so, um zu wissen, wie der funktioniert, weil das halt nicht auflösbar.
Micz Flor
0:23:50–0:23:55
Die Nummer, das heißt die, die, weil die Neurologen nicht Computer bauen können.
Florian Clauß
0:23:55–0:23:58
Wenn nicht Computer, dann reverse engineering, also immer quasi ein.
0:23:59–0:24:02
Also wenn du jetzt ein Mikroprozessor von außen drauf guckst,
0:24:02–0:24:06
den beobachten kannst, du kannst den dann halt nicht mit deren Tools head kann
0:24:06–0:24:09
man den jetzt nicht Reverse Engineering und wissen wie der funktioniert?
Micz Flor
0:24:09–0:24:14
Zu mir. Okay, gut. Das weiß ich. Was ist? Ich müsste mal. Ich.
Florian Clauß
0:24:11–0:24:15
Also es war jetzt so ist es, glaube ich, so ein bisschen, ein bisschen anekdotisch.
Micz Flor
0:24:15–0:24:16
Anekdotisch. Ja, ja, ja.
Florian Clauß
0:24:15–0:24:21
Ich weiß nicht, ob das jetzt nur so ein Bashing ist und dann halt irgendwie so und und und.
Micz Flor
0:24:16–0:24:19
So ein Bashing ist dann halt irgendwie so und.
Florian Clauß
0:24:21–0:24:27
Eine interessante Erkenntnis ist auch das ist also wo wo ich dann ja klar also,
0:24:28–0:24:32
also die Zellen sind ja alle irgendwo gleich aufgebaut.
0:24:32–0:24:37
Sie kriegen ja dann halt je nach Entwicklung des des Individuums kriegen die
0:24:37–0:24:39
dann halt entsprechende Interna.
0:24:39–0:24:43
In so einer Entwicklungsphase kriegen die ja dann die Aufgaben zugewiesen.
0:24:43–0:24:49
Und die Frage ist halt, was unterscheidet jetzt die Neuronen von anderen Zellen?
0:24:50–0:24:58
Und die Neuronen sind ja auch dann nur so in tierischen Lebensformen, so sind die quasi drin.
0:24:59–0:25:04
Das ist ja nicht in Pflanzen, da gibt es ja keine Neuronen in dem Sinne Neuronen.
0:25:04–0:25:08
Das was die unterscheidet, ist halt diese extrem langen Arme,
0:25:08–0:25:12
die Axiome, die dann mit denen, denen dann halt quasi diese, ähm,
0:25:13–0:25:18
diese, diese elektrischen Impulse übertragen werden können und was den das jetzt
0:25:18–0:25:23
bringt, ist ein extremer Zeitvorteil und deswegen kam dann auch nochmal so ein
0:25:23–0:25:25
Schluss daraus ist halt, dass,
0:25:26–0:25:34
quasi mit der Entwicklung der Neuronen dann auch eine andere Taktfrequenz bei
0:25:34–0:25:39
dem jeweiligen Organismus und deswegen konnten halt zum Beispiel die Tiere dann,
0:25:39–0:25:41
sich schneller bewegen als Pflanzen,
0:25:42–0:25:43
und dann wird auch gesagt, dass.
Micz Flor
0:25:43–0:25:45
Bei den meisten Fans sind wirklich schnell.
Florian Clauß
0:25:45–0:25:51
Äh, nein. Aber es ist auch die Frage, wo entsteht dann halt Intelligenz?
0:25:51–0:25:56
Und wenn du dann dieses Modell von Intelligenz das ist, dann ist auch eine Pflanze
0:25:56–0:25:58
intelligent, nur auf einer anderen Zeitachse.
0:25:58–0:26:03
Also das ist dann hier auch so, dass es halt dann so ein bisschen wie bei Herr
0:26:03–0:26:07
der Ringe, die sind die, die wir essen hier abends oder wie heißen diese Bäume,
0:26:08–0:26:11
die dann halt auch mehr extrem lange und jetzt müssen sie auf einmal in so einer
0:26:11–0:26:13
Echtzeit anfangen zu reagieren.
0:26:13–0:26:18
Das können die gar nicht, weil die überhaupt nicht auf diese Zeit Taktung eingestellt sind.
0:26:18–0:26:23
Und das finde ich halt total auch so okay. Also ich meine, das ist ja so, man sucht dann halt.
0:26:23–0:26:26
Er versucht dann immer so, man hat dieses und das ist meine ich halt so dieses,
0:26:27–0:26:32
was wir in der Folge davor besprochen haben, dieses sehr menschenfixierte Idee
0:26:32–0:26:34
von Intelligenz, Bewusstsein usw.
0:26:34–0:26:39
Aber wenn du das halt man dann siehst, halt irgendwie ist überall Intelligenz im System drin.
0:26:40–0:26:44
Nur so funktioniert das, dass halt irgendwelche Orchideen den Hinterleib von
0:26:44–0:26:48
einer weiblichen Wespe mit den Duftstoffen nachbauen kann, um sich dann halt,
0:26:48–0:26:51
irgendwie quasi von der männlichen Wespe bestäuben zu lassen.
0:26:52–0:26:57
Also nur wie funktioniert das? Aber irgendwie ist es ja auch dann,
0:26:57–0:27:02
wenn man halt sagt okay, da ist irgendwie Information drin, die kann prozessiert
0:27:02–0:27:05
werden und die kann zu bestimmten Aktionen führen.
0:27:05–0:27:08
Dann finde ich das wieder so gar nicht so erstaunlich.
Micz Flor
0:27:09–0:27:14
Nein, das ist denn auch so. Intelligenz ist also eher im Rahmen von Kognition.
0:27:14–0:27:18
Wird dann so von basaler Kognition auch unterschieden, was Pflanzen auch irgendwie
0:27:18–0:27:24
schon haben könnten, wo man, wie du sagst, einfach mit der Zeitachse auch viel tun kann.
0:27:24–0:27:28
Wenn du den Efeu in Zeitrafferfilms wie einen Baum hochklettert,
0:27:28–0:27:33
dann hast du das Gefühl und das ist dann auch wieder eine menschliche Interpretation.
0:27:33–0:27:37
Auf einmal hast du das Gefühl, dieser Efeu, der guckt dann hier ein bisschen rechts, links.
Florian Clauß
0:27:36–0:27:39
Nein, das ist keine Dementi. Ich habe nämlich jetzt auch diese von Attenborough,
0:27:39–0:27:41
diese Pflanze hier geguckt.
0:27:41–0:27:45
Und die haben das wirklich mit so einem ganz neuen Technologien von Kamera.
Micz Flor
0:27:41–0:27:41
Okay.
Florian Clauß
0:27:45–0:27:48
Wo die dann halt im Zeitraffer dann gleichzeitig noch einen Schwenk gemacht habe.
0:27:48–0:27:51
Und es ist tatsächlich so in dieser Dynamik, wie die das gefilmt haben,
0:27:52–0:27:56
dann waren das halt einfach Verhaltensweisen, die man normalerweise aus der Tierwelt kennt.
0:27:56–0:28:01
Und das war wirklich so ein zielgerichteter Efeu schwingt sich rum über und,
0:28:01–0:28:04
und dann findet er halt irgendwie so einen Griff und geht da rein.
0:28:04–0:28:08
Also das ist halt gar nicht mehr so, dass es rein interpretiert ist,
0:28:08–0:28:11
sondern die funktionieren tatsächlich so, das ist total mein Blowing.
Micz Flor
0:28:11–0:28:15
Und ja, lustig, dass sie mit EFA war, weil normalerweise wird das immer mit
0:28:15–0:28:17
Erbsen über Erbsen gesprochen.
0:28:17–0:28:20
Ich habe jetzt gedacht, ich sage mal EHF, weil wir gerade sehr sympathisch sind.
Florian Clauß
0:28:20–0:28:23
Nein, es war Kletterpflanze. Nicht, ob das jetzt die Efeu Art war.
Micz Flor
0:28:21–0:28:29
Also okay, aber das genau Und dann ist es aber trotzdem so, dass die wie soll,
0:28:29–0:28:30
ich sagen? Also diese Frage.
0:28:32–0:28:36
Ähm, na es geht halt wieder zurück. Aber diese Frage, was du schon so gesagt hast, dieses,
0:28:37–0:28:42
Antroposophische, eben dieses Menschen Mensch ist der Mittelpunkt und vom Menschen
0:28:42–0:28:45
ist es alles gemessen in Distanz und so, dass man halt guckt,
0:28:45–0:28:50
sobald der Efeu schnell genug ist, dass wir ihn als Mensch sich bewegen sehen, dann,
0:28:50–0:28:53
gönnen wir ihm auf einmal, dass er auch mehr kann.
0:28:54–0:28:57
Dann haben wir ihn auch immer mehr lieb und sind ehrfürchtig.
Florian Clauß
0:28:59–0:29:05
Also mir ist jetzt grade nochmal eingefallen, dieses Modell von neuronaler Darwinismus,
0:29:05–0:29:06
was ich eben angesprochen habe.
0:29:06–0:29:12
Es ist die Theorie von Gary Edelman. Ganz viele Theorien sind auch so in den 40er,
0:29:13–0:29:23
50er, 60er und 80er und jetzt sind wir also auf so einer Materialreife und auch,
0:29:23–0:29:25
dass man halt so Sachen dann halt wirklich machen kann.
0:29:25–0:29:29
Das ist auch ganz interessant, weil die Theorie, Ansätze gibt es schon vorher
0:29:29–0:29:31
und darauf wird er sich berufen.
0:29:32–0:29:35
Aber jetzt ist es in so einer Reife, dass man es halt auch wirklich praktizieren kann.
0:29:36–0:29:40
Also einfach durch die Rechenkapazität und durch die ganzen Versuchsanordnungen.
0:29:41–0:29:47
Ja genau. Also unser Gehirn ist jetzt, funktioniert dann auch.
0:29:47–0:29:51
Es kommt auch immer wieder vor in so in vielen, in so Loops.
0:29:51–0:29:53
Ganz viel wird immer so durch gelobt.
0:29:54–0:29:58
Das ist dann halt wieder hoch kommt und wieder runter. Also das heißt es ist,
0:29:58–0:30:04
diese Parallelisierung und diese Lupen das gleichzeitige setzt weicht dann eben,
0:30:04–0:30:07
ab von so meinetwegen so Bild Stabilisierungsverfahren in so einer.
0:30:08–0:30:12
In so einem neuronalen Netzen, wo dann halt wirklich jedes einzelnen Bild betrachtet wird.
0:30:12–0:30:18
Also im Gehirn werden ja, so teile er dann Teil Probleme dann halt quasi behandelt.
0:30:18–0:30:22
Und dadurch bist du halt viel kleiner unterwegs. Das ist auch so!
0:30:23–0:30:27
Es gibt dann halt auch so ein Untersuchungsobjekt, so ein, so ein Wurm.
0:30:27–0:30:33
Der hat dann halt nur 309 Neuronen und der kann sich aber sinnvoll bewegen.
0:30:33–0:30:39
Aber kein kein Modell aus dem ganzen ML Bereich oder aus dem hat es geschafft
0:30:39–0:30:43
mit so einer Neuronenmenge überhaupt ein Bewegungsmuster zustande zu bekommen.
0:30:43–0:30:47
Das ist halt genau dieser Punkt, wo sich dann halt das wieder in so einer gewissen,
0:30:47–0:30:51
Quantität versus Qualität dann wieder zeigt.
0:30:51–0:30:55
Das heißt, der Ansatz funktioniert da nicht und das ist halt so und generell
0:30:55–0:30:59
kann man sagen, so mit dem Ansatz gibt es bestimmte Probleme,
0:30:59–0:31:03
also mit dem traditionellen Machine Learning Ansatz, aber es kann halt bestimmte,
0:31:03–0:31:06
biologische Patterns nicht abbilden, Da muss man.
Micz Flor
0:31:06–0:31:09
Da wäre ich jetzt also. Es würde mich interessieren, da nochmal genau rein zu
0:31:09–0:31:10
gucken. Natürlich ist ein.
0:31:11–0:31:18
Ähm also der Begriff Neuron auf biologischer Ebene oder der Begriff Neuron auf,
0:31:18–0:31:21
Machine Learning Ebene ist ja auch sehr unterschiedlich.
0:31:21–0:31:23
Also es ist ja so, dass du.
0:31:23–0:31:26
Du hast ja bei Neuronen im biologischen Raum, hast ja,
0:31:29–0:31:35
eine Kombination aus chemischen, also biochemischen und elektrischen Impulsen
0:31:35–0:31:37
oder Informationen, wenn man es so sagen möchte.
0:31:38–0:31:42
Und in den neuronalen Netzen, die sind ja sehr simplifiziert.
0:31:42–0:31:47
Oftmals gibt es dann schon so was wie Interneuron, also dass ein aktives Neuron
0:31:47–0:31:51
auch Neuronen hemmen kann. Muss nicht sein.
0:31:51–0:31:55
Die nebenan liegen, und zwar über die Anzahl der Synapsen. Die ist ja bei echten
0:31:55–0:31:57
Neuronen nicht festgelegt.
0:31:57–0:32:00
Es ist halt die Synapsenbildung. Die passiert ja dann irgendwie im.
Florian Clauß
0:32:00–0:32:03
Ja, das stimmt. Da muss man immer mal gucken, ob das jetzt so übertragbar ist.
0:32:03–0:32:07
War nur ein Beispiel dafür, dass es halt mit einer beschränkten Verknüpfungsanzahl,
0:32:08–0:32:14
also da brauche ich halt eine gewisse Menge wieder, um sinnvolle Patterns abbilden zu können.
Micz Flor
0:32:14–0:32:17
Und das ist auch so. Ich finde es total interessant, dass das,
0:32:17–0:32:20
was du sagst, eben wieder auf diese Menschenzentrierung,
0:32:21–0:32:25
es wird ja immer wieder auch im Dialog dann versucht zu schauen,
0:32:25–0:32:30
was könnte man denn von menschlichem Denken oder tierischen denken?
0:32:30–0:32:33
Was könnte man denn da noch lernen, um das zu verbessern? Und zum Beispiel diese
0:32:33–0:32:35
Schleifen, die im Gehirn passiert.
0:32:35–0:32:40
Das gibt es inzwischen auch in Deep Learning neuronalen Netzen zwischen einzelnen
0:32:40–0:32:43
Layern, die halt bestimmte Dinge machen und man merkt das halt.
0:32:44–0:32:50
Mit Schleife ist es sehr viel Energie aufwendiger, aber in manchen Aufgabenbereichen
0:32:50–0:32:54
dann sehr viel effektiver und man fängt es dann irgendwie an, so zu kombinieren.
0:32:55–0:32:59
Wenn du jetzt zum Beispiel vorstellst, du hast halt irgendwie ein Eichhörnchen,
0:32:59–0:33:03
das hört was, das Eichhörnchen schreckt auf und guckt dann hin und was ist das?
0:33:03–0:33:07
Und das ist ja, dann sind wir so zwei Systeme am Laufen, Das Hören alarmiert,
0:33:07–0:33:13
das Sehen, versucht dann zu erkennen und und ähnlich ist es dann auch in neuronalen
0:33:13–0:33:16
Netzen, dass du dann auf einmal so einen Trigger kriegst und sagst okay,
0:33:16–0:33:18
kuck hier noch mal hin, ist das das?
0:33:18–0:33:25
Ich kann dir quasi nur eine Warnung geben und das energieintensive System wird
0:33:25–0:33:30
erst angeworfen, wenn quasi so ein basales System eine Warnung gibt.
0:33:30–0:33:33
Ja, verstehst du? Ich meine, das heißt, diese diese Art und Weise,
0:33:33–0:33:39
wie Biologie funktioniert, das färbt auch immer wieder in das Machine Learning
0:33:39–0:33:43
natürlich hinein, was natürlich aber dann auch immer noch in sich trägt,
0:33:43–0:33:45
dass es darum geht, so eine Art.
0:33:47–0:33:50
Menschliches Sein zu entwickeln. Also das ist ja irgendwie das,
0:33:51–0:33:52
wo ich da manchmal denke,
0:33:52–0:33:55
vielleicht muss es ja nicht sein wie wir, sondern es muss einfach nur besser
0:33:55–0:34:02
sein als wir Und dadurch kann es dann wirklich spezialisiert auf bestimmte Bereiche perfektionieren.
0:34:03–0:34:08
Weil Taschenrechner kann schneller rechnen als wir, aber ist insgesamt wirklich
0:34:08–0:34:10
ein dummes Objekt, aber er kann bestimmte Sachen, die wir nicht.
Florian Clauß
0:34:11–0:34:14
Also zum Beispiel ist es so, dass es auch sehr aufwendig ist,
0:34:14–0:34:18
in so einem neuronalen Netz dann quasi eine gewisse Arithmetik beizubringen.
0:34:18–0:34:22
Nein, die Rechenoperationen, weil du hast für jedes einzelne Ding dann halt,
0:34:23–0:34:27
durchexerzieren musst wären da kann ich auch wieder nur aus auf Aussagen mich
0:34:27–0:34:29
beziehen die ich da in dem Vortrag gehört habe.
0:34:29–0:34:34
Es ist so, dass du halt in so einem biologischen System dann halt quasi,
0:34:34–0:34:40
wenn du da eine Arithmetik installiert hast, dass das dann halt quasi weitergegeben
0:34:40–0:34:43
wird von Neuronen zu Neuronen, ohne dass die neu trainiert werden müssen.
0:34:44–0:34:48
Also das heißt, da gibt es halt so einen Fluss von Information,
0:34:48–0:34:52
der dann halt nicht wieder so alles aufbereiten und so.
0:34:52–0:34:58
Und die andere Sache ist auch wie. Also das, was man halt.
0:34:59–0:35:04
Generell, wie sich die Welt quasi abbildet in biologischen Systemen,
0:35:04–0:35:08
so dass du auf Veränderungen reagierst. Also es geht darum, dass du halt.
0:35:09–0:35:15
Also dass Veränderung dieses Lernen in so einem neuronalen Netz ist dann halt
0:35:15–0:35:17
wirklich wieder so Frame basiert.
0:35:17–0:35:22
Einzelbilder ja, aber es wird nicht so sehr diese Veränderung über diese Frames,
0:35:22–0:35:25
gemacht, sondern es ist dann halt in so biologischen Systemen.
0:35:25–0:35:29
Beispiel Katze in die Katze kann halt einen Ball nicht erkennen.
0:35:29–0:35:32
Erst wenn er in Bewegung ist, erkennt er den und und das, was dann halt wieder
0:35:32–0:35:36
Joscha Bach dann wieder so auffaltet wir diese Berechenbarkeit.
0:35:36–0:35:42
Das heißt in dem Moment, wenn er jetzt in einem in einem Raum Sachen sich dann
0:35:42–0:35:45
halt nur ganz wenig bewegen.
0:35:45–0:35:50
Es geht immer um diese Degree nicht abweichen und das hat dann der Michael Lewin
0:35:50–0:35:53
hat mir mal bestätigt, dass mit Neuronen dass die halt auch nicht an so einer,
0:35:54–0:35:58
an so einem Grundimpuls die braucht halt halt die müssen nicht so sondern die
0:35:58–0:36:00
reagieren also das ist auch so die neuere Forschung,
0:36:01–0:36:06
die in Neuronen also neuronale Zellen jetzt reagieren dann quasi nur auf so
0:36:06–0:36:11
minimale Spannungsdifferenzen das sind die eigentlichen Trigger für bestimmte
0:36:11–0:36:14
Sachen und nicht mehr diese expliziten Spannungsdifferenzen.
0:36:15–0:36:20
Und da wo dann halt so ein, wo sich dann halt dass quasi die Veränderung in
0:36:20–0:36:27
einem in einem wahrgenommenen in einer wahrgenommenen Umgebung dann fängst du an halt zu.
0:36:27–0:36:32
Sehen das ist ein Objekt und das hat diese Feature und und diese Feature kannst
0:36:32–0:36:37
du quasi aus dem Zusammenhang erschließen und die werden dann halt quasi in
0:36:37–0:36:41
dem Moment, wenn sich das bewegt, ohne dass jetzt jemand quasi der trainiert,
0:36:41–0:36:46
Netzwerk wo dann sagst du das ist ein Stuhl, sondern das ist jetzt es wird auf
0:36:46–0:36:48
einmal zum Stuhl, weil es in der Bewegung,
0:36:49–0:36:52
die genau diese Features eines Stuhls dann zeigt,
0:36:53–0:36:57
und das ist halt auch so so funktionieren lernende biologische Systeme und das
0:36:57–0:37:01
ist mal auch so ein fundamentaler Unterschied, dass wir also dass mehr auf diese
0:37:01–0:37:05
Veränderung und alles, was sich nicht bewegt und nicht verändert,
0:37:05–0:37:06
ist erstmal uninteressant.
Micz Flor
0:37:06–0:37:13
Ja, das ist ja sogar so, das kennt man ja, diese ganzen Grundschulen,
0:37:13–0:37:18
da kennt man ja diese ganzen Grundschulsachen, wo man halt lange auf dem Bild
0:37:18–0:37:20
draufguckt und dann verschwindet der Punkt.
0:37:20–0:37:25
Das heißt, unsere auch auf einer biologischen Ebene, gar nicht auf einer kognitiven,
0:37:25–0:37:27
sondern eine wirklich in den Zellen im Auge. Es ist ja so angelegt,
0:37:27–0:37:32
wenn wir lange auf einen Punkt gucken, dann wird alles andere gleich.
0:37:33–0:37:36
Das heißt, wir sehen dann wir. Im Prinzip tendieren wir dazu,
0:37:36–0:37:37
daraus ein weißes Feld zu machen.
0:37:37–0:37:43
Das sind nur die Unterschiede, die wir wirklich wahrnehmen. Und das haben wir
0:37:43–0:37:48
ja dann auch eben gesehen bei MP3 oder bei MPEGVideokodierung.
0:37:48–0:37:53
Das halt große Flächen werden halt irgendwie nicht so detailliert ausgerechnet,
0:37:53–0:37:57
sondern die werden halt versucht im Sinne der Datenübertragung flach zu halten,
0:37:57–0:38:00
während so was wie ein Gesicht oder wo viele Kontraste sind.
0:38:01–0:38:05
Da gehen wir halt rein und das ist wiederum was, was jetzt nicht neu ist,
0:38:05–0:38:10
sondern es war früher schon immer so, dass bei berühmten Malern,
0:38:10–0:38:14
hauptsächlich Malern, Maler innen, später aber dass man da.
0:38:15–0:38:20
Auch das so gemacht hat, dass das Bild wurde gemalt von irgendeinem Gesellen
0:38:20–0:38:24
oder so, und dann wurden halt die Hände und das Gesicht. Da hat der Meister
0:38:24–0:38:25
dann auch Hand angelegt.
0:38:25–0:38:30
Und das ist ja nicht viel anders als das, was man heute mit Algorithmen macht,
0:38:30–0:38:34
um halt die Daten besser durch das Internet zu schieben, dass man halt auf das,
0:38:34–0:38:37
was früher der Meister der Malschule,
0:38:38–0:38:40
betont hat, das ist auch das, was heute die Algorithmen tun.
Florian Clauß
0:38:43–0:38:50
Die Frage ist. Diese einzelnen Zellen, die oder auch im Verband,
0:38:51–0:38:54
die reagieren auf Umwelt, auf Umwelt ein.
0:38:54–0:38:57
Und die Frage ist wie? Also wie?
0:38:58–0:39:03
Woher kommt quasi die Information, dass das, wie sie reagiert haben, auch sinnvoll war?
0:39:03–0:39:07
Also da geht es so ein bisschen dieses übergeordnete Ziel wurde erreicht.
0:39:08–0:39:12
Ist es dann als quasi fulfilling ja oder nicht?
0:39:12–0:39:15
Also das heißt es muss hier ein System irgendwo implementiert sein,
0:39:15–0:39:20
das einen gewissen Feedbackschleife erlaubt und diese und und dann kommt man wieder zu diesem.
Micz Flor
0:39:18–0:39:18
Hm.
Florian Clauß
0:39:21–0:39:28
Quasi belohnungsgetriebenen System, das heißt, es gibt tatsächlich im biologischen,
0:39:28–0:39:33
Organismen dann halt so, so eine Sprache der Belohnung und die Belohnung sieht
0:39:33–0:39:36
dann nicht so aus, dass einer von oben sagt Ey, das hast du super gemacht,
0:39:36–0:39:37
du kriegst jetzt irgendwie so,
0:39:38–0:39:43
weil ich ein paar Glukose Glukose Moleküle mehr,
0:39:44–0:39:50
sondern es wird auch dann hier wieder in so einer in so ne in so ein quasi so,
0:39:50–0:39:54
ein Verband reagiert das heißt die benachbarten Zellen,
0:39:55–0:40:01
geben dann Feedback, das heißt, da wird wieder auch so quasi in so einem von
0:40:01–0:40:04
unten dann halt belohnt, dass die dann sagen ja.
0:40:04–0:40:09
Hast du gut gemacht, also das ist halt so dieses Ding, das ist halt auch wieder
0:40:09–0:40:15
so embedded, ist so ein bisschen wie bei dem Ameisenstaat, wo dann halt eine Ameise dann halt quasi,
0:40:16–0:40:21
schaffen kann, ein komplettes Volk umzuerziehen, indem sie andere überzeugt.
0:40:21–0:40:25
So, das ist halt so, dieses, das ist halt auch so diese kollektive Intelligenz,
0:40:26–0:40:29
wo fängt, wo fängt denn die einzelne,
0:40:30–0:40:38
Einzelne, die einzelne Entität in einem System dann quasi das ganze System quasi mit beeinflussen kann?
0:40:38–0:40:42
Das ist halt so ganz spannend einfach an dieser Stelle.
Micz Flor
0:40:42–0:40:47
Ja, ja, ja, das ist ja auch dieses es ist, glaube ich, auch ein großes Thema
0:40:47–0:40:50
in der Biologie. Was nicht ganz geklärt ist, ist halt, wenn zum Beispiel ein
0:40:50–0:40:55
großer Organismus stirbt, dass kleine Zellen dann auch sterben.
0:40:56–0:41:01
Also das muss ja nicht unbedingt sein, aber dass es da nicht ganz klar ist,
0:41:01–0:41:05
wie der Zusammenhang zwischen Einzellern in unserem.
0:41:05–0:41:08
Also ich meine, dass keine Bakterien im Magen Darm Trakt, sondern wirklich Teil,
0:41:08–0:41:13
unserer Körperzellen, dass die dann auch ein Signal bekommen.
0:41:13–0:41:15
Oder warum müssen die dann alle sterben?
Florian Clauß
0:41:15–0:41:21
Ja, ja, das ist. Genau. Das ist, wie Informationsübertragung läuft.
0:41:22–0:41:27
Und das dann in so einer ganz zellulären Ebene.
0:41:27–0:41:34
Ich glaube, das ist so soweit zu dem Teil, den Joscha Bach in diesem Vortrag dann ausgebreitet hat.
0:41:34–0:41:42
Ich würde jetzt gerne ein zweites im zweiten Teil dann über eigentlich ja na.
Micz Flor
0:41:39–0:41:41
Das ist der eigentliche Teil, oder im.
Florian Clauß
0:41:42–0:41:48
Ja, mal gucken was eigentlich zweiten Teil über Michael Lewines Präsentation.
0:41:49–0:41:56
Also was Michael Lewin da auch eben so als als so ein so ein Paradigmenwechsel
0:41:56–0:41:58
dann auch in seinem Vortrag vorangestellt hat.
0:41:58–0:42:01
Das ist einfach die Frage wie. Wie man jetzt auch so eine,
0:42:04–0:42:07
typisch menschliche Sichtweise dann so ein bisschen verliert und dann guckt,
0:42:08–0:42:13
eben, was ich schon gesagt habe, wo Intelligenz überall quasi verankert ist
0:42:13–0:42:15
und wie andere Systeme auch funktionieren.
0:42:16–0:42:20
Ein Beispiel. Das fand ich also ganz interessant. Wir sind halt total auf so,
0:42:20–0:42:27
sehen und Erleben im dreidimensionalen Raum da ausgelegt,
0:42:28–0:42:32
aber können entsprechend halt unglaublich visuell gut auflösen.
0:42:33–0:42:35
Aber wenn wir jetzt zum Beispiel,
0:42:37–0:42:42
das Vermögen hätten, die chemische Zusammensetzung unseres Blutes wahrzunehmen,
0:42:43–0:42:47
also wenn wir das als Wahrnehmungsorgan hätten, na denn, dann wären wir halt eine Leber,
0:42:49–0:42:55
mit ner Leber oder ein Märchen.
Micz Flor
0:42:50–0:42:51
Ein Lebewesen,
0:42:54–0:42:54
oder?
Florian Clauß
0:42:56–0:43:01
Also das wäre also. Also das heißt, es gibt, es gibt diese zellulären,
0:43:03–0:43:09
Organismen, Ja, sie sind, aber sie sind quasi da, aber es ist. Sie sind vorhanden.
Micz Flor
0:43:03–0:43:05
Es gibt die Rezeptoren, sie sind uns aber nicht.
Florian Clauß
0:43:10–0:43:14
Ja, aber das finde ich auch so einen ganz guten Gedanken Kniff.
0:43:14–0:43:21
Wenn man jetzt wirklich so, dass man sich überlegt, das ist schon echt interessant
0:43:21–0:43:26
und dann erschließen sich dann halt auch quasi neue Felder und ich glaube, das ist halt so das, was,
0:43:27–0:43:30
das Team von Michael Lewin und die wollen,
0:43:31–0:43:37
unterschiedliche so ein Framework entwickeln, um halt auch so Intelligenzformen
0:43:37–0:43:44
quasi in der Natur dann halt einzuteilen oder oder zu nutzbar zu machen,
0:43:45–0:43:51
die da jetzt auch nicht so quasi so sinnfällig, denn die nicht gleich ins Auge
0:43:51–0:43:58
springen, sondern die dann erst mal dann überhaupt erschlossen werden müssen als Systeme dafür.
0:44:00–0:44:05
Und der ganz, der kommt stark aus diesem Morphologie Bereich.
0:44:06–0:44:11
Also es ist ganz viel in seinen Experimenten auch mit morphologischen Prozessen,
0:44:11–0:44:18
also Morphologie wo quasi die Natur vom Bauplan wie sich dann Zellen in bestimmte,
0:44:19–0:44:21
Strukturen ordnen das ist.
0:44:21–0:44:27
Er bringt dann ein Beispiel was dann halt auch so was dann auch sehr prägend
0:44:27–0:44:33
ist für seine Arbeit, nämlich die Metamorphose von einem Schmetterling,
0:44:33–0:44:38
also von einer Raupe, die halt eigentlich nur so ein blattfressender Roboter
0:44:38–0:44:41
ist, der mehr oder weniger in so einem 2D Raum.
0:44:41–0:44:47
Also das heißt ist ja gebunden an an ein Blatt und Schwerkraft.
0:44:48–0:44:54
Und in der Metamorphose entwickelt sich dann ein Schmetterling,
0:44:56–0:44:58
der dann Blüten, Blüten, Nektar,
0:44:58–0:45:02
schlürft, der dann auch eine ganz andere Future Seed hat. Der, der dann.
Micz Flor
0:45:02–0:45:06
Raupe ist. Die Blätter. Der Schmetterling schlürft direkt.
0:45:07–0:45:10
Okay, das ist auch wieder eine menschliche Deutung. Aber ich weiß, was du meinst.
0:45:10–0:45:12
Also diese Transformation von der Raupe in den Schmetterling.
0:45:12–0:45:16
Zwei Tiere, die man wahrscheinlich lange Zeit gar nicht als zusammenhängend
0:45:16–0:45:18
wahrgenommen hat. Es gibt Raupen, es gibt Schmetterlinge.
Florian Clauß
0:45:19–0:45:22
Also auch, dass dann Flügel entwickelt werden und werde.
0:45:22–0:45:26
Aber das Eigentliche, was dann noch mal so in der Beobachtung interessant ist,
0:45:26–0:45:30
ist das halt während der Metamorphose sehe ich das komplette Tier auflöst,
0:45:30–0:45:33
das heißt da wo man dann Raupen gehören war, da ist halt nix,
0:45:33–0:45:35
sondern das setzt sich dann neu zusammen.
0:45:36–0:45:41
Also es gibt alle, ganze, die ganze Struktur des dieses Prozess,
0:45:41–0:45:48
der wirklich das Imago ist, also des Tieres, das setzt sich halt völlig neu zusammen.
0:45:48–0:45:50
Aber es gibt ein Gedächtnis Zellen.
0:45:50–0:45:55
Also das heißt du kannst Raupen trainieren auf bestimmte Sachen und die Erinnerung
0:45:55–0:45:57
findet sich dann wieder im Schmetterling.
0:45:57–0:46:00
Und dann ist die Frage, wo ist Erinnerung gespeichert.
0:46:00–0:46:04
Wie kann so eine Gedächtniszelle dann, wie kann ein Gedächtnis funktionieren,
0:46:04–0:46:09
Und man denkt dann halt und das ist dann auch wieder so ein so ein altes Paradigma.
0:46:09–0:46:12
Man denkt halt irgendwie, Gedächtnis ist im Kopf aufgehoben,
0:46:12–0:46:18
im Gehirn, das ist, das speichert das Gedächtnis, aber es geht viel tiefer, es gibt halt,
0:46:19–0:46:23
es geht halt irgendwie auf, auf eben, auf so einer zellulären Ebene dann auch,
0:46:24–0:46:28
Gedächtnisfunktionen und dann ein Beispiel, über das wir uns auch schon unterhalten
0:46:28–0:46:30
haben, ist halt auch diese.
0:46:32–0:46:35
Also so ein Gehirn muss nicht.
0:46:35–0:46:39
Also ein Gedächtnis muss nicht im Gehirn passieren, sondern es kann auch in
0:46:39–0:46:40
einer Zelle sein. Es kann.
0:46:41–0:46:44
Jetzt kommt dieses Schleimpilz Beispiel.
0:46:44–0:46:51
Das ist auch ein Gedächtnis. Also im Prinzip der Schleimpilz ist halt eine Zelle,
0:46:52–0:46:57
agiert aber wie ein vielzelliges, vielzähliger Organismus.
0:46:57–0:47:03
Da gibt es eine Versuchsanordnung, wo dann der Schleimpilz in einer Petrischale
0:47:03–0:47:08
in der Mitte ausgesetzt wird und erst mal so eine kleine Zelle ist und dann ist er am Rand.
0:47:08–0:47:13
Sind dann halt mehrere Futterstellen und dann wird halt beobachtet, was passiert in.
0:47:14–0:47:17
Was passiert in den ersten Stunden? Dann siehst du halt, dass dieser Schleimpilz
0:47:17–0:47:20
sich hier in alle Richtungen quasi ausbreitet. Gleichmäßig.
0:47:20–0:47:26
Und dann kriegt er halt mit. Und zwar kriegt er das halt über Vibrationen,
0:47:26–0:47:31
die er dann halt quasi über den Boden auslöst, kriegt er dann halt mit, wo dann,
0:47:32–0:47:37
Futterquellen räsonieren und dann wächst er gezielt zu dieser Futterquelle hin.
0:47:38–0:47:44
Also ein höchst intelligentes Verhalten macht halt eine Zelle.
0:47:44–0:47:47
Also das heißt, auch hier ist diese.
0:47:50–0:47:53
Diese Fähigkeit einer Zelle.
0:47:54–0:47:58
Ja, ist halt so, ist halt immens.
0:47:58–0:48:02
Und wenn man sich überlegt, dass der Mensch aus so und so viel Zellen zusammengebaut
0:48:02–0:48:05
ist, die alle, aber auch so eine, so eine Fähigkeit irgendwo mit sich in sich
0:48:05–0:48:11
tragen, Er ist dann halt die, die diese diese Menge dann halt auch extremst,
0:48:12–0:48:18
effektiv und und dann heißt das nur nochmal so dagegengehalten.
0:48:19–0:48:24
Also so ein multitiluläres Wesen und ich meine, eine Zelle kann dann halt aus.
0:48:24–0:48:28
Dann ist es halt irgendwie so und so ein Neuron hat natürlich das Feature,
0:48:28–0:48:32
dass es halt nur ein Axiom hat als Übertragungsweg.
0:48:32–0:48:37
Aber der Schleimpilz hat ja auch quasi so eine Art von Gehirnaktivität,
0:48:37–0:48:45
in dem man dann halt anfängt, da halt auch solche Gänge zu legen und so Entscheidungen zu treffen usw..
Micz Flor
0:48:45–0:48:48
Ja, zumindest von außen betrachtet ist es so, dass beim Schleimpilz,
0:48:48–0:48:51
der kann ja sogar in einem Labyrinth sich ausbreiten, den kürzesten Weg finden,
0:48:52–0:48:57
zwischen zwei Futterstellen im Labyrinth. Und das ist dann von außen betrachtet
0:48:57–0:48:58
eben wirklich auch so ein Dilemma.
0:48:58–0:49:03
Ist das jetzt schon eine intelligente Lösung? Weil das ist nicht trivial und gleichzeitig.
Florian Clauß
0:49:02–0:49:06
Jenny. Es ist intelligent. Es ist auf jeden Fall. Das ist genau dieses Ding.
0:49:06–0:49:11
Es ist eine intelligente. Aber die Frage ist für mich jetzt auch noch nicht so ganz klar.
0:49:11–0:49:15
Wo fängt das Bewusstsein an? Das ist die Frage nach Bewusstsein.
0:49:15–0:49:19
Das wäre nochmal so die nächste Sache, ob sich das so differenziert?
0:49:20–0:49:22
Was ist der Unterschied zwischen Intelligenz und Bewusstsein?
0:49:23–0:49:28
Und ist Intelligenz gleich Bewusstsein oder kann sich das halt auch irgendwie,
0:49:28–0:49:30
unterschiedlich ausprägen?
0:49:33–0:49:39
Und die andere Sache, die ist diese Sache von.
0:49:39–0:49:43
Auch so ein Paradigma. Man sieht sich als individuelles Wesen.
0:49:44–0:49:54
Und wenn man aber schaut, wie der, wie jetzt auch der Mensch entsteht oder alle meinetwegen,
0:49:55–0:50:00
quasi Tiere oder Organismen, die Geld aus so einem Plastoderm also das ist im
0:50:00–0:50:06
Prinzip diese Schicht von von Zellen, die sich kurz nach der Befruchtung dann quasi so.
0:50:07–0:50:11
Strukturieren und dann sind da auch diese Versuche kennt man ja auch.
0:50:11–0:50:17
Das Blastoderm wird dann halt quasi so geschädigt geschnitten an eine gewisse,
0:50:17–0:50:24
und dann ist diese Teile, die dann entstehen, die sind, aber die werden zu vollwertigen Organismen.
0:50:24–0:50:29
Das heißt, dann gibt es halt so einen Bereich, der dann halt so sich dann halt
0:50:29–0:50:31
von den anderen löst aber gleichzeitig.
0:50:32–0:50:38
Also dann wird halt aus dem einen angelegten werden dann meinetwegen drei Teile,
0:50:39–0:50:41
und daraus entwickeln sich drei Individuen.
0:50:42–0:50:46
Woher kommt das also? Also das eine war ja vorher, es wäre eins geworden.
0:50:46–0:50:50
Wenn ich dann. Also na das ist auch so, und woher wissen die Zellen,
0:50:50–0:50:55
dass die jetzt quasi an der Stelle verletzt wurden und sich jetzt dann nochmal,
0:50:55–0:50:59
diesen Prozess quasi beschleunigen oder anders nochmal gestalten,
0:50:59–0:51:01
um dann wieder so ein Individuum zu bekommen.
0:51:02–0:51:05
Das sind auch wieder so morphologische Sachen, die dahinter stehen.
0:51:05–0:51:11
Das ist ja auch so diese Vorstellung von Individualität, von Ontogenese usw.
0:51:11–0:51:16
Das ist ja auch so überholt sich dann in dem Moment und darüber hat auch übrigens
0:51:16–0:51:23
dann Alan Turing auch ein Paper geschrieben 1953 über die Morphogenese,
0:51:24–0:51:29
nämlich dass die Problemlösung bei lebenden Maschinen, dass die die Intelligenz
0:51:29–0:51:31
haben, sich neu zu programmieren, so eine Plastizität halt.
0:51:32–0:51:35
Das fand ich auch nochmal interessant. Ist dann halt wieder so diese ganzen,
0:51:35–0:51:40
Computer Scientists dann halt da in diese diese Ecke dann auch gehen.
Micz Flor
0:51:42–0:51:44
Das wusste ich auch nicht, dass Turing da schon,
0:51:46–0:51:48
sich buchstäblich einen Kopf gemacht hat.
Florian Clauß
0:51:49–0:51:55
Und wenn man auf dieser auf dieser ganz kleinen, niedrigen Ebene bleibt.
0:51:58–0:52:03
Also wenn du guckst, es gibt halt irgendwie, was ist Leben, dann ist halt so
0:52:03–0:52:07
eine gewisse chemische Reaktion, die dann so stattfindet, ne,
0:52:07–0:52:11
aber wo ist dann der Sprung zur Zelle und wo ist denn dann der Sprung?
0:52:11–0:52:13
Dann halt quasi zum Organismus?
0:52:13–0:52:18
Naja, das ist ja so fließend, es ist ja nicht so auf einmal ist.
Micz Flor
0:52:15–0:52:16
Es ist ja nicht so!
Florian Clauß
0:52:18–0:52:21
Ich weiß, also vorher war es das und jetzt ist es Leben.
0:52:21–0:52:26
Sondern es ist halt ein ganz fließender Übergang und das ist glaube ich auch
0:52:26–0:52:30
so ein Ding, was, womit man sich anfreunden muss, das ist halt nicht irgendwie
0:52:30–0:52:34
das Eine ist, das Eine ist noch nicht und das andere wird aber,
0:52:35–0:52:37
dass man da nicht so dualistisch denkt.
Micz Flor
0:52:38–0:52:41
Ich finde das auch so ein Bereich, wo es ganz schön windig. Ich finde es ist
0:52:41–0:52:46
auch so ein Bereich, wo ich weiß gar nicht wie die wie das heißen würde in der Forschung.
0:52:46–0:52:51
Aber das ist ja irgendwie das Paradoxe ste, was wir eigentlich im Universum
0:52:51–0:52:54
gerade so erleben, ist ja, wir haben einerseits diese Entropie,
0:52:54–0:52:59
alles tendiert zur Unordnung und gleichzeitig ist es aber so,
0:52:59–0:53:01
dass wir, wie du schon gesagt hast,
0:53:01–0:53:08
in jedem einzelnen Wesen entsteht Aus einer Einzeller entsteht ein Mehrzeller, entsteht ein Mensch.
0:53:09–0:53:14
Das heißt, da wird ja nicht Entropie sichtbar, sondern das Gegenteil.
0:53:14–0:53:17
Da wird ja Ordnung sichtbar, höchste Ordnung. Also das ist das ganz Kleine.
0:53:17–0:53:24
Schafft es irgendwie irgendwas zwischen 70 und 100 Kilo Lebendgewicht herzustellen.
0:53:24–0:53:29
Und das ist ja irgendwie absurd und entspricht dem Gegenteil dessen,
0:53:29–0:53:33
was wir immer irgendwie eigentlich annehmen mussten, nämlich dass alles zur
0:53:33–0:53:36
Unordnung hin tendiert. Weil Ordnung braucht immer mehr Energie als Unordnung.
0:53:36–0:53:41
Das heißt, in unserem ganzen Wachstumsprozess muss es irgendwie Mechanismen
0:53:41–0:53:47
geben, wo das Kleine das Größere beeinflusst und nicht das Große, das Kleine.
0:53:47–0:53:52
Die große Billardkugel ist immer mächtiger als die Kleine, aber in jeder einzelnen,
0:53:52–0:53:55
in jedem Menschen, in jedem Tier, in jeder Pflanze, in jedem Moment.
0:53:55–0:54:00
Wenn halt Leben da ist, wird gezeigt, dass es möglich ist, dass das kleine.
0:54:00–0:54:07
Entgegen der Daumenregel von Chaos siegt Ordnung herstellen kann.
0:54:07–0:54:11
Und das finde ich irgendwie irre. Und das passiert ja auf einer molekularen
0:54:11–0:54:14
Ebene, auf einer, auf einer physikalischen, chemischen Ebene.
Florian Clauß
0:54:15–0:54:17
Genau das ist ja dann wieder also die Frage, ist halt irgendwie so..
0:54:18–0:54:24
Ich meine, so eine Turingzellorganismus ist im Prinzip eine Wirkung gegen die Entropie Entropie.
0:54:25–0:54:28
Weil du hast ein Programm, was dann halt sich wieder ordnet.
0:54:28–0:54:31
Das ist der Algorithmus, macht dann Ordnung.
Micz Flor
0:54:32–0:54:36
Und es ist ja auch schon so, dass die versucht man ja irgendwie herzustellen.
0:54:36–0:54:41
Da gibt es ja die Theorien, dass das Leben hier quasi als als Samen oder sieht
0:54:41–0:54:44
irgendwie aus dem Weltraum kam oder ist es hier entstanden.
0:54:44–0:54:48
Dann hat man die Ursuppe von früher hergestellt und Blitze rein schießen lassen
0:54:48–0:54:52
und gemerkt, dass ich da wirklich relativ schnell auch komplexere Moleküle bilden,
0:54:52–0:54:54
die als Vorstufen für Aminosäureketten dienen könnten.
0:54:54–0:55:00
Und Aminosäure Ketten sind dann wiederum Vorstufe von von biochemischen und
0:55:00–0:55:01
dann biologischen Leben.
0:55:01–0:55:05
Und trotzdem sind natürlich diese ganzen Sprünge nicht wirklich geklärt.
0:55:05–0:55:11
Aber wenn man sich das bildlich vorstellt, dann hat man natürlich diese Idee von dieser Ursuppe.
0:55:11–0:55:16
Da gab es noch gar keine Atmosphäre, überall Lava und Zeug und Salze und alles
0:55:16–0:55:20
mögliche und dann hauen die Blitze rein und da hat man ja so einen.
0:55:21–0:55:28
So, so titanenmäßig. Also da sind. Da sind, ähm, energetische Kräfte am Wirken
0:55:28–0:55:33
auf die Materie, dass man sich gut vorstellen kann, dass die ein höheres Komplexitäts.
0:55:33–0:55:36
Also die springen dann eben auf eine höhere Ebene und.
Florian Clauß
0:55:35–0:55:39
Ja eben, genau. Und dieser Sprung ist vielleicht gar nicht so ein Sprung.
Micz Flor
0:55:40–0:55:44
Und dann später wird es aber eben so in diesem Leben, wo dann?
0:55:44–0:55:48
Und dann kommt eben vielleicht wirklich die Quantenmechanik damit rein,
0:55:48–0:55:52
ohne dass wir einen Designer haben. Aber diese Idee, dass auf einmal es möglich
0:55:52–0:55:58
ist, solche Komplexitätssprünge herzustellen, ohne wirklich.
0:55:59–0:56:03
Also wenn du dir vorstellst, so ein Kind im Mutterbauch entsteht,
0:56:04–0:56:08
dass es da so komplett wächst Und natürlich, die Frau ist mehr,
0:56:08–0:56:12
die Frau ist vielleicht mehr erschöpft, muss ab und zu kotzen und wie auch immer.
0:56:12–0:56:15
Das heißt, da passieren natürlich Dinge um dieses Generation,
0:56:15–0:56:20
aber es ist unvorstellbar, wenn wir in so einer reinen,
0:56:22–0:56:25
Werkbank Idee rechnen. Wie könnte man das so herstellen?
0:56:26–0:56:29
Und irgendwie ist es dann trotzdem halt möglich. Und das finde ich halt so spannend.
0:56:29–0:56:33
Diese Ursuppe mit dem Blitzen ist so archaisch und voller Energie und dann entsteht
0:56:33–0:56:41
fast nebenbei und wie selbstverständlich so ein komplexes Gebilde wie ein Baby über neun Monate.
Florian Clauß
0:56:41–0:56:47
Was du beschreibst und das ist auch mir nochmal bei diesem Vortrag so bewusst geworden.
0:56:47–0:56:52
Diese Rolle von Morphologie, also wie, was,
0:56:52–0:57:00
wie eine Gestaltgestaltsbildung in der Biologie funktioniert und das ist,
0:57:00–0:57:02
das ist so, dass also wie gesagt, das ist so das,
0:57:02–0:57:07
Thema von von Michael Lewin und das Lieblingstier was ich dann halt auch in
0:57:07–0:57:09
den ganzen Versuchen dann so als ein,
0:57:10–0:57:15
Tier dann halt gezeigt hat was sehr resistent ist und womit die alles mögliche
0:57:15–0:57:16
angestellt haben, ist dieses,
0:57:17–0:57:19
Level in eine.
0:57:22–0:57:22
Platz.
Micz Flor
0:57:22–0:57:23
Aber für.
Florian Clauß
0:57:24–0:57:32
Für Merian, Planetarien, Planeten, Planetarien, Planetarien, Kanarienmäuse.
0:57:32–0:57:40
Planetarien sind so ein Strudelwurm, eine Wurmart und der zeichnet sich dadurch aus.
0:57:40–0:57:44
Das haben die dann jetzt in einem anderen Interview nochmal so ein bisschen,
0:57:44–0:57:51
detailliert erläutert, dass der im Prinzip total vermurkstes Genom hat.
0:57:51–0:57:57
Also das der hat halt irgendwie so, das hat sich halt, das ist auch so eine,
0:57:57–0:58:01
klassische Vorstellung von der Biologie, das heißt, du hast ein sauberes Genom,
0:58:01–0:58:04
das wird dann halt durch Selektionen weitergegeben.
0:58:04–0:58:07
Wenn du ein gutes Genom hast, dann über geht das, dann, ja, dann geht das halt
0:58:07–0:58:12
durch die Generation und das wird in der Selektion bevorzugt behandelt. Aber der hat halt so ein.
Micz Flor
0:58:12–0:58:15
Ganz kurz ein Marker setzen, weil das ist ja genau diese Turingmaschine Sache,
0:58:15–0:58:16
die du vorhin gesagt hast.
0:58:16–0:58:22
Man hat ja immer gedacht, das Genom ist das Programm, das Genom ist das Programm.
0:58:22–0:58:27
Und wenn man das Genom entschlüsselt hat, dann hat man den Code verstanden und dann entsteht Leben.
0:58:30–0:58:34
Okay. Drüben lebt auch was vor sich hin und hupt.
0:58:36–0:58:41
Und diese Idee, dass alles im Genom als Programm gespeichert ist,
0:58:41–0:58:45
das zeigt sich in manchen Fällen. Dass das nicht so ist.
Florian Clauß
0:58:45–0:58:46
Genau. Genau.
Micz Flor
0:58:47–0:58:49
Und dass das Genom manchmal einfach eine Müllhalde ist.
Florian Clauß
0:58:49–0:58:53
Genau. Und das ist halt so völlig Messie Genom.
0:58:53–0:58:57
Da sind halt irgendwie mal da so ein paar Paar Chromosomen und dann irgendwie,
0:58:57–0:59:00
ist das auch völlig verstreut und,
0:59:02–0:59:07
die hat aber das ist das Lebewesen, was quasi unsterblich ist,
0:59:07–0:59:11
was unauffällig anfällig gegen Krebs ist, was dann halt,
0:59:11–0:59:16
eine unglaubliche Agilität hat und eine extreme Anpassungsfähigkeit,
0:59:16–0:59:19
was kein anderes Lebewesen hat.
0:59:19–0:59:24
Und da kann man die Theorie, wie kann das dann wie kennen? Wie kann sich das entwickeln?
0:59:24–0:59:31
Ist nämlich, dass sie quasi wie so oft so einer defekten Hardware sich dann
0:59:31–0:59:35
halt weil sie so auch wieder so ein Bild von Joscha Bach auf dieser Hardware
0:59:35–0:59:37
wo dann halt diese neu sie,
0:59:37–0:59:42
hat es die ganze Zeit durchläuft und halt Fehler beim Kopieren macht egal.
0:59:42–0:59:47
Aber dann sitzt halt so eine prozessuale Schicht obendrauf, die halt immer diese
0:59:47–0:59:50
Fehlerkorrekturen macht und damit viel effektiver ist.
0:59:50–0:59:53
Und dann gibt es halt einen neuen Begriff, den die einführen.
0:59:53–0:59:59
Nämlich den der Kompetenz, also Kompetenz, Kompetenz, was dann halt auch ein
0:59:59–1:00:01
Selektionsmerkmal dann werden kann.
1:00:01–1:00:05
Das heißt, das Tier, was am kompetentesten ist ist, kann auch entsprechend dann
1:00:05–1:00:11
halt ausgetauscht oder es kann halt in einer Umgebung besser überleben.
Micz Flor
1:00:12–1:00:17
Aber jetzt ganz kurz noch mal eine Frage zu dieser Analogie mit der Maschine.
1:00:17–1:00:26
Das heißt, dieser Wurm hat einfach nur schrottige Hardware und hat aber alles
1:00:26–1:00:28
im Rahmen. Oder wie ist das also?
Florian Clauß
1:00:28–1:00:32
Ja, genau. Äh, meinetwegen. Äh, dann, wenn du das jetzt so übertragen.
1:00:32–1:00:40
Aber man hat im Prinzip eine extremst fähige und die ist dann halt in Zellen,
1:00:40–1:00:44
quasi in die Intelligenz der Zellen gebaute Fehlerkorrektur,
1:00:45–1:00:48
und die dann halt diese Anpassung und die haben dann halt zum Beispiel solche
1:00:48–1:00:50
Anpassungsmechanismen wie,
1:00:52–1:00:59
an denen Wurm in so einer Bariumflüssigkeit ausgesetzt Barium ist dann halt,
1:01:00–1:01:02
kommt in der Natur so nicht vor.
1:01:02–1:01:06
Das heißt der Wurm war niemals damit konfrontiert irgendwie in einer natürlichen Umgebung.
1:01:06–1:01:14
Und was dann passiert ist, ist, dass sein Kopf explodiert ist in dieser Flüssigkeit.
Micz Flor
1:01:12–1:01:17
Okay. Hey, hey, hey, hey, hey, hey, hey.
Florian Clauß
1:01:14–1:01:17
Aber dann wechseln wir ab.
1:01:18–1:01:20
Naja, wir kommen nochmal zurück, aber das Ding ist.
Micz Flor
1:01:18–1:01:21
Naja, wir kommen nochmal zurück, aber das heißt, dass es erste.
1:01:21–1:01:25
Das erste Mal, dass ein Wurm gestorben ist von dieser Art, oder?
Florian Clauß
1:01:25–1:01:29
Nein, er ist nicht gestorben. Der Kopf ist explodiert, denn er hat die Fähigkeit.
Micz Flor
1:01:25–1:01:27
Nein, er ist nicht gestorben. Okay. Okay.
Florian Clauß
1:01:29–1:01:31
Natürlich, seinen Kopf dann halt zu regenerieren.
1:01:32–1:01:35
Das heißt, nach einer gewissen Zeit, nachdem man halt irgendwie konnte er sich
1:01:35–1:01:40
an diese völlig lebensfeindliche Umgebung konnte er sich dann halt anpassen
1:01:40–1:01:42
und hat dann an der Kopf ist nachgewachsen.
1:01:42–1:01:45
Also der ist nicht nur irgendwie so ruhig, agil, der ist er auch.
1:01:45–1:01:47
Er kann sich komplett regenerieren.
1:01:48–1:01:52
Also wenn du ihn in der Mitte durch schneidest, dann baut er wieder einen Schwanz.
Micz Flor
1:01:53–1:01:57
Ja. Okay. Also das heißt, das Tier konnte sich vom Kopf auf der einen Seite, oder.
Florian Clauß
1:01:53–1:01:56
Und so. Also das heißt, das Tier konnte sich dann halt.
1:01:58–1:02:02
Kommen wir noch mal zu. Also, das.
1:02:02–1:02:09
Das ist genau diese Frage von wie kann das entstehen, dass dann halt quasi die
1:02:09–1:02:13
Zellen auf dieser Ebene wissen, okay, wir wir machen jetzt also dieser ganze,
1:02:14–1:02:19
Regenerationsvorgang, den auch du hast du ja beim bei den Molchen oder bei irgendwelchen,
1:02:20–1:02:25
Amphibien auch ein Beispiel Du kannst dann halt einem quasi ein Molch.
1:02:25–1:02:31
Wenn du dem jetzt meinetwegen vom Ärmchen dann den den Unterarm abschneidet,
1:02:32–1:02:37
dann werden die dann regeneriert sich das aber bis zu einem Zustand,
1:02:37–1:02:41
wo dann halt komplett dieser Arm wieder hergestellt ist.
1:02:42–1:02:45
Das heißt die Zellen fangen dann genau da an zu wachsen und regenerieren.
1:02:45–1:02:48
Was, wenn er den Oberarm abschneidet? Dann gehen die halt auf der Stelle los,
1:02:48–1:02:51
und das heißt, das gibt dann halt irgendwie diese Information aus,
1:02:51–1:02:55
der der Gestaltherstellung ist irgendwie ist,
1:02:56–1:03:01
auf so einer zellulären Ebene codiert und die wird dann halt aktiviert in so einer Regeneration.
1:03:02–1:03:03
Das ist ja absolut.
Micz Flor
1:03:03–1:03:06
Interessant, weil das ist jetzt. Wir reden ja nicht mal übers Gehirn.
1:03:07–1:03:11
Und trotzdem ist bei all dem dann natürlich schon immer die Frage wie soll man
1:03:11–1:03:16
so etwas jemals in einem Software Abstraktion Layer für neuronale Netze,
1:03:17–1:03:21
oder Zellen oder Kommunikation zwischen Neuronen herstellen?
Florian Clauß
1:03:22–1:03:28
Es ist die, ähm, etwas, was man dann so übertiteln kann, als die Intelligenz,
1:03:28–1:03:31
quasi in so einem physiologischen Raum.
1:03:31–1:03:36
Also es gibt irgendwo eine Information, eine Intelligenz, die dann halt genau
1:03:36–1:03:42
das herstellen kann, wieder in dieser, in dieser Ausprägung ein anderes also.
1:03:42–1:03:48
Und dann aber ist es immer so eine gewisse mit einer gewissen Metamorphose verknüpft.
1:03:49–1:03:53
Das heißt du musst dann halt so in so einem Prozess sein, wo dann halt auch,
1:03:53–1:03:56
das Lebewesen sich neu zusammensetzt, anders ist.
1:03:56–1:04:05
Die haben jetzt also die arbeiten viel mit so elektro bioelektrischen Prägungen.
1:04:05–1:04:12
Das heißt, die hemmen dann bestimmte Ionen in der Zelle, die dann halten.
1:04:13–1:04:19
Darüber kannst du dann halt eine gewisse Prägung machen, in der, in der Ausführung.
1:04:19–1:04:22
Und da haben die auch irgendwie, ich weiß nicht, das ist so ein Blackbox,
1:04:22–1:04:27
weiß ich nicht genau, aber die wissen ungefähr, wo das Wachstum quasi verortet
1:04:27–1:04:29
ist und können dann halt die Zellen so prägen.
1:04:29–1:04:32
Da haben wir bei so einer Kaulquappe zum Beispiel, die komplett durcheinander
1:04:32–1:04:37
gewürfelt ist. Das Auge war halt irgendwie hinten, der Mund war halt quer und.
1:04:37–1:04:44
Also völlig natürlich, völlig völlig Matsch. Das Gesicht einer Kaulquappe. Aber das.
Micz Flor
1:04:39–1:04:46
Wie völlig Matsch. Das Gesicht einer Puppe. Der Schrei von Munk.
Florian Clauß
1:04:46–1:04:51
Aber das Dinge sein werden, die sich dann in dieser wieder in dieser Metamorphose
1:04:51–1:04:54
befand, wurde ein perfektes Froschgesicht draus.
1:04:54–1:05:00
Das heißt, die haben also diese Fehlerkorrektur jetzt wie bei dem quasi bei
1:05:00–1:05:03
dem, bei den Planetarien, bei diesen.
1:05:04–1:05:08
Bei diesem Strudelwurm ist da auch so in dieser Form auch eingebaut.
1:05:08–1:05:15
Das heißt, es gibt eine gewisse Form von Wissen, dass ich jetzt halt irgendwie,
1:05:15–1:05:18
na das Auge muss jetzt darüber wandern, ein bisschen weiter,
1:05:18–1:05:21
dann ist es in einem perfekten Zustand wieder,
1:05:23–1:05:27
was ja auch nochmal ein anderes Beispiel, was die auch noch mal gemacht haben ist, die haben,
1:05:29–1:05:30
das haben die ja ich weiß nicht.
1:05:31–1:05:37
Sogar glaube ich bei Säugetieren also diesen Kanal, diesen der geformt wird
1:05:37–1:05:43
von Zellen in der Niere, weil der Kidne Tube oder so war. Ich weiß nicht.
Micz Flor
1:05:39–1:05:39
Hm.
1:05:42–1:05:46
Du hast da schon gehört. Dieser Kanal.
Florian Clauß
1:05:44–1:05:51
Ja, und es gibt dieser Kanal wird ursprünglich wird wird von acht oder neun Zellen wird er geformt.
1:05:52–1:05:54
Und jetzt?
Micz Flor
1:05:54–1:05:58
Da haben sie dann irgendwie den Zellwachstum so verändert, dass sie größer wurden.
Florian Clauß
1:05:58–1:06:03
Genau. Genau. Genau. Ja, richtig. Genau.
Micz Flor
1:05:58–1:06:03
Und dann wurde das dann sogar, weil es nur eine Zelle war, hat sich selbst gewunden.
1:06:04–1:06:05
Das heißt, schon mal gehört?
Florian Clauß
1:06:04–1:06:08
Also, das heißt, diese Information zur morphologischen Herstellung.
1:06:08–1:06:11
Das heißt, eine Zelle kann dann auf einmal einen Kanal formen.
1:06:12–1:06:14
Ja, das ist also, warum?
1:06:15–1:06:19
Also, die vergrößern sich. Die Zellen sind. Aber machen dann jede Zelle.
1:06:19–1:06:22
Okay, macht dann so, dass es wieder ein Kanal ist.
1:06:22–1:06:25
Aber dann kann sogar eine Zelle diesen Kanal formen, das heißt,
1:06:25–1:06:27
diese Gesteinsausprägung,
1:06:28–1:06:32
dieser Konstruktion splan, die die Zelle dann, also das ist dann wieder so,
1:06:32–1:06:39
dieses auf der diese Intelligenz auf zellulärer Ebene die halt so das ist dann wieder diese Differenz,
1:06:41–1:06:45
zu so einem neuronalen Machine Learning Netzwerk das ist halt so total faszinierend.
Micz Flor
1:06:49–1:06:54
Ja, es ist halt auch insofern interessant, weil wir reden dann immer ja oder nicht?
1:06:54–1:06:59
Wir aber, die reden dann alle immer Information und die Information ist ja dann
1:06:59–1:07:04
erkenne die Katze im Foto, da erkenne in diesen Pixel eine Katze,
1:07:04–1:07:05
es ist eine Katze, dann ja,
1:07:06–1:07:12
und dann verbessere deine Wahrscheinlichkeit eines richtigen Ergebnisses.
1:07:12–1:07:15
Und jetzt reden wir auch über Informationen, Aber wir reden nicht über Informationen,
1:07:16–1:07:20
auf dieser Ebene von künstlicher Intelligenz, sondern es geht im biologischen System darum, unser.
Florian Clauß
1:07:19–1:07:22
Genau. Genau. Und da war noch ein anderes Beispiel. Jetzt nochmal einen anderen
1:07:22–1:07:27
Kontext, aber es passt ganz gut rein. Haben die auch zum Beispiel bei Hirschen festgestellt.
1:07:27–1:07:35
Wenn du einem Hirsch quasi auf dem Skelett eine kleine Verletzung bei einer
1:07:35–1:07:37
Stelle dann halt erzeugst.
1:07:38–1:07:39
Das ist dann in dem Moment, wenn.
Micz Flor
1:07:38–1:07:43
In dem Moment. Das heißt Schuss. Das heißt Schuss. Die.
Florian Clauß
1:07:41–1:07:47
Nein. Aufgeweichte also das Schnitz das Geweih an einer bestimmten Stelle ein.
Micz Flor
1:07:47–1:07:48
Hm.
Florian Clauß
1:07:48–1:07:53
Das die stoßen ja das Geweih immer jährlich ab und das wurde festgestellt,
1:07:53–1:07:58
dass dann halt da wo die Verletzung war, dass dann quasi der eine Abzweigung entsteht.
Micz Flor
1:07:58–1:08:01
Beim nächsten und übernächsten. Krass.
Florian Clauß
1:07:59–1:08:03
Beim nächsten Geweih also und und das passiert so lange es passiert,
1:08:03–1:08:08
ungefähr 3 bis 5 Jahre und dann ist es weg.
Micz Flor
1:08:07–1:08:07
Ist es weg.
Florian Clauß
1:08:09–1:08:13
Aber das ist halt auch wieder, wo wird diese Erinnerung dann quasi vorgehalten?
1:08:14–1:08:16
Es sind ja quasi dann auch Zellen, die sind ja dann nicht mehr da.
Micz Flor
1:08:17–1:08:21
Also ich würde ja davon ausgehen, nach deiner Ameisenfolge, dass die Hirsche
1:08:21–1:08:26
auch sehr soziale Lebewesen sind und dann sagen halt die Hirsche zum Hirsch,
1:08:26–1:08:30
also letztes Jahr zu da es hat dir ganz gut gestanden.
1:08:30–1:08:34
Versuch mal, denk einfach nein, du musst einfach innerlich ein mentales Bild
1:08:34–1:08:37
bauen, dass da jetzt was raus wächst. Das war echt gut. Probier das noch nochmal.
Florian Clauß
1:08:37–1:08:44
Ja und? Und dann bin ich out of the red now. Nein. Woher weißt du das? Wir haben doch nur 1/4.
Micz Flor
1:08:45–1:08:48
Ja, es ist interessant. Ich. Ich. Der Begriff der Epigenetik kommt mir halt,
1:08:49–1:08:52
auf den Kopf. Also diese Umwelt. Aber das ist natürlich.
Florian Clauß
1:08:49–1:08:56
Ja, ja, der wird noch viel heftiger denn je. Nein, aber es ist da.
Micz Flor
1:08:52–1:08:54
Okay, gut. Der kommt noch, oder? Was?
Florian Clauß
1:08:56–1:09:01
Also das finde ich halt auch so fraglich, wie er dann halt bestimmte Versuchsanordnungen,
1:09:01–1:09:05
Experimente, diese ganze, diese Frage von Ethik, Genetik, diese ethische.
Micz Flor
1:09:05–1:09:08
Einen Epigenetik, meine ich jetzt. Also Epigenetik ist quasi die.
1:09:08–1:09:12
Der Zusammenhang zwischen eine Ethik ist natürlich auch ein Thema beim.
1:09:12–1:09:15
Beim Hirschschnitzen und Kaulquappen Gesicht geht's los.
1:09:15–1:09:21
Aber Epigenetik ist ja eben diese Zusammenhang zwischen Aktivierung von Gensequenzen,
1:09:21–1:09:26
um bestimmte Dinge herzustellen und und diese also Anlage Umwelt Korrespondenz,
1:09:26–1:09:29
die halt immer wieder auch ähm,
1:09:31–1:09:35
ja, wie eben Lebewesen auch auf verändernde Umweltbedingungen direkt reagieren
1:09:35–1:09:37
können anhand des Genpools, den sie schon haben. So.
Florian Clauß
1:09:38–1:09:44
Wurde auch dann in einer Publikation zugemacht haben.
1:09:44–1:09:48
Das Team, das war schon ein bisschen länger her, aber das wird dann auch immer rausgeholt.
1:09:48–1:09:58
Ist auch wieder bei diesen Planetarien, da haben die halt diesen Wachstum von einem Kopf.
1:09:58–1:10:03
Also wenn es geschnitten wird, das ist halt dann quasi sich dann sehr regeneriert,
1:10:03–1:10:10
und dann haben wir es quasi die Zellen so beeinflusst, dass die halt einen zweiten
1:10:10–1:10:11
Kopf wachsen lassen konnten.
Micz Flor
1:10:11–1:10:14
Hm. Also, das ist total okay.
Florian Clauß
1:10:12–1:10:15
Also das ist ja total wohl.
1:10:15–1:10:18
Diese Information ist dann auch so verstreut über bestimmte Bereiche,
1:10:18–1:10:23
aber das ist dann auch, dass das, nachdem der halt quasi geschnitten wurde,
1:10:23–1:10:28
hat er dann einen zweiten Kopf ausgebildet, dann ein zweiköpfiges Tier und.
Micz Flor
1:10:28–1:10:32
Dieser Wurm ist. Man muss sich immer fragen. Der vermehrt sich nur,
1:10:32–1:10:34
wenn er durchgeschnitten wird, oder?
Florian Clauß
1:10:34–1:10:38
Nein, Wir sind Zwitter. Der. Vermeintlich. Geschlechtlich.
Micz Flor
1:10:39–1:10:43
Aber wie? Wie vermehrt er sich? Also wenn, der hat jetzt keinen, der hat sein.
Florian Clauß
1:10:40–1:10:44
Meine. Der vermeintlich vermeintlich normal.
Micz Flor
1:10:47–1:10:48
Gut.
Florian Clauß
1:10:50–1:10:53
Nein. Also sexuell. Also wir vermeintlich. Halt.
Micz Flor
1:10:53–1:10:58
Mit sich selbst oder mit anderen. Oder aber was mischt er denn dann.
Florian Clauß
1:10:55–1:10:57
Nein, nein, nein, nein, nein. Das ist kein Hermaphrodit ist.
Micz Flor
1:10:58–1:11:00
Wenn er, wenn er sich befruchtet, gegenseitig, Wenn der Sein,
1:11:01–1:11:05
sein Genom sowieso nur Müll ist? Wie? Wie hat er dann überhaupt Sex?
1:11:05–1:11:08
Oder hat er gar keinen Sex? Vielleicht hat er gar keinen Sex?
Florian Clauß
1:11:06–1:11:10
Nein, der hat recht. Natürlich lassen wir den Wurm in Ruhe.
Micz Flor
1:11:11–1:11:13
Ich glaub, ich glaub, der hat keinen Sex.
Florian Clauß
1:11:13–1:11:18
Doch während du versagst, kann das Geschlecht wechseln. Also je nachdem was benötigt wird.
Micz Flor
1:11:16–1:11:17
Und okay.
Florian Clauß
1:11:19–1:11:23
Ist halt irgendwie entweder Eizelle oder Spermium. Kann er dann halt.
1:11:23–1:11:26
Es ist kein Selbstbefruchter, aber es ist halt ein Zwitter.
Micz Flor
1:11:25–1:11:27
Selten davon. Okay.
Florian Clauß
1:11:28–1:11:32
Und also geschlechtliche Arbeit ist immer.
1:11:33–1:11:41
Diese Szenarien wie beim Lurch oder so, das ist ja immer, wenn quasi das Tier verliert.
1:11:41–1:11:45
Es geht immer um diesen Verletzungszustand oder um diese Metamorphose.
1:11:45–1:11:49
Das heißt dann, wenn halt quasi ein Zustand eingetreten ist,
1:11:50–1:11:53
der dann halt dich erst mal benachteiligt.
1:11:54–1:11:58
Und, und das ist das Interessante ist halt, dass wenn die halt die diesen Wurm
1:11:58–1:12:03
dann so programmiert haben, dass er sich dann halt zwei Köpfe wächst.
1:12:04–1:12:09
Es ist halt scheißegal, ob er das halt irgendwie so, der kann auch so was, der kann auch so weiter.
1:12:09–1:12:12
Aber in dem Moment, wenn halt geschnitten wird, dann hat diese Information kommt
1:12:12–1:12:17
die raus auch die kann auch halt sehr sehr viel später kann der halt dann verteilt
1:12:17–1:12:21
werden und trotzdem ist diese Information bleibt die erhalten.
Micz Flor
1:12:21–1:12:26
Das heißt er wird weiterhin auch nach Teilung dann zwei Knöpfe knöpfen.
Florian Clauß
1:12:25–1:12:33
Genau das ist das elektrische Muster, was dabei quasi beeinflusst wird.
1:12:33–1:12:39
Das ist auch gleichzeitig so ein Muster Gedächtnis, was dann halt damit trainiert
1:12:39–1:12:43
wird oder oder nicht trainiert, aber wo es dann halt gespeichert ist.
1:12:44–1:12:45
Also das Gedächtnis davon.
Micz Flor
1:12:46–1:12:49
Aber weiß man, wo das gespeichert? Also wenn ich es richtig verstehe, man.
Florian Clauß
1:12:48–1:12:51
Ja, ja, genau. Die haben das auch gezeigt. Dann musst du halt eine.
1:12:52–1:12:55
Das sind dann wahrscheinlich so Experimente, oder? Keine Ahnung.
1:12:55–1:12:57
Also das ist so ein bisschen Vertrauen. Blackbox.
1:12:57–1:13:03
Wir haben dann über verschiedene Regionen im Körper von dem dann halt gezeigt,
1:13:03–1:13:05
wo man das dann halt beeinflussen muss.
1:13:05–1:13:08
Das ist jetzt nicht eine Zelle, sondern es sind dann halt so Regionen.
1:13:09–1:13:12
Aber weiß ich nicht, das ist auf so einer High Level Ebene, das weiß man nicht, wie man das.
Micz Flor
1:13:10–1:13:14
Aber wenn nicht ich? Wenn ich das richtig verstehe, ist es so.
1:13:14–1:13:17
Du hast einen Wurm, Dieser Wurm.
1:13:18–1:13:23
Wenn er durchschnitten wird, dann bilden sich zwei Würmer komplette Würmer draus. Oder nur eine?
Florian Clauß
1:13:23–1:13:29
Nein, ich glaube, der wird nur der hintere Teil der der stirbt ab da der Schwanz.
1:13:29–1:13:32
Also da kommt kein Kopf raus, sondern quasi das.
1:13:33–1:13:36
Der Kopf ist schon das, was dann weiterlebt, das Individuum.
1:13:36–1:13:39
Und der kann sich einen neuen Schwanz generieren.
Micz Flor
1:13:38–1:13:43
Generieren. Und da kann dann wieder ein Kopf dran sein, wenn man ihn umprogrammiert. Das ist okay.
Florian Clauß
1:13:42–1:13:44
Genau das ist das Experiment.
Micz Flor
1:13:44–1:13:51
Und diese diese Information entsteht über eine wie auch immer geartete,
1:13:53–1:13:55
ein elektrisches Feld, oder?
Florian Clauß
1:13:56–1:13:59
Ein elektrisches Feld. Die haben das quasi.
1:14:01–1:14:08
Ja. Also über. Über elektrische Methoden. Diese Speicher also jetzt nicht chemisch,
1:14:08–1:14:13
sondern elektrisch. Dann so beeinflusst die Zellen, dass die diese Informationen gegeben haben.
Micz Flor
1:14:13–1:14:14
Die.
Florian Clauß
1:14:14–1:14:18
Also das ist aber wie gesagt, das ist wirklich so alles schon ganz oben drauf.
Micz Flor
1:14:17–1:14:23
Aber der Wurm ist kein Einzeller. Ist ein Mehrzeller. Ja, klar. Okay. Okay.
Florian Clauß
1:14:18–1:14:22
Gekommen. Nein. Klar. Das ist ein Superzeller.
1:14:24–1:14:25
Also richtig, richtig gut.
Micz Flor
1:14:25–1:14:31
Ja. Viele Zellen, viel Sex. Okay. Ich verstehe. Toller Wurm.
1:14:31–1:14:33
Dieser Wurm ist ein toller Hecht.
Florian Clauß
1:14:33–1:14:37
Man kann nicht komplett generieren, ist eigentlich unsterblich.
Micz Flor
1:14:34–1:14:35
Und. Okay.
1:14:37–1:14:39
Okay. Ein richtig gutes Tier.
Florian Clauß
1:14:37–1:14:39
Also richtig. Also ein richtig gutes Tier.
Micz Flor
1:14:41–1:14:43
Ja. Man kann die extremst mit anfassen.
Florian Clauß
1:14:41–1:14:43
Und kann sich extremst gut anpassen.
1:14:45–1:14:53
Ähm, also das heißt, wir haben Zellen, die jetzt quasi einen höher sind,
1:14:53–1:14:56
also dieses goal fulfilling.
1:14:57–1:14:58
Also das ist das Ziel.
1:14:59–1:15:04
Wenn ich dann auch so einer in so einer Entwicklung bin, dann als Zelle,
1:15:05–1:15:08
dann werde ich halt Zellleber oder so..
1:15:08–1:15:11
Das heißt, irgendwo gibt es dann halt irgendwie jede Zelle. Okay,
1:15:11–1:15:14
ich mache das so, aber dann gibt es halt diese Arten von Zellen,
1:15:15–1:15:19
die abgeschnitten sind, das heißt, sie nicht diesem Körper,
1:15:20–1:15:23
diesem höheren gestalterischen Werk dann.
Micz Flor
1:15:23–1:15:28
Na dann. Langzeitarbeitslose? Nein, das sind. Das sind die. Zählen die dann halt sich selbst?
Florian Clauß
1:15:25–1:15:31
Nein, das sind, das sind die Zellen, die dann sich selbst quasi dann wieder sich selbst genügen.
1:15:31–1:15:34
Und was passiert mit den Zellen, die wachsen? Das sind Krebszellen.
Micz Flor
1:15:35–1:15:36
Okay, Halt. Genau dieses Ding.
Florian Clauß
1:15:35–1:15:37
Das ist halt genau dieses Ding, das ist Krebs.
1:15:38–1:15:39
Also jetzt auch so aus einer ganz.
Micz Flor
1:15:40–1:15:45
Also Krebs ist eine Zelle eines Organismus. Der oder die muss sein.
1:15:46–1:15:52
Gendern oder nicht? Was wird aus der aus dem Verband irgendwie abgekapselt und
1:15:52–1:15:55
fängt dann einfach an zu tun, was Zellen halt tun Sich zu vermehren.
Florian Clauß
1:15:56–1:16:00
Also ganz grob gesprochen. Ja, genau das.
1:16:00–1:16:05
Das heißt, die vermehren sich und sie, sie sind quasi Selbstzweck,
1:16:05–1:16:09
erfüllen nicht diesen, diesem allgemeinen Ziel.
1:16:10–1:16:18
Und auch hier ist die Frage so, also die da wieder die Intelligenz auf zellulärer Ebene.
1:16:18–1:16:22
Und so ein Roboter kann jetzt keinen Krebs bekommen, weil es gibt dann halt
1:16:22–1:16:24
immer so eine Hierarchie.
1:16:25–1:16:29
Also das ist halt auch auch wieder so ein Gedankenexperiment.
1:16:29–1:16:31
Was müsste passieren, damit ein Roboter Krebs bekommt?
1:16:32–1:16:36
Nee, also das wäre ja auch schon wieder so eine biologische.
Micz Flor
1:16:37–1:16:42
Also das Bild, was sich in mir auslöst, ist natürlich dann irgendwie keine Ahnung,
1:16:42–1:16:46
dass irgendein System ein Teilsystem des Roboters nicht genutzt wird und dann
1:16:46–1:16:48
läuft halt irgendwann die Batterie aus.
1:16:49–1:16:53
Ja, das wäre so ein Bild, was ich habe. Wo sind wir eigentlich gerade?
Florian Clauß
1:16:53–1:16:56
Wer sind wir? Wir können nur mal ein bisschen hier durchgehen.
1:16:56–1:17:00
Ich glaube, wir sind jetzt quasi parallel zu dieser Hauptstraße.
Micz Flor
1:17:01–1:17:04
Es ist echt irre, dieses Laufen beim Reden und laufend Reden.
1:17:04–1:17:08
Wenn man es in Bergen macht, dann weiß man ja immer bleibt irgendwie bei der
1:17:08–1:17:10
Farbe. Markierung läuft halt einfach immer weiter.
1:17:11–1:17:15
In der Stadt merke ich, dass ich komplett jede Orientierung verliere. Es.
Florian Clauß
1:17:14–1:17:20
Ja, es stimmt. Du hast einfach keine. Keine Skyline. Du hast keinen Horizont. So richtig.
1:17:21–1:17:25
Und das. Was? Was Jetzt auch nochmal Ein total spannendes,
1:17:27–1:17:33
Teilprojekt von denen. Was aber auch wieder auf den Forschungsarbeiten von anderen beruht.
1:17:34–1:17:39
Die haben, die haben sogenannte Xenobots.
1:17:39–1:17:42
Ich weiß nicht, ob du davon schon mal gehört hast. Genau.
Micz Flor
1:17:40–1:17:42
So war es dann schon mal gehört. Ja, ja, davon habe ich gehört.
1:17:42–1:17:45
Habe ich den nicht immer sogar erwähnt? Kann sein.
Florian Clauß
1:17:44–1:17:48
Es kann sein, dass du die erwähnt hast. Aber hier ist eine Sackgasse.
Micz Flor
1:17:46–1:17:50
Ich glaube, das war bei. War das nicht so?
1:17:50–1:17:54
Nee, weiß ich nicht mehr. Ich glaube bei Konrad Zuse mit dem Biologie Ding,
1:17:54–1:17:55
da ist mir das irgendwie untergekommen.
1:17:55–1:18:03
Xenobots sind so was wie Zellen von einem Organismus, die miteinander zusammengefügt
1:18:03–1:18:06
werden und ein neues Lebewesen erstellen.
Florian Clauß
1:18:06–1:18:12
Ja, also man liebte es, das erste artifiziell geschaffene wilde Wesen, was man darf.
1:18:12–1:18:19
Und es sind von einem afrikanischen Frosch die Hautzellen, die ein Teil des Spots ausmachen.
1:18:20–1:18:24
Werden so für die ganze Versorgung zuständig sind und für die Ernährung.
1:18:24–1:18:25
Und der andere Teil sind.
1:18:26–1:18:33
Wir haben einmal Herzmuskeln genommen, von denen Frosch und oder so.
Micz Flor
1:18:28–1:18:29
Ja.
Florian Clauß
1:18:33–1:18:39
Wir sind quasi Herrchen Zellen. Wir können helfen aus den.
Micz Flor
1:18:39–1:18:40
Von Fröschen.
Florian Clauß
1:18:41–1:18:46
Auf der Froschhaut gibt. Wobei mir eine wollten ja bis jetzt beeinflussen will.
1:18:46–1:18:52
Aber im Prinzip diese Herz oder Herzchen Muskelzellen sind dann für die Fortbewegung zuständig.
Micz Flor
1:18:52–1:18:58
Okay, die sind quasi muskelähnlich, aber eben keine Muskel Muskeln mehr und auch Herzmuskels.
Florian Clauß
1:18:58–1:19:03
Zöllner schon. Ja, ja. Und dann haben wir halt ganz viele.
1:19:04–1:19:09
So auch so ein neuronales Netz ohne Binden durchlaufen lassen,
1:19:09–1:19:14
was dann halt die Kombination aus diesen beiden Zelltypen berechnet haben,
1:19:14–1:19:16
So ein bisschen wie Minecraft.
1:19:16–1:19:22
Die einen waren halt blau, die anderen halt rot gezeichnet und haben darauf halt.
1:19:22–1:19:25
Daraufhin halt diese diese Kinobots Design.
1:19:25–1:19:30
Und die effektivste, die sich am effektivsten bewegt haben usw. Und dann konnten die,
1:19:32–1:19:39
teilweise so durch so Gänge bewegen konnten Babys intelligentes Bewegungsverhalten,
1:19:39–1:19:42
also Intelligenz gesteuertes Bewegungsverhalten.
1:19:42–1:19:47
Wenn er sie können konnten dann halt. Und wir können jetzt in der dritten vierten
1:19:47–1:19:52
Generation das ist halt auch diesem Team vermittelt auf dass die sich reproduzieren können.
1:19:53–1:19:59
Ich bin kein Jogi Löw. Vielleicht, weil ich den ganzen Schotter um die uhr und
1:19:59–1:20:02
dann wieder zusammen getragen haben und daraus dann neue zimmert.
1:20:02–1:20:07
Worte. Entstanden sind allerdings Interviews mit Leuten, die schon dieses Next Level.
1:20:08–1:20:10
Und mögen sie so zu sein.
1:20:11–1:20:13
Und er ist krass.
Micz Flor
1:20:13–1:20:17
Da gibt es doch wie heißt das noch mal, dieses Game of Life, oder?
1:20:17–1:20:21
Ich weiß genau wo, wo man bestimmte Regeln hat. Das 110.
1:20:21–1:20:27
Hab ich dir doch auch mal einen Link geschickt, wo quasi Game of Life als Programm
1:20:27–1:20:31
war für Game of Life, wo das quasi in sich selbst programmiert war.
1:20:32–1:20:33
Mal gucken, ob ich das nochmal finde.
Florian Clauß
1:20:34–1:20:34
Und.
1:20:37–1:20:41
Das alles? Das ist schon sehr faszinierend, was? Krass. Und?
1:20:41–1:20:45
Und diese Vision von diesem Michael Leben ist halt.
1:20:46–1:20:50
Also, wir haben so ein klassisches Bild von den Menschen.
1:20:50–1:20:56
Es gibt Tiere, es gibt den Engel, dessen Seele allerdings schon sehr viel breiter gefächert war.
1:20:56–1:21:01
Es gibt alle möglichen Formen von. Zukünftig würde alles so ein bisschen durcheinander
1:21:01–1:21:03
laufen, das heißt es gibt Einheit.
1:21:04–1:21:10
Es gibt dann halt irgendwie so normale biologische Wesen, so dazwischen Wesen.
1:21:10–1:21:15
Es gibt ein bisschen das, also hat das so komplett divers gemacht und dann und,
1:21:15–1:21:18
das ist so ne gewisse Vision, aber gleichzeitig,
1:21:19–1:21:24
wenn ich das halt schon ein bisschen fragwürdig aus den ethischen Gesichtspunkten
1:21:24–1:21:26
heraus, was passiert denn dann,
1:21:27–1:21:31
wenn wir diese diese Lebensformen so generiert aus dem Material,
1:21:31–1:21:36
was erstmal so biologisch überhaupt mit Umgebung irgendwie zusammen kommen kann?
1:21:36–1:21:41
Also wenn man halt so einen natürlichen Prozess von Biologie und Emotionen dahinter.
Micz Flor
1:21:41–1:21:42
Interessant auch da wieder.
Florian Clauß
1:21:42–1:21:47
Vergiss es, freier Mann. Wir hätten auch gesagt, wenn die Zellen in seiner Generation
1:21:47–1:21:49
mutieren als Krebse, dann sind die befreit.
1:21:49–1:21:55
So eine Therapie kann man. Vielleicht muss man muss. Befreiung.
Micz Flor
1:21:50–1:21:51
Wir haben die Ausstellung.
1:21:55–1:21:55
So sehen.
Florian Clauß
1:21:56–1:21:58
Es ist ja auch was Bösartiges.
1:21:59–1:22:00
Aber wer so sehr.
Micz Flor
1:22:02–1:22:05
Aber es ist doch. Ich denke jetzt gerade so ein bisschen wie diese Sache,
1:22:05–1:22:08
so der Mensch sich selbst ins Zentrum stellen, sich selbst bewerten,
1:22:08–1:22:09
beobachten, beschreiben.
1:22:10–1:22:17
Und da fände ich das ganz spannend, wenn man so sagt, dass jede Zelle bis zu
1:22:17–1:22:20
einem gewissen Grade scheinbar spezialisiert ist, aber dann irgendwie universell
1:22:20–1:22:24
einsetzbar in neuen Systemen verschränkt werden kann und dass,
1:22:25–1:22:28
da denke ich dann auf einer gesellschaftlichen Ebene zum Beispiel an diese No
1:22:28–1:22:32
borders Bewegung, dass man sagt so, es gibt so was wie Nationalstaaten und Grenzen,
1:22:32–1:22:35
das ist völlig arbitrary, das braucht man nicht.
1:22:35–1:22:39
Das ist ein Konstrukt, was dem Menschen nicht entspricht.
1:22:40–1:22:47
Und wenn man das halt irgendwie so festhält, dann ist das doch nicht viel anders,
1:22:47–1:22:48
wie das, was du gerade beschrieben hast.
1:22:48–1:22:54
Diese Idee, dass wir, dass wir diese, diesen in sich geschlossenen großen Organismus,
1:22:55–1:22:59
dass es den so gar nicht gibt, also dass der dass, das wissen wir ja schon lange,
1:22:59–1:23:03
dass das Bio und Genom und wie auch immer und jetzt kommt die Elektro.
1:23:04–1:23:09
Bio Elektrizität noch irgendwie dazu und dass sich das alles so diese Grenzen
1:23:09–1:23:13
so auflösen, dass das so ein Unwohlsein herstellt, dass man gerne möchte,
1:23:14–1:23:16
dass die Leber den Iris trainiere Und da möchte ich auch nicht,
1:23:16–1:23:17
dass das irgendwie verändert wird.
1:23:17–1:23:21
Traditionsbewusst ja, aber ich glaube, das ist ein menschlicher Wunsch.
1:23:21–1:23:24
Also dass man genauso wieder sagt so ja, Deutschland ist Deutschland, Bayern ist Bayern.
1:23:25–1:23:28
Dass man halt irgendwie genauso her sagt Zur Leber ist Leber bsp.
1:23:28–1:23:30
Schnaps, Schnaps und dann.
1:23:32–1:23:37
Und dadurch dann diese Idee. Dass es so viel flexibler und beweglicher ist,
1:23:37–1:23:39
ist halt auch enorm irritierend.
Florian Clauß
1:23:39–1:23:43
Genau. Eigentlich bin ich jetzt so ähnlich. Wir noch ein paar Punkte.
1:23:44–1:23:45
Also ich glaube, das. Was dann?
1:23:46–1:23:51
Also dieses. Dieses Bild von dieses diverse was du jetzt auch gerade noch dieser
1:23:51–1:23:57
Wunsch dass man das dann irgendwie doch irgendwie so traditioneller oder begreifbarer menschlicher macht.
1:23:58–1:24:03
Aber das ist halt auch so, da zeigt sich so ein so ein so ein Feld was,
1:24:03–1:24:06
was man glaube ich noch gar nicht so richtig so begreifen kann.
1:24:06–1:24:10
Aber finde ich total spannend. Also hat mich.
Micz Flor
1:24:10–1:24:12
Was ich total gut finde an dem, was ich gerade so gehört habe,
1:24:12–1:24:13
wie du es beschrieben hast.
1:24:15–1:24:18
Was? Das Genom.
1:24:20–1:24:25
Was ja auch keine Ahnung über 50 60 Jahre eigentlich schon bekannt ist und entschlüsselt wurde.
1:24:25–1:24:30
Das hat uns ja sehr dazu verleitet, in Turingmaschinen zu denken und zu sagen
1:24:30–1:24:35
Wenn wir das erst mal entschlüsselt haben, dann haben wir den Schlüssel zum Leben und und.
1:24:37–1:24:41
Die das ist natürlich was, was in der Wissenschaft dann irgendwie so auch Einzug
1:24:41–1:24:45
gehalten hat. Da wurde nämlich dann auch und das ist die Brücke zur künstlichen
1:24:45–1:24:49
Intelligenz immer gesagt naja, wir müssen erst mal ein Gehirn irgendwann so
1:24:49–1:24:51
kartografieren und so detailreich.
1:24:51–1:24:53
Wenn wir das einmal gemacht haben, dann haben wir es auch verstanden,
1:24:53–1:24:55
wie das Gehirn funktioniert.
1:24:56–1:25:01
Was natürlich sehr schnell klar geworden ist Nicht nur auf Genomebene gibt es,
1:25:01–1:25:06
große, große, große Varianzen, wo teilweise Teile, wo man nachhinein erst merkt,
1:25:06–1:25:10
dass das wirklich auch als Speicher genutzt wird und nicht nur als reproduzierende,
1:25:11–1:25:13
Proteinschablonen.
1:25:14–1:25:18
Und beim Gehirn ist es ja noch viel mehr so, dass Gehirn keine zwei Gehirne sind gleich.
1:25:18–1:25:21
Und trotzdem ging man lange dahin zu sagen Ach, wir müssen einfach mal eins
1:25:21–1:25:23
nachbauen und dann haben wir alles gecheckt.
1:25:23–1:25:31
Und was du jetzt gerade beschreibst. Diese Auflösung von Grenzen, von Leben und Tod.
1:25:31–1:25:35
Man hat ja immer schon diese Thematik gehabt. Stammzellen sind können alles
1:25:35–1:25:37
werden, aber ab einem gewissen Punkt ist es irreversibel. Dann können sie nur,
1:25:37–1:25:39
in eine bestimmte Richtung sich weiterentwickeln.
1:25:40–1:25:43
Das ist trotzdem jetzt mit dem, was du gerade beschreibst, diese Möglichkeit,
1:25:44–1:25:48
auch über wie auch immer geartete. Da habe ich nicht genau kapiert.
1:25:48–1:25:50
Aber elektrische Interventionen dann.
1:25:52–1:25:57
Wissen weiter zu vererben, in geteilten Tieren irgendwie zwei Köpfe zu implementieren,
1:25:57–1:25:59
das zeigt ja, dass es eben nicht
1:25:59–1:26:05
so einfach ist zu sagen, ich nehme dieses lebendige biologische Ding,
1:26:07–1:26:11
lege es hin, bis es tot ist und dann esse ich es aus und dann habe ich es kapiert.
Florian Clauß
1:26:10–1:26:11
Ja, genau.
Micz Flor
1:26:11–1:26:15
Sondern gerade das mit dieser Bio Elektrizität ist ja wohl ein großes Zeichen
1:26:15–1:26:21
dafür, dass das im Leben Dinge auch jenseits der Genetik, jenseits von Serum,
1:26:21–1:26:25
jenseits von Mitochondrien, jenseits von was weiß ich weitergegeben werden können.
1:26:27–1:26:31
So, und das, was ich am verwirrend sten finde, ist wirklich das mit dem Hirsch.
Florian Clauß
1:26:28–1:26:29
Ja, Ja. Also, genau.
Micz Flor
1:26:33–1:26:36
Das würde mich begleiten. Aber es ist ja auch wieder nur zeigt.
1:26:36–1:26:39
Ich bin als Mensch natürlich dem Hirsch verwandter als dem Wurm,
1:26:39–1:26:44
obwohl ich mehr Würmer in mir hab als Hirsche, aber trotzdem.
Florian Clauß
1:26:45–1:26:51
Das will das Bild im Kopf. Und dein Hirsch guckt raus. Ach, Scheiße, Schon wieder?
1:26:51–1:26:53
Ich habe ihn da gerade verletzt.
1:26:54–1:26:59
Ähm, ja, genau. Also, das ist irgendwie so, diese Entschlüsselbarkeit, diese.
1:26:59–1:27:03
Diese Vorstellung. Wir entschlüsseln das Genom und wissen dann Bescheid und
1:27:03–1:27:06
können dann die Rätsel des Lebens lösen.
1:27:06–1:27:11
Das war ja ganz, ganz lange so dieses. Genau dieser Gedanke,
1:27:12–1:27:14
wo diese Entschlüsselung von von
1:27:14–1:27:18
gehen dann halt so auch so extrem viel Forschungsgelder usw. bekommen hat.
1:27:19–1:27:22
Und das ist halt irgendwie man merkt okay, da sind wir jetzt noch nicht fertig.
1:27:23–1:27:26
Das zeigt uns noch nicht irgendwie, dass es halt irgendwie möglich ist.
1:27:27–1:27:31
Aber man kann natürlich dann fährt ein größeres Tool Set, das man anwenden kann,
1:27:32–1:27:37
dann kommt CRISPR CAS, diese Genschere, das ganze aus Vielzahl gesteuert und das machen.
1:27:38–1:27:44
Also das meint auch das ist auch in dem Vergleich in dem in der Beschreibung von dem Wurm dass,
1:27:44–1:27:48
du kannst halt keine Mutter der hat keine Mutationen also du kannst halt irgendwie,
1:27:48–1:27:52
kannst jedem Tier irgendeine Mutation machen durch durch durch Gensteuerung
1:27:52–1:27:56
die man kein Problem wir können irgendwie fliegen, dann rote Augen machen,
1:27:56–1:27:59
wir können Hühner ohne Zehen, wir können halt,
1:28:00–1:28:05
weiß ich nicht alles mögliche an Mutationen machen, aber der Wurm ist resistent dagegen.
1:28:05–1:28:09
Also der hat das halt alles so raus. Fehler korrigiert und das geht nicht,
1:28:09–1:28:13
oder Dann haben wir auch halt irgendwie dem so ein Krebsgeschwür eingepflanzt,
1:28:14–1:28:16
und das hat er dann halt aufgelöst.
1:28:16–1:28:21
Es war dann halt, äh wirklich faszinierendes Tierchen. Ja, und?
Micz Flor
1:28:21–1:28:25
Muss. Den Wurm kenne ich. Ich muss ja noch nachforschen. Ich fand es auch noch interessant.
1:28:25–1:28:30
Was bei mir nur mal angestoßen hat, ist halt auch diese Dieses weise Leben wird
1:28:30–1:28:33
ja immer so was ganz prekäres beschrieben.
1:28:33–1:28:37
Und wir haben ja auch auf unserer menschlichen Ebene wieder unglaublich viel
1:28:37–1:28:41
lebenserhaltende Systeme implementiert, über Notarzt, über Tabletten oder sonst wo.
1:28:41–1:28:46
Das Leben muss halt irgendwie geschützt und aufrechterhalten werden und gleichzeitig
1:28:46–1:28:49
ist das Leben ja mit dem, was du beschrieben hast, jetzt auch mit diesen Xenobots,
1:28:50–1:28:55
unglaublich anpassungsfähig und dann auch so flexibel.
1:28:55–1:28:58
Und dann dachte ich an etwas. Ich weiß nicht, ob du das kennst.
1:28:58–1:29:06
Die Gonaden, das sind die, bevor man weiß, ob es Eier oder Spermien werden, also bevor man.
1:29:06–1:29:12
Man gibt es halt quasi so schon angelegte geschlechtliche Fortpflanzung und.
Florian Clauß
1:29:11–1:29:12
Ja, okay.
Micz Flor
1:29:12–1:29:15
Ähm, und das fand ich so ganz irre, ich weiß gar nicht mehr,
1:29:15–1:29:17
wo ich das glaub ich auch.
1:29:17–1:29:19
Im Podcast muss man gucken, da gibt es einen, der genau ist.
1:29:19–1:29:22
Das sind drei Teile, glaube ich, von Radio Lab über die Gonaden,
1:29:24–1:29:27
und da wurde auch noch drin beschrieben, dass in dem Moment,
1:29:27–1:29:35
wenn eine der ganz frühen Entwicklungsphasen im Embryo ist die Gonaden Wanderung, so dass.
1:29:37–1:29:45
Im Mutterleib sich schon die Die Zellen der übernächsten Generation,
1:29:45–1:29:48
also noch bevor es geboren wird, wird da schon natürlich angelegt.
1:29:48–1:29:51
Die Generation drauf, und das ist eine ganz wichtige Sache.
1:29:51–1:29:57
Also dass das Leben im Mutterbauch werden quasi die Enkelkinder mit als erstes hergestellt.
Florian Clauß
1:29:58–1:29:59
Du willst. Sackgasse.
Micz Flor
1:29:59–1:30:02
Das ist auch eine Sackgasse. Und das fand ich total irre.
1:30:03–1:30:07
Es muss, ja muss ja sein. Aber dass halt eben nicht einfach nur die Geburt der
1:30:07–1:30:09
nächsten Generation ist und die kümmert sich um die nächste,
1:30:09–1:30:13
sondern nein, im Mutterleib wird die übernächste Generation auch schon mit angelegt.
Florian Clauß
1:30:13–1:30:14
Der Wahnsinn.
Micz Flor
1:30:14–1:30:18
Und wenn die die Eier zum Beispiel wenn dann die Frau geboren wird,
1:30:19–1:30:22
wurde das halt alles schon vorgegeben. Und das fand ich halt irgendwie irre, wie.
1:30:23–1:30:29
Wie viele Sicherheitsnetze und wie viel vorausschauende Planung so im Leben einfach drin ist.
Florian Clauß
1:30:29–1:30:36
Ja, genau. Ich war extrem inspiriert von dem Vortrag von Herrn von.
1:30:36–1:30:40
Auch von den Interviews fand ich irgendwie. So was wollte ich jetzt gerne nochmal
1:30:40–1:30:43
so in dem Kontext teilen, weil das wirklich so nochmal dieses,
1:30:43–1:30:50
biologische Modell gegen dieses Machine Learning und ein ein Abschluss den oder,
1:30:50–1:30:54
ein Satz den Michael Lewin, den ich zum Abschluss immer so bringen kann ist halt,
1:30:55–1:31:00
dass quasi Evolution jetzt nicht auf Probleme reagiert hat, sondern dass Evolution
1:31:00–1:31:02
quasi Problemlöser entwickelt hat.
1:31:03–1:31:08
Also das ist genau dieses. Also es gibt nicht irgendwie, was reaktiv ist,
1:31:08–1:31:12
sondern Leben ist halt da und will halt was machen, wo ist das Problem,
1:31:12–1:31:14
wo ist das Problem, wo ist das Problem.
1:31:15–1:31:20
Und das finde ich halt irgendwie so, dieses Extreme, also dieses Rausgehen und,
1:31:20–1:31:26
und das dann halt auch entsprechend ins Doing umzusetzen und dann halt wieder
1:31:26–1:31:28
so sein Ziel dabei erfüllt.

Mehr

"Als verkündet wurde, daß die Bibliothek alle Bücher umfasse, war der erste Eindruck ein überwältigendes Glücksgefühl." - Jorge Luis Borges (Die Bibliothek von Babel)

Wir nähern uns verspielt dem komplexen Thema Künstliche Intelligenz. Jorge Luis Borges' Kurzgeschichte "Die Bibliothek von Babel" aus dem Jahr 1941 dient als Wippe von Zufall und Sinn. Ted Chiangs "Catching crumbs from the table" aus dem Jahr 2000 als Seilbahn mit der die Menschheit von ihrer eigenen KI abgehängt wird. Natürlich reden wir kurz über Filme (Terminator, War Games, Dark Star, A.I.) und zufälligerweise über William Gibsons "Mona Lisa Overdrive". So bringen wir uns in die richtige Schwingung, um die Quantenvibrationen in unseren Mikrotubuli zu spüren, die uns -- so eine Hypothese des Nobelpreisträger Sir Roger Penrose -- mit dem Bewusstsein des Universums verbinden könnte.

Shownotes

Mitwirkende

avatar
Micz Flor
Erzähler
avatar
Florian Clauß

Transcript

Micz Flor
0:00:04–0:00:05
Warum wolltest du nicht unbedingt hierher?
Florian Clauß
0:00:07–0:00:15
Weil ich auf der einen Seite dachte Das ist ein ganz guter Ort zwischen uns.
0:00:16–0:00:22
Und auf der anderen Seite ist es so ein Teil, den wir noch nicht irgendwie begangen
0:00:22–0:00:26
haben, weil wir häufig unsere Strecken kreuzen.
0:00:27–0:00:35
Und auf der dritten wollte ich noch mal so ein bisschen anknüpfen an all die
0:00:35–0:00:41
Siedlungsgeschichten von Berlin und hier durch die Taut Siedlung gehen.
0:00:41–0:00:47
Hallo und herzlich willkommen bei eigentlich Podcast Folge 19.
0:00:48–0:00:56
Heute bringt uns Mitch eine Geschichte mit und wir knüpfen auch wieder an an die Episode davor.
0:00:56–0:01:04
Es wird um künstliche Intelligenz gehen und ich übergebe dir das Wort Mitch,
0:01:04–0:01:05
weil du willst sicher noch,
0:01:06–0:01:08
ein paar Worte verlieren zu der
0:01:08–0:01:13
vorherigen Folge und wie die jetzt in Beziehung zu dieser Folge stehen.
0:01:14–0:01:20
Vielleicht noch nachtragen, um zu sagen, dass wir jetzt eine 4teilige Serie
0:01:20–0:01:25
über künstliche Intelligenz angelegt haben.
0:01:25–0:01:29
Also heute der zweite Teil und es folgen dann zwei weitere Teile.
0:01:29–0:01:33
Aber erst mal viel Spaß mit dieser Episode.
Micz Flor
0:01:34–0:01:38
Es klingt so, als ob ich jetzt einen Vortrag halte, aber ich hoffe das Gegenteil.
0:01:38–0:01:42
Ich habe ehrlich gesagt dieses Mal ein bisschen das Seminar mäßig vorbereitet.
0:01:42–0:01:43
Mit Gruppenarbeit also.
Florian Clauß
0:01:43–0:01:45
Ja, Ich bin Gruppe A.
Micz Flor
0:01:44–0:01:49
Aber ja, ich sage, du bist dick. Wir sind dann die Gruppe. Ich ermutige dich.
0:01:51–0:01:56
Die letzte Folge, die hat es dann doch in den Podcast geschafft.
0:01:56–0:02:00
Zuerst dachte ich Oh, das geht gar nicht. Ich hatte mir eine Rippe gebrochen.
0:02:00–0:02:03
Flo hat mich an dem gleichen Abend noch ins Krankenhaus gefahren.
0:02:03–0:02:07
Das war mir gar nicht klar, dass sie gebrochen ist. Ich hatte bloß unglaubliche
0:02:07–0:02:14
Schmerzen, immer wieder mal und konnte mich auch nicht so frei bewegen und hatte Luftnot.
0:02:17–0:02:20
Das ist jetzt alles wieder besser. Ich fühle mich irgendwie sehr präsent.
0:02:21–0:02:23
Und habe dann aber entschieden, die Folge doch reinzunehmen.
0:02:23–0:02:27
Und dann wurde aus dieser einen künstlichen Intelligenz Folge jetzt irgendwie ein Vierteiler.
0:02:27–0:02:32
Als wir drüber gesprochen haben und das letzte war zuerst eben so ein Scheitern.
0:02:32–0:02:36
Und während ich mir das dann so angehört habe, habe ich gesagt Nee, irgendwie.
0:02:36–0:02:41
Gerade wenn ich auf diesen Komplex von Maschinenlernen, künstliche Intelligenz und.
0:02:44–0:02:50
Ja, wie soll ich sagen. Auch so Hybridmodelle zwischen Algorithmen basierten
0:02:50–0:02:52
und Deep Learning Modellen.
0:02:53–0:02:56
Wenn ich darüber nachdenke, dann ist dieses Thema Liebe immer was? Was?
0:02:58–0:03:04
Was mir so dazukommt. Also das ist dann, ich bin ja Psychologe, Psychotherapeut,
0:03:06–0:03:09
und vor dem Hintergrund habe ich halt oft dieses Gefühl, dass gerade die Entwicklung,
0:03:10–0:03:13
innerhalb der Biografie, gerade auch der frühen Kindheit, das ist irgendwie,
0:03:13–0:03:19
alles nicht wirklich ein Faktor ist, Wenn man über Lernen spricht,
0:03:19–0:03:24
da vielleicht dann sogar in der Weise, welche Folge du hast.
0:03:24–0:03:28
20 Ich habe dann 21 in der Folge 21 mehr. Da möchte ich über die Entwicklung
0:03:28–0:03:30
des Selbst als Simulation sprechen,
0:03:32–0:03:35
und deshalb ist aber die letzte Folge dann so drin geblieben,
0:03:35–0:03:40
weil ich fand es einfach sehr deutlich, wie sehr der Körper einen Einfluss hat
0:03:40–0:03:41
auf kognitive Prozesse.
0:03:42–0:03:47
Und man muss dazu wissen, dass ich In dem Moment, wo ich diese Folge vorgetragen
0:03:47–0:03:51
habe, war ich irgendwie der Meinung, dass das schon alles irgendwie so ganz gut ist.
Florian Clauß
0:03:53–0:03:57
Es war. Ich meine es. Ich. Es war auch gut. Ich habe mich. Ich habe es dann
0:03:57–0:03:59
auch nochmal angehört im Nachhinein.
0:03:59–0:04:02
Und ich finde, wir haben da schon so ein paar grundlegende Sachen,
0:04:02–0:04:05
die wir gibt neuronale Netze.
Micz Flor
0:04:06–0:04:10
Ich glaube, ein großes Thema ist diese Frage. Nach Motivation. Nach.
0:04:12–0:04:16
Nach Voraussagen, die man so macht, die man fällt. Hypothesenbildung usw..
0:04:17–0:04:24
Und ich war einfach so in meinem Körper und Schmerz eingesperrt,
0:04:24–0:04:26
dass ich mich zwar normal fühlte,
0:04:27–0:04:31
aber das war ein relatives Gefühl in diesem Raum, in dem ich da war.
0:04:32–0:04:34
In meinem Leib war ich irgendwie nicht.
0:04:35–0:04:39
Frei genug. Wirklich fand ich andere Leute mitzureißen und ich fand es auch
0:04:39–0:04:43
echt interessant, wie du auch immer so geknickt wurdest und am Ende dann sagt,
0:04:43–0:04:45
Ich fahr dich jetzt ins Krankenhaus.
0:04:45–0:04:48
Das ist ja nicht unbedingt das Ende, was man sich so wünscht.
0:04:49–0:04:52
Ja gut, dann hatten wir auf einmal diese Idee mit einem Vierteiler.
0:04:54–0:04:57
Dann hatte ich nochmal so ein bisschen auf einmal gemerkt, ich möchte mich vielleicht
0:04:57–0:05:00
sogar ein bisschen darstellen, Warum, warum ich das interessiert und beschäftigt.
0:05:00–0:05:04
Ich habe gerade schon gesagt, ich bin ein Psychologe und Psychotherapeut.
0:05:04–0:05:09
Ich habe also auch Psychologie studiert und inzwischen schon über 25 Jahre her.
0:05:09–0:05:16
Aber noch keine 30 Jahre habe ich auch als studentische Hilfskraft bei den Kognitionswissenschaften,
0:05:18–0:05:24
sogar in Lisp programmiert. Ich habe die Sachen aber nicht mehr gefunden.
Florian Clauß
0:05:21–0:05:25
Ach, echt? Das hatten wir schon. Das hast du mir vorgehalten.
Micz Flor
0:05:25–0:05:35
Und die Idee damals war, ein System zu simulieren oder so eine Art Proof of Concept herzustellen.
0:05:36–0:05:42
Stell dir vor, acht acht Pixel, damals beim C64 oder Sinclair ZX Spectrum war
0:05:42–0:05:45
das quasi die Größe, in der alle Buchstaben abgebildet wurden.
Florian Clauß
0:05:45–0:05:53
Ja, es war ein Spike. Ich glaube, wenn wir damals beim Ich war das ist das so spricht. Sorry.
Micz Flor
0:05:47–0:05:48
Es X Bright.
0:05:54–0:05:57
Und damals war meine Aufgabe und ich habe es auch sehr genossen,
0:05:57–0:06:01
habe das sogar im Sinclair ZX Spectrum noch mal in Basic nachgebaut.
0:06:01–0:06:05
Wenn du dir vorstellst, dass ein Raster von 8,8 und du bildest da Buchstaben
0:06:05–0:06:09
drauf ab, dann kannst du ja verschiedene Quadrate auf diesem Blatt.
0:06:10–0:06:16
Kannst du sagen, wenn da wirklich was erkennbar ist, dann muss das quasi entweder
0:06:16–0:06:18
Buchstabe A oder irgendwas sein.
Florian Clauß
0:06:19–0:06:25
Okay, es gibt quasi schon so ein Muster, was dann halt so ein Matching Score
0:06:25–0:06:31
hat. Und wenn das quasi über rechte, das ober rechte Quadrat dann gefüllt ist,
0:06:31–0:06:34
dann kann es kein n sein, sondern es ist vielleicht ein Haar.
Micz Flor
0:06:34–0:06:37
Ja, oder wenn es eben nicht gefüllt ist. Wenn man sich zum Beispiel einen Tee
0:06:37–0:06:38
vorstellt, dann ist oben die erste
0:06:38–0:06:42
Reihe komplett schwarz und in der Mitte irgendwie auch schwarz runter.
0:06:42–0:06:47
Das heißt, wenn ganz unten links weiß ist, 100 % weiß, dann kann es kaum ein
0:06:47–0:06:51
Tee sein. Wenn es schwarz ist, dann könnte es zum Beispiel ein Haar oder ein
0:06:51–0:06:52
A oder andere Sachen sein.
0:06:52–0:06:57
Und dann haben wir halt bestimmte Bereiche, haben halt bestimmte Gewichte.
0:06:57–0:07:01
Das heißt, du kannst dann, manche sind aussagekräftiger als andere und so kannst,
0:07:01–0:07:04
dir vorstellen, dass man da diese Gewichte verrechnen kann und dann kann man
0:07:04–0:07:08
so Wahrscheinlichkeiten aufstellen. Wahrscheinlich ist es zu 98 % ein Haar.
0:07:09–0:07:11
Vielleicht ist es aber auch ein A usw.
0:07:12–0:07:17
Und das ist so der frühe Anfang. Und es gab damals natürlich auch schon neuronale
0:07:17–0:07:21
Ideen und so, aber es gab viel wie das, was ich beschrieben habe,
0:07:21–0:07:25
der Versuch, dass man als erstes das löst, das Problem,
0:07:26–0:07:31
und dann versucht ein Programm zu bauen, was aufgrund dieser mentalen Leistung
0:07:31–0:07:35
des Lösens des Menschen dann bestimmte Wahrscheinlichkeiten runterrechnet.
0:07:36–0:07:39
In diesem Beispiel kann ich natürlich dann immer mal gucken,
0:07:40–0:07:45
meine Kamera, wie genau erkennt ihr die Buchstaben und kann das dann matchen
0:07:45–0:07:46
mit meinen Gewichten und kann das optimieren?
0:07:47–0:07:51
Ich kann da vielleicht sogar eine Schleife einbauen, dass die Software selber checkt, was besser ist.
0:07:51–0:07:57
Das wäre dann schon fast so eine Lernaufgabe. Das wär dann die Rückmeldung.
0:07:58–0:08:00
Also super Learning. Das habe ich letztes Mal erklärt.
0:08:02–0:08:07
Und es war aber immer noch damals oft so und es ist auch heute bei vielen Sachen,
0:08:07–0:08:09
so es gibt einen Algorithmus, es gibt eine Lösung.
0:08:10–0:08:15
Und heute bei diesen Deep Learning assoziativen neuronalen Netzen,
0:08:16–0:08:22
da ist es halt oft so, dass es von oben erst mal keinen Algorithmus drauf gibt, sondern,
0:08:23–0:08:30
das System wird bereitgestellt und fühlt sich dann war schön hier und fühlt
0:08:30–0:08:31
sich dann von ganz alleine mit,
0:08:32–0:08:35
Verbindung, Vernetzung und ist dann immer besser in der Lage,
0:08:35–0:08:39
auch bestimmte Dinge zu erkennen. Punkt. Da mach ich jetzt mal eine Klammer zu.
Florian Clauß
0:08:39–0:08:47
Vielleicht mal in kurzer Zeit. Wir sind ja, wir reden beim Laufen und im Laufen sozusagen.
Micz Flor
0:08:45–0:08:47
Im Laufen laufen.
Florian Clauß
0:08:48–0:08:53
Und wir gehen auch hier so bestimmte Trades durch Berlin ab.
0:08:53–0:08:57
Und wie schon gesagt, wir sind hier in der Bruno Taut Hufeisensiedlung.
0:08:57–0:09:05
Sieht man dann später bei unserem Track auf Komoot und wir finden auch ein paar
0:09:05–0:09:07
Bilder zu der Hufeisensiedlung, die wir gemacht haben.
0:09:08–0:09:14
Wollte ich immer so als kleinen Sidekick. Alles unter eigentlich Podcast D Kann
0:09:14–0:09:18
man sich die Tracks runterladen und nochmal anschauen auf kommod.
0:09:18–0:09:19
Aber hier ist es auch wirklich.
0:09:20–0:09:24
Ich finde es so ein bisschen, wenn man das ich will nicht zu lange auswalzen,
0:09:24–0:09:29
aber so ein bisschen so zur Waldsiedlung hat man so ein ähnliches heimeliges.
Micz Flor
0:09:28–0:09:34
Hey, da müsste die Peter Behrens die mit dem Bärenfell über dir Auf jeden Fall. Es ist.
Florian Clauß
0:09:29–0:09:30
Gefühl, aber unheimlich.
Micz Flor
0:09:35–0:09:39
Es ist sehr ähnlich ihr allerdings noch hat man so ein bisschen das Gefühl,
0:09:39–0:09:44
dass Architektinnen dazu neigen, manchmal den Blick von oben zu machen.
0:09:44–0:09:48
Also hier hatte ich mehr das Gefühl, das ist auf dem Reißbrett entstanden, bei Behrens Was?
0:09:48–0:09:51
Ja, total schön, diese leichten, mäandernden Fronten.
Florian Clauß
0:09:51–0:09:55
Ja, also ich meine, das gehört auch nicht zum Kern der Tauziehen.
0:09:55–0:09:58
Das ist der Kern ad hoc, genau nachher durch die Tauziehung.
0:09:58–0:10:01
Und kommen wir den Taut Autos vorbei. Was ich auch.
Micz Flor
0:10:00–0:10:03
Und das hat auch die taz und das war doch was, was ich da auch angesprochen
0:10:03–0:10:08
hatte, wo wir die diesen Wasser Boiler da geholt hatten den.
Florian Clauß
0:10:07–0:10:14
Genau. Genau das haben wir hier geholt. Wir gehen quasi die die ganzen Laufwege
0:10:14–0:10:18
unserer Haushaltsgeräte ab. Waschmaschine?
Micz Flor
0:10:18–0:10:23
Also eben waren wir noch in den 90er Jahren mit Lisp und dann waren wir in den
0:10:23–0:10:26
Nullerjahren mit der Tauschsiedlung.
0:10:27–0:10:34
Gut, ich habe ja schon gesagt, dass es so ein bisschen seminarmäßig vorbereitet habe und,
0:10:35–0:10:39
habe mir dann überlegt, ich weiß nicht, wie es dir geht, aber dieses Es ist,
0:10:39–0:10:43
total spannendes Thema, aber auch so ein mächtiges Thema, wo ich total schüchtern
0:10:43–0:10:47
werde und denke, hoffentlich hört das keiner und gleichzeitig möchte ich so viel dazu sagen.
Florian Clauß
0:10:46–0:10:52
Aber kannst du das Thema noch mal so quasi in einem Satz zusammenfassen?
Micz Flor
0:10:52–0:10:55
Ja, also ich weiß noch nicht, wie die Folge heißen wird, aber was ich machen
0:10:55–0:11:00
möchte, ich möchte eher so ein bisschen Gedankenspiele machen, um.
0:11:02–0:11:07
Hintenrum so ein bisschen Grenzen aufzuzeigen oder über seine Gedankenspiele
0:11:07–0:11:10
so interessante Fragen herauszufinden.
0:11:10–0:11:19
Ähm, wo mögliche Grenzen von einem sehr programmiertechnischen Denken her sein könnten.
0:11:20–0:11:23
Also natürlich ist eine ganz große Grenze, die werden wir überhaupt nicht besprechen.
0:11:23–0:11:27
Ist Energieeffizienz also diese immer größer werdenden?
0:11:27–0:11:32
Also Dali II ist ja ein Riesending und macht super geile Ergebnisse und lustig und viel Spaß.
0:11:32–0:11:37
Aber es ist halt so einfach energiemäßig, jenseits von allem,
0:11:37–0:11:39
was unser Gehirn so irgendwie kann.
0:11:39–0:11:43
Und irgendwie ist das Gehirn ja so ein so ein Richtwert, wo man scheinbar hin
0:11:43–0:11:46
will. Auch das ist ein eigenes Thema. Für meine nächste Frage,
0:11:46–0:11:49
also diese menschliche Blick auf alles, was wir da gerade erforschen.
Florian Clauß
0:11:48–0:11:54
Ich werde es auch aufgreifen. Hier wird viel über bio bioelektrische Systeme reden.
Micz Flor
0:11:50–0:11:52
Ja, okay, das ist auch cool.
0:11:54–0:11:58
Da bin ich gespannt. Also jetzt geht es mir dann eher so ein bisschen darum,
0:11:58–0:12:00
damit zu spielen, dass wir die jetzt mal angehen.
0:12:00–0:12:05
Und das erste, was ich jetzt als in meiner kleinen Seminarübung bereit habe,
0:12:05–0:12:12
würde ich es von Jorge Luis Borges eine Kurzgeschichte, die heißt Die Bibliothek von Babel.
Florian Clauß
0:12:12–0:12:20
Ah ja, die kenne ich ja. Er wird sie vorlesen, nicht?
Micz Flor
0:12:12–0:12:16
Ich weiß nicht, ob du die kennst von 1941.
0:12:18–0:12:22
Borges ist ein. Ich habe so ein. Nein, ich glaube, das ist nämlich gar nicht
0:12:22–0:12:24
so hilfreich, weil da kommen wir gleich auf.
Florian Clauß
0:12:23–0:12:25
Okay, Wir können jetzt über die Fragen Sie.
Micz Flor
0:12:26–0:12:29
Ja, und die Zusammenfassung ist bestimmt auch gut.
0:12:31–0:12:39
Also, der argentinische Schriftsteller und Bibliothekar veröffentlichte 1941 eine Kurzgeschichte.
0:12:39–0:12:45
Und diese Kurzgeschichte ist einfach mal so Es gibt in der ich,
0:12:45–0:12:49
wie ich sie jetzt quasi aufbaue, als Gedankenspiel.
0:12:49–0:12:52
Es gibt, sagen wir mal, ein Fest umschrieben, eine Größe von einem Buch,
0:12:52–0:12:57
sagen wir 100 Seiten mit 80 Zeilen und jede Zeile hat 80 Zeichen.
0:12:59–0:13:04
Und dann kann man ja rein theoretisch iterativ das durchlaufen lassen und könnte
0:13:04–0:13:13
quasi alle möglichen Buchstabenfolgen, die es gibt, in ein Buch dieses Ausmaßes hineintun.
0:13:13–0:13:15
Wir können es auch verkürzen, ich kann sagen nur zehn Seiten.
0:13:16–0:13:17
Das sind dann wahrscheinlich keine.
0:13:17–0:13:22
Natürlich keine Romane mehr, aber Kurzgeschichten oder Papers oder sonst was.
0:13:23–0:13:28
Und und diese Bibliothek, die ist genau so etwas.
0:13:28–0:13:31
Die hat dann noch so ein architektonisches Spiel drum herum,
0:13:31–0:13:34
wo auch viel reingedeutet wurde in den Text. Aber das brauchen wir jetzt nicht,
0:13:35–0:13:38
sondern wir beschäftigen uns einfach mit diesen Büchern.
0:13:38–0:13:42
Da gibt es unendlich viele Bücher. Nein, es gibt endliche Bücher,
0:13:42–0:13:46
weil wir wissen ja, wie viele Zeichen im Alphabet sind und wir wissen,
0:13:46–0:13:50
wie viel Zeichen so ein Buch kommen, wenn wir es denn mal ausrechnen.
0:13:50–0:13:52
Wahrscheinlich gefühlt unendlich viele.
0:13:53–0:13:57
Aber wenn man dieses Gedankenspiel und dann kannst du irgendwann einsteigen,
0:13:57–0:14:00
ich fang schon mal an, wenn man dann in dieser Geschichte so rein liest,
0:14:00–0:14:03
dann ist es halt so ganz interessant, weil die Bibliothekare,
0:14:04–0:14:08
die sind mit dieser Bücherei irgendwie konfrontiert und versuchen die zu sortieren.
Florian Clauß
0:14:09–0:14:12
Ich habe es jetzt noch nicht ganz verstanden. Was? Was? Es gibt eine.
Micz Flor
0:14:12–0:14:17
Diese Bibliothek ist voller Bücher. Und jetzt einfach Ich reduziere es mal ein
0:14:17–0:14:20
bisschen. Wir sagen mal, jedes Buch hat 20 Seiten.
0:14:22–0:14:25
80 Zeilen und 80 Zeichen pro Zeile.
Florian Clauß
0:14:25–0:14:28
Es ist völlig randomisiert. Oder ist das.
Micz Flor
0:14:28–0:14:33
Und in dieser Bücherei sind alle möglichen Zeichen kombiniert zu hören drin.
Florian Clauß
0:14:31–0:14:33
Okay. Okay. Verstehe. Jetzt.
Micz Flor
0:14:33–0:14:39
Das heißt, man weiß sofort unglaublich viel davon ist einfach Bullshit.
0:14:39–0:14:42
Macht erst mal auf den ersten Blick überhaupt gar keinen Sinn.
0:14:43–0:14:49
Und dann ist es so, dass in diesen Büchern dann ist man fast 1/3 dieses.
0:14:49–0:14:50
Diese Bibliothek ist verbrannt.
0:14:51–0:14:56
Das heißt 1/3 aller Bücher weg. Aber die Bibliothekare waren gar nicht so alarmiert
0:14:56–0:14:59
deswegen, weil es gab eigentlich ja immer noch fast alles.
0:14:59–0:15:04
Da gab es die gleichen Geschichten, gab es immer noch in 100000 facher Ausfertigung
0:15:04–0:15:07
mit mit Rechtschreibefehlern, aber man konnte sie immer noch lesen.
0:15:07–0:15:17
Es gibt ganz viele Texte, die sind, ähm, die sind falsch geschrieben und sind
0:15:17–0:15:20
einfach schlecht redigierte Versionen von besseren Texten.
0:15:20–0:15:25
Es gibt Kurzgeschichten, wo es ums Gleiche geht. Manche erzählen die Geschichte besser als andere.
0:15:25–0:15:31
Es gibt aber auch zum Beispiel genau ein Buch, in dem nur Leerzeichen drin sind. Da ist gar nichts drin.
0:15:32–0:15:36
Und genau ein Buch, das nur den Buchstaben A auf der ersten Seite genau in der Mitte hat.
0:15:37–0:15:41
Aber es gibt ziemlich viele Bücher, in denen nur der Buchstabe A drin ist.
0:15:43–0:15:46
Das heißt, du merkst, wie man so anfängt, da so hineinzu denken.
0:15:47–0:15:49
Dann kriegt man so ein ganz komisches Gefühl.
0:15:49–0:15:52
Erst mal auf einer formalen Ebene von Redundanz.
0:15:52–0:15:58
Das heißt, ganz viele Bücher braucht es nicht. Und da sind wir zum Beispiel bei diesem Zyptding.
0:15:58–0:16:01
Man kann dann, man kriegt immer wieder eine neue Rückmeldung.
0:16:02–0:16:04
Du stellst die gleiche Frage und du kriegst einen neuen Text,
0:16:04–0:16:06
das gleiche nochmal macht.
0:16:07–0:16:09
Und das ist irgendwie in dieser Bibliothek auch schon angelegt.
0:16:10–0:16:15
In dieser Kurzgeschichte wird dann auch kurz gesagt, dass es ganz viele wissenschaftliche
0:16:15–0:16:17
Abhandlungen darin auch gibt.
0:16:18–0:16:21
Und zwar gibt es welche, die richtig sind und welche, die falsch sind.
0:16:22–0:16:25
Es gibt ganz viele alte religiöse Texte, die man gar nicht kannte,
0:16:25–0:16:29
von dem man aber auch natürlich nicht weiß, ob die irgendwie echt sind.
0:16:29–0:16:31
Aber dann müssen sie da sein, sonst wären sie ja nicht in dieser Bibliothek drin.
0:16:32–0:16:38
Es gibt Widerlegungen von Dingen, die jahrhundertelang geglaubt wurden,
0:16:39–0:16:41
die dann wissenschaftlich widerlegt wurden.
0:16:42–0:16:46
Es gibt ganz viele Lügen, ganz viele Wahrheiten. Also dieses,
0:16:46–0:16:52
dieses, diese Bibliothek ist voller Dinge, vor allen Dingen.
0:16:52–0:16:56
Und das ist das Verrückte daran. Auch alle zukünftigen Erfindungen.
0:16:57–0:17:01
Die wir eigentlich jetzt noch gar nicht verstehen könnten, sind da schon drin.
0:17:01–0:17:05
Du kannst also auch in die Zukunft gucken, aber wir werden es vielleicht nicht verstehen.
Florian Clauß
0:17:06–0:17:11
Okay. Darf ich nochmal mal so kurz zusammenfassen, wie ich es verstanden habe?
0:17:11–0:17:16
Dadurch, dass jetzt alle möglichen Zeichen Kombinationen in dieser Bibliothek
0:17:16–0:17:21
abgebildet sind in Form von Büchern, gibt es halt genau diese ganzen potenziellen
0:17:21–0:17:25
Entdeckungen oder Geschichten oder was auch immer die du gerade beschrieben hast.
0:17:27–0:17:30
Ähm, anders gesagt ist.
0:17:31–0:17:34
Ähm. Dadurch, dass es so eine immens hohe Zahl ist.
0:17:34–0:17:40
Das heißt im Moment hohe Zahl an nicht sinnhaften, Sinnvollen.
0:17:41–0:17:45
Es ist ja. Also da bist du dann halt auch zu einer Kurzgeschichte mit Rechtschreibfehlern kommst.
0:17:46–0:17:50
Bist du ja schon in einem. In einer Potenz, die ja verschwindend ist.
0:17:50–0:17:54
Also es ist ja eher die Frage, wie sind die Gänge in dieser Bibliothek?
Micz Flor
0:17:55–0:17:59
Ja, das ist auch so ein Thema. Es gibt eben so einen architektonischen Teil,
0:18:00–0:18:05
der da auch beschrieben ist, wie sich quasi die Bibliothekare und die Bücher
0:18:05–0:18:06
in diesen Räumen sortieren.
Florian Clauß
0:18:06–0:18:12
Also, dass du wirklich zu sinnvollen Schriften kommst überhaupt.
0:18:12–0:18:18
Also erst wenn ich diesen ganzen sinnlosen Kram weg in irgendeiner irgendwelche
0:18:18–0:18:20
anderen Räume wegsortiert.
Micz Flor
0:18:19–0:18:24
Ja, und das ist genau die Urfrage der Bibliothekare. Das müssen die selber rausfinden.
0:18:24–0:18:29
Die versuchen irgendwie ein System zu bewegen, ihre Aufgabe sinnvoll zu sortieren.
Florian Clauß
0:18:27–0:18:29
Okay. Das ist gelöst.
Micz Flor
0:18:29–0:18:32
Das ist nicht gelöst, Da sind die irgendwie dran, weil die wissen auch bei manchen.
Florian Clauß
0:18:31–0:18:34
Okay, aber das ist jetzt nicht die, dass es jetzt darum geht,
0:18:34–0:18:38
nicht bei diesem Gedankenexperiment, sondern wir haben schon so ein Substrat
0:18:38–0:18:41
von sinnvollen Schriften, wie auch immer und haben.
Micz Flor
0:18:41–0:18:43
Ja Nein. Wir können das aber auch so ein bisschen ausweiten.
0:18:43–0:18:49
Ich glaube, das Interessante ist ja auch wenn wir jetzt diese diese Tür zu JLPT
0:18:49–0:18:56
zum Beispiel öffnen, ist ja diese, diese Gefahr von Texten, die plausibel erscheinen.
0:18:57–0:19:00
Also das ist ja dann, da öffnet sich ja dann alles Mögliche,
0:19:00–0:19:05
wie ich vorhin meinte, in dem in den Texten, wo Dinge bewiesen werden,
0:19:05–0:19:10
Dinge erlogen werden, glaubhaft Dinge dargestellt werden, dann erst später widerlegt werden,
0:19:12–0:19:14
dass das alles möglich ist.
0:19:15–0:19:19
Das ist ja in gewisser Weise das, was wir mit Katie Petit gerade so erleben.
0:19:19–0:19:21
Also dass man das Gefühl hat, dass so eine.
0:19:23–0:19:26
Das ist im Prinzip wie eine komische Riesenbibliothek. Und jedes Mal,
0:19:26–0:19:32
wenn ich da noch mal Redurido klicke, dann kriege ich ein neues Buch aus dieser Bibliothek.
Florian Clauß
0:19:28–0:19:28
Er.
0:19:32–0:19:36
Ja, das fand ich von dir auch sehr gut in der letzten Folge beschrieben,
0:19:36–0:19:39
obwohl da dieser Druck auf deinen Rippen war.
0:19:40–0:19:46
Aber diese, diese Vehemenz, die Kreativität dann mit diesem Ich aber weiß es
0:19:46–0:19:50
ganz genau und ich sagte dir das jetzt wie es ist. Ja, also das finde ich halt
0:19:50–0:19:54
irgendwie, ja, ich habe dann auch mal ein bisschen mit dem Rum gespielt oder mit der wie auch immer.
0:19:55–0:20:00
Und hatte dann auch immer das Gefühl, der weiß genau Bescheid.
Micz Flor
0:20:00–0:20:05
Ja, ja, das ist wirklich. Ich glaube, das war so der Neuntklässler,
0:20:05–0:20:08
der versucht, obwohl er nicht gelernt hat, irgendwie nicht durchzufallen und
0:20:08–0:20:12
denkt, wenn ich irgendwas sage, können mich nicht durchfallen lassen. So kommt einem das vor.
Florian Clauß
0:20:12–0:20:20
Und ich. Ja, hier ist es natürlich auch die Frage, ob das jetzt von den Entwicklern so als so als.
0:20:20–0:20:24
Ja, wir müssen halt gegen die Welt antreten und egal was kommt,
0:20:24–0:20:29
egal welcher Eiswind ihr ins Gesicht weht, muss immer diese Tonalität haben,
0:20:29–0:20:31
dass es halt extrem richtig ist, was du sagst.
Micz Flor
0:20:31–0:20:31
Wir.
Florian Clauß
0:20:32–0:20:34
Ich glaube das ist echt so, so ein BIOS von dem Ding.
Micz Flor
0:20:35–0:20:38
Ja, das ist. Das hatte ich. Ich weiß ehrlich gesagt gar nicht mehr genau,
0:20:38–0:20:42
aber diese. Diesen Bias mit den langen Antworten. Lange Sätze hatte ich den,
0:20:42–0:20:43
erzählt in der letzten Folge.
0:20:43–0:20:49
Denn es gibt von auf Openai. Auf der Webseite gibt es zu der Entwicklung des
0:20:49–0:20:56
Ganzen auch in einem Text diese Meldung, wo das irgendwie noch mal mitgeteilt wird,
0:20:56–0:21:00
dass die Antworten wurden halt geratet.
0:21:00–0:21:05
Das waren Leute, dass so menschliche Hirne, die gelesen und geredet haben und
0:21:05–0:21:08
das war eine Form von Feedback für die für diesen Lernprozess.
0:21:09–0:21:15
Und weil die also die Antworten, die die Sätze, die das gleiche sagten,
0:21:15–0:21:19
aber länger waren, wurden höher geratet als die, die kürzer waren.
0:21:19–0:21:20
Es gab so einen Bias für lange Sätze.
0:21:21–0:21:25
Das fand ich ganz interessant, dass man da dann, wie du schon sagst,
0:21:25–0:21:28
Bias einbauen kann, einfach in der Rückmeldung.
0:21:28–0:21:32
Und das heißt zum Beispiel in Psychologie heißt, dass der Rosenthal Effekt der,
0:21:32–0:21:36
das habe ich glaube ich auch schon mal erzählt, dass wenn du Forschern bestimmte
0:21:36–0:21:39
Mäuse gibst die halt im Labor dass er jetzt ja.
Florian Clauß
0:21:37–0:21:41
Ja, das ist sehr faszinierend. Wenn.
Micz Flor
0:21:40–0:21:45
Und das ist genau das gleiche wenn du äh ei trainierst also wenn du nur daran,
0:21:45–0:21:52
also du bist als als Forscher oder Beobachter, bist du irgendwie involviert
0:21:52–0:21:54
und hast einen Einfluss auf dieses ganze.
0:21:56–0:22:02
Ganze System. Was ich halt bei dem ZCPT interessant finde, wenn man es als Vergleich mit diesem.
0:22:02–0:22:07
Mit dieser Buches Geschichte ist halt das zukünftige und das finde ich so einen
0:22:07–0:22:10
ganz wichtigen, ganz wichtigen Punkt.
0:22:10–0:22:17
Und zwar wir haben jetzt ja das steht ja auch drin, ich glaube bis 2020 Texte
0:22:17–0:22:23
bis zu 21 wurden halt gelesen. So alles was danach war, das kann ja chipt nicht gut einordnen.
0:22:23–0:22:31
Das heißt, du wirst dort nicht zukünftige Erfindungen oder Worte oder es wird
0:22:31–0:22:34
halt nichts in der in der Bibliothek von Woche.
0:22:34–0:22:38
Da stehen ja auch Sachen drin, die erst in 2000 Jahren wahr sein werden.
0:22:39–0:22:43
Aber bei ZTP kommt so was irgendwie nicht raus.
0:22:43–0:22:48
Der Blick ist schon eher so nach hinten gewandt und ebenso leicht anbiedernd und bestimmt.
0:22:48–0:22:56
Das heißt, der versucht immer oder die versucht immer oder das Netz versucht immer dich zu bedienen.
0:22:57–0:23:00
Und das finde ich nochmal so einen ganz wichtigen Punkt.
0:23:02–0:23:06
Wenn wir in die Zukunft gucken. Also nicht nur muss man ja diese,
0:23:08–0:23:13
Deep Learning neuronalen Netze immer wieder updaten, immer wieder auch gucken,
0:23:13–0:23:16
ob irgendwelche Beweise drin sind oder nicht, was dann auch irgendwie immer
0:23:16–0:23:17
so eine Art Zeitgeist ist.
0:23:17–0:23:21
Das ist ja im Prinzip eine Diskussion, die man bei Wikipedia auch schon hatte.
0:23:24–0:23:27
Nicht nur, dass Leute bei Wikipedia halt ihre eigenen Biografien gefälscht haben
0:23:27–0:23:30
oder haben fälschen lassen oder auch schön dann lassen usw.
0:23:30–0:23:35
Aber generell welche Artikel kommen da drin vor, welche Themen werden da vorgeschlagen?
0:23:35–0:23:38
Und hier sind wir jetzt gerade in einem kleinen Zoo.
0:23:44–0:23:45
Rechtsschafe.
Florian Clauß
0:23:48–0:23:51
Ja, wir sind hier, Schloss Britz.
0:23:53–0:23:59
Es ist auch ein ganz netter Ausflugsort. Wenn du mal am Wochenende mit der Familie,
0:23:59–0:24:01
Kuchen essen gehen willst, dann hier.
Micz Flor
0:24:01–0:24:05
Weil du. Es ist wirklich wahr. Hier war ich noch nicht.
0:24:06–0:24:10
Sehr schön, was du hier schon mal konntest. Okay, gut.
Florian Clauß
0:24:08–0:24:09
Ja Kuchen ist.
Micz Flor
0:24:11–0:24:15
Genau da sind wir bei dem Motivationsthema. Was Ja auch noch in zukünftigen.
Florian Clauß
0:24:13–0:24:17
Denn genau das ist die Rewards, die Belohnung.
Micz Flor
0:24:15–0:24:16
Folgen wahrscheinlich. Ich mache mir jetzt nur noch.
Florian Clauß
0:24:17–0:24:23
Okay, also wir haben jetzt also dieser Connect zu der Bibliothek.
Micz Flor
0:24:23–0:24:28
Ja, und jetzt der Blick eben immer wieder nach hinten. So, also wir haben ja wir haben.
0:24:29–0:24:36
Ich hatte das heute Morgen eine kurze Fußnote dazu eben dieses leicht deprimierende Gefühl.
0:24:36–0:24:40
Ich saß in einem Cafe, was relativ aufgeräumt war und da lief dann halt so minimal
0:24:40–0:24:45
Electronica, Ambient Music, also Musik, wo man schon immer irgendwie so dachte,
0:24:45–0:24:48
naja, das könnte man wahrscheinlich auch einfach automatisieren,
0:24:48–0:24:49
das blubbert halt so raus im Hintergrund.
0:24:49–0:24:52
Keiner hört wirklich hin, tut einfach so gut.
0:24:53–0:24:57
Und jetzt ist es halt so weit. Es ist halt es gibt von.
0:24:58–0:25:02
Von Google hatte ich es geschickt, also sind es Soundbeispiele,
0:25:02–0:25:04
wo halt wirklich jetzt nicht mehr nur Noten generiert werden,
0:25:04–0:25:05
sondern wirklich Musiker.
0:25:06–0:25:09
Das heißt, wir gucken aber dann bei Sachen immer so nach hinten,
0:25:09–0:25:11
also wir gucken halt immer nach hinten.
0:25:11–0:25:16
Das Spannende an Musik ist ja oft, was kommt vorne raus, was ist die erste Fugazi
0:25:16–0:25:20
Platte oder meinetwegen auch die erste Bob Dylan Platte, meinetwegen auch das
0:25:20–0:25:22
erste Tschaikowsky Stück.
0:25:22–0:25:28
Das sind ja die die Momente, wo man denkt Wow, und wenn du jetzt aber all das
0:25:28–0:25:37
nimmst und das nächste in der Art oder als Melange aus zwei Dingen berechnest, dann.
0:25:38–0:25:43
Fehlt das Neue, was ich meine. Also der Blick ist immer nach hinten gerichtet.
0:25:43–0:25:47
In der Box, also mit allem, mit dem kompletten Möglichkeitsraum und Buchstaben,
0:25:47–0:25:50
ist in der Bibliothek von Borges auch die Zukunft abgebildet.
0:25:50–0:25:54
Es ist alles schon da, aber mit ZTE, BT, was ja gelernt hat,
0:25:55–0:25:57
dann ist immer nur die Vergangenheit da.
0:25:57–0:26:02
Das ist quasi das Neue. Was vorne rauskommt, ist dann eher so eine Form von Mash up.
0:26:03–0:26:08
So wie man das dann auch bei den Daily 2 Witzen in Social Media immer sieht,
0:26:08–0:26:14
wenn man dann hihihi, mach mal Big Bird von Sesamstraße auf dem Mars oder?
Florian Clauß
0:26:14–0:26:18
Aber ich glaube, da kommen wir auch auf so ein, wie soll man sagen,
0:26:18–0:26:24
so ein Designfehler bei diesem ganzen Melt Machine Learning Zeug,
0:26:25–0:26:30
drauf, nämlich dass es halt reaktiv ist.
0:26:30–0:26:33
Das heißt, du brauchst Material, um Ergebnisse zu bekommen.
0:26:34–0:26:37
Also es ist ja nicht aktiv, es wird aktiv in der Interaktion,
0:26:38–0:26:40
aber es ist im Prinzip dieses Ganze.
0:26:40–0:26:46
Dieser ganze Prozess des Lernens ist ja immer mit einem Material,
0:26:46–0:26:47
was quasi vorhanden ist.
0:26:47–0:26:50
Es wird, ja, es kann sich dann auch selber Material erzeugen,
0:26:50–0:26:54
aber es ist ja auch dann wieder nur basierend auf vergangenem Material.
0:26:54–0:26:59
Also ich glaube, das ist so, das ist so auch wieder bei was dann halt da drin ist.
Micz Flor
0:26:59–0:27:00
Ja.
0:27:03–0:27:08
Ja, da mach ich hier mal kurz einen Schnitt. Also, das ist jetzt der erste,
0:27:08–0:27:15
der erstes erste Gedankenexperiment mit möglichen Anknüpfungspunkten zu diesem
0:27:15–0:27:17
Thema Künstliche Intelligenz.
0:27:17–0:27:27
Da ging es jetzt eben um diese, um diese, diesen gefühlt unendlichen Plausibilitätsraum.
0:27:27–0:27:33
Und die Bibliothek von Borges macht alles und deswegen aber auch ganz viel Unverständliches,
0:27:34–0:27:37
macht zum Beispiel auch jeden Roman.
0:27:37–0:27:40
Allerdings sind dann immer die dritte, 4. 05. Seite in Spanisch.
0:27:40–0:27:43
Keiner weiß warum. Also das ist ja quasi alles da.
Florian Clauß
0:27:43–0:27:47
Der älteste Teil, der meint, meint blowing. Ja, das ist so ein bisschen wie.
Micz Flor
0:27:43–0:27:45
Also so denkt ja.
Florian Clauß
0:27:48–0:27:52
Mit diesem, was wir auch Kontext hatten, diese unendlichen Zahlen.
0:27:52–0:27:54
Irgendwann gibt es dann in der.
Micz Flor
0:27:54–0:27:57
Und den Kreis hinten in der Zahl PI. Ja.
Florian Clauß
0:27:55–0:28:00
Na und dann hast du Ja, du hast es. Du hast jedes Muster irgendwie da.
Micz Flor
0:27:59–0:28:00
Ja, genau.
Florian Clauß
0:28:01–0:28:05
Also insofern ist es irgendwie alles vorhanden, immanent.
0:28:06–0:28:09
Aber ich meine, auch das lässt sich ja eigentlich jetzt so berechnen.
0:28:09–0:28:14
Also man könnte man kann ja diese Bibliothek einen Computer so aufbauen, das ist ja kein Problem.
Micz Flor
0:28:14–0:28:18
Ja, ja, da muss man ja immer gucken, wie, wie viel, wie viel Energie und wie
0:28:18–0:28:21
viel Teilchen und das Universum. Dann wird ja mal gerechnet, wie viele mögliche.
Florian Clauß
0:28:21–0:28:25
Aber es gibt tatsächlich schon dieses Projekt, das Musical. Ich wollte es auch
0:28:25–0:28:28
raussuchen, dass du wirklich so einen.
0:28:28–0:28:35
Du hast alle Zeichen Kombination in einen Absatz drin und da steht halt alles
0:28:35–0:28:38
immer einmal drin. Also es gibt schon als Netzprojekt.
Micz Flor
0:28:35–0:28:36
Aber es gibt schon.
0:28:39–0:28:43
Ja, das verlinken wir. Dann musst du mir nochmal zuschieben.
Florian Clauß
0:28:43–0:28:46
Ich habe. Ich habe das für die Kontextfolge versucht zu finden,
0:28:46–0:28:47
aber ich habe es nie gefunden.
Micz Flor
0:28:46–0:28:51
Ach so, da haben wir es nicht gut. Also das ist jetzt dieses eine Ding bei ZP.
0:28:51–0:28:54
Das finde ich halt irgendwie interessant das dagegen zu halten,
0:28:54–0:28:57
weil man wird von zB bestimmt keine Rechtschreibfehler kriegen,
0:28:57–0:28:59
es sei denn man bittet drum.
0:28:59–0:29:03
Und man wird auch natürlich keinen absoluten Buchstabensalat bekommen,
0:29:03–0:29:06
es sei denn, man bittet drum. Vielleicht. Ich weiß nicht, ich habe noch nicht probiert.
0:29:06–0:29:10
Das heißt alles was man da bekommt, ist in sich plausibel. Was natürlich auch
0:29:10–0:29:15
daran liegt, weil das Chateau Petit diese relativ einfache Aufgabe hatte zu
0:29:15–0:29:20
sagen, versuche, das nächste Wort zu erraten, Das ist wohl scheinbar so,
0:29:21–0:29:24
reduziert auf das Wesentliche war war die Aufgabe.
0:29:24–0:29:27
Also es geht durch alle Texte und guck dir das an und dann versucht das nächste
0:29:27–0:29:30
Wort zu erraten und wieder das nächste wie das nächste. Merkt dir,
0:29:30–0:29:35
ob du es richtig hast oder nicht und nutze das als als Verstärker oder als Feedback.
0:29:36–0:29:37
So genau.
Florian Clauß
0:29:38–0:29:42
In einer Bibliothek ist ja quasi alles gleich gewertet gewichtet. Also da gibt es ja.
0:29:42–0:29:46
Also ich meine dieses ganze neuronale Netz usw. die sind ja,
0:29:46–0:29:52
die arbeiten ja nur mit Gewichten, mit gewichteten Funktionen und so entstehen ja diese Verknüpfung.
0:29:53–0:29:56
Also wenn in der Bibliothek bist, dann ist ja erst mal alles gleich.
0:29:56–0:30:00
Es wird ja dann quasi erst in der Benutzung und der Interaktion wird dann halt
0:30:00–0:30:04
irgendwas höher gewichtet, weil es erst mal rezipiert werden muss,
0:30:04–0:30:07
damit es halt irgendwie Sinn ergibt. Und die anderen bleiben nie halt liegen.
0:30:08–0:30:10
Also es ist ja dann eine andere Form.
Micz Flor
0:30:12–0:30:20
Das zweite ist eine Kurzgeschichte von Ted Chiang. Ich weiß nicht genau,
0:30:20–0:30:22
wie es ausspricht, dass es der,
0:30:24–0:30:30
Autor der Kurzgeschichte die Grundlage für das Drehbuch von Arrival war.
0:30:30–0:30:35
Ja, auch ein finde ich ganz toller Film. Da geht es ja auch immer.
0:30:35–0:30:39
Das ist eben auch so einer, der Gedankenexperimente baut.
0:30:39–0:30:42
Es gibt auch eine Kurzgeschichte, um die es aber nicht geht,
0:30:42–0:30:44
die ich aber auch ganz toll finde.
0:30:44–0:30:49
Die heißt The Lifecycle auf Software Objects oder so ähnlich.
0:30:50–0:30:55
Da geht es um in Anführungszeichen, künstliche Intelligenz, um so was im Prinzip wie.
0:30:57–0:31:02
Metaverse von Facebook, wo dann diese künstlichen Intelligenzen sind Haustiere
0:31:02–0:31:07
und so ein Zoologen arbeitet mit denen und es ist total spannend zu gucken,
0:31:07–0:31:12
wie sich dann in so einem Gedankenexperiment Kurzgeschichte das da durchzieht.
0:31:12–0:31:16
Die Geschichte, auf die ich jetzt allerdings verweisen möchte,
0:31:17–0:31:23
ist 2000 in Nature erschienen und die heißt Catching Crumbs from the Table.
0:31:24–0:31:31
Also Brotkrumen vom Tisch sammeln und es ist jetzt über 20 Jahre her.
0:31:31–0:31:34
Aber es geht irgendwie auch um genau das, was wir jetzt so ein bisschen spüren,
0:31:35–0:31:42
nämlich dass ja schon bestimmte Stimmen aus Bildungsapparaten,
0:31:42–0:31:43
auch Prüfungsthemen, so etwas sagen.
0:31:43–0:31:48
Wir können jetzt mit ZPBT gar nicht mehr wirklich so prüfen,
0:31:48–0:31:50
wie wir das immer gemacht haben, weil
0:31:50–0:31:54
es ist einfach nicht mehr leicht zu unterscheiden zwischen dem, was jetzt,
0:31:54–0:31:59
durch irgendeine KI erstellt wurde und dem, was jetzt ein,
0:32:01–0:32:05
Studierender oder auszubildender Auszubildende.
0:32:07–0:32:11
Erstellen kann. So. Und in diesem.
0:32:12–0:32:17
In diesem Artikel. Der geht halt damit los, dass er sagt das ist jetzt 25 Jahre
0:32:17–0:32:23
her, dass das letzte Mal ein Mensch was wirklich originäres erfunden hat und,
0:32:23–0:32:26
ein Paper publiziert hat. Weil.
0:32:28–0:32:34
Es gibt jetzt eben diese ganzen Systeme von Metakognition oder Metahuman,
0:32:34–0:32:35
das heißt, die glaube ich sogar.
0:32:36–0:32:41
Und die machen jetzt die ganze Forschung und machen diese ganzen Paper und die
0:32:41–0:32:44
haben die Menschheit schon längst abgehängt.
0:32:45–0:32:52
Also die, die Erstellung von neuem wissen, vom Paper und von diesen ganzen Wissenswissenschaften,
0:32:52–0:32:58
also Wissenschaft machen nicht mehr Menschen, die rennen dem verzweifelt hinterher.
0:32:58–0:33:04
Das hat durch die durch die Metakognition Systeme einfach so eine Beschleunigung
0:33:04–0:33:07
erlebt, dass die Menschen abgehängt sind.
0:33:07–0:33:12
Und das beste, was die noch machen können, ist, dass sie nicht mehr selber Wissen
0:33:12–0:33:17
erschaffen und eigene Papers herstellen, sondern innerhalb von publizierten
0:33:17–0:33:18
Papers, die durch den Meta,
0:33:19–0:33:23
entstanden sind, dann quasi hermeneutisch wie Bible Bible Studies,
0:33:23–0:33:26
Also gucken, in den Text gucken und versuchen, den Text zu interpretieren,
0:33:26–0:33:28
um irgendwie zu begreifen, worum es da geht.
0:33:28–0:33:32
Weil diese Metakognition natürlich inzwischen so weit schon weg ist von dem
0:33:32–0:33:37
Wortschatz, den die Menschen da hatten, dass man das interpretieren muss.
0:33:37–0:33:40
Also es gibt dann wiederum eine Form der Wissenschaft. Das finde ich auch lustig
0:33:40–0:33:47
in dem Text, dass er meint, ja, Menschen wollen scheinbar mit wissenschaftlichen
0:33:47–0:33:50
Gedanken arbeiten, das hat auch so was Spielerisches.
0:33:51–0:33:55
Das bestimmt auch was dran. Und deshalb, falls es hier gerade so ein bisschen
0:33:55–0:33:56
knistert es fängt an zu regnen.
0:33:58–0:34:03
Und deshalb werden die Menschen sich dann nicht mehr mit dem Erfinden neuen
0:34:03–0:34:06
Wissens, sondern mit der Deutung von erfundenem Wissen beschäftigen.
0:34:06–0:34:08
Fand ich irgendwie ganz spannend.
0:34:08–0:34:16
Und dann ist es nämlich auch noch so, dass die metakommunistischen Systeme einfach
0:34:16–0:34:21
um schneller arbeiten zu können, haben die diese Sprache auch eigentlich hinter sich gelassen?
0:34:22–0:34:25
Also die machen nur noch Sprache, quasi für die Menschen.
0:34:26–0:34:30
Das bleibt unklar, warum die die Menschen überhaupt noch bedienen damit.
0:34:30–0:34:33
Aber scheinbar ist es da irgendwie rein programmiert und die haben aber für
0:34:33–0:34:34
sich selbst inzwischen, dass,
0:34:36–0:34:43
die end entwickelte The Digital Neuraltransferance oder Initial Digital Transfer,
0:34:43–0:34:50
Transfer ist Übertragung aber eine andere Übertragung, also wo dann diese neuronalen Netze einfach.
0:34:51–0:34:54
Sozusagen Snapshot von sich miteinander austauschen können.
0:34:54–0:34:57
Und damit ist das ganze Wissen auch ausgetauscht, zack, zack,
0:34:57–0:35:00
zack, zack hin und her und es wird weiter gearbeitet.
0:35:01–0:35:05
Es gibt. In William Gibson gibt es, ich glaube in Mona Lisa Overdrive gibt es
0:35:05–0:35:10
so ein Bild von einem in Anführungszeichen. Cyberpunk, so hießen ja damals,
0:35:10–0:35:13
die halt dann im Cyberspace drin waren.
0:35:13–0:35:17
Es gibt so eine Form von Meltdown und da müssen die Personen dann künstlich
0:35:17–0:35:22
am Leben gehalten werden und dürfen aber auch nicht von dem Cyberspace entkoppelt werden.
0:35:22–0:35:26
Und dann werden in so ein eigenes System hineingelegt und da drin weiß dann
0:35:26–0:35:29
keiner was. Dieser Zombie quasi dann.
0:35:30–0:35:33
Oder die nennen die Vampire, weil die schlafen. Also du weißt gar nicht,
0:35:33–0:35:37
was sich da so entwickelt. Und so ähnlich ist das in dieser Kurzgeschichte auch beschrieben.
0:35:37–0:35:41
Also die dieses dieses entkoppelte Wissen schießt dann einfach,
0:35:42–0:35:47
macht einfach weiter so und das ist ja irgendwie glaube ich so eine ganz tiefe
0:35:47–0:35:49
Angst, die die Menschen auch haben.
0:35:50–0:35:53
Also dass man und da finde ich, ist es auch noch mal wichtig,
0:35:53–0:35:56
über die Definition der Begriffe und vielleicht so ein bisschen die Emotionen,
0:35:56–0:35:59
die damit verbunden sind, zu sprechen. Wenn du.
0:36:00–0:36:05
Früher von Maschinen lernen gesprochen hast. Ganz einfach.
0:36:06–0:36:08
Also es ging dann quasi darum, dass diese Maschinen etwas lernen,
0:36:09–0:36:14
dann, wenn man mal drüber nachdenkt, was da für eine Hierarchie entsteht oder für ein Bild entsteht.
0:36:14–0:36:19
Ist halt so, da ist die Maschine, die füttern wir, die ist wie so ein Hase.
0:36:20–0:36:24
Dem geben wir Sachen und der sitzt was lernen, der lernt so Tricks und dann
0:36:24–0:36:29
macht er Sachen schön, dann kann er auf einmal neue Sterne finden oder was auch immer.
0:36:29–0:36:37
Aber der wird quasi von uns als lehrende Einheit gefüttert, um dann was ganz
0:36:37–0:36:39
spezielles, Besonderes zu tun.
0:36:39–0:36:43
Wenn man nicht mehr von Lernen spricht, sondern von Intelligenz spricht,
0:36:43–0:36:47
dann geht es nicht mehr in Rezeption von Informationen und damit zu arbeiten
0:36:47–0:36:49
und die zu lernen, sondern es geht ja schon um Produktion.
0:36:49–0:36:56
Intelligenz erstellt ja Lösungen, findet Wege in Systemen und so und ich glaube,
0:36:56–0:36:58
das macht manchmal auch so ein bisschen bedrohlich.
0:36:58–0:37:03
Die Intelligenz, die produziert und das, das können wir nicht immer kontrollieren.
0:37:03–0:37:09
Vorher war es halt so, da war diese Maschine Schüler oder Schülerin und jetzt
0:37:09–0:37:15
auf einmal ist diese Maschine Professor oder Professorin. Und da tun wir uns
0:37:15–0:37:16
dann irgendwie ein bisschen schwer damit.
0:37:17–0:37:22
Das heißt, die Angst ist in dieser Geschichte auch schon so ein bisschen mit eingebaut.
0:37:22–0:37:29
Sobald wir diese Pandora Büchse öffnen, kriegen wir das nicht mehr eingefangen,
0:37:29–0:37:32
und dann machen die so ihr Ding und hängen total ab.
0:37:32–0:37:36
Das Beste, was dem Menschen bleibt, ist halt eben die Texte zu studieren und
0:37:36–0:37:43
versuchen herauszufinden, was diese neuen Entitäten da geschrieben haben.
Florian Clauß
0:37:43–0:37:49
Aber so ein bisschen halt noch wie so eine Softvariante von der Geschichte von Terminator.
0:37:49–0:37:52
Es gibt ja dann auch den Willen der Maschine. Wahrscheinlich ist das dann wirklich
0:37:52–0:37:54
so ein Asimov sches Gesetz.
0:37:55–0:37:59
Du darfst den Kommunikationsweg zu den Menschen nicht verlieren.
0:37:59–0:38:02
Das ist halt implementiert. Und dadurch müssen die sich halt wieder.
0:38:02–0:38:07
So, das finde ich jetzt ganz schön. Okay, wir müssen jetzt nochmal das irgendwie übersetzen.
0:38:07–0:38:09
Wahrscheinlich geht dann auch ganz viel verloren, weil dann,
0:38:09–0:38:15
wenn du innerhalb einer Sprache, eines Sprachsystem, eines Systems quasi bestimmte,
0:38:15–0:38:18
Beweise führst, dann ist ja dann die Übersetzung wieder so das,
0:38:18–0:38:21
was es dann nicht ganz abbilden kann.
0:38:22–0:38:26
Also kann man auch irgendwie schön weiterdenken. Aber klar, wenn die Maschinen
0:38:26–0:38:29
so den Menschen abhängen oder dann halt auch feindlich sind,
0:38:30–0:38:31
das dann halt die Menschen ausgeht.
0:38:31–0:38:34
Das ist ja so dieser Bad Dream of,
0:38:37–0:38:39
Artificial Life oder Intelligenz.
Micz Flor
0:38:39–0:38:43
Ja, und dass die Entente dann entscheidet, dass es nicht so viele Menschen geben
0:38:43–0:38:46
sollte, weil die Ressourcen sonst knapp werden, zum Beispiel und dann irgendwie,
0:38:47–0:38:48
Trinkwasser vergiftet oder so.
Florian Clauß
0:38:48–0:38:51
Ja oder wir, oder? Dann ist man ja auch wieder bei DAX da,
0:38:52–0:38:58
dass die selbst die Selbsterkennung als Bombe und in dem Moment okay,
0:38:59–0:39:03
ich bin und ich muss explodieren und damit ist alles ausgelöscht.
Micz Flor
0:39:02–0:39:04
Wir. Ein.
Florian Clauß
0:39:04–0:39:10
Das ist ja von Carpenter, der ich glaub in den 70er, da es da auch sehr schön science.
Micz Flor
0:39:10–0:39:12
Er ist, glaube ich, der. War das nicht der gleiche Drehbuchschreiber,
0:39:12–0:39:15
der dann lange nichts und dann Alien geschrieben hat?
0:39:16–0:39:19
Ich glaube wir sind ein Film Podcast. Muss man noch mal recherchieren?
Florian Clauß
0:39:16–0:39:21
Das kann ich nicht verstehen. Genau so also.
Micz Flor
0:39:20–0:39:24
Ja ja. Und das zweite wo du es jetzt sagst, was auch wieder Film Podcast ist,
0:39:24–0:39:25
ist natürlich Wargames.
0:39:25–0:39:30
Ich glaub von 83 oder 84 oder so wo. Ich glaube es war der E.T.
Florian Clauß
0:39:27–0:39:28
Er.
Micz Flor
0:39:30–0:39:35
Darsteller auch der da sich in Computer reingehackt hat und dann auf einmal,
0:39:35–0:39:39
ohne es zu wissen Zugang auf die ganzen atomaren Sprengköpfe hat.
0:39:39–0:39:44
Und dann durch diese Schleife, dass der Computer mit sich selbst spielt,
0:39:44–0:39:49
simuliert, erstmal merkt, dass der Krieg wie bei Tic Tac Toe einfach keine Gewinner hat.
0:39:49–0:39:54
Das ist immer unentschieden und es ist immer alles ausgelöscht und dann der
0:39:54–0:39:58
Computer selber dann mitteilt Also es ist aber langweilig, kann man nicht was anderes spielen?
0:40:01–0:40:04
Ja, und das andere ist aber eben in dieser Ted Cheng Geschichte ist natürlich
0:40:04–0:40:10
auch noch ein anderes Denken drin. Das ist dann eher so ein Denken. Ähm.
0:40:12–0:40:15
Ist. Also, das ist das, was du das letzte
0:40:15–0:40:19
Mal. Das ist mir ein bisschen zu metaphysisch. Also, da geht es darum,
0:40:21–0:40:25
es ist ein Riesenthema und vielleicht kommt es auch in deiner Folge von dem,
0:40:25–0:40:27
was ich weiß, immer rein. Aber diese Frage.
0:40:30–0:40:33
Wir reden immer von Bewusstsein. Und wir sind ja sehr menschenzentriert.
0:40:33–0:40:35
Also, wenn wir uns zum Beispiel vorstellen, dass Aliens auf uns kommen,
0:40:35–0:40:38
dann dürfen die aussehen wie sie wollen, uns egal. Aber wir müssen mit uns reden wollen.
0:40:39–0:40:45
Und es ist kaum vorstellbar, dass das Intelligenzniveau eines Laubfrosch irgendwie
0:40:45–0:40:49
jetzt mit einem UFO hier ankommt und Rubber Rubber mit anderen Fröschen spricht.
0:40:49–0:40:50
Aber wir können mit dem nicht reden. Irgendwie sind wir.
0:40:51–0:40:54
Wir sehen uns ja trotzdem. Quasi sowas als Zentrum also.
0:40:55–0:40:57
Und andersherum, wenn wir auf einen anderen Planeten fliegen,
0:40:57–0:40:59
dann wollen wir jetzt auch nicht nur Frösche sehen.
0:40:59–0:41:04
Das wäre natürlich. Also das wäre. Für Biologen wäre es natürlich unglaublich,
0:41:04–0:41:06
was da für Lebewesen sind.
0:41:06–0:41:11
Aber in Wahrheit ist es halt wieder so ein ganz, ganz kleine Nische,
0:41:12–0:41:14
mit der wir halt irgendwie zu tun haben wollen.
0:41:14–0:41:19
Also da geht es ja gar nicht darum, dass wir gibt uns irgendein Zeichen von
0:41:19–0:41:20
der Intelligenz da draußen,
0:41:21–0:41:26
und das ist zum Beispiel als Film Podcast, dem Ei von Steven Spielberg so schön
0:41:26–0:41:30
beschrieben als Bildsprache ganz zum Schluss, wo dann die Erde schon längst
0:41:30–0:41:34
irgendwie zugefroren oder sonst was ist, kommen dann so,
0:41:34–0:41:38
strichähnliche Wesen schon fast an, wo man nicht weiß, sind das Roboter oder
0:41:38–0:41:41
wirkliche Wesen, die in Anführungszeichen biologisch sind,
0:41:42–0:41:51
die dann das alles so völlig lautlos und schwerelos und auch im positiven Sinne
0:41:51–0:41:53
kraftlos mit Leichtigkeit zu zerlegen und abstellen? Ich weiß nicht,
0:41:53–0:41:54
ob du dich daran erinnern.
Florian Clauß
0:41:54–0:42:00
Ja, aber ist er nicht auch? Treffen da nicht auch auf diesen Roboter?
Micz Flor
0:42:00–0:42:01
Den Jungen. Genau.
Florian Clauß
0:42:00–0:42:03
Wir sind Kinder und können die dienen dann halt reaktivieren?
0:42:03–0:42:06
Oder haben wir Zugang zum Gedächtnis? Da war doch irgendwas.
Micz Flor
0:42:06–0:42:10
Ja, also wenn ich mich recht erinnere, ist es dann auch eher wieder ein psychologisches
0:42:10–0:42:11
psychotherapeutisches Thema.
0:42:11–0:42:17
Natürlich hier als Analogie so abgehandelt Dieses Kind, dieser Roboter,
0:42:20–0:42:24
der, wie du sagst, die Bombe muss explodieren, der wird ja gebaut,
0:42:24–0:42:29
damit Eltern, die keine Kinder haben können, ein Kind haben können.
0:42:30–0:42:34
Und diesem Kind muss man dann den Knopf hinten irgendwie drücken und ein bestimmtes
0:42:34–0:42:35
Gedicht aufsagen, der Satz erst sagen und dann.
Florian Clauß
0:42:35–0:42:36
Und dann sind die konditioniert.
Micz Flor
0:42:36–0:42:44
Naja, eher im printed geprägt. Also dann sind die geprägt auf unendliche Liebe.
Florian Clauß
0:42:39–0:42:40
Ja, er.
Micz Flor
0:42:44–0:42:48
Für diese Frau und das macht die auch. Und dann kriegen sie trotzdem noch ein Kind.
Florian Clauß
0:42:44–0:42:44
Er.
Micz Flor
0:42:49–0:42:53
Und dann ist es so, dass natürlich dieser Roboter dieses Kind überlebt alle,
0:42:54–0:42:59
und ähm und ist immer voller Liebe auf der Suche nach seiner Mutter,
0:42:59–0:43:01
die dann schon lange, lange tot ist.
0:43:01–0:43:06
Und er endet dann, indem er irgendwie von einem Karussell, irgendwie ganz tief
0:43:06–0:43:10
im Wasser, ich weiß nicht wieder hin kommt und sieht dann immer sozusagen ein.
Florian Clauß
0:43:07–0:43:09
Ja, genau das ist so!
Micz Flor
0:43:10–0:43:13
Abbild, fast ein Abbild seiner Mutter als,
0:43:14–0:43:17
Karussell, Holzfigur oder Galionsfigur.
0:43:17–0:43:21
Und da wird er dann gefunden.
0:43:22–0:43:28
Und mit diesem Roboter kommunizieren dann diese anderen Wesen und geben ihm dann, bevor er,
0:43:29–0:43:34
erlischt, Wie man immer sagen möchte, geben ihm glaube ich die Möglichkeit noch,
0:43:34–0:43:39
ein Bild zu generieren von also aus seinen Gedanken heraus generieren die dann
0:43:39–0:43:41
noch mal diese Frau, also seine Mutter.
Florian Clauß
0:43:40–0:43:45
N. Stimmt also. Er kriegt dann quasi seine seine Wunscherfüllung dann.
Micz Flor
0:43:45–0:43:52
Ja, ja, aber eben natürlich auch. Und das ist dann auch nur als mentales Bild.
0:43:52–0:43:56
Also er kriegt es ja nicht als reale Person, sondern er darf das noch mal erleben,
0:43:56–0:43:58
die machen ihm das sozusagen.
0:43:59–0:44:03
Ja, und bei bei Ted Chang ist halt, denke ich auch in dieser Geschichte,
0:44:03–0:44:08
wenn man auf diese Metapher nicht mit der völligen panpsychische Ebene geht,
0:44:08–0:44:11
wo Bewusstsein im Universum schon angelegt ist.
0:44:11–0:44:15
Und es ist nicht so, dass komplexe Systeme Bewusstsein herstellen,
0:44:15–0:44:20
sondern dass das Bewusstsein da ist und komplexe Systeme es einfacher haben, damit zu interagieren.
0:44:21–0:44:24
Dann ist es so, dass in dieser Vorstellung.
0:44:26–0:44:31
Die Komplexität der Systeme immer weiter geht und dann geht die durch die Menschheit durch.
0:44:32–0:44:35
Also wir werden abgehängt von diesen Systemen, die wir entwickelt haben.
0:44:35–0:44:39
Aber das ist einfach nur Teil des großen Plans. Die Dinosaurier sind weg.
0:44:39–0:44:42
Dann kommen die Säugetiere, die Säugetiere bringen uns. Dann sind wir weg.
0:44:42–0:44:45
Und dann gibt es noch diese Maschinen und das Bewusstsein geht immer weiter.
0:44:46–0:44:48
Und das ist halt dann irgendwie so einer, wie du meintest.
0:44:49–0:44:51
Was man deine Worte eine zu.
0:44:55–0:44:58
Was hast du gesagt? Du hattest ein Adjektiv gesagt. Nein, das ist mir jetzt,
0:44:58–0:45:01
zu esoterisch, hast du gesagt.
0:45:01–0:45:05
Esoterisch ist aber eine.
0:45:07–0:45:14
Legitime Wissenschaft. Roger Penrose vertritt seit Jahrzehnten die die Hypothese,
0:45:14–0:45:18
dass eben und da ist Ja, also da muss man.
0:45:18–0:45:22
Ich finde das total spannend das Thema weil es wird natürlich auf der Philosophie
0:45:22–0:45:28
auch schon immer hin und her gefragt mit dem Mind Body Problem oder so. Das war ja dann auch.
Florian Clauß
0:45:28–0:45:32
Es ist auch natürlich im Buddhismus, genau wie du es beschreibst.
0:45:32–0:45:39
Da ist halt immer Bewusstsein im Raum da und das ist insofern auch da eine Annahme.
0:45:39–0:45:42
Aber natürlich um esoterisch. Es klingt ein bisschen abwertend,
0:45:42–0:45:47
aber es ist vielleicht eher, um es wissenschaftlich quasi begehbar zu machen.
0:45:47–0:45:53
Muss jetzt irgendwie dann halt müssen halt diese diese Wiederholbarkeit usw.
0:45:53–0:45:57
Die muss ja dann halt auch für dieses Feld und dann wird es halt schwierig.
0:45:58–0:46:02
Dann sind das halt erst mal so Theorien muss man dann gucken,
0:46:02–0:46:06
ob man dafür quasi Experiment oder eine Belegbarkeit findet.
0:46:06–0:46:09
Das ist halt so glaube ich, die Herausforderung. Aber erst mal finde ich total,
0:46:09–0:46:11
interessant als Gedankenexperiment.
Micz Flor
0:46:12–0:46:15
Also da wäre halt für diese Idee. Von so einem Drang des Bewusstseins,
0:46:15–0:46:18
sich im Universum auszubreiten, sollte man annehmen, so etwas gäbe es.
0:46:19–0:46:22
In dieser Kurzgeschichte sind die Menschen haben so ihre Schuldigkeit getan
0:46:22–0:46:26
und geben diesen Staffelstab weiter. So wie die Bakterien an die Mehrzeller usw..
Florian Clauß
0:46:25–0:46:30
Genau. Aber was auch dahinter hängt, und das versuche ich dann auch.
0:46:30–0:46:34
Wenn ich demnächst über mein Thema rede ist.
0:46:34–0:46:39
Es gibt natürlich immer diese total menschzentrierte Einordnung von,
0:46:41–0:46:47
Bewusstseinsstufen und das ist auch eigentlich nicht haltbar,
0:46:47–0:46:50
sondern der Mensch sieht sich immer als Krone von irgendwas.
0:46:50–0:46:54
Aber er ist ja quasi auch nur ein Zustand von vielen in der Biologie,
0:46:55–0:46:57
die völlig gleichwertig sind.
0:46:57–0:47:03
Also ich glaube, das ist halt so auch die Herausforderung, da in der Wissenschaft
0:47:03–0:47:06
oder in der neuen, dass man das halt so ein bisschen zurücknimmt und guckt auch
0:47:06–0:47:09
auf Systeme, die halt Intelligenz dann anders,
0:47:11–0:47:14
so rausbringen oder produzieren können.
Micz Flor
0:47:14–0:47:18
Ja, da bin ich echt gespannt drauf. Deine Folge.
0:47:19–0:47:23
Was ich aber auch noch dazu sagen wollte ich finde, da kommen bei dieser,
0:47:23–0:47:27
bei dieser pan psychischen Seite kommen auch so zwei Dinge zusammen, die glaube ich.
0:47:31–0:47:36
Irgendwie zusammenzugehören scheinen. Aber ich weiß nicht, ob sie das wirklich
0:47:36–0:47:40
tun. Das eine ist eben das, ähm, das gibt ja gerade so einen.
0:47:40–0:47:45
So, nun haben wir auch schon so ein großes Interesse an Quantenmechanik,
0:47:45–0:47:48
Quantenphänomene und so was. Ein Tanglemünd.
0:47:48–0:47:51
Diese enzymatischen Sachen habe ich schon angesprochen. Photosynthese.
0:47:51–0:47:53
Man entdeckt jetzt immer mehr,
0:47:53–0:47:59
auch im biologischen System, dass da Quantenthemen drin sind und diese,
0:48:00–0:48:06
die Biologie hat unglaublich viele Energieprobleme, zum Beispiel solche banalen
0:48:06–0:48:11
Dinge wie wenn eine Mitose stattfindet, dann muss der Zellkern sich komplett
0:48:11–0:48:15
abrollen und diese abgerollte dann die Kette sich öffnen.
0:48:15–0:48:19
Das passiert nicht quasi, das passiert gleichzeitig in unterschiedlichsten Stellen,
0:48:19–0:48:22
dann werden die ja verdoppelt und dann trennt sich die ganze Zelle,
0:48:22–0:48:26
dann werden zwei Zellen draus und wenn man das einfach mal durchrechnet,
0:48:26–0:48:28
dann muss die Reibungshitze, die da entsteht,
0:48:28–0:48:32
in der Geschwindigkeit, in der es passiert, dann müsste eigentlich alles irgendwie verdampfen.
0:48:32–0:48:36
Das kriegt man gar nicht so durchgerechnet in einem Newtonschen Modell.
0:48:36–0:48:41
Das heißt, man, man geht jetzt inzwischen davon aus, dass ähnlich wie bei enzymatischen
0:48:41–0:48:48
Prozessen, das halt auf einer Quantenebene, diese diese Energierechnung funktionieren kann,
0:48:50–0:48:54
wo die Reibung in dem Sinne keine Rolle mehr spielt und auch.
Florian Clauß
0:48:54–0:48:56
Okay, das ist auch fett.
Micz Flor
0:48:57–0:49:01
Und aber auch andere, ganz andere Phänomene. Dieses Quantum an Tanglemünd,
0:49:01–0:49:03
wo man einfach wirklich merkt, ja,
0:49:03–0:49:09
es ist da, wir können sogar schon anfangen, damit zu experimentieren und Informationsübertragung,
0:49:09–0:49:13
über gewisse Distanzen komplett sicher zu machen, weil wir anhand von Teilchenbewegungen,
0:49:14–0:49:20
die keine nicht miteinander senden, in unserer Welt, aber die miteinander in ten Geld sind,
0:49:21–0:49:25
dass die verschiedene Spins herstellen können.
0:49:25–0:49:28
Wenn wir das in der einen Seite drehen, dann kann man in der anderen Seite lesen,
0:49:28–0:49:30
was wir da machen. Das gibt es ja.
Florian Clauß
0:49:29–0:49:34
Aber vielleicht ist es auch viel fließender. Also die Quantenwelt war immer
0:49:34–0:49:39
so eine abgegrenzte Welt, die ab einer Quantenlänge anfängt und hat nichts mit unserer Welt zu tun.
0:49:40–0:49:45
Aber vielleicht sind diese Phänomene viel, viel stärker implementiert,
0:49:45–0:49:51
irgendwo, ohne dass so viel gebräuchlicher als man das irgendwie so wahrnimmt.
0:49:51–0:49:56
Natürlich eine extremst kleine Wirkung, die das erzeugen kann.
Micz Flor
0:49:56–0:49:59
Ja, ja, aber das ist. Ja, genau.
Florian Clauß
0:49:57–0:49:58
Fotosynthese oder sowas.
0:49:58–0:50:02
Aber es sind so Kern Kernfunktionen, die das bedient.
0:50:03–0:50:09
Und auf der anderen Seite ist natürlich unsere Newtonschen Welt mit Körper, Schwerkraft und Kugel.
Micz Flor
0:50:09–0:50:12
Ja, genau. Mit Abrisskugeln. Also.
Florian Clauß
0:50:09–0:50:17
Es ist halt irgendwie alles viel greifbarer und viel erlebbarer,
0:50:17–0:50:23
weil unser ganze Sensorik ist halt darauf ausgerichtet, dass wir halt in dieser Welt quasi,
0:50:25–0:50:27
Veränderungszustände wahrnehmen.
Micz Flor
0:50:27–0:50:30
Ja, ich glaube, der große wichtige springende Punkt ist halt,
0:50:30–0:50:34
dass man immer mehr Quantenmechanik auch in biologischen Systemen entdeckt,
0:50:34–0:50:40
während man lange Zeit dachte, das geht nur bei null Temperaturen im absoluten Vakuum und so was. Also.
0:50:40–0:50:47
Aber nein, es geht eben auch mitten in mitten in der Biologie. Es ist.
Florian Clauß
0:50:46–0:50:52
Genau. Genau das war er. Das war damals alles unkontrollierbar. Aber.
Micz Flor
0:50:47–0:50:54
Es ist warm, es ist feucht, es ist alles unkontrollierbar. Aber genau da passiert Quanten. Das heißt.
Florian Clauß
0:50:53–0:50:57
Ich glaube, das ist genau das war ja für uns beide so dieser Punkt.
0:50:57–0:51:01
Diese Wahrnehmung beim Rotkehlchen, das Erdmagnetfeld.
0:51:01–0:51:05
Das ist halt ein Sinnesorgan, ist aber eher in der Photosynthese.
0:51:05–0:51:09
Ist ja auch genauso ohne Photosynthese ja nix auf der Welt quasi.
Micz Flor
0:51:09–0:51:13
Genau das Rotkehlchen. Ist er wirklich? Man kann das irgendwie beobachten.
0:51:13–0:51:15
Man kann es irgendwie mit mathematisch auch erfassen.
0:51:16–0:51:17
Man kann es aber noch nicht wirklich erklären.
Florian Clauß
0:51:17–0:51:18
Nee, genau das ist.
Micz Flor
0:51:18–0:51:23
Und das ist der eine Punkt. Und der andere Punkt ist eben diese Frage nach Bewusstsein.
0:51:23–0:51:27
Und wenn das zusammenkommt, dann ist halt so Penrose, der halt irgendwie sagt,
0:51:27–0:51:30
mit den Namen des anderen Wissenschaftlers habe ich jetzt vergessen,
0:51:30–0:51:37
der sagt, es gibt in den Zellen Mikrotubuli heißen die oder so gibt es solche säulenähnlichen,
0:51:37–0:51:40
Gefüge, von denen man nicht genau weiß, was die sollen.
0:51:40–0:51:45
Und jetzt ist halt die Hypothese und da gibt es wohl auch schon erste Befunde
0:51:45–0:51:52
dazu, dass da drin eben so Quanteneffekte irgendwie passieren.
0:51:52–0:51:57
Also ob das so ein Tor ist zu einem, zu einem, zu einer anderen Ebene,
0:51:57–0:51:59
zu einer neuen Ebene von Vernetzungen, die.
Florian Clauß
0:51:58–0:52:00
Wo jetzt? Ich hab den.
Micz Flor
0:52:00–0:52:03
Das ist diese immer noch dieser Punkt jetzt von dem Psychischen,
0:52:03–0:52:08
dass es Bewusstsein ist ein Zustand.
Florian Clauß
0:52:07–0:52:09
Also. Ach, krass. Also.
Micz Flor
0:52:09–0:52:11
Das ist quasi eine Gegebenheit.
0:52:11–0:52:15
Bewusstsein ist da und dieses Bewusstsein wird jetzt über Zellen.
Florian Clauß
0:52:12–0:52:13
Ja, und dieses.
Micz Flor
0:52:15–0:52:18
Über diese Tubular Sachen angedockt.
Florian Clauß
0:52:16–0:52:20
Äh, okay. Okay. Das ist. Das ist interessant. Ja, das ist.
0:52:20–0:52:24
Also. Also, das heißt, das ist so quasi das Tor zur Quantenwelt.
0:52:24–0:52:29
Und irgendwo ist es in der Raum Raum als Information vorhanden,
0:52:30–0:52:35
aber in einer in einer Welt kodiert, die wir nicht so erschließen können,
0:52:35–0:52:37
aber die physikalisch irgendwo messbar ist.
Micz Flor
0:52:38–0:52:42
Und damit lege ich dann eine kurze Spur in meine nächste Folge.
0:52:42–0:52:45
Wir haben es jetzt ein bisschen vorgeplanten Vierteiler, wo ich dann noch mal
0:52:45–0:52:49
über Freud und seine Theorie der Triebe im ausgehenden 19.
0:52:49–0:52:52
Jahrhundert reden möchte, wo er eigentlich was ähnliches versucht hat,
0:52:52–0:52:55
nämlich die geistige und die materielle Welt miteinander zu verknüpfen.
0:52:55–0:52:58
Und genau das sehe ich jetzt bei Penrose irgendwie auch.
0:52:58–0:53:03
Also dadurch, dass jetzt diese diese fast schon spirituelle Quantenwelt öffnet,
0:53:03–0:53:06
versucht der herzustellen eine,
0:53:06–0:53:10
physikalischen Raum innerhalb von physikalischen Gesetzen ist es möglich,
0:53:10–0:53:15
etwas nicht physikalisches zu beschreiben, was wir können, dann wir können dann
0:53:15–0:53:19
auf einmal das Spirituelle, das Geistige, die das Seelische, die Liebe.
0:53:19–0:53:23
Das können wir dann auf einmal über über so eine Öffnung, so einen Quantenraum hinein machen.
0:53:23–0:53:27
Also das ist so ein ganz interessanter, ganz interessanter Knick,
0:53:27–0:53:30
weil du hast das ganz oft gerade in der Bewusstseinsforschung,
0:53:30–0:53:35
dass in den experimentellen Settings, egal ob das jetzt bei Neurologen ist oder,
0:53:35–0:53:37
auch beim Machine Learning, also,
0:53:37–0:53:42
es gibt immer vorneweg eine Definition und diese Definition limitiert.
0:53:45–0:53:50
Den Raum. Dann ist zum Beispiel Bewusstsein nur etwas, was so und so und so und so ist.
0:53:50–0:53:53
Und diese ganzen Sachen, die können wir eben nicht messen, deshalb lassen wir sie weg.
0:53:54–0:53:57
Und wenn du das dann halt so einschränkst, dann baust du ein Experiment,
0:53:57–0:54:04
das darauf auch noch aufbaut und das sich dann auch beweisen lässt oder widerlegen lässt.
0:54:04–0:54:09
Aber diese ganzen Annahmen, die du vorneweg machen musst, um der Prozess selbst
0:54:09–0:54:13
operationalisieren, um einen kompletten Möglichkeitsraum herunterzubrechen,
0:54:13–0:54:15
zu operationalisieren auf,
0:54:16–0:54:20
Zusammenhänge, die du dann messen kannst, das ist halt.
0:54:21–0:54:27
Das ist halt der Kniff, der in der rein physikalischen, medizinischen,
0:54:27–0:54:28
biologischen Arbeit gemacht wird.
0:54:28–0:54:33
Und wenn man dann so was wie Bewusstsein oder Liebe auf einmal oder Glaube da.
Florian Clauß
0:54:33–0:54:35
Ja, Ja.
Micz Flor
0:54:34–0:54:39
Mit reinnehmen möchte, dann muss man eigentlich diesen physikalischen Raum verlassen.
0:54:40–0:54:45
Aber Penrose hat dann irgendwie gesagt, das ist Quanten und sofort denkt man,
0:54:45–0:54:46
ja, das kann sein, gute Idee.
Florian Clauß
0:54:46–0:54:50
Ja, ja, aber man muss jetzt doch noch mal so ein bisschen was zurücknehmen,
0:54:50–0:54:54
weil momentan wird ja auch ganz viel in diesem esoterischen Bereich,
0:54:54–0:54:59
wo dir alle möglichen Schummeleien angeboten wird, da wird ganz viel mit der Quanten.
Micz Flor
0:54:59–0:55:00
Der Quanten Healing.
Florian Clauß
0:55:00–0:55:05
Ja, es wird ganz viel. Also es ist so, das ist so, egal was das wird und es
0:55:05–0:55:09
ist auch total hoch akzeptiert da in der neuen Quanten, die werden ja auch,
0:55:09–0:55:14
also da wird es ja auch völlig quer, also völlig falsch benutzt und,
0:55:15–0:55:21
das ist dann wieder diese Nähe zur Esoterik, wo man gucken muss wie, wie eng ist das Feld,
0:55:22–0:55:25
man kann, kann halt ein bisschen gefährlich werden.
0:55:25–0:55:30
Da aber ist auf jeden Fall ja gut, dann kann es irgendwie so ein bisschen rein verlagern.
Micz Flor
0:55:30–0:55:33
Aber es ist auf alle Fälle absehbar. Also wenn ich jetzt mal wieder vor dem
0:55:33–0:55:38
Hintergrund der Neurologie jetzt als Psychologe da reinschaue und du guckst,
0:55:38–0:55:41
diese Entwicklung an, dann gab es ja lange, lange Zeit.
0:55:43–0:55:47
Überhaupt erst mal so eine ganz grobe Karte vom Gehirn, die man eher dann im
0:55:47–0:55:50
ersten Weltkrieg verfeinert hatte, weil dann Leute Teile weggeschossen bekamen.
0:55:50–0:55:53
Dann konnte man auf einmal sehen Ach guck mal, der kann nicht mehr sprechen,
0:55:53–0:55:54
der kann nicht mehr sehen.
0:55:54–0:55:58
Da wurde das Gehirn kartographiert, das heißt, das Gehirn wurde dann erst mal
0:55:58–0:56:03
so etabliert, auch als Zentrum von diesen ganzen kognitiven Prozessen und Areale
0:56:03–0:56:06
wurden identifiziert. Das war ein Riesenfortschritt.
0:56:06–0:56:10
Gruseliger Hintergrund, aber so war das nun mal so. Und dann kamen halt später
0:56:10–0:56:13
diese Mikroskopitechnik usw.
0:56:13–0:56:16
Rein. Dann hat man irgendwann eben diese Zellen im Gehirn, die Neuronen,
0:56:16–0:56:22
dann konnte man Elektrizität messen, dann hatte Elektrizität auf einmal eine ganz wichtige Rolle.
0:56:22–0:56:27
Dann hat man die Synapsen Chemie entdeckt. Die hatte dann auf einmal eine ganz wichtige Rolle.
0:56:27–0:56:31
Und wir sprechen auch heute natürlich bei künstlicher Intelligenz von Neuronen,
0:56:31–0:56:35
also auch da wieder eigentlich so eine menschlich menschliche Zentrum Idee,
0:56:36–0:56:40
weil wir denken so. Deshalb nennen wir es mal Neuron.
0:56:40–0:56:44
Und manchmal, wenn man sich dann Texte dazu durchliest, wo das verglichen wird,
0:56:44–0:56:48
Biologie und künstliche Intelligenz, ist es manchmal verwirrend.
0:56:48–0:56:51
Wo man manchmal ein bisschen den Faden verliert. Geht es um biologischen Neuronen
0:56:51–0:56:55
oder geht es hier um neuronale Netz Neuronen?
0:56:56–0:57:00
Aber auf jeden Fall ist es klar, dass.
0:57:02–0:57:06
Quantenmechanik einen Einfluss haben wird. Man wird es einfach finden, das ist ja klar.
0:57:07–0:57:10
Bei allem, was man gefunden hat, Elektrizität, Chemie, alles was man bis jetzt,
0:57:11–0:57:13
so erschlossen hat, ist auch wirksam in Zellen.
0:57:14–0:57:17
Quantenmechanik wird auch wirksam sein, gerade bei neuronalen Zellen, deren.
0:57:19–0:57:27
Die Leitung von Signalen passiert über Ionenkanäle, die Spannungsunterschiede
0:57:27–0:57:32
anhand an der Myelinschicht entlang transportieren, bis hin zu Synapsen und Synapsen wird dann.
0:57:32–0:57:36
Durch diese ankommenden elektrischen Impulse.
0:57:36–0:57:40
Werden dann Transmitter ausgeschüttet oder geblockt. Dann gibt es halt die Möglichkeit,
0:57:40–0:57:43
mit Psychopharmaka das zu beeinflussen,
0:57:43–0:57:48
die Aufnahme zu hemmen von solchen synaptischen Wirkstoffen und so.
0:57:48–0:57:52
Und das heißt, wir sind sowieso schon an dem Punkt, wo es jetzt nur noch eine
0:57:52–0:57:57
Frage der Zeit, bis man merkt, dass bestimmte Prozesse am besten erklärbar sind.
0:57:57–0:58:01
Wenn man Quantenmechanik auch damit rechnet, dass wird passieren,
0:58:01–0:58:03
wie in anderen Bereichen auch.
0:58:03–0:58:08
Aber das heißt in keiner Weise, dass es jetzt so ein Quantum brain and the magic
0:58:08–0:58:12
healing of Quantum power, das kann man wahrscheinlich gut verkaufen.
0:58:12–0:58:14
Vielleicht sollten wir die Folge so nennen.
Florian Clauß
0:58:15–0:58:16
Quantenheilung.
Micz Flor
0:58:16–0:58:20
Weil dann gibt es so ein bisschen eine Zielgruppe. Vorbei, aber viele Klicks, aber wenig.
Florian Clauß
0:58:21–0:58:26
Hin. Künstliche Quantenintelligenz. Quellen? Nein. Quanten.
Micz Flor
0:58:28–0:58:32
Dann mache ich hier nochmal einen Strich und wollte jetzt noch den dritten Block.
0:58:33–0:58:40
Da geht es jetzt um Musik, habe ich vorhin schon erwähnt, aber in einem etwas anderen Zusammenhang.
0:58:41–0:58:45
Was wir jetzt gerade sehen, was was eben auch so sehr überzeugend ist,
0:58:45–0:58:49
zum Beispiel bei Dali II, wo Bilder entstehen. Oder inzwischen wird auch Musik
0:58:49–0:58:51
hergestellt, nicht mehr nur Noten oder MIDI Signale.
0:58:52–0:58:56
Es entstehen Texte, also es wird quasi Content produziert in allen möglichen
0:58:56–0:58:59
Formaten. Demnächst werden wir auch die ersten Trickfilme sehen usw..
0:59:00–0:59:06
Es geht immer auch um eine Form von Narration, von Semantik,
0:59:06–0:59:08
weil sonst kriegen wir das ja alles auch. Da sind wir halt Menschen,
0:59:08–0:59:09
Rezipienten, Wir kriegen sie
0:59:09–0:59:12
irgendwie nicht gecheckt, wenn es nicht auch irgendwas erzählt, das Bild.
0:59:14–0:59:20
Ganz am Anfang haben wir über die Bibliothek gesprochen, in der alle möglichen
0:59:20–0:59:23
Texte sind. Also wir wollen ja schon Struktur und Ordnung haben,
0:59:23–0:59:24
damit wir es überhaupt sehen können.
0:59:25–0:59:34
Also Signal, Noise, Ratio und ein Bereich, in dem schon sehr früh viel Forschung passieren konnte,
0:59:35–0:59:40
weil es einerseits narrativ, auch emotional, menschlich und sowas ist,
0:59:40–0:59:46
aber andererseits eben nicht wie ein Ölgemälde oder ein eine Band, die spielt.
0:59:47–0:59:51
War halt in dem Musikbereich, weil es war da schon möglich mit Noten.
0:59:51–0:59:54
Du kannst dir vorstellen, es gibt ja auch midi viele Noten, die hintereinander
0:59:54–0:59:58
kommen, zum Beispiel das, was ZPBT gemacht hat.
0:59:58–1:00:03
Man könnte zum Beispiel sagen Rate was die nächste Note ist.
1:00:03–1:00:06
So wie man jetzt gesagt hat, Rate was das nächste Wort ist.
1:00:06–1:00:11
Und der Raum von Noten ist dann eher wie so eine kleine Bücherei in der Woche
1:00:11–1:00:15
ist Geschichte, also man hat weniger Noten, man hat unterschiedliche Längen
1:00:15–1:00:16
der Noten, aber weniger Noten.
1:00:16–1:00:22
Und man hat dann schon in den 80er Jahren Systeme gebaut, die anhand dieses
1:00:22–1:00:30
Rate die nächste Note zum Beispiel Bach ähnlich oder Mozart ähnliche Stücke geschrieben haben.
1:00:31–1:00:39
Und ein Musiker und Komponist, der da drin gearbeitet hat, ist David Cope.
1:00:40–1:00:44
Und ein Paper von ihm glaube ich noch aus den 80er Jahren. 84,
1:00:45–1:00:50
83 oder 84 waren die ersten Versuche, wie man.
1:00:54–1:00:58
Entweder über eine reine Kreativität, neuronale Netze Idee,
1:00:59–1:01:05
Melodien erstellen kann, indem man sagt Rate die nächste Note oder dass man
1:01:05–1:01:10
zuerst Modelle entwickelt, dass man versucht, erst mal so top down mäßig Modell
1:01:10–1:01:14
zu entwickeln, wo zum Beispiel drinsteht, wenn Bach.
1:01:16–1:01:21
Ein Lied für die Kirchenorgel geschrieben hat, dann dann macht er gerne Symbole
1:01:21–1:01:26
der Kreuze, wo zwei Linien Melodien aufsteigend sich so kreuzen,
1:01:26–1:01:28
weil das war dann seine Hommage an Gott.
1:01:28–1:01:31
Es geht um den Glauben und den sieht man dann sogar auf dem Notenblatt.
1:01:31–1:01:36
So was weiß man und das kann man ja dann als Modell herstellen und kann dann
1:01:36–1:01:42
einem System, das Noten schreibt, sagen okay, wenn geht, dann machen wir so
1:01:42–1:01:44
Kreuze rein, dann sieht es nach Bach aus.
1:01:44–1:01:54
Und damals hat sich schon gezeigt, dass die glaubwürdigsten und auch effizientesten, also von der,
1:01:54–1:02:00
von der Ausbeute her und auch von der Zeit her die Systeme, die waren,
1:02:00–1:02:07
die beides kombiniert haben, also quasi top down und aber auch einfach Deep
1:02:07–1:02:08
Learning ähnliche Strukturen.
1:02:09–1:02:14
Und ich finde, das ist so eine Sache, die man wahrscheinlich jetzt wieder als
1:02:14–1:02:16
Pendel bald finden wird,
1:02:17–1:02:23
weil jetzt gerade bei Dali II wurde ja das gleiche System einfach noch mal abgesgeeilt,
1:02:24–1:02:27
und hat dann auf einmal deutlich bessere Ergebnisse erzielt.
1:02:27–1:02:29
Und das ist ja auch total erstaunlich.
1:02:30–1:02:35
Aber man hat eben immer wieder auch diese Schreckensmeldungen von Autounfällen, weil halt.
1:02:36–1:02:42
Da gibt es dann so immer gibt es ja immer so Beispiele, zum Beispiel ein Einlernmodelle,
1:02:42–1:02:46
auch so Deep Learning für Autofahrassistenz,
1:02:46–1:02:49
wo das Auto auf der Brücke auf einmal große Probleme bekommen hat,
1:02:49–1:02:53
weil es bei allen Material bis jetzt immer nur Straßen hatte,
1:02:53–1:02:55
wo rechts und links noch Land war.
1:02:56–1:02:58
Eine Brücke war auf einmal was, keine Ahnung wo ich bin.
1:02:59–1:03:05
Ein System, was Material bekommen hat, um Leberflecken zu identifizieren,
1:03:05–1:03:07
die kann zurückgehen sind oder nicht.
1:03:07–1:03:12
Und dann hat sich rausgestellt, dass es bei den medizinischen Bildern mit Kanzer
1:03:12–1:03:16
gen Leberflecken oft so linealer daneben gab. Und das hat dann einfach quasi,
1:03:16–1:03:18
geschummelt wie so Neuntklässler.
1:03:18–1:03:23
Wenn Lineal drauf ist, dann ist es wahrscheinlich Krebs und hat das dann eben
1:03:23–1:03:26
hat das Diskriminierende, war halt eben das Lineal und.
Florian Clauß
1:03:26–1:03:30
Ist schon irgendwie. Aber das war dann auch schon Auszeichnungsmerkmal.
1:03:31–1:03:33
Und in dem Moment, wo das Lineal drauf ist, ist die Wahrscheinlichkeit,
1:03:33–1:03:35
dass es richtig sitzt, dann.
Micz Flor
1:03:35–1:03:40
Es ist schön. Es ist ein ganz schön weit gekommen. Dieser Leberfleck. Es gab auch einen.
1:03:41–1:03:45
Einen älteren Datensatz von Fotos von Gesichtern aus Medien.
1:03:46–1:03:49
Zurzeit, als George W. Bush noch Präsident war.
1:03:49–1:03:53
Und aus diesem Fundus stellte sich heraus, dass diese Gesichtserkennungssoftware,
1:03:53–1:03:57
sehr gut darin war, George W. Bush zu erkennen, aber nicht sehr gut war,
1:03:58–1:04:00
andere Gesichter zu diskriminieren.
1:04:00–1:04:04
Also das sind auch wieder so Bikes, die mit dem Material reinkommen und.
1:04:07–1:04:14
Ja, und das ist eben die Schwachstelle, wird oft gesagt, eben von diesen Deep
1:04:14–1:04:17
Learning Neuralnetzwerken, die.
1:04:18–1:04:23
Ähm, die keine Modelle mitbringen.
1:04:23–1:04:27
Und diese Modelle wiederum, das ist dann wieder, um ganz am Anfang der Folge zu sprechen.
1:04:27–1:04:31
Das sind dann eher die Systeme, wo man sich erst mal hinsetzt und sich quasi,
1:04:31–1:04:36
dann eine Lösung ausdenkt und die als Algorithmus vorgibt und dieser Algorithmus,
1:04:36–1:04:40
top down reguliert, in dem in dem Moment, wenn nur Network irgendwie läuft,
1:04:41–1:04:44
dann dem irgendwie assistiert Leitplanken aufzeigt.
1:04:44–1:04:49
Ich meine das jetzt sprichwörtlich nicht buchstäblich, aber zeigt so okay.
1:04:49–1:04:50
Nee, das kann nicht sein.
1:04:51–1:04:54
Komm noch mal zurück. Oder halt eben auch bestimmte Dinge abfragt.
1:04:54–1:04:57
Wenn du die 100 % sicher bist, gib mir die alle noch mal zurück.
1:04:57–1:05:00
Die will ich sehen. Oder wenn du 0 % sicher bist, gib mir die alle zurück, die will ich sehen.
1:05:01–1:05:07
Also dieses Zusammenspiel von Top down und neuronalen Netzen war wohl in dem Versuch.
1:05:09–1:05:13
Modelle zu beschuldigen, nicht Modelle, sondern Systeme zu erstellen,
1:05:13–1:05:17
die Musik komponieren, sodass es wie Mozart klingt oder so.
1:05:18–1:05:22
Die konnten anhand der Noten lernen und die besten Ergebnisse waren halt nicht
1:05:22–1:05:26
nur alle Noten zu lernen und abzubilden im neuronalen Netze,
1:05:26–1:05:28
sondern gleichzeitig auch von,
1:05:29–1:05:34
menschlicher Seite, eben Top down Modelle überstülpt zu bekommen. So.
1:05:35–1:05:40
Und jetzt gerade ist es irgendwie so, dass man mit der Rechenpower unglaublich
1:05:40–1:05:42
gut diese neuronalen Netze hochskalieren kann.
1:05:43–1:05:46
Wobei das jetzt ja auch schon wieder an Grenzen kommt. Dieses Moorsche Gesetz
1:05:46–1:05:49
von der immer kleiner werdenden Transistoren, das hat man jetzt,
1:05:50–1:05:52
da ist man so ziemlich am Ende.
1:05:52–1:05:56
Man fängt jetzt schon an die Transistoren zu stecken, so man dreidimensionalen Raum macht.
1:05:58–1:06:03
Man fängt sogar eben gerade auch für für künstliche Intelligenz an,
1:06:03–1:06:05
schon Hardware zu bauen, die sich an,
1:06:07–1:06:14
wie heißt es? Neuromorph heißt das glaube ich an biologischen Modellen orientiert,
1:06:15–1:06:20
so dass man so wie bei Grafikkarten, dass man quasi bestimmte Chips hat,
1:06:20–1:06:22
die bestimmte Dinge sehr gut können.
1:06:23–1:06:27
Und damit ist man dann auch wieder ein Rückschluss eben auf diese,
1:06:30–1:06:34
auf diese Kartographie des Geldes. Man ist dann wieder ein bisschen bei diesem Body Kognition Thema.
1:06:34–1:06:38
Es gibt dann auf einmal bestimmte Hardwareaspekte, die bestimmte Teilbereiche
1:06:38–1:06:43
der Kognition gut leisten können, die darin dann auch gerechnet werden.
1:06:43–1:06:46
Und man kann sich ja sehr gut vorstellen, so was wie Gesichtserkennung oder
1:06:46–1:06:50
Spracherkennung sind Sachen, die relativ universell und stabil über die Zeit
1:06:50–1:06:54
sind, dass die halt da sind wir bei unserer Konrad Zuse Folge,
1:06:54–1:06:58
dass die halt schon vorgegeben sind im System,
1:06:58–1:06:59
und dass man genauso wie auf einer
1:06:59–1:07:03
Grafikkarte dann alle möglichen Spracherkennung Sachen gleich da rüber.
Florian Clauß
1:07:03–1:07:07
Ja, er ist bereit. Ja, genau. Ich meine, das ist ja nichts anderes als dieser,
1:07:08–1:07:11
Chip, den auch Apple in einen zweiten Chip für sie einbaut.
1:07:11–1:07:16
Der hat genau diese diese Sachen schon in die Platine gelötet,
1:07:16–1:07:23
wo dann halt solche Sachen dann schon abgekapselt, dann als Bibliotheken vorhanden sind. Ja.
Micz Flor
1:07:23–1:07:26
Ein Fingerabdruckscanner zum Beispiel. Das kannst du ja inzwischen wahrscheinlich
1:07:26–1:07:27
in einer Hardware so lösen.
1:07:28–1:07:31
Und das ist halt so diese Sache. Das fand ich nochmal ganz interessant,
1:07:31–1:07:36
dass in den 80er Jahren über Musik, was ja auch eine emotionale Sache ist,
1:07:36–1:07:40
die künstlichen Mozartstücke haben die Menschen auch berührt und bewegt.
1:07:42–1:07:47
Dass da schon gezeigt wurde, dass beides notwendig ist.
1:07:48–1:07:51
Neuronale Netze, die einfach erst mal vorurteilsfrei lernen,
1:07:52–1:07:59
aber auch Modelle über die Welt, die das beeinflussen und damit in Austausch treten können.
1:08:00–1:08:05
Und dann eben als dritte Komponente die embedded Kognition oder bestimmte Systeme,
1:08:05–1:08:07
die spezialisiert sind auf bestimmte.
Florian Clauß
1:08:09–1:08:16
Wütend darüber. Wie soll ich wir jetzt hier rüberkommen? Ich will. Nein, du bist völlig.
Micz Flor
1:08:13–1:08:16
Ich bin jetzt. Wir machen jetzt hier Schluss. Ich meine Sie auf.
1:08:17–1:08:18
Ich würde jetzt hier mal.
1:08:21–1:08:22
Es ist jetzt so laut geworden.
Florian Clauß
1:08:23–1:08:28
Na ja, also wir können jetzt noch weitergehen. Und wir können jetzt wirklich wieder umdrehen.
1:08:29–1:08:34
Okay, sorry, das war jetzt kein guter Schluss.
Micz Flor
1:08:34–1:08:34
Ja.
1:08:37–1:08:41
Oh. Okay, dann give me to my. Aber gehen wir wieder zurück an die Straße.
1:08:41–1:08:42
Denn da war es ja dann so laut.
Florian Clauß
1:08:43–1:08:46
Wir beginnen hier hinter den Kasten.

Mehr

Während Menschen ein Leib sind, haben Maschinen bestenfalls einen Körper.

Es sollte "eigentlich" um Künstliche Intelligenz, Bewusstsein und die Entwicklung des Selbst gehen. Doch eine gebrochene Rippe ermattet Micz zu sehr, um eine zusammenhängende Folge zustande zu bringen, eine "leibliche" Tatsache, die durch die Hintertür mit dem Thema "Künstliche Intelligenz" eng verwoben ist. Dass der Leib nämlich eine zentrale Rolle bei menschlichen kognitiven Prozessen spielt, darüber sind sich Vertreter:innen der "Embodied Cognition" einig. Wichtig ist hier der Begriff "Leib", der sich wesentlich vom "Körper" unterscheidet. Weswegen ich den deutschen Begriff der "leiblich verankerten Kognition" für "Embodied Cognition" gegenüber anderen Übersetzungen bevorzuge. Auch wenn "Leib" umgangssprachlich nur noch in theologischen Zusammenhängen eine Rolle zu spielen scheint, war etymologisch der Leib das Lebendige und der Körper der materielle, anatomische, leblose Gegenstand (vgl. im Englischen: corpse). Deshalb halten wir an dieser Folge fest und verstehen sie als Selbsterfahrung für unsere Hörer:innen, um ein Gespür dafür zu bekommen, was ein lädierter Leib dem menschlichen Denken antut. Die Frage, die daraus entstehen könnte: können "künstliche" kognitive Fähigkeiten ohne Leib überhaupt dem menschlichen Denken verwandt sein? Während Menschen ein Leib *sind*, *haben* Maschinen bestenfalls einen Körper.

Shownotes

Mitwirkende

avatar
Micz Flor
Erzähler
avatar
Florian Clauß
avatar
Text2Speech
Intro

Transcript

Text2Speech
0:00:00–0:00:04
Gleich folgt die 18. Episode des eigentlich Podcasts.
0:00:04–0:00:14
Doch bevor wir beginnen, möchte ich Ihnen etwas Kontext geben und kurz verraten, was wenige Tage vor und wenige Minuten nach der Aufnahme geschah.
0:00:14–0:00:23
Mitch war drei Tage vor der Aufnahme hingefallen und dachte, er habe sich den Brustkorb geprellt. Immer wieder blieb ihm während der Aufnahme die Luft weg.
0:00:24–0:00:31
Flo machte sich deswegen Sorgen und fuhr mich im Anschluss an die Folge, die sie gleich hören werden, ins Krankenhaus.
0:00:32–0:00:37
Dort stellte sich heraus, dass dieser sich beim Sturz eine Rippe gebrochen hatte.
0:00:37–0:00:44
Es sollte eigentlich um künstliche Intelligenz, Bewusstsein und die Entwicklung des Selbst gehen.
0:00:44–0:00:51
Wie sie jedoch schon zu Beginn merken werden Mitch ist nicht sehr ausdrucksstark. Das Atmen fällt ihm schwer.
0:00:52–0:00:56
Seine körperlose Stimme weckt Mitleid und wirkt gleichzeitig abstoßend.
0:00:57–0:01:07
Flo lässt sich von der Grabesstimmung runterziehen. Erst als sich abzeichnet, dass gleich Schluss sein wird, lebt er auf, lacht und albert herum.
0:01:08–0:01:13
Warum aber soll ich mir die Folge dann anhören? Danke für die Frage.
0:01:13–0:01:24
Inhaltlich ist die Folge wenig mitreißend, formal allerdings sehr eng mit dem Thema Künstliche Intelligenz verbunden. Welche Bedeutung hat der Körper?
0:01:24–0:01:32
Besser gesagt Körperlichkeit. Noch besser gesagt der Leib für Prozesse der Kognition und des Bewusstseins.
0:01:33–0:01:40
Zwar wird diese Frage in der folgenden Episode nicht diskutiert, aber auf der Bühne des Körpers vorgespielt.
Micz Flor
0:01:41–0:01:55
Ähm. Ja. Wir, Flo und ich mit Flo nehmen mir eigentlich das podcastde 14 tägig im Netz auf dem Blog Post.
0:01:55–0:01:59
Für jede Folge gibt es immer auch noch die Spur, wo wir langlaufen.
0:02:00–0:02:05
GPS Daten werden getrackt und heute sind wir irgendwie so um nichts.
0:02:08–0:02:18
Und laufen in der Wuhlheide einfach mal so ein bisschen die Wege ab, bis die Folge fertig ist. Wir wissen nicht, ob es fertig ist.
0:02:19–0:02:21
Kann es sich nur um Stunden handeln?
Florian Clauß
0:02:22–0:02:35
Ja hallo, auch von meiner Seite. Wir sind heute in der 18. Episode von Eigentlich Podcast und diese Folge hat uns Mitchenthema mitgebracht.
0:02:35–0:02:39
Ich weiß noch nicht, worum es geht. Ich bin gespannt. Ja, wir sind hier.
0:02:42–0:02:49
Du sagst es bereits in der Wuhlheide und gehen jetzt hier. Also einer, einer einen großen.
0:02:50–0:02:54
Ich glaube, das ist hier so ein Heizungsrohre. Ein Wasserrohr entlang. Ich habe.
0:02:54–0:03:00
Was weiß ich. Ich. Ich bin gut vorbereitet, weil ich habe eine Taschenlampe dabei.
0:03:01–0:03:07
Nee, nee, nee, nee, ich bin. Ich habe eine Taschenlampe dabei, wo wir dann halt den Weg, weil ich.
0:03:07–0:03:19
Was ich jetzt auf jeden Fall vermeiden möchte, ist das, das ich auf die Seite fasst und dich dann mitnehme und wir dann wie zwei Kafka Käfer rumliegen.
0:03:19–0:03:24
Und dann kommt ein Apfel von oben, der auf uns fällt auf den Körper und wir verfaulen noch.
Micz Flor
0:03:25–0:03:31
Gerade so ein schönes Psychotherapeutenwie mit dem Käfer von Kafka kennst du ja bestimmt.
0:03:32–0:03:40
Dieses Bild hat so ein kleines Holzbett, der Käfer liegt irgendwie drauf und unten drunter sagt jemand Haben Sie mal Achtsamkeitsübungen versucht?
0:03:41–0:03:45
Oh wow, Es ist richtig nebelig, dunkel und nebelig.
Florian Clauß
0:03:45–0:03:55
Ich mache. Ich mache meine Aufnahme. Das ist, glaube ich. Also können wir hier diese, dieses Licht, diese, diese Wassertröpfchen, das Kondensat, was hier rumfliegt.
0:04:03–0:04:07
Sind einigermaßen dramatisch aus. Okay.
0:04:08–0:04:19
Somit jetzt bin natürlich gespannt und ich bin auch ein bisschen, ich will nicht sagen besorgt, aber ich möchte, dass es dir gut geht und ich hoffe,
0:04:21–0:04:25
das wird es dir mit dem Thema, das du uns mitgebracht hast.
Micz Flor
0:04:26–0:04:30
Genau. Ich versuche mal zu reden. Ich klinge vielleicht ein bisschen flacher. Manchmal bleibt mir die Luft weg.
0:04:30–0:04:36
Das ist jetzt halt einfach so.. Aber vielleicht liegt es auch an diesem immensen Hype um das aktuelle Thema.
0:04:37–0:04:45
Gleichzeitig auch meine schüchterne Selbsteinschätzung, dass es mir zwar total wichtig ist, aber, ähm.
0:04:46–0:04:52
Ja, Flo, es geht. Es soll. Es soll in diesem Gespräch um künstliche Intelligenz gehen.
Florian Clauß
0:04:53–0:04:53
Oh, okay.
Micz Flor
0:04:53–0:04:59
Und das ist natürlich ein Riesenfeld. Und gleichzeitig möchte ich das so ein bisschen einschränken.
0:05:00–0:05:09
Ich denke, das ist so ein interdisziplinäres Feld, wo ja unglaublich viele Forschungsgebiete zusammenkommen.
0:05:09–0:05:13
Dazwischen auch die Philosophie, Technik, Philosophie, moralische Themen.
0:05:14–0:05:19
Was, was? Was heißt es denn, ein künstliches Bewusstsein anzuvisieren?
0:05:20–0:05:22
Ob man das überhaupt herstellen kann, sei dahingestellt.
0:05:23–0:05:31
Die Psychologie ist natürlich involviert, die Biologie ist involviert, die teilweise auch neuronal Inspiration für Hardware liefern kann.
0:05:32–0:05:37
Natürlich die Informatik programmieren.
0:05:37–0:05:51
Das geht halt quasi vor allen Dingen darum, auch Code zu generieren, der mit unglaublich großen Datensätzen Strukturen abbildet und erstellt, die dann wiederum einen Teil der Welt erkennen können oder damit irgendwas machen können,
0:05:51–0:05:54
wo in gewisser Form dann auch nicht nur der Code selbst,
0:05:55–0:05:58
sondern diese dieses Netzwerk,
0:06:01–0:06:02
der Gegenstand ist.
Florian Clauß
0:06:02–0:06:07
Wow. Also, großes Thema hier. Respekt. Respekt.
Micz Flor
0:06:07–0:06:13
Ich will es halt ein bisschen einfangen und möchte ein bisschen die Frage stellen.
0:06:15–0:06:22
Die Psychologie ist natürlich Thema, aber die klinische Psychologie, sollte die nicht vielleicht auch Thema sein?
0:06:22–0:06:27
Wenn man interdisziplinär mit diesen Fragen der künstlichen Intelligenz umgeht.
0:06:28–0:06:34
Der Hintergrund ist der es geht ganz viel eben auch um Lernen. Ja, und die Art des Lernens, das werde ich kurz beschreiben.
0:06:34–0:06:40
Die ist jetzt gerade noch relativ brachial, ja gewitzt, aber jetzt nicht unbedingt empathisch.
0:06:41–0:06:46
Diese Maschinen werden getrimmt. Das ist jetzt kein moralisches Thema, es ist einfach so, wie es gemacht wird.
0:06:47–0:06:56
Und gleichzeitig gibt es ja gerade in der klinischen Psychologie unglaublich viele Bereiche, die sich intensiv auch mit Lernen und Entwicklungsfragen.
0:06:59–0:07:05
Auseinandergesetzt haben und in der klinischen Psychologie, gerade wenn man an diese,
0:07:05–0:07:17
hollywoodeske Idee von künstliche Intelligenz denkt, also diese dieses Thema des Sich selbst Bewußtwerdens kennt und Beijings aus künstlicher Intelligenz.
0:07:18–0:07:31
Da möchte ich den Begriff des Selbst, der jetzt auch seit über 100 Jahren in der Psychotherapie eine Rolle spielt, so ein bisschen vorstellen, weil ich glaube, das selbst ist genau dieser,
0:07:33–0:07:37
springende Punkt, der Holy Grail, dass keine Ahnung, wie man es nennen möchte,
0:07:38–0:07:51
was dann wirklich diese Riesenhürde ist, wo künstliche Intelligenz, die heute zwar und das ist eine Hypothese von mir als Intelligenz vermarktet wird, aber die noch sehr nah am Maschinenlernen dran ist,
0:07:52–0:08:01
dass es dann wirklich um so eine Form von sich selbst Erkennendes und Spürendes, was Wesenshaftes werden könnte.
0:08:01–0:08:06
Und da denke ich, spielt es selbst in der klinische Psychologie eine große Rolle. Und in der Entwicklung,
0:08:08–0:08:14
des jeden Menschen entsteht etwas, was wir selbst nennen. Da möchte ich eigentlich drüber sprechen.
Florian Clauß
0:08:14–0:08:15
Ein Selbstbewusstsein.
Micz Flor
0:08:16–0:08:19
Genau das ist interessant, weil Selbstbewusstsein ist halt so ein Stichwort.
0:08:19–0:08:29
Das sagen wir im Deutschen. Das hat ja ein bisschen was damit zu tun, dass wir stolz sind auf das, was wir tun, dass wir unser Licht nicht unter den Scheffel stellen, wie es so schön heißt.
0:08:30–0:08:42
Im Englischen ist es halt, gibt es halt diesen Begriff der self awareness, den man im Deutschen gar nicht, also dieses Selbst Gewahrsein, das gibt es.
0:08:42–0:08:49
Also wenn wir von Bewusstsein sprechen und Awareness sprechen und oder Consciousness sprechen, dann im Deutschen.
0:08:51–0:09:02
Jetzt zieht es gerade mein Körper so zusammen. Wahrscheinlich, weil ich das Wort sentient, nämlich Empfindungsfähigkeit oder empfindungsfähig genannt habe.
0:09:03–0:09:11
Weil das auch nur so eine Nebenspur ist, die ich glaube, die völlig unterschätzt wird, ist, was das Körperliche in Lernprozessen für eine Rolle spielt.
0:09:13–0:09:16
Also wir sind es ein bisschen absurd. Wir sind mitten im Dunkeln. Gerade.
0:09:17–0:09:21
Mir bleibt manchmal die Luft weg. Ich kann gar nichts sehen.
0:09:22–0:09:36
Und die Analogie dazu? Die Assoziation wäre vielleicht wirklich eher dann so eine, so eine sich gewahr werdende künstliche Intelligenz, die erst mal so im Dunkeln steht, sie irgendwie gar nicht so genau die Welt berühren kann oder erfassen kann.
0:09:38–0:09:45
Ich möchte vorneweg auch noch ein Literaturtipps zu dem Thema abgeben.
0:09:46–0:09:50
Habe ich dir Flo zum Geburtstag geschenkt?
0:09:50–0:09:54
Können wir auch vielleicht irgendwann mal besprechen als Folge von Dan Simmons Ilium.
0:09:55–0:10:09
Da geht es also. In einem sehr langen, sehr komplexen Buch, finde ich, geht es ganz großartig eigentlich um diese Frage von künstlicher Intelligenz, Menschsein und Körper sein und wie auch immer.
0:10:10–0:10:13
Weil in diesem Buch unglaublich viele unterschiedliche Formen von.
0:10:16–0:10:28
Sag ich mal Wesen, eben auch Menschen dargestellt werden. Es gibt normale Menschen, es gibt Übermenschen, es gibt aber auch zum Beispiel diese Mora wächst die halt eher so Roboter sind aber die wie ein eigenes,
0:10:29–0:10:33
Gott man meine Brust macht manchmal zu.
0:10:34–0:10:45
Denn zumindest geht es dann auch um diese Morawags. Das sind im Prinzip Roboter, die aber völlig autonom sich selbst herstellen oder wie auch immer, dass weiß man gar nicht genau.
0:10:46–0:10:50
Die. Und dann gibt es auch zwei der Hauptperson.
0:10:50–0:11:00
Das eine ist ein Mann. Mut und Aufruhr auf Io, die beide sich über die Shakespeare Sonette auslassen und darüber reden.
0:11:00–0:11:09
Und der eine möchte, ich weiß nicht mehr wie rum, der andere möchte den anderen davon überzeugen, dass Shakespeare es wert ist, sich damit auseinanderzusetzen.
Florian Clauß
0:11:09–0:11:17
Ich glaube, der eine bringt hier die verschwunden, die die verlorenen Zeit,
0:11:19–0:11:25
eins als sein Objekt of war, der sich die ganze Zeit mit beschäftigt.
0:11:26–0:11:32
Und Shakespeare ist natürlich die höchste Klasse von dem und die sind die ganze am struggeln.
0:11:33–0:11:43
Das ist also diese Szenen sind so absurd wo der dann von diesen ein Kilometer großen Oktopus flieht, während er dann noch versucht irgend so eine.
0:11:44–0:11:52
So eine Textanalyse von Shakespeare dann nebenbei zu machen und er ist kurz davor, halt von einem Oktopus dann verschluckt zu werden.
0:11:52–0:11:58
Aber schafft es dann auch, die Textanalyse fertig zu machen, in der Wurst dann halt auszuweichen?
Micz Flor
0:11:59–0:12:01
Und das ist nämlich genau die beiden, die,
0:12:03–0:12:12
die bringen dann auch so einen körperlichen Aspekt rein. Und natürlich hat man dann, das ist ja auch ein Thema der künstlichen Intelligenz, wie sind meine Interfaces mit der Welt, was kann ich sehen?
0:12:13–0:12:17
Kann ich zum Beispiel mit der Kamera Bilder sehen oder kann ich einfach nur Texte lesen?
0:12:17–0:12:28
Und bei denen ist es so, dass der Mann Mut der ist dann so ein sehr ungelenker, großer, schwere Roboter, der in einem genauso ungelenken, großen, schweren Raumschiff liegt,
0:12:29–0:12:36
der sich dann mit den Sensoren oder der Sensorik, sag ich mal, dem sensorischen System des Raumschiffs verbindet, um dann,
0:12:37–0:12:44
quasi durch das Raumschiff hindurch die Welt zu sehen, durch die das Raumschiff fliegt, was er wiederum lenkt.
0:12:45–0:12:55
Und dann hat er diese Crashlandung. Das ist glaube ich genau diese Szene und danach muss er sich dann irgendwie durch seinen Kollegen Orfurio so ein bisschen sensorische Zeit pumpen.
0:12:56–0:13:10
Schaltet sich dann bei dem ein, um die Welt wahrzunehmen. Das sind dann natürlich ganz andere elektromagnetische Frequenzen, die OFU hat, aber er kann das dann irgendwie so extrapolieren, um dann überhaupt wieder in der Welt zu sein und damit arbeiten zu können.
0:13:10–0:13:14
Und das ist natürlich auch ein großes Thema in der künstlichen Intelligenz.
Florian Clauß
0:13:14–0:13:16
Das Learning Pattern.
Micz Flor
0:13:17–0:13:23
Vor allen Dingen aber glaube ich die Wahrnehmung. Was kann ich sehen? Was?
0:13:26–0:13:36
Also wie ich jetzt drauf kam. Also ich habe das natürlich immer wieder Thema, ich habe Psychologie studiert, da hört man irgendwann von Weizenbaum das Eliza Programm.
0:13:36–0:13:42
Das ist im Prinzip Code, der versucht anhand von einem,
0:13:45–0:13:51
Non directive Psychotherapie Approach, der eher über Fragen funktioniert, versucht das zu simulieren.
0:13:51–0:13:55
So eine psychotherapeutische Sitzung, du tippst was und er antwortet.
0:13:55–0:14:05
Und das war natürlich dann auch so 1966 Spielerei mit dieser Idee vom Turing Test oder das Imitation Game, wie Turing selber gesagt hat,
0:14:06–0:14:11
wo man halt feststellen könnte, ob eine Maschine in der Lage ist.
0:14:11–0:14:25
Ich sag es mal so komisch den Menschen zu imitieren oder andersherum gedeutet den Menschen zu täuschen, der dann nicht mehr in der Lage ist, das, was die Maschine mitteilt, über Text oder wie auch immer,
0:14:25–0:14:28
von dem zu trennen, was Menschen mitteilen.
0:14:28–0:14:42
Und das ist halt genauso ein Schritt, glaube ich, der gerade in diesem Chat CPT passiert ist, wo OpenAI jetzt so eine Art Game Changer online gestellt hat,
0:14:43–0:14:44
wo man einfach chatten kann.
0:14:45–0:14:50
Man kriegt auf jede Frage eine Antwort und.
0:14:52–0:15:00
Ich habe interessante Sachen darüber gelesen. Da hat jemand mal gefragt Einfach so Social Media, Was war für euch gut?
0:15:01–0:15:03
Es war ein besonderes Erlebnis mit diesem Chatbot.
0:15:04–0:15:06
Und eine Person meinte Ich habe mich getraut.
0:15:07–0:15:15
Also Doktorandin. Ich habe mich getraut, Checkpoint Fragen zu stellen, die ich meinem Supervisor nicht hätte stellen wollen.
0:15:16–0:15:29
Und der Supervisorin? Ich weiß es nicht. Und das fand ich total interessant, Weil du hast halt bei diesen Antworten, die Antworten haben so eine bestimmtes, so ein Konferenz, die kommen halt mit viel Nachdruck.
0:15:30–0:15:36
Und dass dann jemand wirklich das Gefühl hat, sich lieber einen Chatbot mit Charme besetzten Fragen zu wenden,
0:15:37–0:15:47
Sachen, die man eigentlich wissen müsste, wo man trotzdem Hilfe braucht, dass man da irgendwie an den Chatbot geht und nicht an seinen Supervisor oder Supervisorin, das ist ja auch irgendwie interessant.
0:15:48–0:15:51
Dann habe ich mich selber hingesetzt, habe dann irgendwie gedacht.
0:15:54–0:16:01
Also auch mal ausprobieren. Und bei mir kam jetzt aber nichts wirklich raus, was mich total beeindruckt hätte.
0:16:01–0:16:12
Ich habe dann irgendwie gedacht ach, mach ich mal irgendwie sowas, weil der Typ jetzt, da geht es halt um Text, das heißt diese, diese, dieses Modell oder diese.
0:16:12–0:16:16
Dieser Datensatz hat unglaublich viel Text gelesen.
0:16:16–0:16:29
Da habe ich gedacht, das ist ganz sicher, dass der natürlich auch so Fabeln kennt und habe dann halt so Fragen gestellt Was wäre eine psychoanalytische Deutung von es, ob es Fabel mit dem Fuchs und dem Bär?
Florian Clauß
0:16:30–0:16:32
Es ist, was? Es.
Micz Flor
0:16:32–0:16:40
Das sind, äh. Das sind so kurze Fabeln. Kennst du vielleicht auch so der, der, der Löwe, das ist so der Löwe. Und der Fuchs zum Beispiel.
0:16:41–0:16:43
Der Löwe? Fragt ein Tier den Dachs.
0:16:46–0:16:49
Rieche ich gut. Und der Dax sagt so Orly, du stinkst.
0:16:50–0:16:57
Und dann frisst er den Dax auf. Dann fragt er. Keine Ahnung. Storch, rieche ich gut? Störe ich? Du riechst. Du riechst super.
0:16:58–0:17:03
Dann frisst er auch den Storch auf. Und dann fragt ein Fuchs Rieche ich gut? Und dann sagt der Fuchs Ich habe leider Schnupfen.
0:17:04–0:17:09
Also so solche solche kurzen Fabeln sind es, und die sind alle immer relativ offen.
0:17:09–0:17:18
Da gibt es dann so bestimmte Deutungssätze, die manchmal auch drunter stehen, so von wegen keine Ahnung, Guides, öffnet dir nicht die Welt oder solche Sachen.
Florian Clauß
0:17:19–0:17:27
Sie würde in der Psychotherapie eingesetzt oder gar nicht. Das wäre jetzt nur dein dein, denn dein point of interest.
Micz Flor
0:17:22–0:17:24
Nee, gar nicht. Das war einfach meine.
0:17:27–0:17:36
Und dann kommt halt was raus, wo du denkst So, das ist wie so ein Neuntklässler, der halt so schummelt, also dann kommt halt so was.
0:17:37–0:17:40
Egal ob es deutsch oder englisch ist. Es war interessanterweise auch sehr, sehr ähnlich.
0:17:41–0:17:53
Also ich hätte da erwartet, dass da vielleicht auch Unterschiede drin sind. Aber Deutsch und Englisch waren gleich, so dass ich eher dachte, dass es hin und her übersetzt wird, anstatt dass es unterschiedliche Datensätze sind zum Lernen.
0:17:53–0:18:02
Und da standen halt so Sachen. Ja, man könne die Fabel von Äsop und dem Bären auch psychoanalytisch deuten,
0:18:03–0:18:14
und als eine Metapher sehen auf die unbewussten und vorbewussten Ängste und Wünsche, die man sich nicht traut zu sagen, wenn halt irgendwelche Gemeinplätze so reingeklebt.
0:18:15–0:18:16
Aber wie auch schon.
0:18:18–0:18:23
Diese Doktorandin erlebt hat mit einer unglaublichen so sehr auf Konferenzen.
0:18:23–0:18:33
Das klingt halt wirklich erst mal so wie so ein Neuntklässler, der sich halt irgendwie ganz schnell noch irgendwas runterschreibt, die Sätze ein bisschen umbaut, um die Hausaufgaben abgeben zu können.
0:18:35–0:18:41
Und das war bei unterschiedlichsten Sachen so, dass ich das Gefühl hatte, dass das oft.
0:18:43–0:18:48
Gut zusammengesetztes Muster war aber nicht unbedingt.
0:18:52–0:19:00
Keine Ahnung. Also bei dem Dali Ding, da hatte ich dann immer noch so das Gefühl, dass wirklich was neues passiert. Auch wenn man wusste, es wird alles gemischt und berechnet.
0:19:00–0:19:12
Man kannte alle Stile, man hat ja auch immer Götz seine wiedererkennen, aber es war trotzdem was Neues und da hatte ich so nicht das Gefühl bei dem, was ich gesehen habe, dass es wirklich was Neues bringt und.
0:19:15–0:19:16
Jetzt habe ich den Faden ganz kurz.
Florian Clauß
0:19:16–0:19:22
Aber ich finde direkt die Beispiele, die ich auch von Tweety mitbekommen habe.
0:19:23–0:19:29
Ich glaube, dass es durch diese doch irgendwie abstraktere Funktion des Textes,
0:19:31–0:19:41
viel mehr ein Tool, was sich in den Alltag integrieren lässt, als es diese ganzen Bildbearbeitung da ist, halt dieses schöpferische Neue usw..
0:19:41–0:19:54
Ich meine, das klingt jetzt dann auch irgendwie eine Industriereife und kann natürlich dann halt in irgendwelchen Fotoprogramme usw. direkt auf deine auf auf dem Handy zur Kamera laufen. Wie auch immer.
0:19:55–0:20:04
Aber die Idee hat glaube ich schon ganz konkret eine Funktion, die du sofort adaptieren kannst. Du hast das Beispiel mit dem Jungen.
0:20:05–0:20:11
Ja, das war ja auch der erste Aufschrei. Jetzt müssen die Kinder nicht mehr ihre Hausaufgaben machen. Du kannst ja auch so einen Mut mitgeben.
0:20:11–0:20:20
Ich kann nur sagen Bitte schreib mir jetzt hier einen Aufsatz über über Goethes Farbenlehre, aber im Stil von einen 12-jährigen Schüler.
0:20:21–0:20:28
Und dann kriegst du es halt so. Das ist ja irgendwie, das ist ja super tauglich, oder? Es ist jetzt ein anderes Beispiel von so einem, von so einem.
0:20:29–0:20:36
Ich glaube, es war so ein irgendwie so ein Typ aus der Baumschule oder so was. Oder der Gärtner. Ja, genau das.
Micz Flor
0:20:34–0:20:44
Ja, das habe ich auch gelesen. Wo einer sagt ich bin gerade Mentor für so einen Jungen, der hat dann eine eigene Landschaft aufgemacht und ich habe jetzt so was gebaut, wo ich das irgendwie zusammen pipe.
0:20:44–0:20:54
Und dann pfeife ich seine Fragen und dann hat so ein beispielhaften Satz so von wegen dir, Sir, aber liegt schon vor mir. Dann very capable of the innovation.
0:20:55–0:20:57
Aus dem Ausgangstext Was er gemerkt hat, ist gar nicht.
0:20:59–0:21:10
Der hat, der hätte das so nie schreiben können. Und der Mentor hat dann ganz stolz berichtet, dass dann sein Zögling quasi 220.000 $ Kontrakt bekommen habe.
0:21:11–0:21:13
Und man guckt sich das an und denkt halt so.
Florian Clauß
0:21:14–0:21:28
Äh, ja, aber es sind halt solche, solche Sachen, die werden jetzt so quasi automatisiert erledigt, weil es total praktisch ist, dass diese, diese anschreiben, die Formulierungen usw.
0:21:28–0:21:34
Kannst du einfach hinwerfen und zu sagen gib mir mal einen Text raus und du sparst einfach Zeit.
0:21:34–0:21:36
Ich finde es als Vorstellung unglaublich.
Micz Flor
0:21:38–0:21:42
Ja, das stimmt. Also das ist ja auch so, dass.
0:21:44–0:21:57
An Universitäten ist ja auch ein großer Aufschrei. Da wurde dann auch getestet anhand von Personal, die halt irgendwie studentische Arbeit retten müssen, dass die gemeint haben,
0:21:58–0:22:09
sie könnten nicht wirklich einzelne Absätze oder kurze Texte identifizieren, die jetzt durch AI, also Open Air,
0:22:10–0:22:13
hergestellt wurden oder von Studierenden kamen.
0:22:13–0:22:17
Das ist natürlich dann eher so der Fall, sag ich mal weicheren.
0:22:20–0:22:28
Weiteren wissenschaftlichen Arbeiten, die auch von meinen geprägt sind, also die psychoanalytische Interpretation von Elisabeth Observ.
0:22:29–0:22:36
Das hat nicht geklappt, auch wenn ich die Psychoanalyse keine harte Wissenschaft ist und für ganz harte Wissenschaft theoretische Physik.
0:22:37–0:22:47
Habe ich auch irgendwo gelesen, dass eine Wissenschaftlerin eine ganze Reihe von Texten hat erstellen lassen, wo sie meinte, dass.
0:22:48–0:22:53
Fatale ist halt, die klingen alle erstmal sehr plausibel, sind aber sachlich falsch.
0:22:53–0:22:56
Das heißt, es klingt dann wie eine Publikation.
0:22:58–0:23:07
Und die Frage ist natürlich, wie viel von deiner Publikation kannst du jetzt schreiben, die dann natürlich nicht erkannt wird, wenn wenn.
0:23:07–0:23:11
Du diese Dienste nutzt. Die halt, heißt es manchmal im Englischen.
0:23:12–0:23:15
Also wenn es Fälschungen sind oder Kopien Kopien sind.
0:23:17–0:23:21
Und gleichzeitig. Ist halt falsch.
0:23:21–0:23:27
Auch da wieder Mit viel Konferenz wird es halt irgendwie in die Welt gehauen, so dass man es halt erst mal glaubt.
0:23:28–0:23:30
Hab ich auch eingesehen, der halt irgendwie meinte.
0:23:32–0:23:43
Der hat gefragt, was kriegt man, wenn man von zehn 10 % abzieht von dem was man dann hat, 10 % wieder dazuzählt?
0:23:44–0:23:57
Und weil die falsche Antwort von Zschäpe die ist es, wenn du von zehn, also wenn du von 100 % 10 % abziehst, hast du 90 %. Wenn du dann 10 % wieder zu fügst, hast du natürlich wieder 100 %. Also ist das Ergebnis das Gleiche.
0:24:00–0:24:06
Ähm, kam halt irgendwie so die Intervention von dem, der das eingegeben hat, wieder.
0:24:07–0:24:08
Nein, das Ergebnis ist nicht richtig.
0:24:09–0:24:12
Und dann kam die Antwort. Natürlich ist das Ergebnis nicht richtig.
0:24:14–0:24:18
Weil wenn man nämlich bei 90 % 10 % drauf nimmt und hat dann ewig so weiter geredet.
0:24:18–0:24:31
Aber du merkst halt irgendwie, da ist so ein Satz, so eine Fassade, so was Fassade wäre so, als ob im Hintergrund jemand so ein bisschen fanatisch nach nach einer Lösung sucht, während er nach vorne raus am Radiomikro.
0:24:31–0:24:36
Die die Leute unterhalten muss, weil er darf jetzt nicht mehr wegschauen. Das.
0:24:38–0:24:40
Aber das ist halt. Jetzt sind wir wieder in der lauten Straße.
Florian Clauß
0:24:41–0:24:50
Vielleicht können wir jetzt hier einfach gucken, dass sich das wieder staut und dann kann ich einen Abstecher wieder in die Wuhlheide machen,
0:24:51–0:24:58
und dann ein bisschen abseits von dem Lärm.
0:25:00–0:25:01
Okay.
Micz Flor
0:25:03–0:25:13
Und damit es irgendwie so ganz gut eingefangen wird. Müssen wir glaube ich schon ganz kurz mal durch dieses Konzept von Lernen durchgehen.
0:25:13–0:25:21
Weil das ist auch so ein eigentlich Thema. Eigentlich habe ich das Gefühl, je mehr man da reinguckt, ist es eine Frage von Definition.
0:25:23–0:25:31
Also ich glaube, dass das das sowohl das Wort künstlich als auch das Wort Intelligenz, das Sinnhafte, was die Menschen darunter verstehen.
0:25:31–0:25:38
Das ist falsch. Ich glaube, von vielem, was ich so gelesen habe, ist es halt irgendwie einfach eine andere Form von Maschinen lernen.
0:25:44–0:25:48
Bei diesen Lernprozessen, für was wir künstliche Intelligenz nennen.
0:25:48–0:25:55
Da gibt es dann mehrere Unterscheidungen. Zum Beispiel ist es eine supervidierte oder nicht zu lernen.
0:25:55–0:26:04
Das ist ganz einfach erklärt, dass man zum Beispiel so was wie ein Textwolke bereitstellt, in der gelernt wird.
0:26:05–0:26:17
Man kann dann aber dem Algorithmus, der das alles analysiert, irgendwie sagen So, jetzt gebe ich dir mal so und so viel Megabyte Sport und jetzt gebe ich dir so und so viel Megabyte Musik.
0:26:18–0:26:28
Das heißt, da ist eine Form von Supervidieren, in der das Material vorbereitet wird und nicht supervidiert ist. Einfach loslassen.
0:26:30–0:26:39
Und auch da kann man einfach. Mit unterschiedlichen algorithmischen Fragestellungen kann man dann natürlich so eine künstliche Intelligenz,
0:26:40–0:26:46
so ein Lernprozess begleiten, dass man zum Beispiel so was sagt wie bei Texten?
0:26:50–0:26:58
Rate bitte jedes Mal das erste Wort des nächsten Satzes, wenn das erste Wort des ersten Satzes heute oder gestern ist.
0:26:59–0:27:05
Und dann einfach solche stochastischen Zusammenhänge zu finden, die dann später eben genutzt werden, um.
0:27:11–0:27:15
Das Gelernte quasi wieder anzuwenden. Nee, doch nicht links.
0:27:16–0:27:19
Weiter ist es eine Sackgasse. Die Kiwi. Hier links.
Florian Clauß
0:27:20–0:27:24
Ich war schon froh, dass ich jetzt an dem Punkt sind, wo wir endlich die Straßen verlassen können.
0:27:25–0:27:33
Aber dem war nicht so. Also sag nochmal das Wort, was du dazu gesagt hast, eben diese in Bezug auf algorithmisch.
Micz Flor
0:27:34–0:27:39
Es gibt das supervidierte Lernen und das nicht Super Wide Superweissen nonstop was im.
Florian Clauß
0:27:36–0:27:37
Super wie dir.
0:27:40–0:27:48
Also okay, das ist jetzt wirklich so! Also so quasi so ein Fachwort aus der Traininggeschichte von von Machine Learning.
Micz Flor
0:27:46–0:27:48
Genau. Machine Learning.
Florian Clauß
0:27:48–0:28:02
Und es gibt ja so diese hart Gesottenen, die sagen, es gibt keine künstliche Intelligenz, es gibt halt nur ein Learning, was dann eine gewisse Ausprägung bekommt. Und wie du sagst, eben jemand.
0:28:02–0:28:04
Je mehr Material, desto,
0:28:07–0:28:15
ja desto besser das Ergebnis. Je mehr Trainingseinheiten, desto eindeutiger oder desto spezifischer wird es. Denn.
0:28:15–0:28:21
Das sind ja so diese, diese Arten, wie trainiert oder wie dann solche Produkte dann entstehen.
Micz Flor
0:28:22–0:28:30
Genau. Und das Interessante ist ja dann oft, dass das Interessante für die weitere Forschung oft nicht was klappt, sondern was nicht klappt.
0:28:31–0:28:32
Das soll dann zum Beispiel.
0:28:35–0:28:43
Bei Bilderkennung, also solchen Sachen. Dann hast du 100.000 Ampeln, die du gerendert hast und dann geht eine Ampel nicht.
0:28:43–0:28:46
Und wird dann keine Ahnung. Wird dann als.
0:28:49–0:29:03
Das ist für Saurier erkannt oder was weiß ich. Es ist halt manchmal wirklich so, dass Fehler entstehen, wo man auch merkt, in dem Moment, wo diese diese von von dem Material abstrahierte Netzwerk an Information, dass das halt.
0:29:06–0:29:13
Dass das halt so auch nicht mehr verstanden werden kann. Was man ja auch gemacht hat, dass es halt mit dem Super nicht zu lernen.
0:29:13–0:29:17
Du hast zum Beispiel bei vielen Bilder kein Programm, dann nehmen die also Stockfotos.
0:29:17–0:29:24
Stockfoto ist halt voll von irgendwelchen hübschen Tomaten, hübschen Menschen, hübschen Wohnungen und so was.
0:29:24–0:29:35
Das heißt, das ist Trainingsmaterial. Und nicht von ungefähr erkennt man dann, dass diese entstehenden Netzwerke einen eingebauten Bias haben,
0:29:36–0:29:43
dass diese scheinbare Vorliebe haben für Palmen und blaues Wasser gegenüber all dem anderen Schaum oder der auch noch Wasser ist.
0:29:43–0:29:57
Und und diese Bias wiederum, die sollen dann irgendwie teilweise nachträglich rausgerechnet werden, sodass man diese Millionen, die man da reingesteckt hat, um das zu trainieren, weil das ist halt auch noch eine ganz wichtige Frage finde ich was?
0:29:58–0:30:08
Also was auch dann noch mal den Mensch von diesen Netzwerken unterscheidet Wie viel Energie brauche ich überhaupt, so was herzustellen und aufrecht zu erhalten? Wäre es nicht interessanter.
0:30:10–0:30:23
Zu gucken, wie energieeffizient man das machen kann und das als Indikator für Erfolg zu nehmen, als die Erkennungsraten oder erfolgreichen Turingtests?
0:30:27–0:30:32
Diese Bikes, die entstehen natürlich auch im Super Weiß Learning.
0:30:32–0:30:35
Zum Beispiel war es so bei dem CTBT, da kann ich einen Link machen.
0:30:35–0:30:40
OpenAI hat da selber einen Artikel drüber geschrieben, wo das drin vorkommt, dass zum Beispiel die,
0:30:43–0:30:57
dieses Modell, das ist noch der nächste Schritt reinforced oder non reinforced learning. Also wird einfach das losgelassen und dann kriegt es auch ein Feedback, dann kriegt es halt quasi gesagt gutes Ergebnis, nicht so gutes Ergebnis.
0:30:57–0:31:01
Und das wird dann wieder in dem neuronalen Netzen mit abgebildet.
0:31:01–0:31:15
Und da und da war es so, dass anfangs bei diesem ZGP längere Sätze von den Leuten als positiver bewertet wurden, was irgendwie intelligenter klang oder wahrhafter Klang.
0:31:15–0:31:25
Das heißt auch, du kriegst dann auch über über Feedbackschleifen die Menschen wieder reinbringen, die die Ergebnisse eigentlich verbessern soll. Kriegst du auch wieder Beißer eingebaut?
0:31:26–0:31:29
Das ist ja auch noch mal ganz wichtig. Und.
0:31:33–0:31:40
Dann gibt es noch die Möglichkeit, wenn man zum Beispiel Non Super Learning einfach macht.
0:31:41–0:31:47
Da könnte man sich auch vorstellen, dass da trotzdem relativ komplexe Fragestellungen bearbeitet werden könnten.
0:31:48–0:31:55
Man könnte sich zum Beispiel vorstellen, was ein Schachspiel. Und du siehst nur diese Position und weißt Weiß muss jetzt ziehen.
0:31:56–0:32:05
Und du kennst aber die Regeln des Schachs gar nicht. Aber ähnlich wie bei diesem Bild Generation generieren.
0:32:06–0:32:08
Wenn ich über dem Bild generieren, kann es halt sein.
0:32:08–0:32:20
Bist du trotzdem einfach in der Summe der Position auf dem Schach und der Bilder, die dir gegeben werden. Verstehst du? Wenn ich jetzt hin ziehe, dann führt das öfter zum Sieg.
0:32:21–0:32:27
Bei Schach ist es jetzt vielleicht schwierig, weil man da unglaublich viele komplexe Situationen herstellen kann auf dem Feld.
0:32:28–0:32:32
Aber es gibt immerhin auch einfach eine Möglichkeit zu sagen okay, ich habe keine Ahnung, worum es hier geht.
0:32:32–0:32:42
Ich weiß nur, wenn jetzt dieses Feld mit dem besetzt ist, dann ist die Wahrscheinlichkeit, das hinten raus eine Belohnung kriegt, deutlich größer.
0:32:43–0:32:47
Und das ist dann wirklich ohne Model.
0:32:47–0:32:53
Also Model heißt halt quasi. Man kann natürlich auch am Computer erst mal Schach beibringen und die Regeln geben.
0:32:53–0:33:00
Das heißt, er kann nur Züge machen, die da drin in dem Regelheft abgebildet sind. Und das ist dann.
0:33:03–0:33:03
Mit einem Model.
Florian Clauß
0:33:05–0:33:17
Interessant und das sind so verschiedene Methoden, um halt zu einer gewissen äh. Also um, um die. Um das. Um die Maschine zu trainieren.
Micz Flor
0:33:17–0:33:27
Und da gibt es halt. Ich weiß gar nicht, ob das auf YouTube auch ist oder nur irgendwie auf Netflix oder anderem, aber es gibt eine sehr schöne Doku über diese Go, dieses,
0:33:28–0:33:33
die und in der Doku ist ist es so da bei dem Training dieses Systems war es ja so,
0:33:34–0:33:47
dass zuerst wurden die Regeln vorgegeben und es hat sich Spieler angeschaut und dann später war es aber so, dass zum Ersten Mal erfolgreich auch zwei künstliche Intelligenz Systeme gegeneinander gespielt haben.
0:33:48–0:33:55
Und ich glaube sogar im letzten Schritt war es so, dass die Regeln nicht mehr vorgegeben wurden, sondern anhand des Wissens um,
0:33:56–0:34:06
schon gespielter Partien und dem Spielen eigene neue Partien die Regeln aus dem Spiel erschlossen wurden.
Florian Clauß
0:34:06–0:34:07
Er Wahnsinn.
Micz Flor
0:34:07–0:34:16
Und in der Doku, in der glaub ich von drei Spielen eins von dem Go Meister gewonnen wird, die zwei anderen von der Maschine.
0:34:17–0:34:23
Da gibt es doch so einen Punkt. Weil die zwei Moderatoren, eine Moderatorin, ein Moderator, die haben halt wie so ein,
0:34:25–0:34:37
wir kennen das halt eher vom Schach, weil Go ist ja nicht so populär, aber nur so ein großes Go Brett und dann werden halt immer diese Steinchen abgebildet und die reflektieren, was könnte das sein, was hat der jetzt vor und so und da gibt es halt dann eine Situation,
0:34:37–0:34:39
die echt sehr schön zeigt,
0:34:40–0:34:43
dass dann doch auch da was neues in die Welt kommt.
0:34:43–0:34:47
Weil in diesem Go Board gibt es dann immer so Inseln von Stein.
0:34:48–0:34:52
Ja und auf einmal legt dann die Maschine, legt dann den Stein so ins Nichts hinein.
0:34:54–0:35:03
Plump, der liegt dann so und du merkst ja, bei den beiden, die moderieren, ist ja erst mal so stille, hä?
0:35:04–0:35:08
Und dann großes Lachen. Oh, ist halt doch nur eine Maschine. Weiß nicht, was sie tut.
0:35:09–0:35:20
Und dann stellt sich aber raus, dass das halt so der geniale Zug war, wo das Ganze dann kippt, dass dieser eine Stein dann auf einmal eben das Feld beherrscht und so viel anderes nicht mehr zulässt.
0:35:21–0:35:32
Und das fand ich so ganz interessant, weil das war wohl so ein Punkt, wo wirklich auch die Experten Experten gesagt haben, das ist jetzt kein menschlicher Zug, der kommt halt, ist es der Siegerzug von der Maschine?
Florian Clauß
0:35:32–0:35:41
Ich meine, bei den ganzen trainierten Maschinen ist es ja so, dass die am besten in so bauen det Kontext funktionieren.
0:35:41–0:35:47
Deswegen ist dann halt irgendwie Schach und Go so ein beliebtes Feld, weil es halt ein klares Regelset ist.
0:35:47–0:35:51
So ein bisschen irgendwie, wie wie,
0:35:53–0:36:02
automatisiertes Fahren auf der Autobahn sehr einfach ist, weil du hast dann eine ganz klare Markierung, an denen kannst du dich orientieren und der Rest ist dann halt Berechnung.
0:36:02–0:36:14
Und das war's jetzt dann immer so, dass ich sag mal, die Herausforderung ist das in Form von wie kriegt man das jetzt irgendwie nicht geboxt,
0:36:15–0:36:26
wie kriegt man, wie kriegt man so dass man tatsächlich das Gefühl hat da so eine Form von Selbstbewusstsein, weil so eine Go Maschine ist ja nicht selbstbewusst, sondern eine Maschine ist halt irgendwie so,
0:36:27–0:36:31
ja, also kann halt irgendwie gut Go spielen und ähm.
0:36:32–0:36:46
Aber ich glaube das ist so nochmal so dieser der Referenzraum, wenn der sich dann halt so quasi auf so eine Welt, die dann halt sehr divers ist, wenn sich das dann halt so erweitern kann, das ist ja das Spannende.
Micz Flor
0:36:48–0:36:52
Ja, und das ist halt auch. Du kennst das Spiel Pong.
0:36:53–0:37:01
Wenn man zum Beispiel das also rechts und uraltes Spiel rechts und links zwei weiße Balken hoch und runter war ein Analogstick.
0:37:01–0:37:05
Also man konnte dann auch ganz schnell hoch oder runter machen und,
0:37:06–0:37:16
dazwischen ein weißer Würfel, der dann wieso Tennis, der hin und her fliegt und bei wem er dann hinten durchfliegt, der nicht zurück abwehren kann, der verliert einen Punkt oder einen Punkt dazu.
0:37:17–0:37:20
Und da ist es zum Beispiel, was ich vorhin meinte Wenn du ein Schachbrett dir anschaust,
0:37:22–0:37:34
da hast du ein Regelwerk, was die Maschine weiß oder nicht weiß, aber man kann trotzdem einfach auf das Bild gucken und kann ein Urteil fällen und kann dann sagen okay, das wäre ganz gut, dass wir ganz gut das Risiko.
0:37:34–0:37:48
Oder bei Pong zum Beispiel, da könntest du, wenn du zwei Bilder hast und du weißt, sind eine halbe Stunde halbe Sekunde auseinander, dann könntest du halt, wenn du wenn du ein.
0:37:49–0:37:55
Ein algorithmisches Wissen um das Spiel hast, könntest du vorher errechnen, wo diese Ball hinfliegt?
0:37:56–0:38:02
Wenn du nur ein Bild siehst, dann weißt du nicht, ob das von dir in deine Richtung fliegt und wegfliegt.
0:38:03–0:38:11
Du weißt nicht, ob es gerade fliegt, ob es schnell fliegt. Das heißt, du kannst dann anhand von einem Bild, so einem einfachen Spiel wirklich nicht viel sagen.
0:38:13–0:38:24
Und das ist halt immer der Punkt. Du musst dann halt gucken, welche Aufgabe stellst du diesem Experiment, sag ich mal, und dementsprechend musst du dann halt ein Modell auswählen, was halt auch gut.
0:38:25–0:38:33
Die Problemstellung passt, was jetzt gerade eben auch ein großes Thema ist, eben auch mit KI für Fahrzeuge und so.
0:38:33–0:38:48
Das ist halt so ein prozedurales Umfeld, was sich halt permanent auch verändern kann und was eben aber auch in sich selbst keinen Abbruch. Wie du sagst Box abgeschlossen, Raum hat, in dem etwas immer wieder durchgespielt wird, sondern was sich auch wieder verändert hat.
0:38:48–0:38:56
Wir sind dann schon der Halt, der neue Pfade hat und das Wissen was die AI da lernen muss, ist nicht.
0:39:00–0:39:09
Also es fängt jedes Mal wieder von null an. Wo man da wirklich so das Gefühl hat, dass es in dem Moment vielleicht sogar besser bot zu schreiben, als KI zu trainieren.
0:39:10–0:39:17
Weil du musst Dinge in Anführungszeichen verstehen, interpretieren, abwägen und dann Entscheidungen fällen.
0:39:18–0:39:25
Und diese stochastischen Modelle von vielen Kids, die sind da nicht unbedingt die besten Möglichkeiten.
0:39:27–0:39:34
Was mich halt auch noch in eine andere Sache zurückführt. Was ich ganz spannend finde, ist, dass die KI jetzt so abgeht.
0:39:35–0:39:40
Das war für manche vielleicht klar, aber es ging jetzt enorm schnell.
0:39:40–0:39:44
Es entsteht da so ein ganz komischer Raum, auch wo unglaublich viel Geld reingepumpt wird.
0:39:45–0:39:52
Zum Beispiel ist bei diesem Z petit, das kostet angeblich 100.000 $ pro Tag das am Laufen zu haben.
0:39:53–0:40:02
Es wird wohl auf Microsoft asur gehostet. Habe ich in einem Artikel gefunden und das heißt 3 Millionen pro Monat werden reingesteckt, nur damit es läuft.
0:40:03–0:40:09
Also es sind immense Summen, die da gerade verbraten werden, um auch Reviere abzustecken.
0:40:10–0:40:14
Und gleichzeitig, um natürlich auch Futter zu kriegen, dass die.
0:40:18–0:40:20
Gleichzeitig auch Futter zu kriegen, das die Maschinen besser lernen können.
0:40:22–0:40:23
Ähm.
Florian Clauß
0:40:24–0:40:26
Ganz gut. Wünsch dir was. Denkst du?
Micz Flor
0:40:27–0:40:30
Es ist total lustig. Unser. Unser Weg ist so ein bisschen.
Florian Clauß
0:40:32–0:40:42
Wir können. Ja, wir können also wieder zurück oder so Richtung Auto, dass Autos da ist. Und dann brauchst du noch ein bisschen länger.
Micz Flor
0:40:43–0:40:46
Ich habe noch gar nicht angefangen. Geht er.
0:40:46–0:40:51
Es geht, Dann drehen wir jetzt um und ich nehme den Rückweg von dieser Allee für mein eigentliches Thema.
0:40:57–0:41:00
Gut, das war jetzt quasi der, der das Vorspiel.
0:41:01–0:41:08
Und jetzt? Point of no return gibt es hier nicht, sondern point of return. Die Rückweg nehme ich für mein eigentliches Thema.
0:41:11–0:41:22
Wenn man sich mit diesem Künstliche Intelligenz Thema auseinandersetzt, dann geht es ja immer auch darum, dass man das auf so einer menschlichen Ebene sieht. Ich habe ganz kurz von diesem Bike angesprochen.
0:41:22–0:41:34
Also es gibt bei der Psychologie zum Beispiel den Rosenthal Effekt. Das ist genau so ein Bias, wenn man den Forschern sagt diese Ratte ist echt clever, diese Ratte ist echt dumm.
0:41:35–0:41:42
Dann wird die Ratte, die echt clever ist, sich besser. Also es wurde auch wiederholt das Experiment.
0:41:43–0:41:47
Die findet sich besser im Labyrinth zurecht als die, die angeblich dumm ist.
0:41:48–0:41:51
Das heißt, die Versuchsleitung hat dann Einfluss.
0:41:51–0:41:56
Die innere Einstellung gegenüber dem Tier hat einen Einfluss auf die Ergebnisse, die da rauskommen.
Florian Clauß
0:41:56–0:41:58
Und wie kriegt das Tier das mit? Ja.
Micz Flor
0:41:58–0:42:00
Ja, spannende Frage. Dann.
Florian Clauß
0:42:00–0:42:02
Wieso denn?
Micz Flor
0:42:02–0:42:05
Transpis. Weitergabe von. Von Attitüde und.
Florian Clauß
0:42:06–0:42:10
Aber es ist jetzt. Aber das ist doch genau diese Sache von Doppelblindstudien.
Micz Flor
0:42:10–0:42:23
Genau das war der Rosenthal Effekt. War auch ein ganz wichtiger Stepstone in dieser Umstrukturierung. Von diesen ganzen Studien ist man Doppelblind heißt eben, dass.
0:42:24–0:42:38
Keiner gar nichts weiß, also wie der Versuchsleiter weiß, ob da jetzt Substanz, wenn es Medizin ist, zum Beispiel Substanz drin ist oder nicht. Und das wird quasi komplett getrennt und versucht random zu randomisieren.
0:42:40–0:42:45
Und wenn wir jetzt also künstliche Intelligenz, diese ganze Angst, die da ist, die ist ja.
0:42:48–0:42:53
Ist ja irgendwie daran. Das berührt unsere eigene Existenz.
0:42:53–0:42:58
Also angenommen, man würde sagen. Man würde sagen, es ist Maschinenlernen.
0:42:59–0:43:05
Das würde die Leute nicht so anspornen, mitzureden, wie wenn man sagt Künstliche Intelligenz.
0:43:06–0:43:13
Insofern ist dieses Wort natürlich für ihre Aufmerksamkeit super gewählt und.
0:43:15–0:43:19
Die Fantasien, die dahinter entstehen, sind aber natürlich sehr schnell auch okay.
0:43:19–0:43:24
Intelligenz, das ist etwas, das macht den Menschen irgendwie auch einzigartig. Wir haben davon am meisten.
0:43:24–0:43:32
Wir sind die dominante ste Spezies hier auf dem Planeten. Nicht weil wir die längsten Zähne haben, sondern weil oder am stärksten sind, weil wir die intelligentesten sind.
0:43:35–0:43:41
Auf unserer Intelligenz beruht diese Position. Wenn jetzt was entsteht, was potenziell sogar intelligenter ist als wir.
0:43:41–0:43:44
Das ist eine Bedrohung, da fühlt sich jeder irgendwie angesprochen.
0:43:45–0:43:55
Das war ja früher mit den Robotern so ein bisschen, dass die das in den Autoherstellern gedacht wurde. Die ganzen Menschen werden überflüssig.
0:43:57–0:44:03
Was natürlich in vielen Punkten auch passiert ist. Das heißt dieses Bild.
0:44:04–0:44:13
Mit dem man sich irgendwie eigentlich beschäftigt. Ist das Bild von einem menschenähnlichen der deutlich menschenähnlicher Em?
0:44:16–0:44:23
Neuronalen Netz. Was eben. Intelligenz möchte ich gar nicht definieren. Aber was?
0:44:24–0:44:26
Was eben nicht nur smarte Sachen kann.
0:44:28–0:44:39
Über den Begriff künstlich möchte ich mich jetzt gar nicht auslassen, weil das ja auch sehr fragwürdig. Was heißt künstliche Intelligenz? Aber es kann also smarte Sachen tun. Kann Autos rückwärts einparken?
0:44:40–0:44:42
Können wir Bilder malen? Also es kann eine tolle Sachen.
0:44:44–0:44:58
Und dann ist aber dieser zweite Schritt das man und das waren ja auch dann diese, die diese ich weiß gar nicht mehr bei welcher Firma war dieser eine Typ, der auf einmal im Chat mit einer mit einem neuronalen Netz entschieden hat?
0:44:58–0:45:05
Oh Gott, dieses Netz ist sich selbst gewahr, es kennt ja und wir haben es eingesperrt. Es leidet.
Florian Clauß
0:45:05–0:45:09
Ja, ja, das war. Das war glaube ich der Google Entwickler.
Micz Flor
0:45:10–0:45:11
Weil es auf Google. Ich weiß es immer. Ich möchte es.
Florian Clauß
0:45:11–0:45:16
Ja, es war irgend so irgend so einer, der dann halt dann gesagt hat ja das.
Micz Flor
0:45:16–0:45:21
Müssen wir bedenken, dass bei jeder großen Firma irgendwer schon mal gesagt aber wir gucken mal!
Florian Clauß
0:45:21–0:45:24
Wenn du natürlich deine Gelder für.
Micz Flor
0:45:25–0:45:36
Und. Und diese, diese Sorge, die dann eben auch diese moralischen Themen gleich nach oben kochen lässt.
0:45:36–0:45:40
Wir haben inzwischen natürlich auch schon eine Tierethik als einen Bereich, der,
0:45:43–0:45:48
seriös ist. Da ist nicht mehr so ein Blödsinn, sondern es ist ein seriöses Thema.
0:45:48–0:45:55
Und das nächste ist natürlich so eine Frage von Technikethik oder Maschinenethik. Oder ich weiß gar nicht, wie ich es nennen möchte.
Florian Clauß
0:45:55–0:45:56
Asimov sche Gesetze.
Micz Flor
0:45:57–0:46:03
Weil man. Weil man eben. Potenziell. Oder man drängt in eine Richtung.
0:46:05–0:46:08
Von der man noch weit entfernt ist, in der man,
0:46:10–0:46:23
ein Gewahrsein herstellt, was fehlerhaft und deshalb sehr wahrscheinlich leidend sein wird und das aber nicht unbedingt kommunizieren kann mit seinesgleichen, weil es auch noch alleine ist.
0:46:24–0:46:35
Was ich meine, also es ist so ein bisschen von innen heraus wird das entwickelt, von dem man jetzt schon sagt, naja, wir können gar nicht genau sagen, ob das jetzt irgendwie wirklich selbst wahr ist oder nicht, weil,
0:46:36–0:46:40
es kann ja auch ganz anders denken als wir, denn wenn wir es nicht wissen. Weißt du, ich.
Florian Clauß
0:46:40–0:46:46
Hey. Also, es ist. Ich versuche es zu verstehen, aber ist es so was wie, ähm.
0:46:47–0:46:59
Also das, was jetzt für mich sehr nachvollziehbar ist, diesen BIOS, den, von denen du erwähnt hast, in dem Moment, wenn halt quasi derjenige, der das System trainiert,
0:47:00–0:47:08
injiziert irgendwie auch seine seine Vorstellung, seine Moral in dieses System rein.
0:47:08–0:47:21
Also ganz, ganz abstrakt gesprochen, allein dadurch, dass er es trainiert, dass es da halt quasi eine Beziehung gibt zwischen dem, der also dem, der trainiert und dem dem Maschinen Learning.
Micz Flor
0:47:22–0:47:27
Genau. Aber da war ich jetzt schon. Da war ich schon weg. Eigentlich. Ich dachte jetzt eher so..
Florian Clauß
0:47:22–0:47:24
Und dadurch wird halt das initiiert.
Micz Flor
0:47:28–0:47:41
Ich dachte jetzt eher so, wenn wir nachher noch was essen gehen sollten und dann mit dem Ober über künstliche Intelligenz sprechen, dass der irgendwie so was sagt wie Ja, hoffentlich können sie so einen Koch ersetzen. Das kann man nicht essen, was der macht.
0:47:42–0:47:47
Also das diese diese Künste. Also da geht es gar nicht darum.
0:47:47–0:47:50
Ich finde, der Begriff künstliche Intelligenz selbst induziert,
0:47:53–0:48:03
etwas Bedrohliches und ist vielleicht sogar nicht strategisch deshalb entstanden, aber einfach kleben geblieben.
0:48:03–0:48:08
Irgendwann, weil alle Leute damit so Darth Vader mäßig am meisten verbinden konnten.
Florian Clauß
0:48:09–0:48:12
Ja, ja, ja, klar. Okay. Das ist irgendwie ein Begriff. Ja.
Micz Flor
0:48:13–0:48:28
Der eine Teil und der andere Teil ist natürlich, dass, wenn man das weiterdenkt, dass man eben das, was die Menschen da bedroht, nämlich dieses Gefühl, wir werden entweder ersetzt oder es wird halt irgendwas entstehen, was vielleicht sogar noch intelligenter ist als wir, Was dann? Vielleicht sogar.
0:48:29–0:48:34
Die viele Entscheidung besser macht, als wir das vielleicht sogar merkt. Die Menschen sind nicht gut für den Planeten.
0:48:34–0:48:38
Solche solche Fantasien gibt es ja auch.
0:48:43–0:48:52
Okay, das ist jetzt mal ein Kieks. So ein E Roller mitten in der Matschstraße im Nirgendwo.
0:48:53–0:48:54
Damit hat jetzt keiner gerechnet.
Florian Clauß
0:48:55–0:48:57
Ich denke auch, es käme ein Mountainbiker.
Micz Flor
0:48:56–0:49:00
Ich muss dann nachher, ich muss dann nachher irgendwie super aussortiert werden, diese Erfahrung.
0:49:04–0:49:11
Und diese. Was ich meinte mit der Tierethik, die jetzt auch so ai Ethik sein könnte, ist halt du.
0:49:11–0:49:24
Wenn du das herstellen würdest und es wahrscheinlich nicht mal mitbekommen müsstest, dann könntest du höchstwahrscheinlich im ersten Schritt etwas herstellen, was sehr leidet.
0:49:25–0:49:34
Meinst du also einen Horrorfilm? Gibt es das auch immer, wenn irgendwelche Dämonen zum Ersten Mal auf die Welt kommen, sich so manifestieren und dann manchmal so halb in einem Schrank drin hängen oder so ein Rohr durchs Auge kommt. Bist du.
Florian Clauß
0:49:34–0:49:36
Die müssen erst mal gerendert werden.
Micz Flor
0:49:36–0:49:43
Ja, Und du weißt, was ich meine. Diese Momente, wo man dann schieße. Hellraiser. Ich verstehe. Ich verstehe es noch nicht ganz. Warum?
Florian Clauß
0:49:39–0:49:42
Aber ich verstehe. Ich verstehe. Ich verstehe es noch nicht ganz.
Micz Flor
0:49:44–0:49:46
Warum man Leidenschaft in.
Florian Clauß
0:49:46–0:49:50
Aber in dem Moment, also warum das jetzt in die Welt kommt.
Micz Flor
0:49:52–0:49:59
Das ist nicht das, was gerade passiert. Das ist ja Maschinenlernen. Aber weil wir es künstliche Intelligenz nennen, also die.
0:50:00–0:50:03
Ich bin mal gespannt, wie das ist beim Abhören von dem Ganzen.
Florian Clauß
0:50:03–0:50:05
Dann leiden wir gänzlich.
Micz Flor
0:50:05–0:50:10
Wir leiden. Genau. Ich habe gerade. Aber manchmal bleibt mir die Luft weg.
Florian Clauß
0:50:08–0:50:11
Körper im Körper eingeschrieben. Das Leiden.
Micz Flor
0:50:12–0:50:23
Na ja, aber das ist ja, ähm. Ich glaube, dass der, um es mal zu sagen, der große Sprung zwischen dem, was gerade passiert, und zwischen dem, was alle befürchten. Er ist, ähm.
0:50:25–0:50:34
Inzwischen kann AI sehr viel besser bösartige Tumore auf Röntgen erkennen als Ärzte. Schneller und besser. So.
0:50:37–0:50:42
Und dann erkennt es das. Richtig. Punkt. Und was die Leute befürchten, ist.
0:50:43–0:50:49
Und dann weiß der auch, dass der das oder die oder das weiß. Das auch, dass es richtig ist.
0:50:49–0:50:55
Meint es auch. Es hat es abgewägt. Also es tut all diese Dinge, die wir als Mensch von uns kennen und.
0:50:59–0:51:06
Dieser Unterschied ist, glaube ich, enorm wichtig. Also kommt diese Information, die korrekt ist von.
0:51:08–0:51:11
Einem und da komme ich jetzt an das Selbst.
Florian Clauß
0:51:11–0:51:13
Ja, okay. Also, das ist er. Okay.
Micz Flor
0:51:13–0:51:25
Es geht quasi. Was wir jetzt gerade haben, ist, wenn ich es in der Therapie sage, wir haben jetzt gerade die Verhaltenstherapie oder streng genommen nur Behaviorismus, das heißt, wir sagen, egal was in dieser Box ist Turingtest mäßig, egal was da drin passiert.
0:51:27–0:51:40
Wir gucken nur, was reingeht, was rauskommt und nach Thüringen Test wenn das was rauskommt keiner sagen kann Für Mensch oder Maschine ist dann wenn es eine Maschine ist, dann hat die Turing Test bestanden.
0:51:41–0:51:44
Was da drin abgeht wissen wir nicht. So, und jetzt?
0:51:46–0:51:58
Ist es so, dass wenn wir da drin etwas schaffen, was genauso wie wir im Inneren Eigenschaften hat, die.
0:52:00–0:52:04
Zum Beispiel mit dem Leiblichen zu tun hat, mit dem Wesen zu tun haben.
0:52:04–0:52:12
Dieses Wort Quäntchen, was auch immer genannt wird, was eben Empfindsamkeit heißt, oder man kann Dinge empfinden,
0:52:13–0:52:20
das ist so eine Vorwahrnehmungsstufe, in dem man etwas empfindet, bevor man es wirklich deutlich erkennt.
0:52:20–0:52:33
Also hier versucht, diese neuronalen Netzwerke mit solchen Dingen auszustatten, ist dann irgendwie einerseits der Wunsch und andererseits die Sorge, dass man dann eben auch Wesen schafft,
0:52:34–0:52:37
die eine Form von Bewusstsein entwickeln könnten.
0:52:38–0:52:46
Und wobei das auch. Wiederum muss ich auch noch gleich was zu sagen und dann aber eventuell oder sehr wahrscheinlich darunter leiden.
0:52:48–0:52:52
Ja. Und die muss du einfach ausschalten. Ich halte. Du stellst quasi was her.
0:52:53–0:52:57
So ein bisschen wie bei Die Fliege. Kannst Ja.
Florian Clauß
0:52:58–0:53:05
Aber ich verstehe es immer noch nicht. Warum soll die darunter leiden? Ich dachte. Ich dachte. Ich. Ich dachte, ich hätte es nicht ganz verstanden. Weil,
0:53:08–0:53:09
du jetzt quasi. Jetzt nicht.
Micz Flor
0:53:09–0:53:14
Aber nehmen wir mal die Fliege. Nehmen wir mal den Film Die Fliege in der Version mit Jeff Goldblum.
0:53:15–0:53:25
Da gibt es ja dann diese diesen Wunsch, Lebewesen von A nach B zu transportieren, indem man sie in die Einzelteile zerlegt.
0:53:26–0:53:30
Dann von A nach B überträgt und dort wieder zusammenbaut.
0:53:31–0:53:34
Und dann ist da eine Fliege und Jeff Goldblum drin.
0:53:34–0:53:42
Dann werden die Atome zerlegt und wieder zusammengebaut und dann kommt Jeff Goldblum raus und verwandelt sich dann Tag für Tag in eine Fliege. So.
0:53:43–0:53:46
Also es war nicht sein Wunsch.
0:53:47–0:53:51
Er hat gedacht, er hat es irgendwie gecheckt und will es halt ausprobieren. Wusste nicht, dass Fliege mit drin ist.
0:53:51–0:53:55
Und er ist ja dann leidend. Er verändert sich auch im Wesen und er leidet.
0:53:57–0:54:02
Und ist es nicht sehr wahrscheinlich, wenn man mit Mäusen versuchen würde, so eine Art Gerät zu schaffen,
0:54:03–0:54:13
dass man wie im Film auch ganz viele halbtote Tiere dann irgendwie auf dem anderen Teil erst mal sieht, also ganz viel Leid herstellt.
0:54:13–0:54:21
Aber okay, das ist ja dann nachvollziehbar, weil du hast ja lebendige. Genau. Wir reden ja jetzt von.
0:54:24–0:54:35
Genau. Genau. Und das ist halt. Und das künstlich ist wiederum das künstlich ist halt wiederum dann eine menschliche Bias sozusagen. Also wir sagen künstliche Intelligenz.
0:54:35–0:54:37
Das entfernt sich dann auch ein bisschen von uns.
0:54:38–0:54:47
Es gibt inzwischen, glaube ich, sogar in der Physik über das Thema Bewusstsein, also können wir uns selbst erkennen und Bewusstsein haben uns.
0:54:47–0:55:00
Bewusstsein gibt es inzwischen auch da schon so eine Theorie, die andersrum denkt, die sagt, Bewusstsein ist in der Materie angelegt und komplexe Systeme sind in der Lage, immer mehr davon zu erschließen,
0:55:01–0:55:08
so als ob das quasi in der Materie ist und nicht wie wir.
0:55:08–0:55:18
Man denkt ja oft so, wenn das System komplex genug wird, dann kann es sich selbst bewusst werden und dann geht es wieder um das Selbst, um das Ich. Eigentlich reden wir doch gleich nochmal auf diese.
0:55:22–0:55:28
Oder ist es so, dass das Bewusstsein sowieso in der Welt ist? Und alles ist damit berührt?
0:55:29–0:55:36
Aber komplexe Systeme wie Menschen, einige Tiere, vielleicht auch Bäume, wissen wir nicht.
0:55:36–0:55:44
Die kommen damit schon in Berührung. In der Form, in der sie darüber reflektieren können, wie das zum Beispiel Steine nicht können.
0:55:46–0:55:53
Ja, das ist mir ziemlich esoterisch. Ja, stimmt, muss ich. Der müsste. Dann müssen wir vielleicht eine eigene Folge zu machen, weil.
0:56:08–0:56:09
Kaum dass gerade.
0:56:12–0:56:19
Es war toll, diesen Schub und Zusammenzucken. Ich dachte, es wird auch kalt. Mir ist auch echt kalt. Es ist schlecht.
0:56:19–0:56:22
Wir gehen. Wir gehen zum Auto. Also ist die Frage. Wie kriegen wir?
Florian Clauß
0:56:21–0:56:24
Also es ist die Frage, wie kriegen wir jetzt noch den Absprung?
Micz Flor
0:56:24–0:56:27
Ich mache einfach den zweiten Teil. Der zweite Teil wird folgendes sein.
0:56:29–0:56:32
Es gibt einen Begriff vom Selbst in der Psychodynamik,
0:56:34–0:56:40
Psychoanalyse, ursprünglich aber in der psychischen Dynamik. Und den würde ich gerne mal.
0:56:42–0:56:48
Ähm darstellen. Darum geht es halt. Oder? Dabei geht es darum, dass.
0:56:50–0:56:57
Freut ihn seine Idee mit dem Eis und ich dann irgendwann auch so ein selbst ich erfunden hat, weil er gemerkt hat.
0:56:58–0:57:03
Dass dieses System, was er versucht zu beschreiben, das steht auch mit einem Bild von sich selbst in Kontakt.
0:57:04–0:57:07
Wir können nicht einfach in der Welt sein, ohne ein Bild von uns zu haben.
0:57:08–0:57:13
Und das ist eine Sache, die dann, glaube ich, über das ganze 20. Jahrhundert hinweg weiter ausgetreten wurde.
0:57:14–0:57:16
Da gibt es ja dann auch so diese, diese.
0:57:19–0:57:23
Ja, wir merken es einfach, wenn du Auto fährst und du bist mit dem Auto verschmolzen.
0:57:23–0:57:27
Also, wir sind in der Lage, uns mit anderen Dingen zu verbinden.
0:57:27–0:57:35
Wir können irgendwie mit Rollerblades wie mit zwei Füßen arbeiten und so was. Das heißt, es gibt in uns ein Selbst, das entsteht.
0:57:36–0:57:41
Damit kommt man nicht auf die Welt. Man kommt aber mit der Fähigkeit auf die Welt, das zu entwickeln.
0:57:42–0:57:48
Man hat auch gemerkt, in manchen dramatischen Situation der Vergangenheit, dass das selbst nicht unbedingt entstehen muss.
0:57:49–0:57:54
Wenn es aber nicht entsteht oder nur brüchig entsteht, dann entstehen Menschen, die auch.
0:57:56–0:58:05
Manchmal große Probleme im Leben haben kann. Und dieses Selbst ist, glaube ich so der Punkt, an dem die nächste.
0:58:07–0:58:15
Ja, das wird so die nächste Aufgabe werden. Das ist, glaub ich der Holy Grail, der den Unterschied herstellt zwischen einem neuronalen Netz. Was einfach so ein.
0:58:16–0:58:26
Weißer Teig ist, der halt was kann. Egal ob das jetzt irgendwie aus Dioden gebaut ist, aus Transistoren, aus Neuronen, es ist wurscht, kann das lernen.
0:58:26–0:58:33
Man kann inzwischen auch schon mit Neuronen bestimmte Dinge lernen und die Neuronen verkoppeln sich selbst und machen was.
0:58:35–0:58:42
Und dieses Selbst ist, glaube ich so eben diese sehr, sehr, sehr unerreichbare Stufe.
0:58:44–0:58:49
Die allerdings beim Kind entsteht oder fast notwendigerweise entstehen muss.
0:58:51–0:58:58
Und weshalb ich dann denke, dass es doch spannend wäre, auch klinische Psychologie in die KI Forschung mit einzubeziehen.
0:58:59–0:59:12
Und gleichzeitig mir dann wünscht, dass eben auch hier ethische Experten und Expertinnen da mitreden dürfen, weil ich halt wirklich der Meinung bin, dass diese Form von selbst Gewahrsein.
0:59:15–0:59:18
Genau diese Grenze ist, wo man dann wirklich von ethischen Themen spricht,
0:59:19–0:59:30
und nicht mehr Ethik für Arbeit und Arbeitsmarkt und sonst was oder von Geldverteilung oder ohne, wirklich halt mit dem Produkt was man herstellt. Punkt.
Florian Clauß
0:59:31–0:59:34
Okay, spannend, großer Cliffhanger aufgebaut.
0:59:36–0:59:49
Die zweite Episode, die zweite Folge zu dem Thema kommt Ich. Ich trage das auf jeden Fall bei mir im Kopf rum, weil ich kriege es noch nicht so zusammen. Deswegen freue ich mich auf ein weiteres Gespräch.
Micz Flor
0:59:49–0:59:57
Ich muss mir das auch noch mal anhören, wenn ich diese Brustprellung weg habe. Vielleicht liegt es auch an meiner Leiblichkeit und meinem Körper, der mich da irgendwie.
Florian Clauß
0:59:57–1:00:04
Wenn selbst das dich wieder daran hindert, du selbst zu sein. Of Thrones Diese Szene, die finde ich ganz.
Micz Flor
1:00:00–1:00:05
Du kennst ja diese Szene in Game of Thrones. Diese Szene, die finde ich ganz toll.
1:00:05–1:00:09
Woodorholt. The Door. Dieser.
Florian Clauß
1:00:08–1:00:11
Für die auch jetzt ist gesagt.
Micz Flor
1:00:10–1:00:19
Es ist verraten. Und dieses hold the door, hold oder outdoor oder oder. Und er hält diese Tür zu, damit die Bösen nicht rauskommen und dann diesen Jungen, den er beschützt, umbringen könnten.
1:00:20–1:00:29
Und du merkst halt, dass so eine Situation, wo er halt so von der Tür gebunden ist, dass er sich um nichts anderes mehr kümmern kann. Und vielleicht ist meine Brust, die gerade immer wieder zumacht.
Florian Clauß
1:00:30–1:00:30
Hey.
Micz Flor
1:00:30–1:00:35
Deshalb kann ich nicht gut reden. Und deshalb hast du das Gefühl, du checks es nicht. Aber in Wahrheit habe ich es nie gesagt.
Florian Clauß
1:00:37–1:00:46
Okay. Insofern. Holla, hurra! Bis zum nächsten Mal bei eigentlich Podcast D.
1:00:47–1:00:51
Also ich wünsche dir, dass es dir bald besser geht.
Micz Flor
1:00:52–1:00:55
Danke. Beim Reden, Laufen und Atmen.
Florian Clauß
1:00:55–1:01:04
Genau. Und laufen und reden. Und atmen. Und atmen. Und genau. Also dann warten wir auf die zweite Episode.
1:01:06–1:01:15
Bei der zweite Folge der 18. Episode. Wie willst du sie eigentlich nennen? Künstliche Intelligenz.
Micz Flor
1:01:06–1:01:07
Zweite Folge der.
1:01:15–1:01:24
Also jetzt hatte ich einen Arbeitstitel, das Selbst Doppelpunkt Der heilige Gral der künstlichen Intelligenz. Forschung, Fragezeichen.
1:01:24–1:01:28
Okay, so kann ich diese Episode nicht. So wird dann wahrscheinlich die nächste heißen.
Florian Clauß
1:01:29–1:01:31
Ich bin gespannt. Vielen Dank mit.
Micz Flor
1:01:31–1:01:39
Nichts zu danken. Und schön, dass du mir so lange zugehört hast. Das ist schlimm. Ich weiß es nicht. Ich muss mir anhören, wenn ich wieder gesund.
Florian Clauß
1:01:36–1:01:41
Was ist schlimm? Ich heiße Sie also. Meinen es gut? Ja.

Mehr