"Wir möchten einen unbekannten aber existierenden Planeten erforschen, stattdessen untersuchen wir Menschen." Snaut, Kybernetiker

Das dritte Jahr "Eigentlich Podcast" beginnen wir mit einer Solaris-Trilogie. In dieser ersten Episode geht es um den Science-Fiction-Roman "Solaris" von Stanisław Lem (1961); in den folgenden um die Verfilmungen des Stoffs durch Andrei Tarkowski (1972) und Steven Soderbergh (2002). Der Roman "Solaris" spielt auf einer Raumstation, die den gleichnamigen, mysteriösen Planeten erforscht. Im riesigen Ozean, der Solaris bedeckt, scheint eine außerirdische Intelligenz verortet zu sein. Der Psychologe Kris Kelvin landet zu Beginn der Erzählung auf der Forschungsstation, von der aus sein Kollege Gibarian ihn zu Hilfe gerufen hatte. Doch Gibarian hat sich am Tag vor Kelvins Ankunft umgebracht, sagt Snaut, einer der beiden verbliebenen Forscher auf der Station. Es bleibt unklar, was vorgefallen ist und was Kelvin jetzt tun sollte oder hätte tun sollen. In diesem Schwebezustand erfahren wir viel über die inzwischen 100-jährige "Solaristik", die Spekulationen und Erforschung der wilden Phänomene des Ozeans. Dann erscheint eine Replik von Kelvins verstorbener Geliebten, was ihn zwingt, sich seinen eigenen inneren Dämonen zu stellen. Bald erfahren wir, dass die anderen beiden auch "Gäste" haben, wie sie die von Solaris erschaffenen, menschenähnlichen, doppelgängerhaften Kopien nennen. Das Buch untersucht Themen wie das Wesen des Bewusstseins, die Grenzen der menschlichen Erkenntnis und die Schwierigkeit, das Fremde zu verstehen. Was wir bei "Eigentlich Podcast" so noch nicht gemacht haben: Alle drei Folgen zeichnen wir in einer langen Wanderung durch Berlin auf – während wir, wie immer, "beim Laufen reden und laufend reden". Flo hat eine Tour geplant, die uns von den verwachsenen Grünflächen und Grabsteinen bei Herzberge, entlang übergroßer Rohrsysteme zur abgesperrten sechsspurigen Stadtautobahn in Marzahn führt. Berlin und Solaris verschmelzen beim Wandern wie in einem Fiebertraum. Und wir erkennen: jetzt sind auch wir "Solaristen" als Teil jener Gruppe, die seit Jahren spekuliert worum es bei Solaris eigentlich geht...

Shownotes

Mitwirkende

avatar
Florian Clauß
avatar
Micz Flor

Transcript

Micz Flor
0:00:00–0:00:01
Gut.
Florian Clauß
0:00:02–0:00:03
Kommen Sie gerade von der Arbeit?
Micz Flor
0:00:04–0:00:11
Ja. Ich komme von der Arbeit. Und es war auch Arbeit. Und deshalb machen wir jetzt...
Florian Clauß
0:00:11–0:00:12
Arbeit!
Micz Flor
0:00:12–0:00:18
Nee, auch Arbeit. Schon aus Arbeit. Hallo! Willkommen zu Eigentlich Podcast.
0:00:19–0:00:24
Der Podcast, bei dem wir laufend reden und beim Laufen auch noch reden.
Florian Clauß
0:00:24–0:00:25
Ja, laufend reden quasi.
Micz Flor
0:00:25–0:00:27
Neben mir ist...
Florian Clauß
0:00:27–0:00:29
Oh, läuft auch dabei?
Micz Flor
0:00:29–0:00:33
Und ich bin Mitch und wir haben heute eine ganz besondere Folge,
0:00:33–0:00:39
nämlich die Folge nach der 52. Wie viele Wochen hat das Jahr?
Florian Clauß
0:00:39–0:00:40
52, oder?
Micz Flor
0:00:40–0:00:44
Wie oft erscheinen unsere Folgen?
Florian Clauß
0:00:44–0:00:46
Alle zwei Wochen.
Micz Flor
0:00:46–0:00:48
Das heißt, wir sind jetzt in
0:00:48–0:00:53
der ersten Episode des dritten Jahres und das ist schon ganz schön viel.
Florian Clauß
0:00:53–0:00:55
Zwei Jahre eigentlich Podcast.
Micz Flor
0:00:55–0:00:58
Genau, und zu drei Jahren machen wir dann auch gleich eine Trilogie und wir
0:00:58–0:01:01
nehmen heute alles in einem Fluss auf.
0:01:01–0:01:05
Die erste Folge ist quasi eine Gemeinschaftsfolge, die aber dann Flo schneiden
0:01:05–0:01:07
wird. Die zweite Folge ist Flo's Folge.
0:01:08–0:01:13
Ich habe ja zwei geschnitten, als du nach Freiburg warst. Und jetzt fährst du
0:01:13–0:01:14
wieder nach Freiburg, da schneidest du zwei.
0:01:15–0:01:21
Und dann die dritte Folge, die wahrscheinlich nur zwölf Minuten lang in die
0:01:21–0:01:24
Luft raus ist bei uns. Das ist dann meine Folge.
0:01:24–0:01:28
Und wir haben uns ein ganz besonderes thema ausgedacht was uns alle irgendwie
0:01:28–0:01:31
schon immer so ein bisschen kribbelt und auch irgendwie verbindet uns als ein,
0:01:32–0:01:36
typisches also ich denke viele menschen die ich kenne können mit dem oberthema
0:01:36–0:01:42
was ihr alle jetzt schon gelesen habt das hättet ihr einfach runter gesagt und,
0:01:43–0:01:46
schon kennt und das wird jetzt Flo kurz vorstellen.
Florian Clauß
0:01:46–0:01:51
Genau, weil dieses Thema ist auch schon lange, lange auf meiner Backlog-Liste
0:01:51–0:01:55
von eigentlich Themen, nämlich Solaris.
0:01:55–0:01:59
Und Mitch hat dann den Vorschlag gemacht, Mensch, hier zum zweijährigen Jubiläum,
0:01:59–0:02:05
lass uns doch über Solaris von Lem reden und dann über die jeweiligen filmischen
0:02:05–0:02:11
Adaptionen, nämlich von Tarkovsky und von Soderbergh.
Micz Flor
0:02:11–0:02:12
Soderbergh, genau. Genau.
Florian Clauß
0:02:12–0:02:18
Und so teilen wir uns auch an auf Mitch und ich machen zusammen von Stanisław.
Micz Flor
0:02:19–0:02:22
Stanisław, ja, lass mich da ganz kurz noch mal was zu sagen.
Florian Clauß
0:02:22–0:02:22
Stanisław Lem.
Micz Flor
0:02:23–0:02:31
Wir werden vielleicht sagen Lem, aber bevor wir den Namen kürzen,
0:02:31–0:02:36
dachte ich, wir können den ganz kurz uns noch mal richtig anhören,
0:02:36–0:02:37
wie er eigentlich klingt.
0:02:37–0:02:43
Und zwar spricht jetzt hier die Patentante deines Patenkindes.
0:02:44–0:02:51
Man spricht das so Stanislaw Lem. Okay, Stanislaw Lem. Stanislaw Lem.
Florian Clauß
0:02:51–0:02:54
Wir sagen aber Lem im Folgenden.
Micz Flor
0:02:54–0:02:56
Ich habe mein Leben lang Stanislaw gesagt.
Florian Clauß
0:02:57–0:03:04
Ich habe auch Stanislaw. Es hat diesen Buchstaben mit dem Strich von links unten.
0:03:04–0:03:06
Wusste ich auch nicht. Wir haben...
Micz Flor
0:03:06–0:03:06
Wie?
Florian Clauß
0:03:06–0:03:07
Wusste ich auch nicht.
Micz Flor
0:03:07–0:03:11
Ja, ich habe mit dem Standes... Also, Herr Lem,
0:03:11–0:03:16
die Frage, wie man das richtig ausspricht, meine Anekdote zu diesen Buchstaben
0:03:16–0:03:18
ist so, dass ich mit der Band mal in,
0:03:18–0:03:25
was wir im deutschen Schlager Lodz nennen, Theo, wir fahren nach Lodz,
0:03:25–0:03:31
was aber auch einen Strich vorne hat, das heißt W, und man spricht es aus.
0:03:33–0:03:38
Und als wir das dann erfahren haben, dann hat die Sängerin natürlich gleich
0:03:38–0:03:44
mit dem ersten Anspruch ans Publikum, wir waren damals Vorgruppe von Lydia Lunch,
0:03:45–0:03:49
und dann ist sie auf die Bühne und stellt sich vorhin hin und Wulz hat ganz
0:03:49–0:03:52
technisch mal gesagt so, hello Lutsch,
0:03:52–0:03:58
woraufhin die ganze Band halt ins Lachen ausgebrochen ist, was aber dann natürlich
0:03:58–0:04:02
für alle überhaupt nicht komisch war. Aber, ja.
Florian Clauß
0:04:02–0:04:07
Ja, wie ihr vielleicht hört, haben wir uns hier auch an einem Hauptverkehrspunkt
0:04:07–0:04:11
im Osten getroffen, nämlich dem Bahnhof Lichtenberg.
0:04:11–0:04:16
Und passend zu unserer Folge heute habe ich noch eine Tour ausgesucht,
0:04:16–0:04:21
die auch lange auf meiner Liste steht, weil ich finde die Tour super.
0:04:23–0:04:26
Beziehungsweise ich bin ja auch schon oft gefahren. Wir werden jetzt so Richtung
0:04:26–0:04:31
Herzberge gehen. und der eigentliche Grund, warum wir nach Herzberg gehen,
0:04:31–0:04:36
ist, da schließt sich neben dem die Allee der Kosmonauten an.
0:04:36–0:04:41
Und was gibt es Besseres, als die Allee der Kosmonauten zu diesem Thema zu begehen?
Micz Flor
0:04:41–0:04:43
Zwei Alleen der Kosmonauten.
Florian Clauß
0:04:43–0:04:48
Die Allee der Kosmonauten ist ja auch so verschachtelt, dass wir einmal auf
0:04:48–0:04:52
die Hauptstraße kommen, aber der Anfang der Allee der Kosmonauten liegt wirklich
0:04:52–0:04:54
in Herzberg herein und ist halt total im Grün.
0:04:54–0:04:58
Das ist wirklich überraschend, weil mit Allee der Kosmonauten stellt man sich
0:04:58–0:05:03
immer so eine Stalinallee im Osten vor, die gepickt ist von allen möglichen
0:05:03–0:05:06
Hochhäusern, aber ist nicht so.
0:05:06–0:05:09
Aber erstmal müssen wir noch ein bisschen den Lärm ertragen.
0:05:09–0:05:13
Wir gehen jetzt über diese Riesenbrücke, wo die Schienen drunter langführen.
0:05:15–0:05:18
Deswegen brauchen wir jetzt noch irgendein leichtes Thema, bevor wir in das
0:05:18–0:05:20
eigentliche Thema einsteigen.
0:05:21–0:05:26
Wir haben vor zwei Jahren am 26.05.
0:05:26–0:05:30
Unsere nullte Episode online gebracht.
0:05:34–0:05:34
Ja, stimmt.
Micz Flor
0:05:35–0:05:37
Worum ging es denn da nochmal?
Florian Clauß
0:05:37–0:05:40
Ja, was war denn das noch? Eigentlich die Nullte.
Micz Flor
0:05:42–0:05:44
Eigentlich die Nullte. Ja, das war der Trailer.
Florian Clauß
0:05:44–0:05:49
Da kam der Streicherchor noch mit rein, den du gebaut hast. Wir hatten ja noch viel vor.
0:05:49–0:05:53
Wir wollten ja noch rein musikalisch dann noch viel mehr machen.
0:05:53–0:05:58
Du wolltest ja auch irgendwie so eine MIDI-Matrix dann entwickeln, oder? Weißt du das noch?
Micz Flor
0:05:58–0:06:01
Ja, ja, ich hatte die Idee, dass man das vielleicht so computergeneriert,
0:06:01–0:06:07
immer Variationen eines ähnlichen Motivs und jede Folge hat eine gleiche und
0:06:07–0:06:09
immer doch wieder neue Intro-Musik und das,
0:06:09–0:06:13
was ich da hatte, war glaube ich, weiß nicht, Rübezahl, ich weiß gar nicht mehr genau.
0:06:13–0:06:16
Aber wo wir auf der brücke sind wollen wir zum
0:06:16–0:06:20
dritten jahr ich habe meine frage an dich weil ich
0:06:20–0:06:23
mache diesen podcast mit dir und ich
0:06:23–0:06:25
höre ja auch podcast und dann gibt es
0:06:25–0:06:28
ja so podcast wo man einfach die leute kennenlernen will und
0:06:28–0:06:33
dann hat man halt so zu und alles ist so ein bisschen locker und der infogehalt
0:06:33–0:06:39
ist da aber hat er so was panoramamäßiges und dann gibt es solche wissens podcast
0:06:39–0:06:42
die halt irgendwie so eine überschrift haben wo man denkt das will ich jetzt
0:06:42–0:06:45
aber auch wissen und wenn die dann aber vorneweg auch,
0:06:45–0:06:49
was man manchmal so Laber-Podcast nennt, wenn die vorneweg so viel sagen,
0:06:50–0:06:54
ey, wie geht es deinem Skateboard oder so, dann merke ich, dass es ungeduldig werde.
0:06:54–0:06:57
Du hast ja auch neulich in der Folge schon angesprochen, hast gesagt,
0:06:58–0:07:01
naja, wenn bei der tiefsten Folge unsere,
0:07:01–0:07:05
wie hast du das gesagt, so ein Marketing-Experte oder Expertin würde wahrscheinlich
0:07:05–0:07:09
Finger drauf halten und sagen, ihr müsst euch fokussieren, ihr habt keine klare
0:07:09–0:07:11
Botschaft, was ist euer Brand und so.
0:07:11–0:07:13
Und du meintest, aber das ist doch genau unser Brand.
0:07:14–0:07:16
Wir reden laufend und sind laufend.
0:07:17–0:07:24
Aber meine Frage wäre, sollten wir schneller im Thema einsteigen,
0:07:24–0:07:28
also wenn wir die Brücken vermeiden jetzt, oder sollten wir...
Florian Clauß
0:07:28–0:07:30
Ich habe deine Frage nicht verstanden.
Micz Flor
0:07:30–0:07:32
Sollten wir was ändern zum Jahr 3?
Florian Clauß
0:07:33–0:07:38
Wir hatten ja auch in den ersten Folgen, oh, der macht einen Wheelie.
0:07:42–0:07:47
Ein verrückter Ort, wirklich, so ein bisschen Lust hier.
0:07:47–0:07:52
Wir hatten ja also verschiedene Formate auch mal, die so, wie sagt man so,
0:07:52–0:07:56
in unserer Folge dann zum Schluss, was war dann eigentlich ja,
0:07:56–0:08:01
was war dann Wow-Effekt oder was war dann eigentlich Effekt bei dieser Folge, was hast du gelernt?
0:08:02–0:08:06
Das haben wir ja dann irgendwie ausgeschlichen, das hat sich ja auch nicht so richtig getragen.
0:08:06–0:08:10
Jetzt ist die Frage, was können wir ändern? Ich weiß nicht, fällt mir spontan
0:08:10–0:08:12
nichts ein. Nein, ich finde, wir haben uns jetzt ganz gut...
Micz Flor
0:08:13–0:08:16
Wir können alles verändern, aber wollen wir was verändern?
0:08:17–0:08:22
Wollen wir zum Beispiel schneller mit dem Thema einsteigen und nach hinten rausplaudern?
Florian Clauß
0:08:22–0:08:26
Ja, ich glaube, das wächst sich so. Also das geht schon so.
0:08:27–0:08:30
Ich fand jetzt, die letzten Folgen waren von der Dynamik her,
0:08:30–0:08:34
weil wir halt immer irgendwie auch auf den Weg reagieren und haben ja nicht
0:08:34–0:08:36
unser Skript vor uns liegen.
0:08:36–0:08:41
Manchmal gucken wir auf unsere mobilen Phones, was wir da noch an Notizen haben.
0:08:42–0:08:47
Ich will auch gleich mit einem Zitat einsteigen, weil wir haben uns ein bisschen aufgeteilt.
0:08:47–0:08:51
Ich habe gesagt, Mitch, mach du doch die Zusammenfassung, das kannst du so gut.
Micz Flor
0:08:51–0:08:56
Nach Expansion. Drei Bücher in 50 Minuten. Bitte sehr, danke schön.
Florian Clauß
0:08:57–0:08:59
Dann habe ich auch aus der Hörerschaftsrückmeldung gekommen.
0:09:00–0:09:02
War schon Wahnsinn, was der Mitch da alles im Kopf hat.
0:09:03–0:09:08
Wie er das da so, einen Geschichtstrang nach dem anderen einfach runterbeten
0:09:08–0:09:10
kann, ohne auszusetzen.
0:09:10–0:09:15
Beeindruckende Leistung. Deswegen mache ich so ein bisschen die Biografie von Lampen.
0:09:16–0:09:19
Wann hast du das erste Mal Solaris gelesen?
Micz Flor
0:09:19–0:09:20
Jetzt.
Florian Clauß
0:09:20–0:09:21
Wirklich?
Micz Flor
0:09:21–0:09:22
Du hast es nie gelesen?
Florian Clauß
0:09:23–0:09:25
Ich habe es nie gelesen. Ich war auch erschüttert.
Micz Flor
0:09:25–0:09:29
Da können wir gleich noch drüber reden. Ich habe schon die Episode angelegt,
0:09:29–0:09:31
weil ich so eine kleine Tabelle gegenübergestellt habe.
0:09:31–0:09:34
Eine Gegenüberstellung der drei Übersetzungen, die mir verfügbar waren.
0:09:35–0:09:36
Die eine deutsche und zwei englische.
0:09:36–0:09:39
Wobei eine englische aus dem französischen, was ich auch interessant fand.
0:09:40–0:09:46
Weil ich ja die Übersetzung war es wirklich der Bekost. Aber Entschuldigung,
0:09:46–0:09:47
das erste Mal und bei dir?
Florian Clauß
0:09:47–0:09:55
Ich habe das erste Mal, also ich habe ja viel in meinen Zwanzigern und als Jugendlicher
0:09:55–0:09:56
habe ich ja viel gelesen.
0:09:56–0:10:02
Und Solaris habe ich tatsächlich, glaube ich, so mit Anfang Zwanziger das erste Mal gelesen.
0:10:03–0:10:05
War sehr beeindruckt von der.
0:10:06–0:10:10
Ich mochte es sofort. Aber kann man auch gleich über ihn reden.
Micz Flor
0:10:10–0:10:15
Genau, dann würde ich sagen, wir fangen einfach mal mit Stanislaw Lem an.
0:10:17–0:10:25
Und du erzählst mal so ein bisschen etwas über den Autoren und Wissenschaftler oder Ingenieur.
Florian Clauß
0:10:26–0:10:32
Na, Stanislaw Lem ist 1921 in Lemberg, das ist so heute Ukraine, geboren.
0:10:33–0:10:37
Machen wir gleich das Todesdatum 2006. Also er ist relativ alt geworden.
0:10:37–0:10:42
Also 2006 ist ja noch nicht so lange her. Und hatte dann auch noch bis ins hohe
0:10:42–0:10:44
Alter hinein immer wieder eine Stimme.
0:10:44–0:10:53
Viel Essays verfasst in seinem Leben, die dann häufig anekdotisch philosophisch
0:10:53–0:10:58
waren und veröffentlicht in Zeitlogen und Zeitschriften, Magazin.
0:10:58–0:11:05
Ich habe dann bei meinen Recherchen im Netz eine auf der Wayback-Maschine,
0:11:05–0:11:07
weil die Seite war gar nicht mehr online,
0:11:08–0:11:14
von dem polnischen, von der polnischen Botschaft, die haben quasi so ein von
0:11:14–0:11:18
Stanislaw Lem, eine Biografie veröffentlicht mit seinen Werken und so weiter.
0:11:18–0:11:23
Also es ist im Rahmen von bekannten Persönlichkeiten aus der Kultur, aus Polen.
0:11:23–0:11:28
Und da ist ein Zitat, was ich gerne jetzt vorlesen möchte, weil da,
0:11:28–0:11:30
glaube ich, sehr viel zusammenkommt.
0:11:30–0:11:35
Und zwar, das Gedankengebäude, das uns Lem in seiner Prosa präsentiert,
0:11:35–0:11:40
ist dies jedoch keine in Traktaten erstarrte Philosophie.
0:11:40–0:11:44
Bei Lem ist Philosophie in ungeheuerliche Visionen verpackt,
0:11:44–0:11:50
in heilsbrecherische Abenteuer und in Erzählungen, die einem wohligen Schauer über den Rücken jagen.
0:11:51–0:11:55
Man kann die Helden von Lem begleiten, auch wenn man gar nicht bemerkt,
0:11:55–0:11:59
wie tiefschürfend die Probleme sind, die in seinen Abenteuerromanen illustriert werden.
0:12:00–0:12:04
Lem bleibt nämlich als Autor und Fantast immer noch ein Kind,
0:12:05–0:12:10
sicher ein nizianisches Kind, aber immer, genauso wie vor vielen Jahren,
0:12:10–0:12:14
dürstet es ihn nach Abenteuern in der unermesslichen Welt der Fantasie.
0:12:15–0:12:18
Das Tor zu dieser Welt ist leicht passierbar.
0:12:18–0:12:24
Es kann auch der Halbwüchsige leicht hindurch, der über die Abenteuer des Pilot Pirx begeistert ist,
0:12:24–0:12:30
der sich über die kosmischen Herrscher der Robotermärchen oder über die exzellenten
0:12:30–0:12:34
Lügengeschichten des Münchhausen-Tichy amüsieren will.
0:12:34–0:12:39
Kaum hat er es sich jedoch versehen, hat ihn der Autor schon in die fröstigen
0:12:39–0:12:43
Höhen entführt, auf denen er sich sogleich mit Fragen befassen muss,
0:12:43–0:12:45
die ihn als Mensch betreffen.
0:12:45–0:12:50
Den Menschen, der die sich immer weiterentwickelnde Intelligenz und Biologie
0:12:50–0:12:54
verkörpert, der schlussendlich Mitstreiter Gottes bei der Schöpfung ist,
0:12:55–0:12:59
wobei seine Aufgabe nicht nur im Schöpfungsvorgang besteht,
0:12:59–0:13:02
sondern auch im Verstehen und Erkennen von Wertigkeiten.
0:13:03–0:13:08
Also das fasst das, glaube ich, ganz gut nochmal zusammen, was für ein Panoptikum
0:13:08–0:13:11
von Geschichten Lem erschaffen hat.
0:13:12–0:13:17
Nämlich die ersten Bücher, aber das hast du doch gelesen, die Sterntagebücher.
0:13:19–0:13:23
Die Sterntagebücher mit der Hauptfigur Pürx, die sind großartig.
Micz Flor
0:13:24–0:13:28
Stimmt, ich erinnere mich jetzt auch an die 1990er-Jahre, hast du mir davon
0:13:28–0:13:32
auch schon mal erzählt. Kann es sogar sein, dass du mir die zugesteckt hast?
Florian Clauß
0:13:32–0:13:37
Das weiß ich nicht, aber das ist bestimmt. Was wir auf jeden Fall zusammen dann
0:13:37–0:13:39
auch mal geschaut haben, ist die Adaption.
0:13:39–0:13:44
Es gab vom ARD, ich glaube, das war in den 2000ern, sondern so eine Verfilmung
0:13:44–0:13:48
von den, es war nicht Sternenwerke, es war Ijen Tiché, Sternenwerke.
Micz Flor
0:13:49–0:13:49
Ja, genau.
Florian Clauß
0:13:49–0:13:52
Und das spielt in so einer Altbauwohnung.
Micz Flor
0:13:52–0:13:53
Ja, das ist großartig.
Florian Clauß
0:13:53–0:13:58
Also sehr trashig produziert, aber unglaublich, also war unglaublich lustig.
Micz Flor
0:13:59–0:14:02
Ja, du hattest die, glaube ich, gerippt irgendwie da und dann kam die Nummer
0:14:02–0:14:05
auf DVD raus und da hatten die dann, jetzt habe ich den Namen vergessen,
0:14:06–0:14:09
die, wie hieß die denn nochmal, das war quasi die virtuelle Frau,
0:14:09–0:14:13
die eine Schauspielerin, die damals auch sehr trending war und den Namen vergessen.
0:14:13–0:14:15
Die wurde dann, glaube ich, später noch reingeschnitten.
Florian Clauß
0:14:15–0:14:19
Ja, genau, stimmt. Die haben das dann mal so digital veredelt. Ja, die hatten das.
Micz Flor
0:14:19–0:14:21
Glaube ich, aufgemotzt. Die war, glaube ich.
Florian Clauß
0:14:21–0:14:22
Vorher gar nicht drin.
Micz Flor
0:14:22–0:14:24
Oder die hatten die vorher rausgeschnitten und dann wieder reingenommen.
Florian Clauß
0:14:24–0:14:26
Ich glaube, die haben die jetzt wirklich, weil es zu trashig war,
0:14:26–0:14:29
wollten die noch eine Leia draufsetzen, damit es noch ein bisschen schicker wird.
Micz Flor
0:14:29–0:14:30
Eine Leia Organa.
Florian Clauß
0:14:31–0:14:37
Eine Leia, genau. Lem ist in einem gutbürgerlichen Haushalt aufgewachsen.
0:14:37–0:14:40
Er kommt aus einer jüdischen Familie,
0:14:41–0:14:46
recht wohlhabend und hat am Anfang auch mit, also er ist, wie gesagt,
0:14:46–0:14:51
1921 geboren, hat dann Philosophie und Medizin studiert, keine Abschlüsse gemacht,
0:14:51–0:14:52
der Krieg kam dazwischen.
0:14:52–0:14:56
Also er galt auch damals, das finde ich ganz interessant, er galt.
0:14:58–0:15:03
Intelligentesten Kinder in Südpol. Es gab so eine Vorform von einem,
0:15:05–0:15:13
IQ-Test, der ihm dann so eine Intelligenz-Prozent von 180 attestierte. Keine Ahnung.
Micz Flor
0:15:13–0:15:15
Also nicht nur Stannis Waff, sondern auch Stannis Wow.
Florian Clauß
0:15:16–0:15:20
Genau. Stannis Wow. Ich finde, man merkt es schon so.
0:15:21–0:15:26
Man kriegt schon so eine Persönlichkeit damit, die schon sehr nerdig ist,
0:15:26–0:15:30
die sich da schon sehr der in diese Themen reinwuchsen kann und gleichzeitig
0:15:30–0:15:34
aber auch so ein Freigeist ist, weil er wirklich dann in keinem,
0:15:34–0:15:35
also er hat keinen Abschluss gemacht,
0:15:35–0:15:40
das hat ihn nicht so interessiert, dieses Studium der Medizin.
0:15:40–0:15:43
Er hat sich dann wirklich so diesen künstlerischen, diesen literarischen Themen
0:15:43–0:15:47
zugewandt. Das ist ja auch erstmal ein Schritt, den muss man ja machen in der Zeit.
0:15:47–0:15:52
Und sich da auch so ein Feld erarbeiten zum Mal Science Fiction als Genre,
0:15:52–0:15:56
ja nicht das höchst anerkannteste war damals.
0:15:56–0:16:04
Das war ja eher so ein B-Movie, im B-Picture-Bereich. Auch in der Literatur war das ja auch sehr...
Micz Flor
0:16:04–0:16:06
Na gut, in der Zeit weiß ich nicht. Aber das war, glaube ich,
0:16:06–0:16:11
schon die Zeit, wo auch in Amerika unglaublich viele Analogien,
0:16:11–0:16:13
War of the Worlds, das war ja alles schon...
Florian Clauß
0:16:13–0:16:18
Das kam, ja, stimmt. Also genau, Orson Welles und Huxley.
0:16:19–0:16:24
Also die erste Roman, die Sterntagebücher, kamen dann 1957 raus.
Micz Flor
0:16:24–0:16:27
Und noch später als ich dachte also da war ja
0:16:27–0:16:31
wirklich schon diese auch diese ganze assoziation der
0:16:31–0:16:36
assoziative raum mit dem anderen mit dem feind mit den russen in amerika war
0:16:36–0:16:40
ein riesenthema also diese ich denke dass da schon science fiction also eine
0:16:40–0:16:47
hochburg war in der zeit allerdings natürlich nicht innerhalb des literaturbetriebs
0:16:47–0:16:50
so so hoch angesehen also etwas.
Florian Clauß
0:16:50–0:16:56
Was leben auch so nachgesagt wird, ist, dass in seinen ersten Werken noch so
0:16:56–0:17:01
eine ganz große Begeisterung für Technologie und Wissenschaft herrscht.
Micz Flor
0:17:01–0:17:04
Du bist jetzt aber komplett über den Zweiten Weltkrieg drübergegangen.
Florian Clauß
0:17:04–0:17:08
Ja, er war ein sehr intelligenter junger Mann und hatte auch,
0:17:09–0:17:10
glaube ich, Kriegserfahrung.
0:17:10–0:17:14
Aber ich habe jetzt auch nicht weiter gelesen, was er da gemacht hat.
0:17:14–0:17:18
Aber mit so einem Schwung kam er dann quasi in die Welt und hat dann auch angefangen
0:17:18–0:17:23
zu schreiben, relativ schnell, in den 50er Jahren. und hat seine ersten Romane
0:17:23–0:17:28
und Schriften veröffentlicht, Poser da auch, also Fiction quasi geschaffen.
0:17:28–0:17:32
Und genau, da habe ich jetzt nicht so viel dazu gefunden.
Micz Flor
0:17:33–0:17:37
Das ist eine Sache, ja, weil ich habe da gar nicht mehr so in die Biografie
0:17:37–0:17:39
reingelegt, aber ich hatte irgendwo das mal so aufgegriffen,
0:17:40–0:17:46
dass er zum Beispiel sich natürlich keine Gedanken gemacht hat, dass er jüdisch sei.
0:17:46–0:17:49
Ich habe sogar, glaube ich, irgendwo gelesen, er wusste gar nicht,
0:17:49–0:17:53
dass er jüdisch sei. Bis das dann irgendwie auf einmal Thema wurde, politisch.
0:17:57–0:18:00
Da war ich jetzt, also ich bin da jetzt nicht tiefer eingestiegen,
0:18:00–0:18:04
aber es ist halt eben so ein Identitätsthema.
0:18:04–0:18:08
Also das glaube ich auch so ein bisschen dieses, was in Solaris so ein bisschen
0:18:08–0:18:13
auftaucht, auch dieses dysphorische Humanismusbild, so von wegen,
0:18:13–0:18:16
wie kann man jemanden erkennen,
0:18:17–0:18:21
wie kann man jemanden sehen, was heißt Identität, kann man das duplizieren, erschaffen oder so.
0:18:21–0:18:24
Also das, was da so ein bisschen für mich mitschwingt, eben da kam ich drauf.
0:18:24–0:18:27
Also dass das für ihn die Identität auf einmal sich als jüdisch zu verstehen,
0:18:28–0:18:32
für ihn, das ist jetzt keine bewertende gut oder schlecht natürlich,
0:18:32–0:18:34
aber einfach für ihn ein völlig neuer Aspekt war, das eigene,
0:18:34–0:18:38
also sein Selbst quasi zu konstituieren vor diesem Hintergrund,
0:18:38–0:18:41
was einfach für ihn die Thema war. So hatte ich das wahrgenommen.
0:18:41–0:18:46
Und dass dann natürlich die Erfahrung des Zweiten Weltkriegs und dieser Identitätswandel,
0:18:46–0:18:47
den er durchziehen musste,
0:18:48–0:18:53
weil er von außen eben als solcher gesehen wurde, ihn auch wohl in seinem Blick
0:18:53–0:18:58
auf Menschheit und Wissenschaft und so ein bisschen geprägt hat und er sich
0:18:58–0:19:01
eher der Wissenschaft zugehörig fühlte als dem Humanismus.
0:19:01–0:19:05
Das ist jetzt aber von mir ganz unten aus dem Regal gegriffen.
Florian Clauß
0:19:05–0:19:09
Aber was meinst du mit er der Wissenschaft als den Humanismus?
0:19:09–0:19:13
Weil ihm wird ja so noch ein ganz starker Humanismus,
0:19:13–0:19:17
wird mit ihm Verbindung gebracht, weil er ja da diese Wertigkeit,
0:19:17–0:19:20
die Moral auch, was wir da gerade in dem Zitat gehört haben,
0:19:20–0:19:27
immer wieder darauf zurückgeht und guckt, was ist die Menschlichkeit in den Systemen.
Micz Flor
0:19:27–0:19:31
Gut, aber dann kritisch gegenüber einem Humanismus, also da kommen wir dann
0:19:31–0:19:35
bei Solaris natürlich gleich noch drauf, dass der Mensch vielleicht ja gar nicht
0:19:35–0:19:39
in der Lage ist, anderes wirklich wahrzunehmen, sondern immer nur sich selbst sucht.
0:19:39–0:19:42
Das ist ja auch ein Zitat, was dann in Solaris so direkt vorkommt.
0:19:42–0:19:48
Also dass er da große Defizite in dem humanistischen Menschenbild sieht,
0:19:48–0:19:54
weil man nie hinter den Mensch schauen kann.
Florian Clauß
0:19:55–0:19:56
Dieser Anthropomorphismus.
Micz Flor
0:19:56–0:20:01
Ja, der aber eben in der Wissenschaft auch immer eine große Gefahr sein kann,
0:20:01–0:20:03
weil man eben immer per se biased ist.
0:20:04–0:20:09
Und dass das irgendwie als Spur gelegt wurde in dieser Jugendzeit,
0:20:09–0:20:10
frühen Erwachsenenzeit.
Florian Clauß
0:20:10–0:20:15
Okay, können wir mal mitnehmen, vielleicht ist es irgendwie die jüdische Identität,
0:20:15–0:20:21
die auf einmal quasi zum Thema wird, weil es eigentlich eine politische Motivation dahinter steht.
Micz Flor
0:20:22–0:20:25
Ich würde es da abstrahieren, weil ich würde sagen, es geht nicht um die jüdische
0:20:25–0:20:29
Identität, sondern um diese Erfahrung an sich selbst, dass man auf einmal etwas
0:20:29–0:20:32
ganz anderes ist, als man sich selbst gesehen hat und sich auch mit diesem Blick
0:20:32–0:20:34
der anderen auf sich auseinandersetzen muss.
Florian Clauß
0:20:35–0:20:36
Aber durch äußere Umstände.
Micz Flor
0:20:36–0:20:40
Genau. Und da ist es egal, was dieser Swap ist.
0:20:40–0:20:44
Also es geht einfach nur darum, wie schnell deine eigene Identität von außen
0:20:44–0:20:47
umgekrempelt wird und du dann dich damit arrangieren musst.
0:20:47–0:20:53
So und die Wahrheit natürlich oder das Reale dann dahinter nicht mehr ergreifbar ist.
Florian Clauß
0:20:54–0:20:59
Ja, also was wir auf jeden Fall auch bei Lem so mitnehmen, ist,
0:20:59–0:21:07
dass er ein, wenn er sich mit Technik beschäftigt, ist er da so tief durchgedrungen.
0:21:07–0:21:11
Ja, also er hat viele Erfindungen, die dann später dann tatsächlich produziert
0:21:11–0:21:15
wurden, wie zum Beispiel so eine 3D-Brille oder sowas, hat er schon so gedanklich
0:21:15–0:21:18
vorweggenommen, hat auch da Zeichnungen gemacht und so weiter.
0:21:18–0:21:23
Also das heißt, er hatte eine unglaublich visionäre Kraft, in dem er sich auch
0:21:23–0:21:28
ganz intensiv mit bestimmten technischen Entwicklungen auseinandergesetzt hat.
0:21:28–0:21:31
Mit wissenschaftlichen Entwicklungen, mit technischen Entwicklungen.
0:21:31–0:21:35
Tatsächlich so weit, dass er so eine Informationsgesellschaft hat,
0:21:35–0:21:36
die er auch so vorweggenommen hat.
0:21:37–0:21:41
Also diese Nähe zur Kybernetik, die er auch da mit aufbaut, auch bei seinen
0:21:41–0:21:44
Figuren immer mit reinholt.
Micz Flor
0:21:44–0:21:47
Auch ein Charakter in Solaris ist der Kybernetiker.
Florian Clauß
0:21:47–0:21:52
Ist Kybernetiker, genau. Das hat er so weit durchdacht, dass er darauf auch
0:21:52–0:21:54
wieder eine Kritik formulieren kann.
0:21:54–0:21:58
Also das heißt, wenn wir wieder von diesem Begriff des Worldbuildings ausgehen,
0:21:58–0:22:03
die Welt, die Lem auch gebaut hat, hat teilweise Leerstellen,
0:22:03–0:22:08
teilweise aber so unglaubliche Entwicklungsvorsprünge, die er da gemacht hat, geleistet hat.
0:22:08–0:22:14
Und darauf baut er dann ein gewisses moralisches System auf oder eine Wertigkeit.
0:22:14–0:22:19
Das ist das Spannende, wie er dann damit umgeht und wie er da die Geschichten entwickelt.
0:22:20–0:22:24
Und das ist eigentlich so auch der Spätere. Es wird ihm dann nachgesagt,
0:22:24–0:22:28
die ersten Romane, die er da geschrieben hat, also Sterntagebücher,
0:22:28–0:22:33
die sind auch so teilweise humoristisch, sehr lustig und paradox.
0:22:34–0:22:41
Dann gibt es Eden von 1959, habe ich nicht gelesen, Erforschung eines fremden Planetens.
0:22:41–0:22:47
Dann kommt 1961 Solaris und Solaris ist ja so eines der bekanntesten Bücher,
0:22:47–0:22:52
die aber am Anfang gar nicht so sich im Westen und im Osten,
0:22:52–0:22:54
also von Deutschland, so verbreitet haben.
0:22:54–0:22:58
Deswegen ist die westdeutsche Übersetzung auch sehr schlecht.
0:22:59–0:23:01
Das habe ich da in dem Zusammenhang gelesen, dass die da halt so.
0:23:02–0:23:07
Das irgendwann verlegt wurde, aber eine nicht so qualitativ hochwertige Übersetzung.
0:23:07–0:23:14
Und im Osten wurde es ihm aufgrund dieser, ja, diesen Zustands,
0:23:14–0:23:18
den Solaris beschreibt, wurde er jetzt nicht so verlegt.
0:23:18–0:23:25
War doch als etwas, ja nicht systemkritisch, aber war zumindest so in die Ecke da eingestuft worden.
Micz Flor
0:23:25–0:23:29
Also es war so, in der DDR erschien das auch nicht, wobei das ist jetzt in der
0:23:29–0:23:31
Biografie natürlich nicht wirklich Thema, sondern später.
0:23:31–0:23:35
Aber es war so, dass es gibt eine deutsche Übersetzung aus der DDR,
0:23:36–0:23:39
die ich nicht gelesen habe und wo es hieß von dem, was ich darüber gelesen habe,
0:23:40–0:23:47
dass die DDR-Ausgabe auch gekürzt wurde oder deutlich gekürzt oder umgestellt
0:23:47–0:23:52
wurde, vor dem Hintergrund zu sagen, es sei insgesamt so deprimierend.
Florian Clauß
0:23:52–0:24:00
Ja, 1968 hat der Pilot Pirx geschrieben, dann kommt mit 1971 der Fotorologische
0:24:00–0:24:02
Kongress, auch ein großartiges Buch.
0:24:03–0:24:09
Hast du den gelesen? Da geht es auch um eine Figur aus seinem Figuren-Universum,
0:24:09–0:24:16
nämlich Tichet besucht einen futurologischen Kongress.
0:24:17–0:24:20
Die kriegen alle so bewusstseinserweiternde Drogen. Ich weiß nicht,
0:24:20–0:24:23
ob die das bewusst nehmen oder ob das wieder übers Trinkwasser kommt.
0:24:24–0:24:31
Und alles geht aus den Fugen. Und es wird wie so ein Drogentrip beschrieben,
0:24:31–0:24:34
aber gleichzeitig halt dieser Futurismus, der dahinter steht.
0:24:34–0:24:39
Also ich finde auch bei Lem hat man deswegen hier diese Tour,
0:24:39–0:24:43
dieses osteuropäische Ästhetik da mit drin.
0:24:43–0:24:47
Also wir waren mal zusammen in Prag, da gab es ja auch diesen Fernsehturm,
0:24:47–0:24:49
der 1989 dann fertiggestellt wurde.
Micz Flor
0:24:50–0:24:51
Täter heißt der, glaube ich.
Florian Clauß
0:24:51–0:24:57
Ja, und an diesem Turm hängen dann so Babys oder Kleinkinder,
0:24:57–0:25:04
die dann krabbelnd auf die Turmspitze zu, als riesendimensionierte Kinder da.
Micz Flor
0:25:05–0:25:08
Ja, die sind bestimmt 15 Meter hoch oder sowas, muss man dazu sagen.
0:25:08–0:25:10
Ich weiß nicht, ob die noch da sind, ich weiß auch länger nicht in Prag,
0:25:10–0:25:12
weil die kamen später dazu.
Florian Clauß
0:25:12–0:25:16
Die kamen später dazu, richtig. Aber es hat mich auch an eine Szene aus Solaris
0:25:16–0:25:18
erinnert, als ich das gesehen habe.
0:25:18–0:25:23
Und diese Ästhetik, die auch dieser Turm hat, so in der Kosmologie,
0:25:23–0:25:30
sich dann wiederfindet. Also dieses unglaubliche Fassaden von...
Micz Flor
0:25:30–0:25:32
Diese brutale Architektur.
Florian Clauß
0:25:32–0:25:36
Nicht Brutalismus, sondern es ist ja auch irgendwie auch verschnörkelt,
0:25:36–0:25:39
wenn du dir die Stalinallee anguckst.
0:25:39–0:25:45
Die ist ja auch dann immer so quasi so gebaut, dass es jetzt im Detail jetzt nicht,
0:25:46–0:25:50
dich erschlägt, sondern es hat ja dann durchaus so ästhetische Elemente.
0:25:50–0:25:52
Wer im Brutalismus ist, ist ja teilweise total erschlagen.
0:25:53–0:25:54
Das ist ja nicht schön dann mehr.
Micz Flor
0:25:55–0:25:57
Ja, das stimmt. Also ich glaube schon, dass der Eindruck da im S,
0:25:57–0:26:00
wobei Prag nochmal anders ist, weil die Stadt auch viel mehr Knochen hat,
0:26:00–0:26:07
finde ich. Da sind so Berge und Gebirge und so. Die Häuser jetzt aus den Vorwendezeiten
0:26:07–0:26:09
hier gebaut wurden, die finde ich schon teilweise sehr,
0:26:11–0:26:15
mächtig im Sinne von bestimmend und bedrohlich.
0:26:16–0:26:21
Und generell habe ich immer das Gefühl, es gibt sowas wie eine Fassade der Gesellschaft.
0:26:21–0:26:27
Und das war für mich so ein Aha-Effekt, als ich erfahren habe nach dem Mauerfall,
0:26:27–0:26:32
dass es halt so bestimmte Häuser gibt hier oben im Prenzlauer Berg,
0:26:33–0:26:36
wo immer, wenn einmal im Jahr die Kameras draufstanden und Honecker da irgendwie
0:26:36–0:26:40
durchgefahren ist, da wurden halt bestimmte Häuser scheinbar angemalt und fertig gemacht.
0:26:40–0:26:43
Aber halt nur die, die in der Kamera waren, alles da neben rechts und links.
Florian Clauß
0:26:43–0:26:47
Ja, ich glaube, die Anekdote läuft auch so, dass es wirklich so ist.
0:26:47–0:26:49
Er ist ja immer im Volvo gefahren, Honecker.
0:26:49–0:26:53
Und das heißt, die Sichtkante von seinem Fenster, das, was er,
0:26:53–0:26:55
Honecker selber sieht, nicht nur die Kamera, sondern Honecker selber,
0:26:56–0:26:58
das heißt, die Sichtkante von seinem Volvo-Fenster.
Micz Flor
0:26:58–0:26:58
Er auch, ja.
Florian Clauß
0:26:58–0:27:02
Das war quasi die Linie, wo dann halt die Fassaden renoviert wurden.
Micz Flor
0:27:02–0:27:06
Müssen wir nochmal proben, diese Theorien, weil das sind jetzt zwei sehr gegensätzliche
0:27:06–0:27:07
Blickwinkel natürlich. Natürlich.
0:27:07–0:27:13
Aber das ist, finde ich, so ein bisschen Veranschaulichung dieses fassadären
0:27:13–0:27:17
Themas der Gesellschaft, so dass da hinter den Masken, was passiert denn da?
0:27:17–0:27:21
Und in gewisser Weise, um wieder zu Solaris zu greifen, hat man das Gefühl,
0:27:21–0:27:24
da gibt es so eine Station und die ist ganz wichtig.
0:27:24–0:27:29
Und gleichzeitig, was da genau passiert, so richtig weiß es dann doch keiner.
0:27:29–0:27:31
Die sind alle sehr alleingelassen.
Florian Clauß
0:27:32–0:27:37
Ja, das stimmt. Also um die Biografie, wir können ja jetzt gleich in den Roman
0:27:37–0:27:38
einsteigen, abzuschließen.
0:27:38–0:27:43
Also der Stanislav Lem war so ein Freigeist.
0:27:43–0:27:49
Er war auch so einer, der dann wirklich entgegen von anderen Meinungen doch
0:27:49–0:27:51
immer sehr diskursbestimmt war.
0:27:51–0:27:56
Mit seiner Form dann auch wirklich so in sein Zimmer sich einzuschließen,
0:27:56–0:27:58
Sachen zu durchdenken und dann
0:27:58–0:28:02
so ein Essay zu veröffentlichen oder eben diese Bücher zu produzieren.
0:28:02–0:28:06
Solaris wurde, glaube ich, in einem Jahr geschrieben.
0:28:07–0:28:14
1960 angefangen und 1961 wurde es veröffentlicht und hat das dann durchweg durchgeschrieben.
0:28:15–0:28:20
Und am Ende, also seinen letzten Roman, das war dann so in den 80ern,
0:28:21–0:28:23
hat er geschrieben. Dann hat er irgendwann auch das Schreiben aufgehört.
0:28:23–0:28:28
Und es gibt noch so ein legendäres Interview, was er noch so kurz vor seinem Tod gehalten hat.
0:28:28–0:28:31
Das können wir nochmal verlinken. Das ist ganz interessant, weil er dann auch
0:28:31–0:28:35
selber sagt, Nee, ich bin dann auch irgendwann nicht mehr, habe ich die geistige
0:28:35–0:28:39
Kapazität, nicht mehr so Romane zu schreiben. Und das ist ganz gut, wenn das andere machen.
0:28:39–0:28:44
Und er hat dann auch immer noch so Zeitgeschichte kommentiert und dazu sich
0:28:44–0:28:48
geäußert. Aber er hat dann so ein bisschen so sich nicht mehr in den Romanen
0:28:48–0:28:54
dann halt auch ausgedrückt, sondern eher so in Artikeln und Essays und so weiter.
0:28:54–0:28:57
Ja, genau so viel zu Stonis Wavlem.
Micz Flor
0:28:57–0:29:01
Ja, da möchte ich eine Anekdote, die ich irgendwo gelesen hatte,
0:29:01–0:29:05
noch anhängen. Kennst du die mit Philip K. Dick und Stanislaw Lem?
Florian Clauß
0:29:06–0:29:06
Nein.
Micz Flor
0:29:06–0:29:11
Weil da war es wohl so, dass Lem hatte schon natürlich so eine bestimmte Macht
0:29:11–0:29:15
im Literaturbetrieb und der hat sich eingesetzt, dass Philip K.
0:29:15–0:29:18
Dick wohl übersetzt wird ins Polnische, glaube ich, oder so.
0:29:18–0:29:21
Also da hat er sich so stark gemacht und hat dann auch versucht, Kontakt aufzunehmen.
0:29:21–0:29:26
Und Philip K. Dick war da scheinbar schon nicht mehr in der besten Phase seines Lebens.
0:29:26–0:29:30
Der ist dann wohl zum CIA gegangen und hat gesagt, dass irgendeine russische,
0:29:30–0:29:33
die wollen ihn da irgendwie unterlaufen. Die hießen Stanislaw Lem.
0:29:33–0:29:37
Und da müsste er es ja eh mal gucken, weil er möchte ja nichts mit zu tun haben.
0:29:37–0:29:40
Wollte es irgendwie weghalten. Hatte halt Sorge, als Stanislaw Lem,
0:29:40–0:29:44
der dann selber dachte, qua persona, hallo, ich bin es.
0:29:44–0:29:47
Wir sprechen auf Augenhöhe. Trifft dann auf einen verstörten,
0:29:47–0:29:49
alkoholisierten Philipp K. Dick.
Florian Clauß
0:29:49–0:29:54
Ja, aber der war ja eh, der Teil hat mir ja doch schon mal drüber gesprochen.
Micz Flor
0:29:54–0:29:55
Ja, ja, genau. Aber deshalb kam ich noch mal.
Florian Clauß
0:29:55–0:29:56
Voll in dieser Nixon-Ära.
Micz Flor
0:29:56–0:30:01
Es passt einfach so gut in dieses Bild rein. Die Russen haben mich kontaktiert.
0:30:02–0:30:03
Das muss ich übernehmen.
Florian Clauß
0:30:05–0:30:08
So, wir sind jetzt hier in der Herzberge. Das ist die Stadtfarm.
Micz Flor
0:30:08–0:30:10
Hat sich hier aufgebaut.
Florian Clauß
0:30:10–0:30:13
Auch so, ich glaube, das ganze Gebiet war dann so vor 20 Jahren.
0:30:14–0:30:17
Da hat er dann die Stadt überlegt, was macht sie hier mit dem Gebiet.
0:30:17–0:30:21
Stadtfarm ist so ein kleiner Betrieb, städtisch gefördert.
0:30:21–0:30:27
Und ich glaube, hier ist die größte Produktion an Fisch aus der Stadtfarm.
0:30:27–0:30:29
Hier gibt es nämlich so Viktoria-Seebarsch.
Micz Flor
0:30:29–0:30:29
Ja, wirklich.
Florian Clauß
0:30:29–0:30:33
Ja, und die bauen den an. Und die haben dann auch so ein Anbausystem.
0:30:34–0:30:36
Ja, die werden tatsächlich,
0:30:36–0:30:40
also das heißt, aus dem Fischkot und so weiter werden dann halt so schwimmende
0:30:40–0:30:45
Hochbeete gemacht, wo dann der Salat drauf wächst und so weiter.
0:30:45–0:30:48
Also die haben da so ein ganzes Kreislaufsystem hier aufgebaut,
0:30:48–0:30:50
aber es sieht so ein bisschen verwahrt aus.
Micz Flor
0:30:51–0:30:56
Es sieht lustigerweise halt so aus, wie in Tarkovskys Solaris-Verfilmung irgendwas aussehen könnte.
0:30:56–0:31:01
Es ist einer von diesen Orten, die finde ich eigentlich immer wunderbar,
0:31:01–0:31:06
wo die Orte funktional hergestellt werden und dann so ein Patina entwickeln,
0:31:06–0:31:08
weil keiner so richtig draufschaut.
0:31:08–0:31:11
Es wird immer noch mal gemäht, aber es wird trotzdem halt auch viel gelassen,
0:31:11–0:31:16
was im Westdeutschland ich immer nur an Zug, so Bahnhöfen kannte.
0:31:16–0:31:19
Da gab es immer zwei, drei Gleise bei größeren Bahnhöfen, wo dann einfach so
0:31:19–0:31:22
Holunderbüsche aus den schienen. Das fand ich immer ganz zauberhaft.
0:31:23–0:31:26
Und das hier ist so ein Ort mit
0:31:26–0:31:30
ein paar Neuerungen, die dann hier ganz pragmatisch diese Pipeline Also.
Florian Clauß
0:31:30–0:31:34
Die hatten auch eben das Modell, dass hier gibt es einen Markt,
0:31:34–0:31:38
da war ich auch schon ein paar Mal, da kann man Samstag und Sonntags kann man
0:31:38–0:31:42
hier einkaufen oder Samstag glaube ich nur, kann man halt Gemüse kaufen aus
0:31:42–0:31:46
dieser Anbau aber ich habe jetzt gelesen im Wikipedia Artikel,
0:31:46–0:31:49
dass dann nach Corona, also während Corona ist es komplett,
0:31:50–0:31:53
eingebrochen und Der Markt. Der Markt, ja.
0:31:53–0:31:57
Und dann hatten die halt so ein Abo-Modell aufgebaut.
0:31:57–0:32:00
Das heißt, dass du halt hier für eine gewisse Gebühr dann halt immer deinen
0:32:00–0:32:03
Obst- und Gemüsekorb bekommst.
Micz Flor
0:32:03–0:32:09
Also wo wir jetzt gerade vorstehen, das sieht so aus wie der größte urbane Ort,
0:32:09–0:32:11
wo Viktoriabarsche abwesend sind.
Florian Clauß
0:32:11–0:32:15
Ja, weil da hinten sind tatsächlich, wenn du mal guckst, hier kommt noch eine
0:32:15–0:32:20
Halle und da hinten sind so die ganzen Aquarien drin.
0:32:22–0:32:25
Und ich dachte, wir könnten hier nochmal, da kann man nochmal auf den Friedhof
0:32:25–0:32:27
gehen. Ach, ganz toll. Angrenzen.
Micz Flor
0:32:28–0:32:30
Herzberge, war das nicht auch diese große Nerven-Highland-Stadt?
Florian Clauß
0:32:30–0:32:37
Genau, genau. Also Herzberge, das ist das königliche Elisabeth-Krankenhaus Herzberge.
0:32:38–0:32:42
Also kommen wir gleich nochmal nachher zu. Und hier ist der Friedhof.
0:32:42–0:32:45
Ich glaube, der gehört mit zu dem Krankenhaus.
0:32:46–0:32:48
Aber ich war jetzt hier vor einigen...
Micz Flor
0:32:48–0:32:50
Das ist die beste Werbung für ein Krankenhaus, ein riesen Friedhof.
Florian Clauß
0:32:50–0:32:55
Ja, das hat auf jeden Fall eine lange Tradition, der Friedhof hier auch.
0:32:56–0:33:02
Es gibt einige Veteranengräber für den antifaschistischen Kampf.
0:33:03–0:33:07
Zumal habe ich mal hier so eine Gruppe von Antifa-Leuten, die auch so eine Flagge
0:33:07–0:33:10
hochgehalten haben und dann halt so eine Gräberpflege gemacht haben.
0:33:10–0:33:11
Fand ich so ganz interessant.
0:33:13–0:33:19
Okay, also gehen wir jetzt hier auch von diesem absonderlichen Ort in einen
0:33:19–0:33:24
anderen absonderlichen jenseitigen Ort. Solaris.
Micz Flor
0:33:24–0:33:24
Solaris.
Florian Clauß
0:33:24–0:33:31
Genau. Ich würde vorschlagen, du erzählst so ein bisschen Geschichtstrang und
0:33:31–0:33:34
wir steigen dann so an bestimmten Punkten auch gleich in die Interpretation an.
0:33:34–0:33:39
Das ist, glaube ich, einfacher, das wirklich so zu machen als im Nachhinein, oder? Wie würdest du?
Micz Flor
0:33:39–0:33:44
Dann mache ich eine ganz kurze zusammenfassende Klammer und dann fangen wir an.
0:33:45–0:33:50
Die kurz zusammenfassende Klammer ist halt, der Roman beginnt damit,
0:33:50–0:33:53
dass jemand im Anflug auf eine Raumstation ist vor einem Planeten.
0:33:53–0:33:56
Und dieser Planet wird immer beschrieben als ein großer Ozean.
0:33:57–0:34:01
Der wurde zu Hilfe gerufen in gewisser Weise und als er landet,
0:34:01–0:34:02
kümmert man sich aber gar nicht um ihn.
0:34:02–0:34:07
Und alle scheinen irgendwie sehr seltsam zu sein. Es gibt noch zwei andere auf
0:34:07–0:34:11
dieser Raumstation und der, der ihn um Hilfe gerufen hat, hat sich wohl an dem
0:34:11–0:34:13
Tag, an dem er kam, umgebracht.
0:34:15–0:34:18
Alle sind komisch und sage ihm die ganze Zeit, also er spricht eigentlich nur
0:34:18–0:34:20
mit einem, er soll immer so abwarten, er wird schon noch sehen.
Florian Clauß
0:34:20–0:34:24
Es sind noch drei Besatzungsmitglieder.
Micz Flor
0:34:24–0:34:26
Drei? Snout?
Florian Clauß
0:34:26–0:34:28
Nein, eher Snout und Sartorius.
Micz Flor
0:34:28–0:34:33
Gut, er kommt an und es sind noch zwei und der dritte, jetzt habe ich den Gabriel.
Florian Clauß
0:34:33–0:34:34
Sartorius.
Micz Flor
0:34:34–0:34:39
Sartorius ist noch da und Giberian, der hat sich umgebracht und das war ein
0:34:39–0:34:43
alter Bekannter noch von dem Planeten Erde. Und auf jeden Fall ist er dann da,
0:34:43–0:34:44
es ist alles irgendwie komisch.
0:34:45–0:34:51
Er wacht am nächsten Tag auf, nachdem er so ein bisschen sich in das Thema nochmal
0:34:51–0:34:53
eingelesen hat, warum dieser Planet so wichtig ist für die Menschheit.
0:34:53–0:34:57
Dann ist auf einmal seine verstorbene Frau neben ihm.
0:34:58–0:35:02
Das ist für ihn total unheimlich er
0:35:02–0:35:06
entledigt sich ihr wird dann so irgendwie manchmal flapsig
0:35:06–0:35:11
gesagt also er sperrt sie ein in eine kapsel und schießt die weg dem nächsten
0:35:11–0:35:14
da kommt die wieder dann lernte dass alle irgendwie solche gäste haben jetzt
0:35:14–0:35:19
geht ich aufs gaspedal die scheinbar irgendwie mit diesem planeten zu tun haben
0:35:19–0:35:24
der scheinbar irgendwie die gedanken lesen kann und Und diese Gäste kreieren kann.
0:35:24–0:35:29
Die stellen dann fest, dass die aus einem ganz seltsamen subatomaren Stoff von
0:35:29–0:35:31
Neutrinos gebaut wurden.
0:35:31–0:35:38
Und er, Calvin, unser Held sozusagen, der entscheidet sich dann,
0:35:38–0:35:42
bei seiner Frau zu bleiben, die sich auf der Erde umgebracht hat,
0:35:42–0:35:44
wo er sich auch ein bisschen verantwortlich fühlt.
0:35:44–0:35:48
Die anderen sagen, das geht aber gar nicht, weil sie wahrscheinlich die Station nie verlassen können.
0:35:48–0:35:51
Weil dann würde die vielleicht zerfallen. Er weiß das auch, sie weiß das auch.
0:35:51–0:35:52
Auch sie wird immer bewusster.
0:35:53–0:35:55
Sie weiß allerdings natürlich nicht alles.
0:35:56–0:36:01
Und das Ganze endet dann darin, dass sie selber entscheidet,
0:36:01–0:36:03
dass sie nicht sie selber ist oder nicht genau weiß,
0:36:03–0:36:09
wo sie herkommt und irgendwie etwas ist, was sie nicht weiß zu sein und lässt
0:36:09–0:36:12
sich dann von den anderen beiden Wissenschaftlern umbringen.
0:36:12–0:36:18
Und weil sie am Tag vorher noch von Calvin die Gehirnwellen per harten Röntgenstrahlen
0:36:18–0:36:22
auf den Planeten geschickt haben, hat sich da auch was verändert und diese Gäste
0:36:22–0:36:23
werden auch nicht wieder erschaffen.
Florian Clauß
0:36:23–0:36:27
Wir müssen, ich glaube, wir haben noch nicht einmal gesagt, dass diesen Planeten,
0:36:27–0:36:31
der Ozean, dass das eine außerirdische Intelligenz darstellt.
Micz Flor
0:36:31–0:36:35
Ja, das ist etwas, wo lange darüber diskutiert wurde.
0:36:35–0:36:39
100 Jahre wird über diesen Planeten schon diskutiert, ob der intelligent ist
0:36:39–0:36:43
oder nicht oder wie das sein kann, weil der eben sogar die Möglichkeit hat,
0:36:43–0:36:49
physikalische Gesetze so zu beugen, dass er als Planet, der um Doppelsterne kreist,
0:36:49–0:36:51
trotzdem eine stabile Laufbahn hat.
0:36:52–0:36:57
Da kommen wir dann gleich noch mal ein bisschen mehr dazu. Und zum Schluss entscheidet
0:36:57–0:37:02
Calvin, auf dem Planeten zu landen und in gewisser Weise auch auf der Station
0:37:02–0:37:03
zu bleiben und nicht mehr zur Erde zurück zu gehen.
0:37:05–0:37:06
Das ist die kurze Fassung.
Florian Clauß
0:37:07–0:37:15
Danke, Mitch. Ja, sehr cool. Sehr fixiert auf die Beziehung zwischen Harvey und Chris.
0:37:15–0:37:21
Die auch sicher dadurch jetzt so fixiert, weil die filmischen Umsetzungen sich
0:37:21–0:37:23
auch immer sehr auf diese Beziehung fixieren.
0:37:24–0:37:28
Kommen wir da später zu? Kommen wir in den nächsten Episoden zu?
Micz Flor
0:37:28–0:37:32
Dann kommt jetzt die lange. Fangen wir mal woanders an. Also nicht Calvin und
0:37:32–0:37:35
seine Frau, sondern die Erde, die Menschheit.
Florian Clauß
0:37:35–0:37:38
Darf ich noch ganz kurz die Geschichte dazu erzählen?
0:37:38–0:37:42
Das erste Mal, und das fand ich so ganz interessant, weil wir uns das erste
0:37:42–0:37:46
Mal dieses Solaris gelesen haben, dann hatte ich so rückblickend im Kopf,
0:37:47–0:37:53
dass auf den ersten 80 Seiten nur über die Solaristik, das ist quasi dieser
0:37:53–0:37:58
Diskurs, dieser wissenschaftliche Diskurs, der über diesen Ozean geführt wird,
0:37:58–0:38:01
wo dann verschiedene Lager und so weiter, Also das ist wirklich,
0:38:01–0:38:05
über 100 Jahre gibt es dann halt schon diese, vor 100 Jahren wurde er entdeckt,
0:38:05–0:38:07
dann gibt es halt diese Station und so weiter.
0:38:07–0:38:11
Aber es wurde ganz massiv dann immer diskutiert und es gab verschiedene Lage.
0:38:11–0:38:15
Das hat mich damals total fasziniert an dem Buch, dass es zwar auf einmal so
0:38:15–0:38:19
ein Wissenschaftsdiskurs da stattfindet, ja, über eine Sache und dann aber auch
0:38:19–0:38:24
mit so verschiedenen Positionen, die alle irgendwo auch sich versuchen zu belegen,
0:38:24–0:38:26
ja, also wie halt ein Wissenschaftsbetrieb läuft.
0:38:26–0:38:29
Und dann hattest du mir aber gesagt, als ich das nochmal gelesen habe,
0:38:30–0:38:32
dann dachte ich so, habe ich eine falsche Ausgabe vielleicht?
0:38:33–0:38:37
Ich hatte das Gefühl, es wäre viel, viel länger. Und dann meinte ich so,
0:38:37–0:38:39
nee, nee, das sind erst mal die ersten Seiten.
0:38:39–0:38:44
Und dann, als ich das dann ganz gelesen habe, dann dieser Diskurs über die Solaristik,
0:38:44–0:38:48
das wird ja überall eingeflochten, das wird ja dann auch später immer weiter ausgebalzt.
0:38:48–0:38:51
Aber ich hatte dann im Rückblick, hatte ich so die komprimierte Vorstellung,
0:38:51–0:38:53
sind die ersten 100 Jahre.
Micz Flor
0:38:53–0:38:57
Nee, es sind zwei große Blöcke, wo das passiert. Am Anfang so ein bisschen und
0:38:57–0:38:58
dann halt diese eine große.
0:38:58–0:39:02
Nee, und dann sind es sogar drei Teile, weil er dann nochmal diese kleine Akrophyfe
0:39:02–0:39:03
oder wie das heißt, sucht da.
Florian Clauß
0:39:04–0:39:07
Ja, die kleine Akrophyfe. Weißt du, was eine Akrophyfe ist?
Micz Flor
0:39:07–0:39:07
Nee.
Florian Clauß
0:39:07–0:39:09
Da habe ich nämlich nur nachgeschlagen extra.
Micz Flor
0:39:10–0:39:12
Danke fürs Bloßstellen und danke für die Hilfe.
Florian Clauß
0:39:14–0:39:19
Nein, weil ich auch dachte, was ist das denn? Akrophyfe werden die Teile genannt.
Micz Flor
0:39:19–0:39:21
Ich muss sagen, ich weiß nicht, ob es Akrophyfe ausgesprochen wird.
0:39:21–0:39:23
Mit ein bisschen immer nach Apokryph.
Florian Clauß
0:39:24–0:39:30
Apokryph wird es ausgesprochen. Und zwar ist ein Apokryph die Teile,
0:39:30–0:39:31
die es nichts in die Bibel geschafft haben.
0:39:32–0:39:36
Das sind so quasi die geheimen Bibelteile. Also entweder, weil es halt nicht
0:39:36–0:39:39
so Mainstream war oder aber, weil dann halt so Geheimnisse drin sind.
0:39:40–0:39:47
Und das Ding ist ja, dass das Buch von Gibertian, wo er bestimmte Zitate oder
0:39:47–0:39:50
bestimmte Bücher der Solaristik,
0:39:51–0:39:56
referenziert, die Hinweise enthalten, dass es halt nicht ganz so ein Mainstream-Diskurs ist.
0:39:57–0:40:03
Also die geheimen Botschaften und die geheimen Wahrheiten über Solaris sozusagen.
0:40:04–0:40:06
Also so würde ich das lesen.
Micz Flor
0:40:06–0:40:10
Das Kapitel. Ja, so wird es auch beschrieben.
0:40:10–0:40:13
Das sind ja quasi die Take-outs, die Sachen, wie du sagst, die es nicht in den
0:40:13–0:40:17
Kodex geschafft haben als wissenschaftlicher Kanon.
Florian Clauß
0:40:17–0:40:21
Das ist sehr schön, der wissenschaftliche Kanon. Und dann kommt halt dieser
0:40:21–0:40:25
Bertrand, der dann zum Beispiel in Tarkovsky eine viel größere Rolle hat.
Micz Flor
0:40:25–0:40:27
Ja, das finde ich auch spannend, wenn wir über die Filme sprechen,
0:40:27–0:40:32
was da so umgestellt wurde und verständlicherweise und gleichzeitig aber auch
0:40:32–0:40:34
leider, wie ich manchmal denke.
0:40:34–0:40:39
Aber jetzt kommt die lange Zusammenfassung, wo wir dann einsteigen werden.
Florian Clauß
0:40:39–0:40:40
Ja, sehr gerne.
Micz Flor
0:40:40–0:40:43
Mit Fußnoten und Interpretation, wann immer es gerade passt.
Florian Clauß
0:40:44–0:40:45
Also jetzt quasi.
Micz Flor
0:40:45–0:40:50
Also es geht allgemein um Solaris. Es ist der Name eines Planeten,
0:40:50–0:40:51
auf dem ein großer Ozean ist.
0:40:52–0:40:56
Und in der Erforschung von extraterrestrischem Leben auf der Erde wurde man
0:40:56–0:41:00
auf diesen Planeten aufmerksam, weil man anfangs einfach nur gemerkt hat,
0:41:00–0:41:04
dass das ein Planet in einem System mit zwei Sonnen ist.
0:41:04–0:41:08
Und wie wir seit Trisolaris und dem Dreikörperproblem jetzt alle wissen,
0:41:08–0:41:11
sind die Flugbahnen da nicht gut vorhersehbar.
0:41:11–0:41:13
Zwei Körper geht, drei Körper geht nicht.
0:41:14–0:41:20
Längst hätte Solaris in eine der Sonnen fallen müssen, beziehungsweise man konnte
0:41:20–0:41:24
dann merken, dass die vorhergesehene Bahn nicht gehalten wird.
0:41:24–0:41:29
Und hat sich dann überlegt, wie kann das sein und dann irgendwie begonnen,
0:41:29–0:41:33
diesen Solaris-Planeten sich genauer anzuschauen und gemerkt,
0:41:33–0:41:37
dass der fast komplett von einem Ozean bedeckt ist.
0:41:37–0:41:43
Der bei Tarkovsky, finde ich, sehr schön visualisiert wird, auch wenn Lem das
0:41:43–0:41:49
nicht so dachte. Und dieser Ozean allerdings irgendwie sich auch zu bewegen
0:41:49–0:41:50
scheint, zu wandern scheint.
0:41:50–0:41:51
Es gibt immer wieder auch mal
0:41:51–0:41:55
trockene Plätze, Inseln, einen ganz kleinen Prozentsatz der Oberfläche.
0:41:55–0:42:01
Aber die ganze Zeit ist der Ozean wie, wie soll ich sagen, wie lebendig.
0:42:01–0:42:05
Später merkt man, da greife ich jetzt schon mal voraus, dass da aber keine Zellen
0:42:05–0:42:06
gibt oder keine Strukturen gibt.
0:42:07–0:42:10
Also man kann sich das alles gar nicht erklären. Man merkt aber nur,
0:42:10–0:42:17
dass dieser Planet in der Lage ist, aktiv sich oder die physikalischen Gesetze um ihn zu biegen.
0:42:17–0:42:21
Da sind wir ein bisschen wieder bei Expanse, wo dann auch die Physik ein bisschen
0:42:21–0:42:25
gebogen wird, um Ionenkanäle zu verändern.
0:42:26–0:42:31
Was dazu führt, dass dieser Planet eine stabile Umlaufbahn um diese beiden Sonnen halten kann.
0:42:31–0:42:33
Ich weiß nicht, ob es jetzt ein ist, das wird nicht genau erklärt,
0:42:33–0:42:34
aber auf jeden Fall erstürzt es nicht.
Florian Clauß
0:42:34–0:42:35
Es sind zwei Sonnen.
Micz Flor
0:42:35–0:42:36
Zwei Sonnen, aber...
Florian Clauß
0:42:36–0:42:37
Es ist eine rote und eine blaue Sonne.
Micz Flor
0:42:37–0:42:41
Aber was seine Umlaufbahn ist, ob das jetzt quasi ein Kreis ist,
0:42:41–0:42:41
das wird doch genau gesagt.
Florian Clauß
0:42:41–0:42:45
Du hast ein chaotisches System. Entweder, wie du sagst, stürzt der Planet in
0:42:45–0:42:48
der Sonne raus oder er wird weggepfeffert.
Micz Flor
0:42:48–0:42:55
Und wir kommen in die Geschichte, als es schon 100 Jahre von Forschung gibt über...
Florian Clauß
0:42:55–0:42:59
Ja, die Station, das wird auch nicht irgendwo genau beschrieben,
0:43:00–0:43:03
aber wahrscheinlich ist, dass diese Station auch schon seit mehreren Jahrzehnten,
0:43:03–0:43:05
wenn nicht sogar das Jahrhundert, schon da ist.
0:43:05–0:43:09
Und in dem Zusammenhang finde ich auch nochmal interessant,
0:43:09–0:43:16
wie kunstvoll das Lemm arrangiert, nämlich er macht sich da jetzt auch so rein
0:43:16–0:43:20
fiktional nicht angreifbar, nämlich diese Frage von Entfernung,
0:43:20–0:43:24
Zeitreise, also überhaupt Raumreise.
Micz Flor
0:43:25–0:43:28
Zeitschuld, wie wir bei Imperium gesagt haben.
Florian Clauß
0:43:28–0:43:31
Genau, weil das kommt auch in irgendeiner Beschreibung, nämlich dann,
0:43:31–0:43:37
wenn am Ende, wenn dann eben der Bericht von Snout verfasst und von Chris Kelvin,
0:43:37–0:43:39
so heißt unsere Hauptfigur, dem Protagonisten.
0:43:40–0:43:44
Der dann halt mehrere Monate unterwegs ist, wenn nicht sogar Jahre.
0:43:44–0:43:46
Also da wird beschrieben von Orion und so weiter.
0:43:46–0:43:51
Vermutlich ist wirklich Solaris, das ganze System, ist halt Lichtjahre entfernt von der Erde.
0:43:52–0:43:56
Und das finde ich halt so toll, dass das halt wirklich überhaupt gar nicht so
0:43:56–0:43:57
beschrieben ist. Und es wird auch in keinem Film...
Micz Flor
0:43:58–0:43:59
Die Lichtjahre nicht viele Monate.
Florian Clauß
0:43:59–0:44:03
Ja, viele Monate. Aber man weiß ja nicht, ob trotzdem die Technologie...
0:44:03–0:44:09
Also es wird... Also da die Lokalisation des Planetens ist Lichtjahre von der Erde entfernt.
0:44:09–0:44:13
Also muss ja quasi. Aber Monate vielleicht haben die eine Technik entwickelt,
0:44:13–0:44:18
wo die halt so Spice-mäßig schneller als Licht reisen können oder sowas.
0:44:18–0:44:19
Also es wird überhaupt nicht beschrieben.
0:44:20–0:44:23
Und das ist für mich aber so ein genialer Kniff, um dann halt auch nicht in
0:44:23–0:44:25
diese Erklärungsnot zu kommen.
Micz Flor
0:44:25–0:44:30
Das bringt mich dann, ich glaube wir brauchen, wir müssen eine zweite Wanderung machen zum Reden.
0:44:30–0:44:32
Wir werden wahrscheinlich gar nicht durchkommen, weil was mich ja immer,
0:44:33–0:44:38
das ist eine grundfesten Frage, weil es wird dann immer von Hard Science Fiction
0:44:38–0:44:41
und eher so Fantasy Science Fiction. Das hatte ich ja auch bei Dan Simmons schon
0:44:41–0:44:44
besprochen, dass da immer gesagt wird, das ist ja eher Fantasy.
0:44:45–0:44:49
Und Stanislaw Lem wird immer hochgehalten als Hard Science Fiction.
0:44:50–0:44:54
Aber What the F ist da irgendwie Hard Science Fiction? Was ist da?
Florian Clauß
0:44:54–0:44:59
Ja, aber das würde mich wundern, weil ich habe es anders gelesen,
0:44:59–0:45:02
dass nicht der Science Fiction so ausschließlich zuordnenbar ist.
0:45:03–0:45:09
Weil du hast ja wirklich hier auch ein Genre-Crossover. Es fängt an wie so ein Horror-Setup.
Micz Flor
0:45:09–0:45:09
Das Ganze.
Florian Clauß
0:45:10–0:45:14
Es wird aber dann mehr Science-Fiction oder wissenschaftlicher Roman.
0:45:15–0:45:19
Und dann am Ende ist es dann irgendwie so ein philosophisches Grundstück,
0:45:19–0:45:20
was dann beschrieben wird.
0:45:20–0:45:26
Also das heißt, Lem lässt sich eigentlich nie in diese, also dass er hart Science-Fiction
0:45:26–0:45:30
ist, im Sinne hart von, dass bestimmte Voraussetzungen gemacht werden,
0:45:31–0:45:35
die es halt irgendwie gar nicht mehr so, die es halt nur in der Zukunft als Annahmen gebe.
Micz Flor
0:45:35–0:45:41
Ja, so eine Möglichkeit. Also das ist die Möglichkeit, eine extrapolierte Tangente
0:45:41–0:45:46
in die Zukunft könnte sein, dass, wie du schon gesagt hast, aus dem Fernseher
0:45:46–0:45:48
ein Tablet wird oder ein Handy.
Florian Clauß
0:45:49–0:45:53
Aber darf ich nur mal ganz kurz, weil ich das auch so, das fand ich so abgefahren,
0:45:53–0:45:56
das ist für mich halt wirklich so, weil auf der einen Seite gibt es halt dieses,
0:45:56–0:46:02
man weiß nicht, wie der da hingekommen ist, wie er diese extreme Distanz überwunden hat.
0:46:02–0:46:05
Aber dann ist man doch irgendwie so verhaftet wieder in so...
0:46:06–0:46:10
In so Interfaces, weil das wird so kurz beschrieben, dann wird halt irgendwie
0:46:10–0:46:12
so eine Plakette leuchtet auf mit dem Erde.
0:46:13–0:46:19
Und das heißt, es gibt halt nichts von so kontextbasiert Darstellung von UI oder sowas.
0:46:19–0:46:24
Also von so Interface, das ist halt wirklich so, damals konnte man sich das ja nicht denken.
0:46:24–0:46:29
Du hast den Bildschirm und der Bildschirm sich dann halt aufgrund seines Kontextes
0:46:29–0:46:30
dann quasi funktional anpassen kann.
0:46:31–0:46:35
Mit den ganzen Buttons drauf und so weiter. Es ist alles hart verdrahtet,
0:46:35–0:46:39
es sind die Kippschalter und es gibt dann halt vielleicht so eine Matrize,
0:46:39–0:46:43
die du dann halt überlegen kannst, wenn du diesen Schalter umschaltest,
0:46:43–0:46:44
dann haben die alle eine neue Funktionseinheit.
0:46:45–0:46:50
Das ist immer noch so in diesem Raumschiffsdesign so mit reingestrickt,
0:46:50–0:46:53
ja, aber das kannst du dir halt auch nicht anders vorstellen.
Micz Flor
0:46:53–0:46:59
Aber das ist ja dann dieser Witz in dem dritten Prequel von Star Wars,
0:46:59–0:47:06
wo dann Darth Vader das erste Mal atmet, wo dann irgendwie die ganze Zeit diese
0:47:06–0:47:09
absoluten Hightech-CGI-Roboter irgendwie rumgurken.
0:47:10–0:47:14
Und dann kommt halt dieser alte End-70er-Jahre mit diesen drei großen Buttons,
0:47:14–0:47:18
die rote Lampe, ein Drehknopf am Bauch.
Florian Clauß
0:47:18–0:47:20
Und das haben die so konsequent durchgehalten.
Micz Flor
0:47:20–0:47:24
Musst du ja auch, das ist ja ikonisch. und das ist genau das, was du,
0:47:24–0:47:28
sagst, was man halt Darth Vader damals reingeschrieben hat, wo man dachte,
0:47:28–0:47:33
so sieht die Zukunft aus, es gibt große Buttons auf dem Bauch und dann später
0:47:33–0:47:37
siehst du das nirgends, also genau, so sah die Vergangenheit der Zukunft aus.
Florian Clauß
0:47:37–0:47:41
Ja, aber das finde ich auch, wie sie konsequent das am Set-Design durchgezogen
0:47:41–0:47:43
haben, jetzt auch bei diesen ganzen neuen Spin-Off-Serien.
Micz Flor
0:47:43–0:47:46
Weil Solaris ist ein gutes Beispiel für das, was du sagst, auch,
0:47:46–0:47:50
dass er dann in diesem Raum, wo er später dann irgendwie sich einrichtet,
0:47:50–0:47:54
unter dem Bett ein Tonbandgerät findet und dieses Tonbandgerät dann auch von
0:47:54–0:47:58
seiner verstorbene Frau später entwendet wird und er es gerne wieder hätte.
Florian Clauß
0:47:58–0:48:04
Genau, wo dann die Dead Media quasi drin vorkommt. Also alte Aufzeichnungstechnologien.
0:48:05–0:48:09
Kommen wir auch nochmal zu einem ganz kurzen Sidekick zu Mondnacht.
0:48:09–0:48:11
Hast du mir nochmal geschickt den Link?
0:48:11–0:48:14
Ja, ich habe es nämlich genau dieses, wo er auch unglaublich intelligent,
0:48:15–0:48:17
also... Das ist jetzt eine andere Geschichte.
0:48:17–0:48:21
Eine andere Geschichte, die heißt Ich weiß gar nicht, ob das nur eine Hörbuchfassung
0:48:21–0:48:22
ist oder auch eine Kurzgeschichte.
0:48:23–0:48:28
Aber es geht auch darum, dass eben zwei Astronauten auf dem Mond,
0:48:28–0:48:32
auf der Mondstation, in eine Situation kommen, dass sie keinen Sauerstoff mehr kriegen.
0:48:33–0:48:36
Und ich kriege sie mir ganz zusammen, weil ich es wirklich so auch immer beim
0:48:36–0:48:37
Einschlafen gehört habe.
0:48:37–0:48:43
Und dass eben die in so einer Situation sind, dass sie das Tonband überlisten müssen.
0:48:43–0:48:48
Also quasi diese ganze Observer-Technologie, die heute, also wo du halt auch
0:48:48–0:48:51
wirklich schon heute so dieses Angriffsszenario, Mario, wie schaffe ich das,
0:48:51–0:48:55
bestimmte Observer-Technologien zu umgehen, um dann zu meinem Ziel zu kommen?
0:48:56–0:49:00
Hat er das als dramaturgischer Aufbau in diese Geschichte mit reingeschrieben?
0:49:00–0:49:07
Ich kriege es aber nicht ganz zusammen. Aber wo du auch irgendwie merkst, er baut eine Szene auf,
0:49:07–0:49:12
aber geht dann noch zwei Schritte weiter und macht dann eben daraus so einen
0:49:12–0:49:16
Technologie-Plot raus. Aber jetzt habe ich dich rausgerissen.
Micz Flor
0:49:16–0:49:19
Nee, gar nicht. Wir fangen jetzt, das ist ein guter Schnitt,
0:49:19–0:49:22
weil jetzt geht es los. Jetzt geht dann die Geschichte eigentlich los,
0:49:22–0:49:26
weil wir dann eben doch wieder bei unserem Protagonisten Chris Calvin sind.
0:49:27–0:49:30
Mit K. Chris und K. Calvin.
0:49:31–0:49:37
Der ist ein Psychologe und wurde von Gibarian, seinem Bekannten aus der Erde, irgendwie angerufen.
0:49:37–0:49:41
Er solle doch bitte zu Hilfe kommen. Wir brauchen deine Hilfe, Chris.
0:49:43–0:49:47
Und gespielt von Ulrich Tukur in der 2002er Version von Soderbergh,
0:49:48–0:49:52
wo wir dann in vier Wochen, heute drüber reden werden, aber erst in vier Wochen,
0:49:52–0:49:53
werden alle drüber reden.
Florian Clauß
0:49:56–0:50:01
Genau, und die Motivation, warum dann Dr. Calvin auf die Station kommt,
0:50:01–0:50:03
ist bei allen Varianten unterschiedlich.
0:50:04–0:50:09
Also bei Solaris, bei dem von Lem, ist es so, dass er wirklich zur Hilfe gerufen wird.
0:50:09–0:50:13
Also wir haben hier ein Problem mit der Besatzung. Bitte schau mal,
0:50:13–0:50:16
dass du das als Psychologe uns da unterstützen kannst.
0:50:16–0:50:21
Bei Tarkowski und Suderberg sind es andere Motivationen. Kommen wir nochmal hin.
Micz Flor
0:50:23–0:50:27
Und er kommt an, er wird losgeschossen, wie in so einer Kanonenkugel.
0:50:27–0:50:30
Das ist auch sehr schön so hart Science-Fiction-mäßig beschrieben.
0:50:30–0:50:34
Er kommt dann in so einen Gefährt rein, dann bläst sich sein Schutzanzug auf.
0:50:35–0:50:38
Dann ist er da so reingepropft, sodass er dann auch gleichzeitig geschützt,
0:50:38–0:50:39
aber auch eingesperrt ist.
0:50:40–0:50:43
Wird dann losgeschossen. Das geht aber alles so smooth, dass er selber gar nicht
0:50:43–0:50:45
genau mitbekommt, dass er schon fliegt.
0:50:45–0:50:48
Dann hat er so einen kleinen Schlitz, kann er so rausgucken,
0:50:48–0:50:52
kommt immer näher an den Planeten Solaris. kommt dann irgendwann in diesen Punkt,
0:50:52–0:50:56
wo er sagt, das fand ich sehr schön, wo er sagt so, ab da falle ich.
0:50:57–0:51:00
Vorher ist er auf etwas zugeflogen und dann auf einmal gab es oben und unten
0:51:00–0:51:04
in seiner Wahrnehmung, was ich schon einen schönen Blick auf dieses Menschliche finde.
0:51:04–0:51:09
Also der Mensch braucht oben und unten, sobald es geht, wird das als Kompass,
0:51:09–0:51:11
als Orientierungssystem eingeschaltet.
0:51:12–0:51:16
Und dann versucht er die ganze Zeit Kontakt aufzunehmen mit der Raumstation,
0:51:16–0:51:20
aber die kreist um den Planeten beziehungsweise nicht, dass sie kreislich ist.
0:51:20–0:51:21
Sie kann sich auch bewegen.
0:51:21–0:51:24
Also sie ist quasi aber eben in einer, wahrscheinlich nicht mal in einer Umlaufbahn,
0:51:25–0:51:26
aber sie schwebt über dem Planeten.
Florian Clauß
0:51:26–0:51:28
Weißt du noch, wie die Raumstation heißt?
Micz Flor
0:51:29–0:51:29
Nee.
Florian Clauß
0:51:30–0:51:30
Prometheus.
Micz Flor
0:51:31–0:51:33
Nee, Prometheus schießt ihn ab.
Florian Clauß
0:51:34–0:51:35
Nee, Prometheus ist die Raumstation.
Micz Flor
0:51:36–0:51:38
Nee, Prometheus schießt ihn weg, verlässt Prometheus.
Florian Clauß
0:51:39–0:51:41
Aber Prometheus ist die Trägerrakete.
Micz Flor
0:51:42–0:51:46
Prometheus ist der Ort, von dem er in dieser Kapsel weggeschossen wird.
Florian Clauß
0:51:46–0:51:49
Okay, das hatte ich anders in Erinnerung.
Micz Flor
0:51:49–0:51:52
Aber ich lese nachher noch schlechte Beispiele der Übersetzung vor.
Florian Clauß
0:51:53–0:51:56
Ich glaube nicht, dass es auf die Übersetzung zurückzugehen ist.
Micz Flor
0:51:57–0:51:58
Aber danke.
Florian Clauß
0:51:58–0:51:59
Dass du mir.
Micz Flor
0:51:59–0:52:01
Das gesagt hast. Da kommt Prometheus drin vor und deshalb weiß ich,
0:52:01–0:52:03
dass das da ist, wo er herkommt.
Florian Clauß
0:52:03–0:52:07
Okay, dann hat er die Raumstation, hat gar keinen Namen, oder?
0:52:08–0:52:10
Ich dachte immer, das wäre Prometheus.
Micz Flor
0:52:10–0:52:11
Nee.
Florian Clauß
0:52:11–0:52:16
Aber sie ist namenlos. Die Lagestation.
Micz Flor
0:52:17–0:52:20
Namentliche, namenlose Raumstation. Auf die fliegt er zu. Er landet da auch.
0:52:20–0:52:24
Er hat keinen Kontakt, außer mit dem Bordcomputer, der sich um ihn kümmert.
0:52:24–0:52:28
Alles sicher. Er sagt, wir übernehmen dich. Du kommst jetzt hier an. Er steigt aus.
0:52:29–0:52:32
Keiner empfängt ihn. Er ist da alleine. Er weiß gar nicht, wo er ist.
0:52:32–0:52:34
Aber dann ist alles irgendwie so durcheinander.
0:52:35–0:52:38
Und er findet dann, glaube ich, auch eine Blutspur.
Florian Clauß
0:52:39–0:52:39
Nee.
Micz Flor
0:52:40–0:52:41
Also da müsste ich auch nochmal...
Florian Clauß
0:52:42–0:52:45
Die Blutstube kommt nur bei Sudaberg vor.
Micz Flor
0:52:45–0:52:47
Ja, da bin ich mir eben nicht ganz sicher. Da muss ich nochmal gucken,
0:52:47–0:52:50
weil die Frage... Es wurde ja...
0:52:52–0:52:54
Lem wurde ja auch natürlich gefragt, worum geht es eigentlich?
0:52:55–0:52:57
Also was wir heute auch ein bisschen rumdaddeln im Dunkeln.
0:52:57–0:53:02
Und Lem meinte von sich aus, ja, was heißt, worum geht es eigentlich?
0:53:02–0:53:05
Sie weiß doch, wenn ich so eine Geschichte schreibe, weiß doch selber nicht genau, wo es hingeht.
0:53:05–0:53:10
Als zum Beispiel Calvin ankam und dann findet er diese Spur,
0:53:10–0:53:12
da wusste ich selber nicht, wie es weitergeht.
0:53:12–0:53:14
Aber dann habe ich weitergeschrieben und dann wusste ich, wie es weitergeht.
0:53:15–0:53:18
Das war so seine, also da könnte man natürlich psychoanalytisch sagen,
0:53:19–0:53:20
sein Unbewusstes schreibt ihn da.
Florian Clauß
0:53:20–0:53:24
Ja, das ist aber interessant, weil er wirklich da über den Schreibensprozess
0:53:24–0:53:25
dann sich nochmal äußert.
0:53:25–0:53:29
Und es ist tatsächlich so, dass er die nicht vorher so zurechtgelegt hat,
0:53:29–0:53:34
die Geschichte, sondern dass sie so, wenn man ihm glaubt, dann so beim Schreiben entstanden ist.
Micz Flor
0:53:35–0:53:40
Auf der Station, Gbarian stellte schnell fest, hat sich das Leben genommen.
0:53:40–0:53:46
Er findet oder trifft den Kybernetiker Snout, der sich ihm gegenüber sehr komisch verhält.
0:53:46–0:53:49
Das ist auch sehr schön geschrieben. Wir plot-spoilern rechts,
0:53:49–0:53:52
links und in der Mitte. Deshalb sage ich das erst gleich.
0:53:52–0:53:58
Weil erst später wird Calvin klar, dass Snout anfangs gar nicht wusste,
0:53:58–0:54:00
ob er denn nicht vielleicht auch ein Gast ist.
0:54:01–0:54:04
Deshalb war er da sehr, sehr zurückhaltend. Er musste sich da irgendwie...
0:54:04–0:54:10
Aber wir sind in dem Moment wirklich noch in Chris Calvins Blick auf die ganze Geschichte.
0:54:10–0:54:12
Und er checkt nicht, warum Snout so komisch ist.
Florian Clauß
0:54:12–0:54:16
Das ist so schön. Das passt gerade zum Thema Gast. Wir treten hier gerade auf
0:54:16–0:54:20
eine kleine Lichtung und mit einer Kapelle und auf der Kapelle steht und sie leben doch.
Micz Flor
0:54:21–0:54:25
Und es gibt noch Sartorius. Sartorius, den lernen wir erst später kennen.
0:54:26–0:54:29
Und die sind so ein bisschen komplementär zueinander.
0:54:29–0:54:37
Snout ist eher so ein bisschen freundlich, aber irgendwie total innerlich erschöpft und zerrissen.
0:54:37–0:54:43
Und Sartorius ist eher so Teflon-Wissenschaftler, distanziert,
0:54:43–0:54:49
kalt, aber gleichzeitig der, der halt irgendwie wahrscheinlich seine Unsicherheit
0:54:49–0:54:53
kompensiert über eine Entschlossenheit und einen Plan.
0:54:57–0:55:02
Die Untersuchungen so treibt, ne? Und dann eben das in den Trino-Feld und so weiter rausbekommt.
0:55:03–0:55:07
So, und Calvin wird von Snout gesagt, Calvin solle doch einfach vorsichtig sein,
0:55:07–0:55:11
erstmal gucken, komm erstmal an, so in der Art, ne, weil Snout zu Recht auch
0:55:11–0:55:13
irgendwie schon antizipiert, er kann es jetzt gar nicht erklären.
0:55:14–0:55:17
Erstens, weil er scheinbar noch unsicher ist, wer dieser Calvin überhaupt ist,
0:55:17–0:55:22
aber zweitens auch, weil er es erleben muss, um es wirklich zu glauben.
0:55:22–0:55:23
So, ne, es ist einfach nicht fassbar.
0:55:24–0:55:28
Dann ist es so, dass Calvin auf der Station versucht, sich zu orientieren und
0:55:28–0:55:31
dann auch so Stimmen hört aus den Laboren von den Kollegen.
0:55:32–0:55:38
Und er begegnet dann einer etwas korpulenteren, wird sie beschrieben,
0:55:39–0:55:40
barfüßigen, halbnackten Frau.
0:55:40–0:55:44
Er hört so platschende Schritte und sieht die dann und folgt ihr auch.
Florian Clauß
0:55:44–0:55:50
Ja, das ist eine schwarze Frau. In der ursprünglichen Übersetzung wird noch das N-Wort benutzt.
Micz Flor
0:55:50–0:55:54
Ich habe das rausgenommen, weil ich es nicht relevant fand. Ich habe überlegt,
0:55:54–0:55:56
ob ich das korpulente auch rausnehme.
Florian Clauß
0:55:56–0:56:05
Ja, aber es ist insofern schon dafür, dass die Beschreibung dieser Abstrusität,
0:56:05–0:56:08
das ist da, wo quasi der Horrorplot anfängt.
0:56:08–0:56:11
Weil da kriegst du ja wirklich das Grauen. Was passiert hier?
0:56:11–0:56:16
Also es ist ja quasi ein Mensch, den man da so nicht erwarten würde in diesem Umfeld.
Micz Flor
0:56:16–0:56:20
Genau, und das Schwarz sollte das noch so verdichten, dass ich es nicht zeitgemäß
0:56:20–0:56:23
empfunden habe, das jetzt irgendwie als Andersheit oder Feindheit.
Florian Clauß
0:56:23–0:56:32
Ja, also ja, im Sinne von, dass es komplett klar ist, dass diese Figur nicht
0:56:32–0:56:35
in irgendeinem wissenschaftlichen Kontext dahin gekommen sein kann.
Micz Flor
0:56:36–0:56:38
Aber das ist doch nicht, weil sie schwarz ist.
Florian Clauß
0:56:38–0:56:43
Na doch, in dem Sinne schon, weil so wie die damals aufgestellt waren,
0:56:44–0:56:49
in diesem Ganzen, und sie wird ja quasi so als halbnackt, also das heißt wie
0:56:49–0:56:53
so eine Indigene beschrieben. So ein Bild hatte ich dann.
0:56:53–0:56:58
Das ist eine andere Zivilisation, die sie da halt auch so mit verkörpert.
Micz Flor
0:56:58–0:57:02
Da bleibe ich jetzt mal kurz stecken, weil das ist so ein bisschen ein Vorgriff
0:57:02–0:57:07
und ein sehr gutes Beispiel für das, was wir dann später lernen und wo es einfach
0:57:07–0:57:09
unklar ist und keiner kann es richtig verstehen.
0:57:09–0:57:17
Aber es wird wohl deutlich, dass der Planet sich in gewisser Weise in die Menschen,
0:57:17–0:57:19
die da sind, jetzt auch Calvin,
0:57:19–0:57:27
Snout, Sartorius, hineinbegeben kann, wie auch immer, um darin Bilder zu finden
0:57:27–0:57:33
und aus diesen Bildern zum Beispiel eben auch besagte Frau erstellt.
0:57:36–0:57:43
Die unglaublich akkurat abbilden, wie diese Menschen, die auf der Station gar
0:57:43–0:57:46
nicht sein könnten, wirklich waren bzw.
0:57:46–0:57:48
Erinnert werden von denen, die da sind.
0:57:49–0:57:52
Und das, was du jetzt gemacht hast, war, finde ich, ganz interessant.
0:57:52–0:57:57
Genauso ist es, um das in der Literatur zu sagen, Lem beschreibt etwas und dann entsteht ein Bild.
0:57:57–0:58:03
Und wenn man das das erste Mal liest, dann bekommst du ein Bild von seiner Beschreibung,
0:58:04–0:58:10
was eben an ganz vielen Punkten so überzogen ist, dass dann wirklich das Andere erscheint.
0:58:10–0:58:13
Also sowas erscheint, das kann da gar nicht sein.
0:58:13–0:58:16
Das geht schon los, dass sie irgendwie mit den platzschenden Füßen ist und sie
0:58:16–0:58:19
ist so dick und sie ist halbnackt und sie ist eine Frau, was ja damals auch
0:58:19–0:58:22
nicht denkbar war. Und dann ist sie auch noch schwarz.
0:58:23–0:58:26
Und das ist quasi ganz, ganz wichtig natürlich.
0:58:27–0:58:29
Aber ich fand es jetzt gerade interessant von dem Hintergrund,
0:58:29–0:58:33
dass das, was der Planet macht, nämlich Charaktere erschaffen,
0:58:34–0:58:37
dass das natürlich das Buch auch macht, was wir innerlich dann erleben,
0:58:37–0:58:37
wie wir uns die vorstellen.
0:58:38–0:58:40
Das fand ich, hast du irgendwie ganz gut nochmal so illustriert.
Florian Clauß
0:58:40–0:58:50
Ja, zumindest in diesem Prozess des Erschaffens durch diesen Ozean,
0:58:50–0:58:55
ist es ja so, dass es zu einer echten Entität wird.
0:58:55–0:59:01
Und das ist ja auch so diese Frage nach Moral und Identität, Entität.
0:59:01–0:59:09
Also dass die einzelnen Figuren, die da rausfallen aus dieser Matrix von den
0:59:09–0:59:16
Wirten, also von der Besatzung, dass die ja wirklich anfangen eine Identität zu entwickeln.
Micz Flor
0:59:16–0:59:19
Da kommen wir auch noch zu, weil das ist auf alle Fälle total spannend,
0:59:20–0:59:24
aber ich möchte trotzdem festhalten, dass in dem Buch diese,
0:59:24–0:59:29
wie du sagst, diese erschaffenen Gäste, wie sie auch genannt werden,
0:59:30–0:59:33
dass die anders sind.
0:59:33–0:59:37
Ja, man guckt dann, so subatomar findet man, dass die anders sind,
0:59:37–0:59:39
also sind quasi von innen aufgebaut.
0:59:40–0:59:45
Aber natürlich sind in der Tatsache, dass wir als Lesende das erschaffen in
0:59:45–0:59:51
unserem Kopf, in unserer Fantasie, vor unserem Hintergrund, sind die nicht anders als Calvin.
0:59:52–0:59:57
Also die sind natürlich für uns gleichermaßen literarische Fiktion.
Florian Clauß
0:59:57–1:00:03
Ja, auf jeden Fall. Es ist schön, nochmal so auf dieser Metaebene das einzuordnen.
Micz Flor
1:00:03–1:00:08
Gut, aber zurück in die Geschichte. Jetzt kommt ein wichtiger Punkt. Er sieht diese Frau,
1:00:08–1:00:15
er sieht dann auch den Gebarian, er findet den tiefgekühlt, auf ihm drauf liegt eben,
1:00:15–1:00:18
das ist genau die Frau, die legt sich auf Gebarian und liegt dann inzwischen
1:00:18–1:00:24
schon auf Gebarian, das weiß ich nicht mehr genau, unter so einer Decke und in so einem Kühlraum.
1:00:24–1:00:29
Das Ganze ist für ihn einfach so erschütternd und so nicht erklärlich, dass das,
1:00:31–1:00:35
Er denkt, ich bin wahnsinnig. Also die beste mögliche Erklärung nach Einstein
1:00:35–1:00:36
ist immer die einfachste.
1:00:37–1:00:41
Und Calvin kommt an den Punkt und sagt, okay, das hier alles ist so unwahrscheinlich,
1:00:41–1:00:43
dass es viel wahrscheinlicher ist, dass ich wahnsinnig bin.
1:00:43–1:00:46
So, und jetzt will er aber rausfinden, ob er wirklich wahnsinnig ist.
1:00:46–1:00:51
Und dann kommt er auf so einen Kniff, dass er bestimmte Kalkulationen macht
1:00:51–1:00:55
für irgendeine Umlaufbahn und den Computer bittet, diese Kalkulationen auch zu machen,
1:00:55–1:00:58
aber dann irgendwie so einen Faktor einrechnet, dass erst nach der zehnten Stelle
1:00:58–1:01:01
eine Abweichung entstehen dürfte zwischen seinem Den und sowas.
1:01:01–1:01:06
Und das macht er, um zu überprüfen, ob er das alles träumt oder ob es wahr ist,
1:01:06–1:01:08
weil er kann ja die Zahlen des Computers nicht vorhersehen.
1:01:08–1:01:11
Und dann kommt das Ergebnis und es entspricht seiner Hypothese,
1:01:11–1:01:16
aber gleichzeitig merkt er, okay, und das möchte ich sagen, ist wie so ein Gottesbeweis-Thema.
1:01:16–1:01:20
Also, weil er dann halt merkt, ja gut, aber auch das kann ich mir ja einbilden.
1:01:20–1:01:22
Und das Thema Gott kommt eher zum Schluss nochmal rein.
Florian Clauß
1:01:22–1:01:26
Ja, aber an der Stelle muss man auch nochmal sagen, das Interessante ist,
1:01:26–1:01:28
ist, dass Ghibarian genau das Gleiche gemacht hat.
Micz Flor
1:01:28–1:01:29
Das lernen wir später.
Florian Clauß
1:01:30–1:01:33
Also das heißt, auch er ist dann irgendwie auf die Idee gekommen,
1:01:33–1:01:34
er hat dann nochmal ein anderes Setup genommen,
1:01:34–1:01:39
aber eben versucht eine Objektivität, oder nee, er hat ja eine Objektivität
1:01:39–1:01:44
versucht herzustellen, indem er dann halt wissenschaftliche Fakten durch Berechnung
1:01:44–1:01:47
dann auch so belegen kann, dass es tatsächlich so ist.
1:01:48–1:01:49
Dass es nicht aus seinem Kopf kommt.
Micz Flor
1:01:50–1:01:53
Das ist der Plan. Und zum Schluss bleibt es aber dann offen,
1:01:53–1:01:57
weil er dann selber auch einsieht, das ja alles erfunden haben könnte.
Florian Clauß
1:01:57–1:02:03
Ja, das Leben ist ein Traum. Das Leben ist ein Traum und alles ist erfunden.
1:02:03–1:02:04
Ich habe nochmal eine Theorie.
1:02:05–1:02:07
Eine Theorie, die ich nirgendwo anders sehe.
Micz Flor
1:02:07–1:02:08
Ich habe auch eine.
Florian Clauß
1:02:08–1:02:11
Okay, sehr gut. So revolutionär ist das.
Micz Flor
1:02:11–1:02:16
Können wir jetzt ein neues Kapitel anfangen? Flo's Theorie auf,
1:02:17–1:02:17
Solaris.
Florian Clauß
1:02:18–1:02:22
Das aber nicht jetzt, das machen wir am Ende. Wir müssen erst mal so...
Micz Flor
1:02:23–1:02:24
Ah, da kommt eine zu diesem Punkt jetzt.
Florian Clauß
1:02:24–1:02:30
Es kommt... Wenn wir dann so an einem Punkt sind, wo dann so eine gewisse Reife...
1:02:30–1:02:32
Wir müssen auch mehr in die Solaristik einsteigen.
Micz Flor
1:02:32–1:02:36
Okay, super cool. Also mein Aufhängerpunkt ist schon längst vorbei übrigens.
1:02:37–1:02:39
Aber meine Theorie kommt auch nachher.
Florian Clauß
1:02:39–1:02:41
Das heißt, okay, ich bin gespannt auf deinen...
Micz Flor
1:02:41–1:02:45
Auf jeden Fall überrechnet er. Zum Schluss legt er sich den...
1:02:45–1:02:51
Ihr seht das nicht, Flo ist gerade wieder 14 und will es sofort erzählen.
1:02:51–1:02:53
Guck mal, was ich dir zu Weihnachten gebaut habe.
Florian Clauß
1:02:54–1:02:56
Aber es ist doch erst in sieben Monaten.
Micz Flor
1:02:59–1:03:02
Aber Calvin sagt nicht jetzt Flo, er legt sich schlafen.
1:03:03–1:03:08
Und am nächsten Morgen wacht er auf. Und um halb schlafen ist noch nicht ganz klar, was da los ist.
1:03:08–1:03:13
Aber er sieht dann seine, also Harry spreche ich es jetzt aus,
1:03:13–1:03:17
H-A-R-E-Y wird sie geschrieben in der deutschen Übersetzung.
1:03:17–1:03:18
Ich weiß nicht, wie es...
Florian Clauß
1:03:18–1:03:22
Harvey. Harvey. Harry. Es gibt so verschiedene... Es gibt natürlich,
1:03:22–1:03:28
je nach Übersetzung und nach Film, das macht ja der Soderbergh bewusst,
1:03:28–1:03:31
dass er da bestimmte Verdrehungen in den Buchstabenketten macht.
Micz Flor
1:03:31–1:03:33
Also wir können es Harry nennen.
Florian Clauß
1:03:33–1:03:37
Harvey. Harry? Nee, Harry. Da hat man so ein komisches Bild an dem Kopf.
Micz Flor
1:03:38–1:03:42
Hooray. Darf ich Harry sagen? Oder wie möchtest du sie nennen?
Florian Clauß
1:03:42–1:03:44
Ne, Harvey habe ich.
Micz Flor
1:03:44–1:03:44
Harvey? Ne, ohne V.
Florian Clauß
1:03:45–1:03:46
Ich habe ein V in meiner Übersetzung.
Micz Flor
1:03:47–1:03:51
Gut, dann nenne ich es jetzt Harvey. Das kann ich ganz gut aussprechen,
1:03:51–1:03:53
aber ich glaube, das ist nicht, wie es sein sollte.
1:03:54–1:03:57
Gut, also auf jeden Fall ist Harvey da.
1:03:57–1:04:02
Das ist eine Situation, wo er zuerst denkt, er träumt noch und dann sich irgendwie
1:04:02–1:04:05
auch mit dem Messer schneidet, das Blut läuft, er wacht nicht auf.
1:04:05–1:04:09
Er beschreibt dann auch später, wie er längst nicht mehr daran glaubt,
1:04:09–1:04:13
es sei ein Traum und trotzdem noch irgendwie versucht, glauben zu dürfen, es sei ein Traum.
1:04:13–1:04:16
Und er immer mehr halt eben in diesem Horror landet. Was ist denn da los?
1:04:17–1:04:22
Es ist dann auch diese Szene, die in Tarkovskys Film auch nochmal vorkommt,
1:04:23–1:04:29
dass dieses Erschaffene, also dieses Künstliche, was ja sowieso schon die logische
1:04:29–1:04:31
Herleitung ist, dann nochmal unterstrichen wird von der Tatsache,
1:04:31–1:04:35
dass sie ein Kleid anhat und dieses Kleid kann man gar nicht öffnen.
1:04:35–1:04:40
Also das wurde quasi um sie drum geschlossen. Das muss man aufschneiden.
Florian Clauß
1:04:40–1:04:42
Ja, das ist toll. Die Szene ist so großartig.
Micz Flor
1:04:43–1:04:47
Dass diese Person natürlich auch total vertraut ist.
1:04:47–1:04:50
Das ist ja wieder Freuds Idee von dem Unheimlichen. Sie ist heimelig,
1:04:50–1:04:53
das ist seine Ex. Sie ist zwar verstörend, aber gleichzeitig auch anziehend.
1:04:54–1:04:57
Später möchte er ja mit der Frau auch gemeinsam zur Erde fliegen,
1:04:57–1:05:00
wie wir später erfahren, und den Rest seines Lebens mit ihr verbringen.
1:05:01–1:05:06
Aber sie wird dann deutlich unheimlich in dem Moment, als er das Zimmer verlassen möchte.
1:05:07–1:05:09
Die Szene ist bei Tarkovsky, finde ich, auch gut dargestellt.
1:05:09–1:05:14
Und sie dann einfach das nicht aushalten kann, von ihm getrennt zu sein.
1:05:16–1:05:20
Und unglaubliche Kräfte entwickelt, um die Tür auszuhebeln, Tür rauszureißen.
1:05:20–1:05:23
Und dann auch gleichzeitig im Film, zumindest im Buch, weiß nicht,
1:05:23–1:05:27
gezeigt wird, dass sie auch dann sofort wieder heilt, wo sie von diesem Kraftakt
1:05:27–1:05:29
eben auch Verletzungen nach sich zieht.
1:05:29–1:05:35
Und dann wird sie halt eben sehr unheimlich, so horrormäßig und er möchte sich ihr entledigen.
Florian Clauß
1:05:35–1:05:42
Aber dieses mit der Tür, das kommt dann nicht bei der ersten HW vor,
1:05:42–1:05:43
sondern das ist bei der zweiten.
1:05:45–1:05:54
Bei der ersten ist es so, dass er sich wirklich da in das Raumschiff einsperrt und das wackelt.
Micz Flor
1:05:54–1:05:54
Ja, genau.
Florian Clauß
1:05:55–1:05:58
Und er weiß nicht, und dann, wenn das zweite Mal sie auftaucht,
1:05:58–1:06:01
das ist auch der Moment, wo er sie anfängt so ein bisschen zu akzeptieren.
1:06:02–1:06:05
Also mit der Tür, wo sie die Tür quasi einreißt.
Micz Flor
1:06:06–1:06:11
Ja, okay. Also gut, das habe ich jetzt durcheinandergebracht in meiner Erinnerung.
1:06:11–1:06:18
Dann ist es so, dass er sie dann wohin begleitet und sie dann einlädt,
1:06:18–1:06:19
in so eine kleine Kapsel zu gehen.
1:06:19–1:06:23
Dann schließt er diese Kapsel und dann merkt man schon die brutale Kraft von,
1:06:23–1:06:25
von diesem Gast oder dieser Gästin.
1:06:26–1:06:29
Und er schießt dann diese Kapsel in eine Planetumlaufbahn,
1:06:30–1:06:33
Also er bringt sie nicht um, aber er parkt sie gewissermaßen.
Florian Clauß
1:06:33–1:06:39
Ja, und es kommt dann zum späteren Zeitpunkt nochmal so als Beweis dafür, was passiert mit denen.
1:06:39–1:06:43
Dann schlägt ihm Snout, glaube ich, vor oder ich weiß nicht, ob es der Taurus ist.
1:06:43–1:06:46
Schau doch mal in die Kapsel, hol die doch mal wieder ran und schau doch mal
1:06:46–1:06:48
nach, wer ist denn da jetzt drin.
Micz Flor
1:06:48–1:06:52
Genau, ja. Ja, und das ist nämlich der Punkt, dass Snout auch,
1:06:52–1:06:57
und das ist ganz spannend, finde ich, vom Erzählen her, Weil Snout ist am Anfang
1:06:57–1:07:00
für uns auch nicht greifbar, aber immer mehr merken wir, dass Snout eigentlich
1:07:00–1:07:04
alles schon weiß und dann immer sozusagen Calvin das nochmal machen lässt.
1:07:04–1:07:08
Und Snout lernen wir nämlich kennen, dass er starke Verbrennungen im Gesicht und sowas hat.
1:07:09–1:07:12
Und jetzt ist es so, dass Calvin, also unser Held, mit dem wir die Geschichte
1:07:12–1:07:16
erlernen, der schießt diese Kapsel ab und das macht er alles so schnell,
1:07:16–1:07:18
dass er auch sich da verbrennt.
1:07:18–1:07:21
Und er hat dann auch so, er pult sich so ein bisschen Haut im Gesicht ab und
1:07:21–1:07:23
dann sieht er Snout wieder und dann checkt er in dem Moment ein bisschen wie
1:07:23–1:07:27
bei der einen Folge von Sterntagebüchern, wo er immer den Montag,
1:07:27–1:07:29
Dienstag, Mittwoch, wo er sich immer wieder begegnet.
1:07:29–1:07:31
Und dann auf einmal hat er ein blaues Auge und dann weiß er,
1:07:31–1:07:35
okay, bevor morgen vier Uhr ist, habe ich ein blaues Auge, ich weiß bloß noch nicht, warum.
1:07:35–1:07:41
So, und da ist es dann so, dass er dann versteht, dass Snout genau das Gleiche
1:07:41–1:07:47
auch hatte und Snout ihm das dann auch sagt, so, ah, okay, du hast nicht diese Geschichte.
Florian Clauß
1:07:47–1:07:50
Die Geschichte, die du gerade erwähnt hast zum Sidekick, das ist ja im Prinzip
1:07:50–1:07:54
Memento, auch die Idee von Memento, dass er sich selber begegnet.
Micz Flor
1:07:54–1:08:01
Am nächsten Morgen ist Harvey, wie sie jetzt heißt, wieder da und er nimmt sie
1:08:01–1:08:04
dann mit und er nimmt ihr ein bisschen Blut ab und er checkt das dann irgendwie
1:08:04–1:08:07
und lernt dann relativ früh schon kennen in ihrer Struktur,
1:08:07–1:08:13
dass sie auf diesem unglaublich zukünftigen Mikroskop, was er da hat, dass sie,
1:08:14–1:08:19
und er ist schon durch die Blutzellen durch, er ist schon auf der Molekülebene,
1:08:19–1:08:23
er ist schon auf der Atomebene und sieht die Atome und sieht alles immer noch menschlich aus.
1:08:23–1:08:28
Aber dann hinter der Atomebene sieht er, dass sie eben aus Neutrinos oder irgendwas
1:08:28–1:08:30
Neutrino-ähnlichem gebastelt ist.
1:08:30–1:08:34
Das heißt, die Teilchen, die keine Ladung haben, die sich eben auch nicht abstoßen,
1:08:34–1:08:36
die man viel kleiner noch zusammenpacken kann.
1:08:37–1:08:41
Stichwort Neutrinostern, da weiß Flo mehr als ich. Aber auf jeden Fall sieht man...
Florian Clauß
1:08:46–1:08:49
Neutrinos entstehen halt, die sind halt, man sagt ja immer so,
1:08:49–1:08:55
die dunkle Materie, weil sie eben nicht wechselwirkt mit irgendwas, was wir kennen.
1:08:55–1:09:02
Aber es ist überall da. Also die entstehen halt in so Fusions, also durch die Sonne.
1:09:02–1:09:06
Die Sonne schießt eine unglaubliche Anzahl von Neutrinos.
1:09:06–1:09:09
Die laufen alle durch dich durch. aber dadurch, dass sie nicht reagieren,
1:09:09–1:09:11
keine Wechselwirkung haben.
1:09:11–1:09:16
Es gibt diese Neutrino-Detektoren, teilweise gibt es so ein Feld,
1:09:16–1:09:19
das ist dann wirklich so ein Eis-Cube.
1:09:19–1:09:27
Das heißt, die haben in der Arktis so Eisfelder, die dann über Kilometer gehen,
1:09:27–1:09:30
haben die halt mit Lichtdetektoren, die dann halt irgendwie so ein Kilometer,
1:09:30–1:09:31
mal ein Kilometer, mal ein Kilometer.
1:09:32–1:09:37
Und dann gibt es eine bestimmte Neutrino-Art, die, das ist halt so das Abgefahrene,
1:09:37–1:09:40
Das heißt, die wechselwirken, wenn die durch die ganze Erde geflossen sind.
1:09:40–1:09:46
Also das heißt, die Erde ist quasi das Schild, aber das sind jetzt nicht die
1:09:46–1:09:49
normalen Neutrinos, die von der Sonne kommen, sondern die kommen halt von ganz
1:09:49–1:09:51
woanders her, die halt noch einen anderen Spin haben.
1:09:51–1:09:56
Das heißt, die Erde ist quasi so der Bleimantel, dass sie überhaupt da hinten
1:09:56–1:10:00
beim Detektor was anschlagen kann und dafür werden drei im Jahr entdeckt.
1:10:01–1:10:06
Aber es ist trotzdem die größte Masse im Universum, bilden quasi Neutrinos.
1:10:07–1:10:13
Das ist verrückt. Und an dem Punkt ist halt auch die Frage, wann kam dieses
1:10:13–1:10:15
Neutrino-Konzept in der Physik auf?
1:10:15–1:10:20
Das muss auch, glaube ich, ich weiß gar nicht, ob das jetzt wirklich so eine
1:10:20–1:10:25
hohe Idee war, die dann auch gar nicht so physikalisch dann durchdacht war,
1:10:25–1:10:29
oder ob das schon quasi so ein berechnetes Teilchen war,
1:10:29–1:10:33
wo es dann halt schon so in der normalen Physik angenommen wurde, dass es die gibt.
1:10:34–1:10:37
Und das würde mich halt interessieren, ob das jetzt, wie das,
1:10:37–1:10:39
aber das habe ich nicht nochmal nachgeguckt.
Micz Flor
1:10:39–1:10:43
Na gut, ich meine, es wird schon gegeben haben, oder meinst du,
1:10:43–1:10:44
die haben es nach seinem Buch benannt?
Florian Clauß
1:10:45–1:10:49
Nein, das natürlich nicht, aber ob das jetzt quasi so in einem Standardmodell
1:10:49–1:10:51
der Physik schon so akzeptiert war, das meine ich.
1:10:52–1:10:56
Oder ob das jetzt noch so eine Idee war, die noch gar nicht in das Standardmodell mit reingeflossen ist.
Micz Flor
1:10:57–1:11:02
Wenn ich jetzt einfach nur raten müsste, aufgrund meines kulturellen Hintergrundes,
1:11:02–1:11:06
mit dem ich Solaris beackert habe, würde ich sagen, dass es auf Higgs zurückgeht.
1:11:06–1:11:10
Weil in der Soderbergh-Verfilmung sprechen die von einem Higgs-Feld.
Florian Clauß
1:11:10–1:11:16
Ja, genau. Das Higgs-Teilchen wurde erst später nachgewiesen.
Micz Flor
1:11:16–1:11:20
Aber das war ja schon lange in der theoretischen.
Florian Clauß
1:11:20–1:11:23
Sicht so mitbedacht.
Micz Flor
1:11:23–1:11:26
Aber warum ist das für uns jetzt hier erschütternd wichtig?
1:11:26–1:11:32
Weil es heißt, dass diese hergestellten Künstlichen sind fast identisch mit
1:11:32–1:11:36
uns, beziehungsweise sind quasi identisch, wenn man nicht durch die Atome durchguckt
1:11:36–1:11:38
und dann merkt, und das muss man sich mal vorstellen,
1:11:38–1:11:43
dass auf einer noch viel größeren Skala, auch wenn es kleiner ist natürlich,
1:11:43–1:11:46
diese Gäste gebaut werden.
1:11:46–1:11:52
Also wenn man so kleine Bausteine hat, wie feinteilig kann dieser Ozean,
1:11:52–1:11:57
von dem wir ausgehen, dass der die gebaut hat, überhaupt erschaffen und so schnell und so akkurat.
Florian Clauß
1:11:57–1:12:00
Also was ich hier nochmal so unglaublich wieder als Konzept,
1:12:00–1:12:05
als Idee von LEM finde, ist dieses Prinzip des Reverse-Engineerings.
1:12:05–1:12:10
Also das heißt, diese Information, und zwar auf dieser ganz stofflichen,
1:12:10–1:12:15
kleinsten stofflichen Ebene, muss ja dieser Ozean irgendwo rausgelesen haben,
1:12:15–1:12:18
um überhaupt diese Ebene dahinter zu bauen.
1:12:18–1:12:26
Ja, also die Gäste, die funktionieren ja auf einer physikalischen Ebene,
1:12:26–1:12:28
also die verhalten sich ja mehr oder weniger normal,
1:12:28–1:12:33
das heißt, sie können dann irgendwann schlafen, sie können dann halt auch essen
1:12:33–1:12:37
und trinken, wenn nicht so viel, ja, aber das heißt, sie funktionieren ja auf
1:12:37–1:12:40
so einer physikalischen, körperlichen Ebene, funktionieren die ja normal.
1:12:42–1:12:48
Aber was ist das denn für eine Kraft, diese ganzen Mechanismen da so rauszulesen?
1:12:48–1:12:51
Ich finde das halt so geil, diese Vorstellung, weißt du was?
1:12:51–1:12:54
Ich meine, das ist eine klassische Reverse-Engineering-Methode.
1:12:54–1:12:58
Du hast irgendwas und legst eine Layer drauf, die kleiner ist,
1:12:58–1:13:02
und kannst darüber halt die Funktion der Größeren nachbilden,
1:13:02–1:13:05
abbilden, indem du nur guckst, was raus und rein kommt.
1:13:05–1:13:10
Und damit schaffst du ein Modell, was halt auf dieser Ebene dann funktionieren kann.
Micz Flor
1:13:11–1:13:14
Ja, ich weiß nicht mehr als Beispiel dazu nochmal, ich weiß nicht mehr in welchem
1:13:14–1:13:16
Buch das war, aber wahrscheinlich gibt es es mehr als einmal.
1:13:17–1:13:19
Diese Nanotechnologie Diskussion, die es ja auch mal so gab,
1:13:20–1:13:23
wo dann irgendwie so Architektur, also Städte wurden so gebaut,
1:13:23–1:13:28
dass man quasi einfach kübelweise so Nanopartikel ausgeschüttet hat,
1:13:28–1:13:33
die das Haus als Bild vor sich hatten und dann einfach da hochgeklettert sind,
1:13:33–1:13:36
bis sie an einem Punkt waren, wo sie nicht weiter kamen, da sind sie einfach geblieben.
1:13:36–1:13:40
Und so haben die Nanopartikel dann eben komplexe Häuser geschaffen in diesem Buch.
1:13:40–1:13:44
Und das ist eine ähnliche Idee, weil diese Nanopartikel so klein sind,
1:13:44–1:13:47
dass man dann, wenn man auf den ersten Blick drauf guckt, sich sogar vorstellen
1:13:47–1:13:49
kann, dass man ein Ziegelhaus sieht.
1:13:49–1:13:52
Also das aber erst, wenn man rein sucht, man sieht, ach nee,
1:13:52–1:13:53
das ist ja Nanotechnologie.
1:13:53–1:13:57
Und die Ziegel und die Fugen und all das und diese Kratzer hier,
1:13:57–1:14:04
das ist alles aus dem Masterplan entstanden für dieses Haus und nicht durch die Zeit von außen.
Florian Clauß
1:14:04–1:14:07
Aber es sind ja keine potenckischen Dörfer, ne?
1:14:10–1:14:14
Eine Simulation von etwas, was keine Funktion hat, sondern die funktionieren ja.
1:14:15–1:14:20
Also sie funktionieren zwar nicht ganz sauber oder sind overengineert,
1:14:20–1:14:24
das heißt, die können sich generieren in unglaublich kurzer Zeit.
1:14:24–1:14:29
Das heißt, es ist eine andere Kraft da. Okay, also das heißt,
1:14:29–1:14:30
es ist etwas komplett anderes.
Micz Flor
1:14:30–1:14:34
Und gleichzeitig entsteht natürlich das Schauerliche darin, dass es Maschinen
1:14:34–1:14:39
sind. Das sind ja dann so Stepford Wives mäßig. Also diese Horrorfilme,
1:14:39–1:14:41
die ganzen Frauen wurden ersetzt durch Roboter.
1:14:41–1:14:44
Und ähnlich ist es da auch. Also auf der Fassade funktioniert es.
1:14:44–1:14:49
Es ist uns sogar irgendwie vertraut, es spricht mit uns, hat die gleiche Stimme,
1:14:49–1:14:50
hat auch gleiche Themen.
1:14:50–1:14:55
Man kann sich damit innerlich auch verbinden und trotzdem sind es Maschinen
1:14:55–1:14:56
und das macht es natürlich dann so.
Florian Clauß
1:14:56–1:15:01
Aber würdest du die wirklich als Maschinen dann definieren?
Micz Flor
1:15:02–1:15:07
Also, das ist jetzt, die Sartorius, ja, ne, Snout irgendwie auch,
1:15:07–1:15:09
die wollen das ja loswerden. Ja.
1:15:09–1:15:13
Und dann ist es natürlich ein Selbstschutz zu sagen, es ist nur eine Maschine,
1:15:13–1:15:16
so wie das Tier ja nur ein Tier ist und kein Mensch, deshalb darf man es essen.
1:15:16–1:15:23
Es ist zumindest etwas, was über Nacht hergestellt wurde und nicht ganz unfehlbar
1:15:23–1:15:27
ist, weil scheinbar ja Solaris, sollte Solaris die hergestellt haben,
1:15:27–1:15:28
das wird ja auch nicht wirklich erklärt,
1:15:30–1:15:33
kein Konzept von einem Reißverschluss hat oder von einem Kleid.
1:15:35–1:15:40
Sodass natürlich erst in dem Moment, dieses Kleid wurde scheinbar nicht entdeckt in Calvin.
1:15:41–1:15:43
Die Person hatte aber, der Reißverschluss wurde nicht entdeckt,
1:15:44–1:15:44
das Kleid wurde aber geschaffen.
1:15:45–1:15:48
Und erst als Calvin den Reißverschluss aufmachen möchte, ich weiß jetzt gar
1:15:48–1:15:51
nicht mehr, es geht da nicht um Sexualität, oder mit dem Reißverschluss?
Florian Clauß
1:15:51–1:15:54
Also ich habe mich auch gefragt, nee, sie muss dann, sie will duschen,
1:15:54–1:15:55
will das Kleid ausmachen.
1:15:55–1:16:01
Aber die Frage ist natürlich, das wird, glaube ich, in dem Soderbergh-Film dann
1:16:01–1:16:03
am ehesten beantwortet, ob die einen Sex haben.
Micz Flor
1:16:03–1:16:06
Ja, bei Soderbergh gibt es ja diese eine Traumsequenz als Rückblende auf die
1:16:06–1:16:09
Erde, wo er von ihr träumt und dann wacht er auf und dann haben die auch Sex
1:16:09–1:16:14
im Raumschiff und dann schneiden sich so diese beiden Farbschemata ineinander,
1:16:14–1:16:16
die Vergangenheit der Erde, die Gegenwart der Station.
Florian Clauß
1:16:16–1:16:20
Aber da kommen wir ja nochmal später zu. Das heißt, aber ich habe auch,
1:16:20–1:16:27
also es ist so ein bisschen so beschrieben, dass durchaus da bei der Romanvorlage,
1:16:27–1:16:30
dass es dass es zu sexuellen Handlungen kommt.
1:16:30–1:16:34
Gerade im Ersten, als er dann noch nicht so richtig realisieren kann,
1:16:34–1:16:39
dass es sich um einen Traum handelt oder nicht um einen Traum.
Micz Flor
1:16:39–1:16:42
So, auf jeden Fall ist dann da ein Schnitt,
1:16:45–1:16:48
nachdem quasi klar ist, dass jeder da irgendwie so einen Gast hat.
1:16:49–1:16:53
Also das ist so, dass man die im Buch gar nicht wirklich beschreibt.
1:16:53–1:16:56
Oder Claire Znaut nennt das einmal, glaube ich. Aber ich habe es vergessen, ob es so oder weiss.
Florian Clauß
1:16:56–1:16:58
Ich wollte nur mal ganz kurz einhaken
1:16:58–1:17:03
bei dem Punkt, weil ich mich bei dem Begriff Maschine gestört habe.
1:17:03–1:17:10
Ich glaube, man müsste dann eher so die Schere aufmachen zwischen künstlich und natürlich.
1:17:10–1:17:14
Weil ich glaube, Maschine klingt so nach Steampunk.
1:17:14–1:17:20
Aber es ist ja quasi was künstlich Erschaffenes, was quasi nicht von dieser Welt sein kann.
1:17:21–1:17:23
Ich würde es, glaube ich, eher so aufschneiden.
Micz Flor
1:17:23–1:17:29
Ja, aber das verdreht ja nur, weil was wir Menschen am Handy gemacht haben,
1:17:29–1:17:31
das ist künstlich, zum Beispiel, meinst du?
Florian Clauß
1:17:32–1:17:37
Ja, es ist was quasi künstlich Erschaffenes, also dieser Diskurs zwischen künstlich und natürlichem.
1:17:37–1:17:43
Der Mensch, der quasi so der Natur entspringt, während was künstlich ist,
1:17:43–1:17:47
was dann halt aus einem kulturellen Raum dann gebaut werden kann.
Micz Flor
1:17:47–1:17:51
Ja, aber das ist ja dann auch wieder ein Argument des Humanismus sozusagen,
1:17:52–1:17:53
diese Andersartigkeit des Menschen.
1:17:54–1:17:58
Weil ja, es stimmt, aber wir sind ja natürlich, also ist das ja verlängert auch
1:17:58–1:18:02
natürlich, wo macht man da den Schnitt?
Florian Clauß
1:18:02–1:18:02
Die Projektion dann.
Micz Flor
1:18:03–1:18:05
Ja, ist das Schneckenhaus natürlich?
Florian Clauß
1:18:06–1:18:08
Ja, klar.
Micz Flor
1:18:08–1:18:09
Und das Handy nicht?
Florian Clauß
1:18:09–1:18:15
Ja, nee, weil das ja aus einem kulturellen Zivilisationsprozess dann erstmal so entstehen kann.
Micz Flor
1:18:17–1:18:17
Okay.
Florian Clauß
1:18:17–1:18:22
Das Schneckenhaus kommt ja quasi aus dem Genpool, würde ich sagen.
Micz Flor
1:18:23–1:18:26
Machen wir mal eine Folge zu, weil ich finde es total spannend, was ist natürlich.
Florian Clauß
1:18:27–1:18:29
Nein, aber das ist jetzt einfach nur so.
Micz Flor
1:18:29–1:18:35
Also dann nehme ich deinen Vorschlag an und wir unterscheiden die Kelvin, Snout und Sartorius.
1:18:35–1:18:41
Das sind natürliche Maschinen und die anderen sind künstliche Maschinen. Ist das besser?
Florian Clauß
1:18:41–1:18:43
Du willst Maschinen, ja. Okay, bleib dabei.
Micz Flor
1:18:44–1:18:49
Menschin, wir nennen sie Menschin, okay? Es sind natürliche Gäste und künstliche Gäste.
1:18:50–1:18:55
Wir sind alle nur Gäste in diesem Universum. Okay, also jeder hat seinen Gast.
1:18:55–1:19:00
Und dann geht es jetzt nämlich zum ersten Mal eben in diese wissenschaftliche Bibliothek.
1:19:00–1:19:04
Weil bis dahin geht die Geschichte wirklich so, wir sind bei Calvin,
1:19:05–1:19:06
wir erschließen uns das.
1:19:06–1:19:10
Und jetzt ist dann so ein Schnitt, wir nehmen Pause auch. Und da geht es in,
1:19:10–1:19:18
ich möchte fast sagen, unfassbar komplex, völlig frei erfundene Wissenschaftsdialoge der letzten 100 Jahre.
1:19:19–1:19:23
Da werden Gruppierungen benannt, die sagen, nein, diese Planetenprojektur...
Florian Clauß
1:19:23–1:19:25
Also wir sind jetzt bei der Solaristik, ne?
Micz Flor
1:19:25–1:19:29
Solaristik heißt es, ja. Und Solaristen, es gibt keine Innen,
1:19:29–1:19:31
es gibt nur Solaristen und Solaristik.
1:19:31–1:19:34
Die Solaristen sind die, die sich damit beschäftigen.
1:19:35–1:19:38
Und es gab dann immer wieder so Höhen und Tiefen.
1:19:38–1:19:40
Also er beschreibt dann wirklich einfach
1:19:40–1:19:44
so an diesem Beispiel so einen Wissenschaftsablauf, nehme ich mal an.
1:19:44–1:19:48
Dass es so ein Trending-Topic ist und dann ist irgendwie scheinbar kein Geld
1:19:48–1:19:51
mehr da und dann geht es mal wieder ein bisschen runter, dann passiert irgendwas.
Florian Clauß
1:19:51–1:19:54
Also man kriegt auch die Geschichte der Station mit, dass dann viel mehr,
1:19:55–1:20:01
also Kapazität von 80 Wissenschaftler, die Stationen waren auch wohl da.
1:20:01–1:20:04
Und jetzt ist die halt so ein bisschen so, das ist diese Verwahrlose,
1:20:04–1:20:06
also dieser ganze Zyklus.
Micz Flor
1:20:06–1:20:08
Es ist halt echt lustig, dass wir hier in Herzberge so rumdaddeln,
1:20:09–1:20:12
weil wir sind wirklich auf der Solaris-Station gerade.
1:20:12–1:20:16
Also hier ist alles so schön und man kann sich mal vorstellen...
Florian Clauß
1:20:17–1:20:18
Ja, wir sind auf dem Friedhof.
Micz Flor
1:20:18–1:20:19
Wir sind auch auf dem Friedhof, ja.
Florian Clauß
1:20:19–1:20:21
Wir sind nur auf dem Friedhof.
Micz Flor
1:20:21–1:20:21
Niemand anders.
Florian Clauß
1:20:21–1:20:23
Wir laufen die ganze Zeit nur kurz auf dem Friedhof.
Micz Flor
1:20:24–1:20:25
Wollen wir mal wieder runtergehen?
Florian Clauß
1:20:25–1:20:27
Ja, wir gehen jetzt hier nochmal raus zu Herzberge und dann gehen wir jetzt
1:20:27–1:20:30
nochmal auf diese größere Wiese da hinten.
Micz Flor
1:20:30–1:20:33
Also Kapitelmarke Solaristik kommt jetzt. Das geht jetzt zurück.
1:20:33–1:20:38
Magst du da ein bisschen drüber erzählen? Weil ich muss sagen, mir war das fast zu viel.
1:20:38–1:20:43
Ich kann dazu nur sagen, die wichtigste Sache, die ich für mich da jetzt so
1:20:43–1:20:47
reingenommen habe für unsere Nacherzählung, ist dann in all diesen Dokumenten,
1:20:47–1:20:52
die Entwicklung über die Zeit, die Hypothesen, ist das jetzt nur ein mechanischer Planet,
1:20:52–1:20:55
korrigiert der das automatisch? Ist es Zufall?
1:20:56–1:20:59
Muss es intelligent sein oder nicht? Das sind alles so Fragen,
1:20:59–1:21:00
die werden da diskutiert.
Florian Clauß
1:21:00–1:21:06
Aber werden die da, hast du die da wiedergefunden? Das habe ich nämlich nicht
1:21:06–1:21:10
wiedergefunden, dass tatsächlich die Bahnberechnungen da untersucht werden.
1:21:12–1:21:14
Also die Bahnkorrekturen von dem Planeten.
Micz Flor
1:21:14–1:21:17
Doch, das ist die... Ja, genau, doch.
Florian Clauß
1:21:17–1:21:23
Das wird in der Solaristik als Thema untersucht. Weil ich habe das nur am Anfang quasi so...
Micz Flor
1:21:23–1:21:28
Da wurde nur gesagt, sehr schnell konnte man feststellen, dass die vorhergesehenen Bahnen...
Florian Clauß
1:21:28–1:21:32
Genau, aber das ist der Einstieg. Und dann wird aber nicht weiter von dieser
1:21:32–1:21:36
Bahnkorrekturen, wird in der Solaristik nicht weiter gesprochen.
1:21:36–1:21:41
Es kommt immer wieder, und da verstehe ich halt auch wirklich die Solaristik als Prinzip da nicht.
1:21:41–1:21:45
Nämlich wird ja immer wieder angezweifelt, dass dieser Planet Intelligenz hat,
1:21:45–1:21:50
dass der Ozean wirklich ein intelligentes Lebewesen ist oder eine intelligente
1:21:50–1:21:51
Form, wie auch immer ist.
1:21:52–1:22:00
Obwohl der Beweis dafür ist ja quasi diese Warnberechnung, die er machen kann,
1:22:00–1:22:04
um halt nicht aus diesem Drei-Körper-Problem rauszufliegen.
Micz Flor
1:22:04–1:22:09
Ja, und da ist ja eben das Argument, glaube ich, oder wäre das Gegenargument,
1:22:10–1:22:11
wäre dann zu sagen, dass,
1:22:11–1:22:19
so wie bei Wall-E, war das Pixar oder Disney, Wall-E, der macht immer Müll und
1:22:19–1:22:22
stapelt Müll und ist das einzige in Anführungszeichen Lebewesen,
1:22:22–1:22:23
aber ist natürlich ein Roboter.
1:22:23–1:22:29
Und das Argument da war wohl zu sagen, ja, dass es einen Planeten gibt,
1:22:29–1:22:33
der seine Umlaufbahn korrigiert, das kann ja sein, aber das heißt doch nicht,
1:22:33–1:22:35
dass da irgendwie Intelligenz auf dem Planeten sein muss.
1:22:35–1:22:38
Das kann doch irgendwie installiert sein, so ein bisschen wie die Artefakte
1:22:38–1:22:42
eben auch bei The Expanse vor Billionen Jahren hergestellt wurden von einer
1:22:42–1:22:47
längst vergessenen Zivilisation, alle tot und trotzdem reagieren die noch mit der Umwelt,
1:22:48–1:22:51
schalten sich ein, explodieren und so weiter. Das ist das Argument.
1:22:52–1:22:56
Dass der Planet das kann, heißt nicht, dass da drauf intelligent sein muss.
1:22:56–1:23:02
Das kann einfach auch nur ein sehr komplexes System sein, was einfach sich über
1:23:02–1:23:05
die Sonne mit Energie versorgt und einfach immer noch läuft.
1:23:06–1:23:10
Das war, glaube ich, dann eben die Frage. Aber in dieser Wissenschaftsbibliothek
1:23:10–1:23:16
gibt es dann eben diese Dokumente von Burton oder Bertrand oder ich weiß nicht,
1:23:16–1:23:16
wie würde ich das denn aussprechen?
Florian Clauß
1:23:17–1:23:19
Also der wird nicht Breton, sondern Berton.
Micz Flor
1:23:22–1:23:26
Berton, das war ein Pilot. Die fliegen so mit Hubschrauber ähnlichen Dingen
1:23:26–1:23:27
dann immer wieder auf dem Planeten.
1:23:28–1:23:31
Es wird da auch beschrieben in der ersten Begegnung. Das finde ich schon auch toll.
1:23:32–1:23:37
Wird versucht, alles, was dieser Ozean auch tut, weil der kann riesige,
1:23:37–1:23:42
kilometerhohe Säulen hochschießen, die dann fest werden und die sich bauen und Plateaus.
1:23:42–1:23:47
Und dann gibt es, der versucht das zu kartografieren, da gibt es Symmetriaden,
1:23:47–1:23:50
die Asymmetriaden, die Mimodeiden und so.
1:23:50–1:23:54
Also wird halt versucht, alles, was da so hergestellt wird, zu benennen.
Florian Clauß
1:23:56–1:23:58
Also vielleicht, weil du dir jetzt gerade so eingeworfen hast,
1:23:58–1:24:02
die Begriffe. Also das heißt, der Planet ist ähnlich wie so ein Tintenfisch,
1:24:02–1:24:07
der über so das Korallenriff gleitet, der dann irgendwelche Ausformungen an
1:24:07–1:24:08
seiner Haut annehmen kann.
1:24:09–1:24:15
Der Planet kann halt so gigantische Ausformungen, die sind unterteilt in verschiedenen Klassen.
1:24:15–1:24:18
Und das ist halt auch so ein ganz langer Zweig der Solaristik,
1:24:18–1:24:22
nämlich dass die halt diese Ausbuchtung dann katalogisieren.
1:24:22–1:24:28
Und die heißen Symmetriaden und Asymmetriaden. Die Asymmetriaden sind halt symmetrisch
1:24:28–1:24:30
und bilden halt so Riesenhallen.
1:24:30–1:24:35
Auch wird beschrieben von, hat nichts Menschliches, hat aber eine symmetrische,
1:24:35–1:24:36
ästhetische Form, wie auch immer.
1:24:37–1:24:44
Und die Asymmetriaden sind halt nur so Plops, die dann halt keiner Symmetrie oder sowas folgen.
Micz Flor
1:24:44–1:24:47
Und dann gibt es eben diese Memoiden, heißen die.
Florian Clauß
1:24:47–1:24:53
Memoiden, genau. Und das ist das, was das Ende von dem Buch auch dann so mit reinbringt.
1:24:53–1:24:58
Nämlich das Ende, das können wir jetzt vorwegnehmen, da sitzt eben,
1:24:58–1:25:02
da steht Chris Calvin, der sich entschieden hat, das hast du ja auch schon erzählt,
1:25:02–1:25:04
dass er dann doch auf der Station bleiben wird,
1:25:05–1:25:09
ist auf einen so und wird jetzt auch zum ersten Mal, kriegt er die Motivation
1:25:09–1:25:12
tatsächlich mal so rauszufahren und den Planeten zu besteigen,
1:25:12–1:25:17
also den Ozean und hat dann eine Manifestation, nämlich dieser Memoid.
1:25:17–1:25:21
Darauf setzt er sich und bleibt da und streckt seine Hand aus und beschreibt
1:25:21–1:25:23
dann ein Phänomen, was schon die ersten,
1:25:24–1:25:29
Solaristen beschrieben haben, nämlich, dass diese Welle, die dann sich um seine
1:25:29–1:25:36
Hand, so wellenförmige Bewegung des Randes von diesen Memoiden und dass es wie so Fühler sind,
1:25:36–1:25:40
die aber in dem Moment, wenn man seine Hand ausstreckt, diese Fühler sich so ganz,
1:25:41–1:25:44
fein drumherum bewegen, niemals in direkten Kontakt mit seiner Hand kommen.
1:25:45–1:25:51
Und dieses Phänomen, dieses Verhalten beschreibt er nochmal und referenziert nochmal.
1:25:51–1:25:55
Das sind so die ersten Beobachtungen, die gemacht wurden, als die ersten Solaristen
1:25:55–1:25:57
hier den Fuß auf den Planeten gesetzt haben.
1:25:58–1:26:03
Und das finde ich, das geht wieder so ganz zurück. Das heißt, alles ist wieder offen.
Micz Flor
1:26:03–1:26:07
Und das ist genau das, was wir da erleben. Ziemlich langwierig,
1:26:07–1:26:08
aber man muss es halt irgendwie lesen.
1:26:09–1:26:13
Nämlich, dass es dann teilweise seitenweise wird dann erklärt und dann kommt
1:26:13–1:26:18
von unten etwas raus, was sich oben in der Mitte teilt und dann schiebt sich
1:26:18–1:26:21
ja lertartig der Ozean zu den Seiten aus, wird dabei hart.
1:26:22–1:26:27
Die Rande bleiben schäumend, sind allerdings von den Wellen des Ozeans nicht betroffen.
1:26:27–1:26:32
Das Ganze wird dann zwischen 30 und 2 Kilometer groß. Also das muss man sich
1:26:32–1:26:34
wirklich reinziehen. Das geht ewig.
1:26:34–1:26:38
Es ist wirklich einfach reine Deskription, Vermessung.
1:26:38–1:26:43
Jetzt sind wir wieder hier bei die, wie hieß es nochmal, die Geometrie der Liebe
1:26:43–1:26:46
oder sowas, was du gemacht hattest. In der deutschen...
Florian Clauß
1:26:46–1:26:47
Theorema.
Micz Flor
1:26:47–1:26:50
Ja, genau. Nicht die Geometrie, die Mathematik der Liebe.
1:26:53–1:26:57
Und so ist, so fühlt sich das an, also der Versuch, dem Herr zu werden.
1:26:57–1:27:01
Ich bleibe jetzt bei Herr, nicht Frau. Herr zu werden, indem man das alles vermisst,
1:27:01–1:27:06
kartografiert und dann fast schon so Google-mäßig das in so einem Cloud-Prozess
1:27:06–1:27:08
hofft, irgendwie verstehen zu können.
Florian Clauß
1:27:08–1:27:13
Es sind auch verschiedene Lager, die sich da bilden, verschiedene Gruppen.
1:27:14–1:27:18
Und die dann halt auch gegeneinander argumentieren, bestimmte Verhaltensweisen
1:27:18–1:27:19
dann so und so interpretieren.
1:27:19–1:27:22
Also es ist wirklich so, ich glaube, wir brauchen auch nicht mehr weiter im
1:27:22–1:27:27
Detail darauf einzusteigen, nur dass es halt diese Wissenschaftsdiskursapparat
1:27:27–1:27:32
gibt, der sich da aufbaut und der dann halt in dieser Bibliothek von dem Raumschiff
1:27:32–1:27:34
auch so mitgeführt wird.
1:27:34–1:27:40
Das ist so das Wissen und auch so diese Faszination, die Chris Calvin erzählt ja immer,
1:27:40–1:27:48
dass Gibarian so sein Doktorvater oder sein Mentor ihn da in diese ganze Geschichte
1:27:48–1:27:53
von Solaris über die Wissenschaft dann so eingeführt hat.
Micz Flor
1:27:53–1:27:57
Als Psychologen, das ist nochmal wichtig, finde ich, weil es geht jetzt also
1:27:57–1:28:00
hier nicht um den Mensch, der in die Natur guckt,
1:28:00–1:28:07
sondern es geht um einen Mensch, der eben sich mit der Psyche des Wahrnehmens
1:28:07–1:28:08
und Beschreibens auch beschäftigt.
1:28:08–1:28:12
Also der wird zur Hilfe geholt, um dem allen irgendwie Sinn abzugewinnen.
1:28:13–1:28:16
Wichtig ist aber, dass wir den Berton nochmal kurz erklären.
1:28:16–1:28:20
Und zwar der erste Tote war ein gewisser Physiker Fechner. als die losgeflogen
1:28:20–1:28:24
sind, dann kam irgendwie Gewitter oder was weiß ich, wie man es nennen möchte.
1:28:24–1:28:28
Also das war dann so ein schleimiges Ding, auf jeden Fall ist einer abgestürzt.
1:28:28–1:28:32
Fechner ist in den Ozean gefallen, wurde auch nicht wiedergefunden.
1:28:32–1:28:39
Und Berton oder Burton ist dem hinterher geschickt worden oder hinterher geflogen, um ihn zu suchen.
1:28:39–1:28:43
Ist dann irgendwie abgekommen, er weiß nicht mehr warum. Es war alles so ein
1:28:43–1:28:45
bisschen schleimig, er hatte keine Sicht gehabt.
1:28:46–1:28:50
Und dann sieht er, ich weiß nicht in welcher Reihenfolge, er sieht aber zwei
1:28:50–1:28:52
Dinge. Ich glaube, als erstes sieht er Gärten.
1:28:53–1:28:58
Als erstes sieht er ein Abbild, aber eben aus diesem Material des Ozeans, alles in einer Farbe.
1:28:58–1:29:03
Aber sehr detailliert sieht er von oben einen Garten. Dann sieht er Städte.
1:29:03–1:29:10
Also der Ozean formt dann, wie wir vorhin schon beschrieben haben,
1:29:10–1:29:13
die Personen, die Gäste, geformt werden.
1:29:13–1:29:16
Wird aus dieser masse wird was geformt was
1:29:16–1:29:20
aber eben farblich dann immer gleich bleibt aber detailgetreu eine
1:29:20–1:29:23
nachbildung ist von skyscrapern und daneben
1:29:23–1:29:26
aber auch ein garten und später sieht er
1:29:26–1:29:30
dann noch vor sich ein mehrere meter groß ist und von
1:29:30–1:29:36
florian vorhin schon indirekt erwähntes baby oder kind und dieses kind türmt
1:29:36–1:29:39
sich vor ihm auf ist also er fliegt er relativ dicht am boden entlang oder an
1:29:39–1:29:43
der oberfläche und er sieht dass es höher ist als er kalkuliert das muss etwa
1:29:43–1:29:46
so zwischen drei und sechs Meter hoch sein oder so eine Art.
1:29:47–1:29:54
Und das hat ihn total erschüttert, weil es war einfach ein Kind in einer unglaublich
1:29:54–1:29:58
detailgetreuen Abbildung. Ein Kind, das er selber nicht kannte.
1:29:59–1:30:04
Aber dieses Kind hat seine Arme und Beine und alles irgendwie bewegt in einer
1:30:04–1:30:07
Art, als ob es lernen wollte, sich zu bewegen.
1:30:07–1:30:10
Also da haben wir auch wieder so einen Horrormoment. Das ist so ein klassisches
1:30:10–1:30:15
Klassording, wenn der Kopf sich um 180 Grad dreht oder der Arm nach hinten geht.
Florian Clauß
1:30:15–1:30:20
Ich glaube, es war dann auch so beschrieben, dass auf dem Gesicht die zwei Gesichtshälften
1:30:20–1:30:25
des Kindes ganz konträre Gefühle abgebildet haben.
1:30:26–1:30:31
Die eine Gesichtshälfte hat gelacht, die andere dann halt geschrien.
1:30:32–1:30:36
Und an was erinnert dich das? Ich glaube, wir haben beide den gleichen Gedanken dazu.
Micz Flor
1:30:37–1:30:37
Das ist Akira.
Florian Clauß
1:30:38–1:30:44
Akira? Nee, das jetzt nicht, sondern was bedeutet, also was hat das für eine Bedeutung quasi?
1:30:46–1:30:50
Also was passiert denn da ganz, also ganz, was diesen Film auch,
1:30:50–1:30:53
oder nee, diesen Stoff auch wieder so aktuell macht, ja?
Micz Flor
1:30:54–1:30:58
Ach so, das stimmt. Das ist natürlich für uns heute erst so eine Interpretation,
1:30:58–1:31:03
was ich mal als Witz rumgeschickt habe, wo Will Smith selber so ein Video gemacht
1:31:03–1:31:05
hat, Will Smith eating Spaghetti.
1:31:06–1:31:10
Also, weil, und schreibt dann auch dazu, it's crazy how far this has gone.
1:31:11–1:31:15
Also diese Idee, dass man jetzt mit künstlicher Intelligenz die Welt nochmal
1:31:15–1:31:19
nachbaut, Aber dann der Hund fünf Beine hat und dann doch wieder nur drei.
1:31:20–1:31:24
Oder dass eben bei Will Smith die Spaghetti zwar mit zusammengekniffen Augen
1:31:24–1:31:26
sieht es echt aus, aber wenn man genau hinguckt, merkt man, nee,
1:31:26–1:31:29
das ist nicht echt. Und da wird es genauso unheimlich.
Florian Clauß
1:31:29–1:31:36
Da wird so dieses Glitches, aber es ist ja tatsächlich noch irgendwie so in der Beschreibung hier,
1:31:36–1:31:43
also da gibt es keine sechs Zehen oder sechs Finger, sondern was da passiert,
1:31:43–1:31:45
so würde ich das interpretieren, dieser Ozean trainiert.
1:31:46–1:31:49
Es ist quasi ein Modell, was trainiert wird.
1:31:49–1:31:55
Es kriegt gerade Daten und es wird gefüttert von Daten und es fängt jetzt an zu trainieren.
1:31:56–1:31:59
Und das ist so, ich glaube, deswegen finde ich das so,
1:31:59–1:32:04
das will ich dann auch nochmal nachher ausführen in meiner Interpretation,
1:32:04–1:32:08
aber das ist so entscheidend für die heutige Sichtweise von dem Stoff,
1:32:08–1:32:12
weil du hast ja wirklich so ein Riesenmodell, quasi eine Planetenform,
1:32:12–1:32:15
was dann halt auch entsprechend trainiert werden kann.
Micz Flor
1:32:15–1:32:17
Die Antwort ist 42.
Florian Clauß
1:32:18–1:32:21
Die Antwort, die ist ja noch nicht da.
Micz Flor
1:32:21–1:32:23
Aber das ist ja dann auch schon ein Planet.
Florian Clauß
1:32:23–1:32:27
Genau, das stimmt. Das ist der Planet, der dann die Frage erst macht.
Micz Flor
1:32:28–1:32:31
Und da ist natürlich dann, wenn wir die Analogie aufgreifen und die Diskussion
1:32:31–1:32:35
der Solaristen oder in der Solaristik, dass manche vielleicht zu Recht sagen
1:32:35–1:32:38
können, es handelt sich um ein großes, semantisches Lernen,
1:32:39–1:32:43
bio organisch wie auch immer lernen entität
1:32:43–1:32:46
die das einfachste schon geschafft hat
1:32:46–1:32:49
nämlich in kurskorrektur bei wänden wächst bei
1:32:49–1:32:55
komplexen gravitationsfeldern und jetzt obendrauf auch noch alles lernen was
1:32:55–1:32:59
sie so begegnet das wäre deshalb muss die intelligenz nicht da sein sondern
1:32:59–1:33:03
wie du schon sagst vielleicht kann das einige schon und lernt jetzt noch mehr
1:33:03–1:33:07
aber das ist stimmt das ist auf alle fälle im bild was sie auch hatte dafür aber.
Florian Clauß
1:33:07–1:33:09
Vielleicht kann man hier nur mal einschieben, wenn wir davon ausgehen,
1:33:09–1:33:11
dass das jetzt irgendwie eine Form von,
1:33:12–1:33:17
Intelligenz, Lebewesen, organisch oder wie auch immer ist, ja, was ist das denn?
1:33:17–1:33:22
Also das finde ich so krass, dass Lem da ein Bild geworfen, entworfen hat,
1:33:22–1:33:28
was so diametral von irgendwie Leben, wie wir uns das hier auf der Erde entwickelt
1:33:28–1:33:30
hat und so weiter, wie wir uns das vorstellen,
1:33:30–1:33:34
hat er einfach so einen großen Ozean genommen und man weiß nicht,
1:33:34–1:33:41
ob das jetzt quasi so das nach außen gestülpte Gehirn ist, ob das jetzt wirklich so eine große Zelle ist,
1:33:41–1:33:46
ja, das Aber ob das jetzt irgendwie so ein Kommunikationsverband von Zellen ist?
Micz Flor
1:33:46–1:33:50
Das weiß man alles, dass es das nicht ist. Also das wissen sie alles,
1:33:50–1:33:51
dass es das nicht ist. Das ist ganz wichtig.
1:33:51–1:33:55
Die wissen, dass es nicht eine Zelle ist. Die wissen nicht, dass es eine verbandene
1:33:55–1:33:57
Struktur ist. Es hat keine Systematik dahinter.
Florian Clauß
1:33:57–1:34:02
Das hat die Solaristik schon alles herausgefunden. Aber trotzdem,
1:34:02–1:34:04
diese Idee von diesem...
1:34:05–1:34:08
Da geht Lem nochmal so drei Schritte weiter, wie ich vorhin meinte.
1:34:08–1:34:15
Er schafft eine außerirdische Intelligenz und hat aber gleichzeitig schon ein
1:34:15–1:34:18
Diskursapparat obendrauf gelegt, was es alles nicht ist.
1:34:19–1:34:24
Das heißt, damit kommt er erstmal in diesen Raum, wo er dann später überhaupt
1:34:24–1:34:28
diese ganzen philosophischen Fragen stellen kann.
Micz Flor
1:34:28–1:34:31
Und vor allen Dingen da auch die Frage natürlich sich auftut,
1:34:31–1:34:34
die dann aufgrund der eigenen,
1:34:34–1:34:39
das ist dann eben auch ein Zitat, was Lem Calvin in den Mund gelegt hat,
1:34:39–1:34:41
genau in dieser Szene, das lese ich nachher nochmal kurz vor,
1:34:41–1:34:48
in einer nicht so guten Übersetzung, und die Frage, wer erforscht hier eigentlich gerade wen?
1:34:49–1:34:54
Es ist halt so man bleibt immer dabei dass man die menschen erforschen den planeten
1:34:54–1:34:57
und dieser planet macht dann so aber wie du gerade schon gesagt hast du hast
1:34:57–1:35:01
gefühlt das system lernt probiert aus baut nachher guckt mal was könnte das
1:35:01–1:35:03
denn sein und macht es dann aber sogar,
1:35:04–1:35:08
interessanterweise mehr noch als der mensch in so einer körperlichkeit ich brauche
1:35:08–1:35:12
mal so eine stadt die haben alle so komische städte ich baue mal ich will mal
1:35:12–1:35:15
wissen wie sich das anfühlt also das Das könnte man jetzt einfach so darunter legen.
1:35:16–1:35:19
Und dieser Fechner, und das ist halt, wo Bertrand, das ist noch wichtig,
1:35:19–1:35:23
Bertrand sagt von einem Ausschuss aus, der auch eine wichtige Rolle spielt,
1:35:23–1:35:26
ziemlich am Anfang in dem Film, den du gleich besprechen wirst,
1:35:27–1:35:32
da sagt er schon ganz viel, alles, was ich gerade gesagt habe,
1:35:32–1:35:37
und sagt dann aber, er möchte jetzt nicht mehr sagen, bevor nicht von ihm jetzt,
1:35:37–1:35:43
vom Zentralrat oder auch immer gesagt wird, dass das was das das was er jetzt
1:35:43–1:35:47
sagt noch wissenschaft ist ja also aber ihm wird dann rückgemeldet nein er sei
1:35:47–1:35:53
wahnsinnig und dann entscheidet er sich nicht mehr zu sprechen möchte nicht noch mehr sagen und.
1:35:55–1:35:59
Hat dann aber einen Neurologen aus diesem Gremium, die das entschieden haben,
1:35:59–1:36:04
dass er wahnsinnig sei, der nimmt noch mit ihm Kontakt auf, die haben auch ein Gespräch.
1:36:04–1:36:09
Und dieses Gespräch ist auch dann später noch in einem Umschlag,
1:36:09–1:36:11
in einem Buch, in einem Heft.
1:36:12–1:36:16
Das ist eins dieser Dinge, wo dann eben wir erfahren von diesem Kind.
1:36:16–1:36:19
Ich glaube, das war nämlich im eigentlichen Bericht noch nicht drin.
1:36:20–1:36:25
Und dass sich da nämlich herausstellt auch, dass dieses Kind das Kind von Fechner
1:36:25–1:36:27
ist, was Bernd Thornton später auf der Erde sieht.
Florian Clauß
1:36:27–1:36:28
Genau, was er noch gar nicht kennen konnte.
Micz Flor
1:36:29–1:36:35
Genau, er hat empirisch die Situation, die Calvin künstlich versucht herzustellen,
1:36:35–1:36:36
indem er die Berechnung macht.
1:36:37–1:36:39
Also er weiß, dass ich es nicht weiß.
1:36:40–1:36:45
Dann erst erfahren wir, dass die über die Geschichte von Calvin und Harvey,
1:36:45–1:36:49
dass die sich das Leben genommen hat, dass er sich teilweise verantwortlich
1:36:49–1:36:54
fühlt, indem er da in einem Kühlschrank irgendwelche,
1:36:55–1:36:59
Spritzen hat liegen lassen von einem Forschungsprojekt und ihr nur gesagt hat,
1:36:59–1:37:00
die sind gefährlich, Finger weglassen.
1:37:01–1:37:03
Und sie hat sich damit das Leben genommen.
1:37:04–1:37:09
Und das ist etwas, woran sich,
1:37:10–1:37:14
Gast, eben Harvey als künstliche Menschine,
1:37:16–1:37:20
zu erinnern beginnt. Aber sie kriegt kein volles Gefühl.
1:37:21–1:37:25
Sie ist halt irgendwie, sie ist nicht diese Person, aber sie beginnt in ihrem
1:37:25–1:37:28
Bewusstsein, in ihrem Verständnis, auch das wird ein bisschen mit dem,
1:37:28–1:37:32
was du meintest, mit dem Lernen zu tun haben, dass sie versucht,
1:37:32–1:37:35
mehr herauszufinden, was in ihr ist.
1:37:35–1:37:41
Und das halt tut, indem sie in Kontakt ist mit diesem, fragt ihn ja auch die ganzen Sachen.
1:37:42–1:37:45
Er fragt zuerst sie, wie sind wir hergekommen? Sie meint so,
1:37:45–1:37:48
keine Ahnung, was sind deine Klamotten? Keine Ahnung, vielleicht in dem Schrank.
1:37:48–1:37:55
Und später fragt sie ihn und versucht, ihre Existenz und ihre Narrativ herauszufinden.
Florian Clauß
1:37:55–1:38:02
Ja, also es kommt aber zu einem Zeitpunkt, wo sie schon über ihre Herkunft dann aufgeklärt wurde.
1:38:02–1:38:07
Das heißt, ihr ist klar, dass sie dann nicht eben die Originale ist,
1:38:08–1:38:10
Sondern sie ist eine Kopie.
Micz Flor
1:38:10–1:38:13
Und weil sie kein Original ist, das ist ein wichtiger Punkt,
1:38:13–1:38:14
möchte sie sich umbringen.
1:38:15–1:38:19
Auf jeden Fall trinkt sie flüssigen Sauerstoff und Calvin findet sie dann auch scheinbar tot.
1:38:19–1:38:23
Aber sie kommt wieder zum Leben. Also sie kommt dann wieder zum Leben.
Florian Clauß
1:38:23–1:38:26
Es hat er ja schon gesagt, dass sie sich sehr schnell regenerieren kann.
Micz Flor
1:38:26–1:38:30
Genau, aber selbst diese komplette Zerstörung heilt dann wieder.
1:38:30–1:38:34
Und sie ist dann verzweifelt sogar, dass sie merkt, sie kann sich nicht umbringen.
1:38:34–1:38:37
Und sie hat ja interessanterweise dann auch menschliche Gedanken,
1:38:38–1:38:40
dass sie sich mit einem flüssigen Besorger umbringen könnte.
1:38:40–1:38:43
Also es ist ganz interessant, dass sie merkt, dass sie dann nochmal doppelt
1:38:43–1:38:45
merkt, ich gehöre ja nicht zu den Menschen.
Florian Clauß
1:38:46–1:38:50
Ja, aber es entwickelt sich so eine Beziehung zwischen den beiden dadurch.
1:38:51–1:38:57
Das heißt, es wird auch die Frage gestellt, dass sie, also von ihr selber die
1:38:57–1:39:04
Frage gestellt, dass sie dann aus den Erinnerungsstücken von Chris zusammengesetzt ist,
1:39:04–1:39:08
Und das heißt, sie ist ja niemals sie selbst gewesen. Das kann ja jetzt in dieser
1:39:08–1:39:09
Kopie nicht sich selbst sein.
1:39:10–1:39:17
Die nähern sich aber durch diese Distanzierung von der originalen Figur,
1:39:17–1:39:20
nähern die beiden sich dann wieder an und fangen dann quasi,
1:39:20–1:39:25
also es wird dann unterschiedlich in den einzelnen Filmen und in der Buchvorlage
1:39:25–1:39:29
ist es eher distanziert, aber sie beginnen sich neu zu verlieben irgendwie. wie.
1:39:29–1:39:34
So ein bisschen. Und es gibt auch tatsächlich dann von den beiden die Vorstellung
1:39:34–1:39:40
ausgesprochen, dass die von der Station dann auf die Erde verreisen möchten.
Micz Flor
1:39:40–1:39:44
Das ist so ein bisschen der Plan, den die haben. Und da ist es auch ganz interessant,
1:39:44–1:39:48
dass Calvin dann halt eben doch kein Hard Scientist ist, sondern ein Psychologe,
1:39:48–1:39:49
weil der denkt, ach, wir können ja vielleicht zur Erde fahren.
1:39:50–1:39:53
Muss dazu sagen, das ist so der engste Punkt von den beiden,
1:39:53–1:39:57
nachdem die da wieder raus kommt aus diesem flüssigen Sauerstoff-Tod.
1:39:58–1:40:02
Dann wollen die eben auf die Erde und dann ist alles große Liebe.
1:40:02–1:40:06
Aber danach beschreibt Calvin auch öfter, ja, wir sind halt hier zusammen,
1:40:06–1:40:08
sie blättert in einem Magazin und ich hänge hier rum.
Florian Clauß
1:40:08–1:40:11
Es kommt so diese ganz kühle Distanz.
Micz Flor
1:40:11–1:40:16
Ja, also ich hatte so ein Bild, so Südfrankreich, irgendwie so ein gemietetes
1:40:16–1:40:19
Haus, irgendwie in der Nähe vom Strand, da bin ich ganz am Schauen,
1:40:19–1:40:21
man hängt da so rum, weil man jetzt nach drei Wochen auch nicht mehr weiß.
Florian Clauß
1:40:21–1:40:24
Was man heute noch machen kann. Ja, ich hatte tatsächlich auch so ein Bild,
1:40:24–1:40:29
dann so ein bisschen so wie Antonioni oder so, wo dann halt die Liebe vergangen
1:40:29–1:40:34
ist, so La Notte, die Nacht, wo alles so Oberfläche ist und alle so ein bisschen gelangweilt sind.
1:40:35–1:40:38
Aber so richtig zusammen können die nicht mehr kommen.
1:40:39–1:40:43
Und so ein Bild baut sich da auf. Und ich glaube, das ist halt auch mal für
1:40:43–1:40:45
die ein Teil wichtig, dass die sich was vormachen.
1:40:45–1:40:49
Das sagt er dann aus der Perspektive von der Figur von Chris.
1:40:49–1:40:53
Der beschreibt das ja auch so, ja, wir sagen uns das, aber es ist klar,
1:40:53–1:40:55
dass wir das irgendwie nur...
Micz Flor
1:40:55–1:40:59
Und das weiß er aber erst, nachdem er Snout gesagt hat, ha, wir fliegen auf die Erde.
1:40:59–1:41:02
Also er kommt ja wirklich so auch wieder wie so ein Achtjähriger,
1:41:02–1:41:03
der was zu Weihnachten gemacht hat.
1:41:03–1:41:08
Und Snout sagt, okay, alles klar. Und du denkst wirklich, dass das geht?
1:41:08–1:41:11
Also bist du dir sicher, dass dieses Feld zusammengehalten werden kann,
1:41:11–1:41:14
dass dieser künstliche Menschuit halt nichts auseinanderfällt,
1:41:14–1:41:16
wenn die im Raum stehen? Wie stellst du dir das vor?
1:41:16–1:41:21
Und er selber dann auch später, danach ist er dann desillusioniert und sie reden nicht mehr drüber.
1:41:21–1:41:25
Aber er selber stellt sich dann auch nochmal vor, ja wie soll das denn gehen,
1:41:25–1:41:26
wenn wir an der Erde ankommen?
1:41:26–1:41:30
Ich meine, sie hat keinen Pass, also da kommen wir sowieso nicht rein.
Florian Clauß
1:41:30–1:41:36
Ja, aber es wird nicht, also es ist quasi wie so ein Traum, so eine Vision von
1:41:36–1:41:39
den beiden, das nicht weiter in Frage gestellt,
1:41:39–1:41:44
sondern beide brauchen das als Bild, um sich dann noch mit der Situation überhaupt
1:41:44–1:41:46
erträglich zurecht zu kommen.
1:41:47–1:41:50
Und ich meine, sie nimmt ja die Entscheidung dann für Chris,
1:41:50–1:41:54
indem sie dann zu Sartorius geht.
Micz Flor
1:41:54–1:41:58
Ja, also es ist dann so, es gibt Sartorius, Snout sagt, Sartorius will jetzt
1:41:58–1:42:00
was tun. Es gibt zwei Möglichkeiten.
1:42:00–1:42:05
Das eine ist, er möchte, das hatten sie nämlich vorher schon mit Gebarian irgendwie
1:42:05–1:42:07
angefangen, wollte er jetzt nochmal besser machen,
1:42:07–1:42:15
er möchte die Hirnströme von Kelvin aufzeichnen und mit harter Röntgenstrahlung,
1:42:15–1:42:18
Frequenz moduliert, eben auf dem Planeten strahlen,
1:42:18–1:42:22
weil das hatten sie vorher schon mal ein bisschen probiert und dann ging das
1:42:22–1:42:24
los mit den Gästen, so erinnere ich mich zumindest.
Florian Clauß
1:42:24–1:42:28
Die haben mit Röntgenstrahlen da, also die wollten dann irgendeine Reaktion
1:42:28–1:42:31
provozieren und dann sind die halt zu dem Schluss gekommen, ja,
1:42:32–1:42:34
wir machen jetzt irgendwie, wir wenden harte Strahlen an.
1:42:34–1:42:39
Ja, es ging ja auch so weit, dass einige Vertreter der Solaristik dann angefangen
1:42:39–1:42:44
haben, da einen Vorschlag zu machen, man könnte mal eine Atombombe draufwerfen und gucken.
Micz Flor
1:42:44–1:42:46
Was dann passiert. Und auch das, was Ghibarien da gemacht hat,
1:42:46–1:42:50
kann Calvin zuerst gar nicht glauben, weil es ist halt gegen die Bestimmung,
1:42:50–1:42:54
der Planet Erde würde doch sowas nie zu, das geht ja gar nicht.
Florian Clauß
1:42:54–1:42:58
Genau, aber es gibt zwei Sachen. Der Sartorius hat ja einmal diese Idee,
1:42:58–1:43:01
dass man dann eben diese modulierten Strahlen da drauf schickt,
1:43:01–1:43:07
um dann quasi so kodiert dem Ozean mitzuteilen, dass diese Gäste nicht erwünscht
1:43:07–1:43:09
sind auf der Station. Das ist die eigentliche Motivation.
1:43:09–1:43:14
Die andere Sache ist, dass er noch einen Anilator entwickelt hat.
1:43:15–1:43:19
Annihilator, der dann eben dieses Neutrino-Feld auflösen kann.
1:43:19–1:43:27
Also das heißt, man sieht die Gäste der anderen Besatzungsmitglieder nicht nur bedingt.
1:43:27–1:43:32
Also bei Snout kriegt man nie mit, was der da für ein Gast oder Gästin gibt.
Micz Flor
1:43:32–1:43:33
Ich glaube, er erwähnt das irgendwie.
Florian Clauß
1:43:35–1:43:36
Es wird nicht ausgesprochen.
Micz Flor
1:43:36–1:43:38
Bei mir gehen auch die Filme und...
Florian Clauß
1:43:38–1:43:41
Ja, ja, aber das ist wirklich, ich habe auch dann nochmal nachgelesen und bei
1:43:41–1:43:46
Sartorius ist es so, dass es tatsächlich, wenn das erste Mal Chris Kelvin dann
1:43:46–1:43:52
Sartorius trifft, muss der mit Kraft die ganze Zeit diese Tür halten im Hintergrund.
1:43:52–1:43:56
Und das ist auch dieser Horrormoment. Man merkt nur, dass und er sieht dann
1:43:56–1:43:58
halt nur, dass irgendwas Kleines da ist.
Micz Flor
1:43:58–1:44:02
Ja, was Kleines, aber eine große und das finde ich ganz wichtig.
1:44:02–1:44:07
Es ist eine, er sieht so auf Auf Hüfthöhe sieht er eine große,
1:44:07–1:44:10
runde, goldene Scheibe kurz hinter der Tür vorbei.
1:44:10–1:44:16
Und das finde ich total wichtig, weil es nicht wirklich klar ist, ob alle Menschen haben.
1:44:16–1:44:20
Die heißen zwar immer Gäste, aber es ist jetzt nicht so, dass wir wirklich wissen.
1:44:20–1:44:24
Also wir sehen die nicht. Und das ist leider, finde ich, in dem Film irgendwie nicht gut gelöst.
Florian Clauß
1:44:24–1:44:28
Ach so, okay. Das hatte ich zum Beispiel noch gar nicht so, dass es eine Scheibe war.
1:44:28–1:44:33
Okay, aber dass du daraus schließen kannst, dass es halt irgendwie kein Mensch mehr ist.
Micz Flor
1:44:33–1:44:38
Sie nennen das ja alle Gäste. Also es sind auf alle Fälle irgendeine Form von Lebewesen.
1:44:38–1:44:43
Aber ich finde es halt total wichtig, dass es da nochmal zusätzlich kodiert wird.
1:44:43–1:44:47
Es wird quasi nochmal verschlüsselt, nicht kodiert, aber es wird nochmal zusätzlich
1:44:47–1:44:50
verschlüsselt. Also wir kriegen mitgeteilt, was da hinter dem vorbei huscht.
1:44:50–1:44:56
Und nachdem Sartorius, wie gesagt, mit hoher, schriller Stimme sagte, gehen Sie, gehen Sie.
1:44:56–1:45:01
Und dann geht die Tür kurz auf und dann sieht er ganz kurz eben so eine goldene
1:45:01–1:45:02
Scheibe vorbeiflitzen.
1:45:03–1:45:08
Und das finde ich total gut, weil dann wir uns nicht damit verbinden können.
1:45:08–1:45:11
Es bleibt anders. Es bleibt was anderes.
Florian Clauß
1:45:12–1:45:17
Also so rein vom Verhalten und sowas wird bei Sartorius dann so eher nachgelegt,
1:45:17–1:45:22
dass es in Richtung von Kind geht, dass es irgendein Kind ist oder ein Zwerg
1:45:22–1:45:24
oder ein kleinwütiger Mensch.
Micz Flor
1:45:24–1:45:26
Ja, das ist auch wieder im Film bei Tarkovsky ist das,
1:45:27–1:45:32
Ein kleinwüchsiger Erwachsener, der halt da kurz rausrennt und den einfängt wieder reinzuziehen.
Florian Clauß
1:45:32–1:45:37
Auf jeden Fall wird es da nicht aufgelöst. Aber die anderen,
1:45:37–1:45:42
also sowohl Sartosis wie auch Snout, sind ja immer alleine.
1:45:43–1:45:46
Die kommen ja dann quasi nicht mit ihren Gästen.
Micz Flor
1:45:46–1:45:49
Und er bringt halt sozusagen seine Frau immer mit, das stimmt.
Florian Clauß
1:45:49–1:45:58
Und das, was jetzt auch nochmal zurück zu Harvey, was sie dann nochmal so erlernt, sie lernt ja dazu,
1:45:58–1:46:04
ist auch, dass sie sich dann länger von Chris trennen kann.
1:46:04–1:46:08
Und dass die auch wirklich eine körperliche, dass die auch eine physische Distanz
1:46:08–1:46:10
aufbauen kann. Weil vorher war das immer so, dass die immer um ihn herum.
1:46:11–1:46:14
Und sie ist auch so gut beschrieben, wie sie das dann aushält.
1:46:14–1:46:16
Wie sie dann halt irgendwie so, ich habe es geschafft.
1:46:17–1:46:20
Und unter welcher starken, starken Spannung sie steht.
1:46:20–1:46:23
Aber gleichzeitig sich selbst beweisen und ihn auch beweisen möchte,
1:46:23–1:46:27
dass sie es aushält, eben nicht immer bei ihm zu sein.
1:46:27–1:46:30
Also man weiß ja auch nicht, liest sie oder liest sie nicht.
1:46:30–1:46:35
Also es ist halt so eine völlige oberflächliche, aber gleichzeitig so ein fühlendes
1:46:35–1:46:37
Wesen, ein stark fühlendes Wesen.
Micz Flor
1:46:38–1:46:42
Und dann geht die Geschichte zu Ende relativ schnell. Und zwar ist es so,
1:46:42–1:46:46
dass sie dann, also die Sartorius, also Snout vermittelt zwischen Sartorius
1:46:46–1:46:50
und Calvin, irgendwas müsste ja passieren, Sartorius wird schon irgendwas tun,
1:46:50–1:46:51
du darfst es jetzt aussuchen.
1:46:51–1:46:56
Und Calvin erfindet schnell die Hypothese, dass wenn dieses Feld,
1:46:56–1:47:00
das Neutrinofeld, irgendwie destabilisiert wird, dass wir dann alle explodieren werden.
1:47:00–1:47:05
Dann macht er doch lieber das andere, nämlich seine Gehirnströme darunter strahlen
1:47:05–1:47:06
zu lassen, wenn er schon keine Wahl hat.
1:47:07–1:47:11
Dann nehmen die das auch auf, und Sartorius ...
1:47:11–1:47:15
Richtet ihm dann auch noch ein er soll irgendwie ganz genau ich weiß
1:47:15–1:47:18
gar nicht genau was das wäre es wahrscheinlich wichtig ich habe es nicht mit
1:47:18–1:47:22
dem kopf wasser ihm eintrichtert was er sagen soll in seinen gedanken also woran
1:47:22–1:47:25
er denken soll woran er nicht denken soll das ist auch so ein schöner schöne
1:47:25–1:47:30
ideen die gedanken sind frei und calvin ist es aber irgendwie so ein bisschen
1:47:30–1:47:34
wurscht weil er halt plottet glaube er sagt dann in seinen gedanken immer tool
1:47:34–1:47:37
habe Harvey nichts, tu Harvey nichts oder sowas in der Art.
1:47:38–1:47:42
Und dann wird das auch weggeschickt und dann gibt es eine Nacht,
1:47:42–1:47:47
wo er das Gefühl hat, dass Harvey kurz weg war und mit Snouch gesprochen hat
1:47:47–1:47:49
und dann fragt er sie aber nicht und dann fragt er sie.
Florian Clauß
1:47:49–1:47:53
Nein, das ist aber, das ist auch nochmal so, das wird auch in den Filmen und
1:47:53–1:47:57
so weiter, wird es sehr kurz von der Zeitspanne, aber es gehen tatsächlich mehrere
1:47:57–1:47:59
Wochen um, bis eine Reaktion kommt.
1:47:59–1:48:02
Das ist genau diese Phase der Lethargie.
1:48:02–1:48:06
Das heißt, die hängen die ganze Zeit ab, es passiert nichts und alles ist irgendwie
1:48:06–1:48:08
so, der Ozean ist still und so weiter.
1:48:08–1:48:12
Aber es ist eigentlich eine ziemlich lange Zeitspanne, die jetzt nur ganz kurz
1:48:12–1:48:13
beschrieben wird in dem Buch.
Micz Flor
1:48:13–1:48:17
Okay, also dann passiert nichts, ein Plateau, zeitliches Plateau,
1:48:17–1:48:19
auf dem die einfach nur warten.
1:48:19–1:48:24
Und zum Ende dieses Plateaus, also im Narrativ zum Ende, es könnte sich länger
1:48:24–1:48:29
ausdehnen, Aber zumindest dann entscheidet Harvey, umgebracht,
1:48:29–1:48:32
in Anführungszeichen annihiliert zu werden, wie man es nennen möchte.
1:48:32–1:48:37
Und schreibt dann auch noch eine Abschiedsnachricht, dass ihr Wunsch war,
1:48:37–1:48:41
dass Snout ein Guter ist und dass Calvin nicht böse sein soll.
1:48:41–1:48:43
Und wird dann auch annihiliert.
1:48:43–1:48:45
Die anderen Gäste sind scheinbar auch schon annihiliert.
Florian Clauß
1:48:45–1:48:48
Ich putze mal zu diesem Abschiedsbrief, weil das auch nochmal interessant ist.
1:48:48–1:48:51
Sie unterschreibt ja dann mit Harvey und streicht dann Harvey durch.
1:48:53–1:48:54
Also in dem Buch.
Micz Flor
1:48:54–1:48:58
Genau, das ist ja auch dieses Zeichen mit dem kleinen Strich,
1:48:58–1:49:02
mit so einem kleinen Düttel vorne links, das heißt nicht in der Logiksprache, also nicht Harvey.
Florian Clauß
1:49:03–1:49:06
Nicht Harvey, genau, das logische Nicht.
Micz Flor
1:49:07–1:49:10
Calvin ist halt außer sich und sagt dann, sie wird wiederkommen,
1:49:10–1:49:11
sie wird morgen wiederkommen.
1:49:11–1:49:15
Und dann sagt halt Snout, nee, seit wir die Strahlen runtergeschickt haben,
1:49:15–1:49:17
kommen sie nicht wieder. Daher wissen wir, dass die anderen Gäste scheinbar
1:49:17–1:49:19
auch schon annihiliert sind.
1:49:19–1:49:23
Und dann wird ein Bericht geschrieben,
1:49:23–1:49:28
Snout hat den schon quasi vorgeschrieben und dann guckt, also irgendwie versöhnt
1:49:28–1:49:32
sich Calvin damit auch und entwickelt in dem Moment dann auch den Wunsch,
1:49:32–1:49:36
auf der Station zu bleiben, den ich nicht so richtig nachvollziehen konnte.
Florian Clauß
1:49:37–1:49:37
Ein Trinsuch.
Micz Flor
1:49:38–1:49:39
Ich? Wie meinst du?
Florian Clauß
1:49:40–1:49:43
Aus der Figur des Calvins heraus, den du als...
Micz Flor
1:49:43–1:49:49
Ich konnte den, ich konnte, also das Gefühl war, was ich hatte,
1:49:49–1:49:52
war, er will in der Nähe von Harvey bleiben und irgendwo muss sie ja sein.
1:49:53–1:49:56
Snout sagt ja vorher nochmal, willst du einfach die andere wiederholen,
1:49:56–1:49:58
die da in diesem, die in die Kapsel geht.
1:49:59–1:50:01
Fand ich auch ganz interessant, weil die will ja keiner mehr haben.
1:50:02–1:50:06
Nee, nee, nee. Die gab es schon. Froh, dass die weg ist. Aber die andere, die war richtig gut.
1:50:07–1:50:10
Auf jeden Fall kommt es dann dazu, Snout bleibt, glaube ich, auch.
Florian Clauß
1:50:12–1:50:16
Der Tor ist, taucht überhaupt nicht mehr auf. Das habe ich auch nochmal so extra
1:50:16–1:50:20
nachgeguckt, nachdem, der wird dann halt nur noch, aber der taucht als Figur
1:50:20–1:50:22
nicht mehr irgendwie auf.
1:50:22–1:50:25
Das ist nur noch ein Ding zwischen Snout und Calvin.
Micz Flor
1:50:25–1:50:31
Und dann ist es so, dass Calvin eben entscheidet, als echter Solaristiker muss
1:50:31–1:50:35
er doch auch mal den Planeten betreten und fliegt dann mit einem dieser Hubschrauber
1:50:35–1:50:37
runter und landet auf diesem,
1:50:37–1:50:42
was ich mir bildlich vorstelle, wie so ein Seerosenblatt, ein Mimmoid oder Mim,
1:50:42–1:50:44
wie auch immer die heißen.
1:50:44–1:50:48
Und will dann da eben auch den Ozean berühren und schaut dann,
1:50:48–1:50:50
den letzten Satz habe ich jetzt blöderweise nicht da, aber er schaut halt quasi
1:50:50–1:50:52
irgendwie so positiv in die Zukunft.
1:50:52–1:51:00
Dann ist die Geschichte zu Ende und schließen möchte ich mit einem Zitat von
1:51:00–1:51:06
etwas, was Calvin in der Mitte so beschreibt für die Solaristik und auch ein bisschen das,
1:51:06–1:51:11
was Lem selber gesagt hat über diesen Roman er sagt,
1:51:11–1:51:16
Calvin, wir brechen den Kosmos auf wir sind auf alles vorbereitet das heißt
1:51:16–1:51:20
auf die Einsamkeit, auf den Kampf, auf Martyrium und Tod aus Bescheidenheit
1:51:20–1:51:23
sprechen wir es nicht laut aus aber wir denken uns manchmal,
1:51:23–1:51:25
dass wir großartig sind.
1:51:25–1:51:29
Indessen ist das nicht alles und unsere Bereitschaft erweist sich als Theater.
1:51:30–1:51:36
Wir wollen gar nicht den Kosmos erobern, wir wollen nur die Erde bis an seine Grenzen erweitern.
1:51:36–1:51:41
Die einen Planeten haben voll Wüste zu sein wie die Sahara, die anderen eisig
1:51:41–1:51:44
wie der Pol oder tropisch wie der brasilianische Urwald.
1:51:45–1:51:49
Wir sind humanitär und edel, wir wollen die anderen Rassen nicht unterwerfen.
1:51:49–1:51:55
Wir wollen ihnen nur unsere Werte übermitteln und als Gegengabe ihrer aller Erbe annehmen.
1:51:56–1:51:59
Wir halten uns für die Ritter vom heiligen Kontakt.
1:52:00–1:52:01
Das ist so eine komische Übersetzung.
Florian Clauß
1:52:02–1:52:03
Ja, das ist komisch.
Micz Flor
1:52:03–1:52:07
Das ist die zweite Lüge. Menschen suchen wir niemanden sonst.
1:52:08–1:52:11
Wir brauchen keine anderen Welten. Wir brauchen Spiegel.
1:52:12–1:52:14
Mit anderen Welten wissen wir nichts anzufangen.
1:52:15–1:52:18
Das sagt er im Kapitel, die kleine Apokryphe.
Florian Clauß
1:52:18–1:52:23
Genau, das ist genau dieser Kernsatz, der auch immer wieder in anderen Kontexten
1:52:23–1:52:25
auftaucht. Bei Tarkowski wird er auch erwähnt.
Micz Flor
1:52:26–1:52:31
Und Lem hat über diesen Roman auch gesagt, Papa la Papp, alle Deutungen,
1:52:31–1:52:34
ich wollte einfach nur was schreiben, was einfach mal veranschaulicht.
1:52:35–1:52:41
Ist, wenn wir etwas begegnen, was wir überhaupt nicht verstehen können und was das mit uns macht.
1:52:41–1:52:47
Und er ist der Meinung, dass er sehr gut eigentlich alles in dem Roman gesagt
1:52:47–1:52:48
hat, was er sagen wollte.
1:52:48–1:52:52
Und damit ist das Ding für ihn geschlossen. Und er hat auch explizit,
1:52:52–1:52:54
deshalb habe ich die Übersetzung, wenn das für dich okay ist,
1:52:54–1:52:56
würde ich das schnell noch raushauen mit den Übersetzungen.
Florian Clauß
1:52:56–1:52:59
Lass uns nochmal da bei dem Punkt bleiben, weil das ist, glaube ich,
1:52:59–1:53:01
der Kernpunkt von dem ganzen Roman.
1:53:01–1:53:07
Es geht um eine Projektion, Ja, also das heißt, das, was man da irgendwie so
1:53:07–1:53:10
an Wissenschaftskritik vielleicht bei Lämmen reinlesen möchte,
1:53:10–1:53:16
wäre es ja dieser, was wir schon erwähnt haben, Anthropomorphe und davon der Ismus.
1:53:17–1:53:20
Anthropomorph bedeutet Anthropomorphismus.
Micz Flor
1:53:21–1:53:23
Genau, Anthropomorphismus und dann bei Ismus abbiegen.
Florian Clauß
1:53:23–1:53:31
Ja, und das ist ja die Art zu projizieren, dass irgendwo überall ein Stück Mensch drinsteckt.
1:53:31–1:53:36
Ja, also das ist halt dieses Bedürfnis, wenn du irgendwann irgendwas,
1:53:36–1:53:39
irgendeine Struktur siehst oder im Umfeld bist, das dir nicht bekannt ist,
1:53:39–1:53:43
dass du dann sofort irgendwo guckst, okay, da ist ein Gesicht oder das ist das.
1:53:43–1:53:48
Und dieses Menschliche in dem Anderen zu suchen und zu finden.
1:53:48–1:53:51
Und das ist ja so, weil Urmenschliche, das hatten wir ja auch schon in anderen
1:53:51–1:53:55
Kontexten mal beschrieben, dass eben diese Identifikation des Menschen ganz
1:53:55–1:54:03
stark mit diesen Anthropomorphen einhergeht. Diese Situation des Scheiterns, es gibt keine Antwort.
1:54:04–1:54:09
Und das ist so stark auf diesen Punkt gespielt, dass eben klar ist,
1:54:09–1:54:15
wir finden da nichts, nichts, was uns irgendwie so ähnelt, was uns widerspiegelt,
1:54:15–1:54:18
sondern es ist einfach was komplett anderes.
1:54:18–1:54:20
Und es ist eine Geschichte des Scheiterns.
1:54:20–1:54:25
Und es ist dann auch so eine Frage, also das ist für mich auch so krass wichtig
1:54:25–1:54:30
für Wissenschaft, sich dieser Frage zu stellen, was passiert denn an einem Punkt, wo wir,
1:54:30–1:54:34
wirklich dann nicht mehr weiterkommen, wo wir nicht mehr diese Erkenntnisse
1:54:34–1:54:38
haben, wo wir wirklich da an einem Punkt sind, wo wir nichts mehr rausziehen können.
1:54:38–1:54:43
Wie geht man damit um? Und das ist, finde ich, in dieser Figur das Christ dann
1:54:43–1:54:46
am Ende seiner Entscheidung, du hast gerade gesagt, du kannst es nicht nachvollziehen,
1:54:46–1:54:49
aber ich finde, genau dann hat er diesen Punkt für sich gelöst,
1:54:50–1:54:52
weil er ist ja quasi durch dieses ganze Tal gegangen,
1:54:53–1:54:58
und hat das durchlebt Und ist an dem Punkt, wo er keine Erwartungen mehr hat
1:54:58–1:54:59
und keine Erkenntnis mehr erwartet.
1:54:59–1:55:05
Und kann dann irgendwo neu, frisch anfangen, ohne irgendwie eine Vorstellung
1:55:05–1:55:07
von irgendwas zu haben, weil er hat schon alles.
Micz Flor
1:55:07–1:55:10
Aber genau, die absichtslose Absicht.
Florian Clauß
1:55:10–1:55:13
Und das kannst du jetzt nicht nachvollziehen in der Figur?
Micz Flor
1:55:13–1:55:17
Ich kann das als Konzept nachvollziehen, aber...
1:55:18–1:55:24
Aber in der Geschichte finde ich es nicht für mich glaubwürdig hergeleitet.
1:55:24–1:55:28
Und das liegt vielleicht an mir oder es liegt an der Geschichte oder vielleicht
1:55:28–1:55:31
musste Lem fertig werden, weil es gab gleich Essen.
1:55:31–1:55:34
Aber ich habe das Gefühl, zum Schluss gibt er so Gas und dann stehst du auf
1:55:34–1:55:39
einmal mit dem da und dann schickt er das Ding zum Verlag und es wird gedruckt.
1:55:39–1:55:42
Also mir fehlt zum Hinten raus, fehlt mir die Wende.
1:55:42–1:55:46
Diese Transformation, die du beschreibst, ist natürlich angelegt,
1:55:46–1:55:48
Aber ich kann nicht mitgehen.
Florian Clauß
1:55:48–1:55:54
Ich finde, es ist ganz stark in diesem Bild auf den Memorien dann angelegt.
1:55:54–1:55:56
Und das finde ich auch total poetisch und sinnfällig.
Micz Flor
1:55:56–1:56:02
Ja, das ist doch total okay. Ich kann ja vom Lesen her vielleicht noch ganz
1:56:02–1:56:03
kurz sagen, es war echt verrückt.
1:56:03–1:56:07
Weil ich am Anfang, als wir wussten, dass wir es schon machen werden,
1:56:07–1:56:13
und ich war noch relativ weit am Anfang, ich bin nach ein, zwei Seiten immer todmüde geworden.
1:56:13–1:56:16
Ich fand es unglaublich anstrengend. Ich lese dann eh auf dem E-Reader nur nachts
1:56:16–1:56:20
und bin dann echt dauernd eingepennt und habe das so trotzdem dann wieder aufgenommen.
1:56:20–1:56:23
Da habe ich mich geärgert, dass ich es vorgeschlagen hatte als Thema.
1:56:23–1:56:27
Es war irgendwann dran, habe ich dann gedacht, jetzt muss es halt irgendwie auch passieren.
1:56:27–1:56:33
Aber es war wirklich so, es hat was mit mir gemacht. Es hat was mit mir gemacht.
1:56:33–1:56:34
Ich glaube auch die gruselige Übersetzung.
1:56:35–1:56:38
Und ich fand es unglaublich anstrengend zu lesen. Echt?
1:56:41–1:56:45
Es hat gleichzeitig auch was mit mir gemacht, mit dem Hinblick,
1:56:45–1:56:49
dass ich die Filme nicht mehr so gut fand wie das Buch, was ich aber in sich
1:56:49–1:56:51
selbst auch nicht gut fand. Also ich fand dann die Umsetzung...
Florian Clauß
1:56:51–1:56:53
Okay, du warst mit allem ein bisschen unzufrieden.
Micz Flor
1:56:53–1:56:56
Ja, und was dann aber passiert ist, deshalb kam ich auf die Übersetzung.
1:56:56–1:57:01
Ich habe dann halt nochmal gegoogelt, Audiobook Solaris und habe dann die komplette,
1:57:01–1:57:06
also es sind siebeneinhalb Stunden, dann hat man das Buch auch durchgelesen, in Englisch gefunden.
1:57:06–1:57:09
Und das ist eben, glaube ich, das Englisch aus der französischen Übersetzung
1:57:09–1:57:12
aus den 70er Jahren, glaube ich. Bin mir nicht sicher, kann auch die von 2017 sein.
1:57:14–1:57:18
Aber da war das so smooth. Da habe ich die gelesen und gesagt,
1:57:18–1:57:21
ey, da war es richtig spannend. War es richtig interessant.
1:57:22–1:57:25
Und deshalb möchte ich jetzt das mit der Übersetzung loswerden.
1:57:25–1:57:29
Weil ich finde, es gibt jetzt eine englische Übersetzung von der,
1:57:29–1:57:36
der das LEM Institut oder der Nachlass, so zu sagen, die Super von Bill Johnston 2017,
1:57:37–1:57:39
auch glaube ich in einem polnischen Verlag erschienen.
1:57:39–1:57:43
Das ist eine englische Übersetzung, der es aus dem polnischen direkt übersetzt hat.
1:57:43–1:57:49
Es gibt dann die Übersetzung von Joanna Kilmartin und Steve Cox von 1970.
1:57:52–1:57:56
Allerdings aus dem Französischen übersetzt wurde. Die habe ich in Ausschnitten,
1:57:56–1:57:58
wo habe ich das denn nochmal gelesen?
1:57:59–1:58:02
Warum weiß ich das? Das weiß ich jetzt gar nicht mehr, weil ich das weiß.
1:58:02–1:58:07
Und es gibt dann eben die Deutsche von Irmtraut Zimmermann-Göllheim von 1972.
1:58:08–1:58:10
Ja, genau. Das ist die, die wir, glaube ich, auch haben.
1:58:11–1:58:15
Ja, und da habe ich jetzt auf dem, ist schon angelegt, wenn du es publikierst,
1:58:15–1:58:18
das ist eine Tabelle, wo ich dann einen Ausschnitt aus dem ersten Kapitel,
1:58:18–1:58:24
dieser Anflug auf die Raumstation, weg von Prometheus hin zur Raumstation,
1:58:25–1:58:28
da habe ich die mal gegenübergestellt, so einen Ausstand, wo man ein Gefühl
1:58:28–1:58:31
dafür kriegt, dass es echt ganz schön schwierig ist. Und da ist dann so ein
1:58:31–1:58:33
Zitat jetzt von der deutschen Übersetzung.
1:58:33–1:58:39
Ich wartete, wann sich der erste Stern eintrüben sollte. Ich gewarte es nicht.
1:58:40–1:58:43
Wenn man schon wartete sagt, dann sagt man nicht noch gewarte.
1:58:43–1:58:46
Das ist doch wie ein schlechter Reim. Aber auf jeden Fall, ich wartete,
1:58:46–1:58:50
wann sich der erste Stern eintrüben sollte. Ich gewarte es nicht.
1:58:50–1:58:53
Zweiteres Zitat, da kommt Prometheus drin vor.
1:58:54–1:58:57
Zweiteres Zitat, das fängt ja auch schon an. Zweiteres Zitat.
1:58:58–1:59:03
Ich bedauerte, dass es mir nicht geglückt war, den Prometheus noch zu sehen.
1:59:03–1:59:07
Er muss schon außer Sicht weiter gewesen sein, als die austomatische Vorrichtung
1:59:07–1:59:08
das Sichtfenster öffnete.
1:59:08–1:59:12
Das klingt irgendwie wie so ein komisches Polizeiprotokoll aus einem dritten
1:59:12–1:59:15
Programm von irgendeinem WDR-Krimi. oder sowas.
1:59:16–1:59:21
Worum es da eigentlich geht, ist zu sagen, ich bedauerte, dass ich die Prometheus,
1:59:21–1:59:25
würde man sagen, oder Prometheus, das Raumschiff, wo er losgeflogen ist,
1:59:25–1:59:27
die hätte er gerne noch mal gesehen.
1:59:27–1:59:30
Aber bis ich das Sichtfenster öffnete, war er quasi schon zu weit weg davon.
1:59:31–1:59:34
Es gab dann eben noch von Kurt Kelm eine deutsche Übersetzung,
1:59:34–1:59:37
die möchte ich auch noch mal irgendwo auftreiben.
1:59:37–1:59:43
Ist 83 im Verlag Volk und Welt in Berlin entschieden, aber die habe ich leider nicht gefunden.
1:59:43–1:59:48
So, sind wir jetzt erst mal am Ende. Also wir haben quasi die Geschichte zusammengefasst.
1:59:48–1:59:50
Es ist gleich schon zwei Stunden durch.
Florian Clauß
1:59:50–1:59:52
Ja, ich wollte, aber ich bin auch noch nicht ganz fertig.
Micz Flor
1:59:52–1:59:54
Nee, nee, genau. Ich wollte nur sagen, jetzt kommen wir an den Punkt,
1:59:55–1:59:59
wo wir quasi Calvin da ablegen.
1:59:59–2:00:03
Snout bleibt da, Sartoris ist eh schon verschwunden, die Gäste sind alle weg.
Florian Clauß
2:00:03–2:00:10
Okay, wir legen Calvin ab. Da warst du an dem Punkt. Wir zoomen jetzt raus. Wo kommen wir hin?
Micz Flor
2:00:11–2:00:15
Wir verlassen den Text und jetzt kommen wir in das Reich der Interpretation.
Florian Clauß
2:00:15–2:00:19
Oh, wir waren noch nicht in dem Reich der Interpretation. Okay,
2:00:19–2:00:20
aber möchtest du loslegen?
Micz Flor
2:00:22–2:00:23
So ein bisschen jetzt wäre...
2:00:25–2:00:33
Also meine Interpretation kann ich dir kurz... Magst du sie kurz hören?
Florian Clauß
2:00:33–2:00:33
Ja, gerne.
Micz Flor
2:00:33–2:00:36
Also es ist quasi, wenn wir uns die ganze Geschichte angucken,
2:00:36–2:00:41
für mich ist es so, es geht da um den Akt der Empfängnis.
2:00:41–2:00:43
Und Prometheus ist der Mann.
2:00:43–2:00:50
Das Sperma ist quasi eingeklemmt in dieser Kapsel.
2:00:50–2:00:55
Und diese Kapsel schießt dann nach dem Orgasmus in die Ovarien,
2:00:55–2:00:59
das ist Solaris mit der Raumstation, nistet sich da ein, kommt dann da an und
2:00:59–2:01:01
ist dann in der Zellteilung dabei,
2:01:01–2:01:07
eben selber irgendwie Komplexität zu entlangen und dieses Bewusst-Gewusst-Werden,
2:01:07–2:01:10
also dieser Prozess ist da irgendwie beschrieben.
2:01:10–2:01:16
Das ist für mich meine Interpretation. Es geht um den Akt der Fortplatzung.
Florian Clauß
2:01:16–2:01:20
Interessant. Ja. Und was ist denn der Ozean?
Micz Flor
2:01:21–2:01:26
Das ist dann die Symbiose. Das ist der symbiotische Raum.
2:01:26–2:01:28
Also es geht jetzt nicht darum, dass es hier biologisch ist,
2:01:28–2:01:31
sondern quasi der Sperme verlässt den Mann, kommt dann zu der Frau.
2:01:32–2:01:39
Und dann entsteht eben dieser symbiotische Raum, in dem der werdende Mensch oder das Kind,
2:01:39–2:01:45
der Säugling, dann auch eben diese Matrix von Solaris benötigt,
2:01:45–2:01:48
um sich zu orientieren in der Welt, um die Dinge zu verstehen.
2:01:48–2:01:52
Und die Spiegelung durch den Planeten ist dann quasi die Mutter,
2:01:52–2:01:58
die Emotionen spiegelt, die Verbindungen spiegelt, die überhaupt Bindungsfähigkeit
2:01:58–2:02:00
mitentwickelt in dieser frühkindlichen symbiotischen Zeit.
Florian Clauß
2:02:01–2:02:09
Okay. Es stocket deswegen, weil es gibt auch eine Kritik über Solaris,
2:02:09–2:02:13
über den Ozean, die aber ein bisschen abwegig ist.
2:02:13–2:02:20
Da hat er geschrieben, dass Solaris, der Ozean, die weibliche Vagina ist.
2:02:20–2:02:26
Weil diese Ausbuchtung und diese Beschreibung, die kann man sehr sexualisiert
2:02:26–2:02:31
lesen und kann dann halt auch dieses Bild bekommen, dass es halt so eine Vulva
2:02:31–2:02:33
beschreibt, ja, in allen Formen und so weiter.
2:02:34–2:02:38
Aber, was dann quasi der Schluss, das Conclusio ist, ist halt so,
2:02:38–2:02:43
dass dann diese, das Weibliche, als das Unerkannte, Unerforschte, ja,
2:02:44–2:02:47
da kommen wieder so Stereotypen, die halt total überholt sind auf,
2:02:47–2:02:51
ja, und die halt auch da sich manifestieren in dieser Kritik.
2:02:51–2:02:56
Deswegen ist die Kritik eigentlich eher so aus einem patriarchischen Diskurs gefallen.
Micz Flor
2:02:56–2:02:56
Ja.
Florian Clauß
2:02:56–2:03:00
Aber deswegen frage ich nochmal nach, was bei dir der Ozean bedeutet.
Micz Flor
2:03:00–2:03:03
Also das, was du jetzt sagst, wäre natürlich dann in gewisser Weise so ein bisschen
2:03:03–2:03:08
wie die zweite Geschichte von Hyperion, wo du sagst, das ist ja so eine Jungensfantasie.
2:03:08–2:03:13
Also dann hätte Lem ein Buch geschrieben, was sagt, all die Männer checken nicht,
2:03:13–2:03:17
wie Frauen funktionieren, weil sie immer nur versuchen, das Kleid aufzumachen
2:03:17–2:03:20
und nie quasi das Weibliche dahinter irgendwie erschließen.
2:03:20–2:03:23
Das meine ich gar nicht, sondern ich fand es halt eher so interessant,
2:03:23–2:03:29
dass dieser Versuch zu lernen, den du jetzt natürlich auch den Planeten beschreibst,
2:03:29–2:03:32
ist ja auch nicht falsch, aber diese Spiegelung, vielleicht sogar eben in diesem
2:03:32–2:03:38
Kind, da spiegelt die Mutter dem Kind irgendwas zurück, aber das...
2:03:39–2:03:44
Dieses in die Welt kommen, in die Symbiose zur Mutter in dem Moment entlassen
2:03:44–2:03:48
zu werden, dann einen Raum schafft, in dem man selber auch versucht, die Welt zu verstehen.
2:03:48–2:03:53
Und in dieser sehr frühen Phase auch diese Grenzen noch gar nicht so existieren
2:03:53–2:03:54
zwischen was ist ich und was ist das andere.
2:03:55–2:03:58
Das ist dann erst später möglich, was ja auch darin beschrieben wird,
2:04:00–2:04:06
dass man das Nicht-Ich vom Ich unterscheiden kann. Vorher gibt es ja diese symbiotische
2:04:06–2:04:11
Verschmelzung auch quasi mit der guten Mutterbrust, die immer stillt und die
2:04:11–2:04:14
immer verfügbar ist und so. Und dann die böse Brust, die irgendwie sich verweigert und so.
Florian Clauß
2:04:14–2:04:22
Also dann quasi diese Verschmelzung, das heißt, dieser Akt, wie Bewusstsein
2:04:22–2:04:28
entsteht, das als diese ganze Phase, was der Roman beschreibt.
Micz Flor
2:04:28–2:04:39
Das ist sozusagen die frühe Kindheit. Also Calvin ist der frühe Säugling.
2:04:39–2:04:41
Also ich muss sagen, ich habe mir das so als Idee.
2:04:41–2:04:46
Eigentlich habe ich gedacht, dass du lachst, weil du sagst, wie damals mit dem Wald und den Jägern.
2:04:47–2:04:49
Das geht immer wieder bei Mitch.
2:04:51–2:04:56
Genau, bei Mitch geht es immer um Sex. Aber trotzdem, ich finde schon,
2:04:56–2:04:57
dass es in gewisser Weise hält.
2:04:58–2:05:01
Es ist halt dann die Frage, warum schreibt er so eine lange Geschichte darüber?
2:05:01–2:05:05
Aber dann ist es natürlich sowieso bei der Interpretation so,
2:05:05–2:05:08
dass wir in gewisser Weise von Lem gehört haben, er hat alles gesagt, was er sagen wollte,
2:05:08–2:05:14
ist auch wahr und dann müssen wir ihm die Geschichte wegnehmen und müssen dann
2:05:14–2:05:19
natürlich da einsteigen zu überlegen, weshalb ist diese Geschichte so interessant,
2:05:19–2:05:22
was berührt uns daran, was sehen wir darin.
2:05:22–2:05:26
Das ist dann natürlich nicht mehr das, was die Intention des Autors ist in dem Moment.
2:05:27–2:05:32
Und da, finde ich, hält dieses Konzept schon zu sagen, wenn wir diese...
2:05:33–2:05:39
Empfängnis und diese intrauterine und postuterine Zeit uns anschauen,
2:05:39–2:05:43
dann könnte man doch sagen,
2:05:43–2:05:48
dass wir da in einem Raum sind, wo auch schon intrauterin,
2:05:48–2:05:53
also noch in der Raumstation selbst Calvin schon lernt,
2:05:53–2:05:58
die Umgebung lernt, so wie das Kind auch im Bauch schon Stimmen verstehen kann
2:05:58–2:06:04
und Tageszeiten verstehen kann und einen Rhythmus entwickelt und dann mit der
2:06:04–2:06:07
Geburt quasi auf diesen Mond entlassen wird,
2:06:07–2:06:12
auf Solaris entlassen wird und dann da eben auch diesem Raum begegnet, in der Lage ist,
2:06:12–2:06:17
unsere Gefühle des Säuglings zu spiegeln, sie nicht eins zu eins wiederzugeben,
2:06:17–2:06:21
also die Städte, die Gärten, das ist alles ein bisschen anders.
2:06:21–2:06:27
Aber es geht nicht darum, dass Wissenschaftler verstehen, warum Solaris intelligent
2:06:27–2:06:31
ist, sondern es geht darum, dass wir in dem Roman lernen, dass Menschen immer
2:06:31–2:06:34
versuchen, sich mit etwas zu verbinden.
2:06:34–2:06:36
Das ist ja auch der Vorwurf, den Calvin gleichzeitig hatte eben,
2:06:36–2:06:38
wir sehen immer nur das Menschliche.
2:06:38–2:06:43
Aber genau das passiert ja beim Säugling, der sich selber erkennen lernt über
2:06:43–2:06:47
den Kontakt mit etwas, was nicht ich ist und was er versteht,
2:06:47–2:06:50
erst, wenn er wirklich in die Welt kommt.
2:06:51–2:06:55
Und dadurch entsteht die eigene Identität in diesem symbiotischen.
2:06:56–2:07:02
In diesem dialektischen, symbiotischen Moment, in dem Solaris oder als Mutter
2:07:02–2:07:07
als das andere Symbiotische in Teilen spiegelt.
Florian Clauß
2:07:08–2:07:12
Ja, also ich schaffe es noch nicht ganz alles so aufzulösen,
2:07:13–2:07:16
welche Position was ist, weil für mich ist ja nochmal so diese,
2:07:16–2:07:22
Es gibt ja diese Jahrhunderte, also ein Jahrhundert Forschung um Solaris.
2:07:22–2:07:25
Das heißt, es gibt ja schon die ganze Historie.
2:07:26–2:07:31
Und jetzt, wo dann quasi das ganze Ding so am Ausfaden ist, passiert auf einmal was.
2:07:32–2:07:35
Vielleicht gab es das schon vorher und man hat es nur nicht irgendwie protokolliert
2:07:35–2:07:38
gesehen, weil das dann wieder so eine Randbezeichnung ist. Also es ist dann
2:07:38–2:07:42
wieder verschwunden, wie eben diese Kindesbeobachtung von Bertrand.
2:07:42–2:07:45
Ja, vielleicht ist es ja auch irgendwo, es gibt ja viel mehr Geschichten,
2:07:45–2:07:46
die sowas dann halt zeigen.
2:07:47–2:07:52
Also das heißt, aber wir befinden uns quasi am Ende von einer Ära, wo irgendwas passiert.
2:07:53–2:08:00
Also das heißt, es ist eine Form von vielen, die irgendwie da entstanden ist.
2:08:00–2:08:07
Oder es ist ja quasi kein Prozess, der dann zu diesem Bewusstsein führt oder zu diesem...
2:08:08–2:08:12
Zu dieser Entität oder was du da...
Micz Flor
2:08:12–2:08:17
Ne, genau, also da würde man, wenn man jetzt meine provokante Interpretation
2:08:17–2:08:20
einfach mal auf so einem Solaris-Panel... Ich meine, das ist ja auch das Lustige
2:08:20–2:08:24
auf einer Meta-Ebene, diese Solaristik, die gibt es jetzt ja.
2:08:24–2:08:28
Also es gibt unglaublich viele Interpretationen von Solaris,
2:08:28–2:08:31
aber die gibt es nicht auf einer physikalischen Ebene, sondern die gibt es halt
2:08:31–2:08:33
auf einer literaturwissenschaftlichen.
2:08:33–2:08:40
Die Solaristik ist existent und wir sind jetzt aktiv involviert in dem Prozess
2:08:40–2:08:46
des Solarismus, in dem wir aber die Geschichte versuchen, neu zu beleuchten oder zu erfassen.
2:08:46–2:08:50
Und da war es einfach so eine steile Hypothese, so ein Paper am Nachmittag um
2:08:50–2:08:52
14 Uhr, wo wir eh noch beim Essen sind,
2:08:52–2:08:55
sitzt dann halt jetzt einer da und sagt, ja, es geht hier um den Sexualakt und
2:08:55–2:09:00
die intrauterine Entwicklung des Kindes, was letztendlich dann in den symbiotischen
2:09:00–2:09:02
Raum mit der Mutter entlassen wird. Fragen?
2:09:04–2:09:12
Also das ist ja genau so, es ist jetzt einfach Teil des Solarismus, meine These.
2:09:12–2:09:16
Oh, das ist toll, mach mal ein Foto.
Florian Clauß
2:09:16–2:09:20
So darf ich dann meine Interpretation noch?
2:09:20–2:09:29
Die ist ja auch so, also im Prinzip ist sie ja schon mehr oder weniger verschiedentlich angeklungen.
2:09:29–2:09:34
Also jetzt deswegen, der Planet ist für mich quasi ein System,
2:09:35–2:09:42
was irgendwo in seiner Existenz eine Korrekturberechnung ständig drin hat.
2:09:42–2:09:46
Damit steigen wir ein. Das ist so ein erster Absatz, wo ich dann dachte,
2:09:46–2:09:50
wow, als ich das gelesen habe, wie, das ist hier ein Dreikörperproblem,
2:09:50–2:09:52
das habe ich doch überhaupt nicht mehr in Erinnerung.
2:09:52–2:09:57
Dann denke ich so, okay, was ist denn das für ein geiles Szenario zu sagen,
2:09:57–2:10:06
ein Planet kann seine Bahn so korrigieren, dass es halt stabil läuft mit zwei Sonnen.
2:10:06–2:10:11
Das finde ich so, also damit ist ja quasi schon als Axiom, ist ja gesetzt.
2:10:12–2:10:15
Da gibt es eine Intelligenz, die so eine Korrektur machen kann.
2:10:15–2:10:21
Was ich dann bei der Solaristik vermisst habe, ist eben, was so offensichtlich
2:10:21–2:10:23
ist in diesem ganzen Ding.
2:10:23–2:10:27
Das Offensichtlichste, was eben diese Korrektur machen kann,
2:10:28–2:10:32
sind ja genau diese Symmetriaden und Asymmetriaden.
2:10:32–2:10:34
Und zwar in zweierlei Hinsicht.
2:10:34–2:10:38
Einmal ist es die Berechnung selber. Da wird quasi der Rechenschritt selber
2:10:38–2:10:42
quasi prozessiert und in der Form zum Ausdruck gebracht.
2:10:42–2:10:45
Das ist Rechenleistung. Das passt da genau.
2:10:45–2:10:52
Die chaotische Bahnführung, das sind die Asymmetriaden. Und die Asymmetriaden
2:10:52–2:10:53
sind dann quasi die Korrektur davon.
2:10:53–2:10:58
Und gleichzeitig ist es auch Ergebnis, nämlich die Gewichtsverlagerung.
2:10:59–2:11:04
Also es ist ja so, dass der Planet quasi durch diese Ausformung so seine Schwerkraft
2:11:04–2:11:08
verändern kann, dass dann die Bahnkorrektur gleichzeitig mit der Berechnung offen ist.
Micz Flor
2:11:08–2:11:09
Ja, das kann er ja nicht.
Florian Clauß
2:11:09–2:11:14
Doch, der Mittelpunkt wird natürlich verlagert. Das ist ja das Prinzip von Schwerkraftverlagerung.
2:11:14–2:11:20
Das kann man doch nachmessen, das hatten wir doch zuletzt bei den Grundwasserverlagerungen
2:11:20–2:11:25
in Kalifornien oder in Indien ist es auch so.
2:11:25–2:11:28
Und das kann man an der Bahnberechnung eines Planeten nachweisen.
2:11:28–2:11:35
Die sind Millimeter, wo sich die Erde tatsächlich durch diese Grundwasser-Umpumpung
2:11:35–2:11:38
soweit die Bahn verändert, dass man das nachweisen kann.
2:11:38–2:11:42
Das heißt, du kannst durch eine Schwerkraftverlagerung, weil du ja da natürlich
2:11:42–2:11:45
deinen Schwerpunkt woanders hin verlagerst, kannst du die Bahn beeinflussen.
2:11:46–2:11:50
Also jetzt rein physikalisch ist das nachweisbar, dass sich eben durch eine
2:11:50–2:11:55
Masseverlagerung quasi der Planet eben korrigieren kann. Das ist so.
2:11:56–2:12:01
Und das, was ich bei der Solaristik vermisst habe, dass keiner das irgendwie erwähnt hat.
2:12:01–2:12:05
Dass keiner so, ey, lasst uns doch mal diesen Zusammenhang zwischen Symmetriaden,
2:12:05–2:12:09
Asymmetriaden und der Bahnberechnung machen. Weil das ist so das Offensichtlichste.
2:12:09–2:12:14
Warum hat das keiner gemacht? Das ist doch alles da, diese Information.
2:12:14–2:12:18
Das muss doch mal wissenschaftlich untersucht werden. Wenn da irgendwie die
2:12:18–2:12:21
Ausspruchung entsteht, dass dann halt so und so viel Grad dann die Bahn sich
2:12:21–2:12:22
abweicht und wie er das macht.
2:12:23–2:12:27
Das ist jetzt so erstmal der erste Punkt meiner Interpretation.
2:12:27–2:12:32
Der erste Punkt ist, dass es halt eine riesen Korrekturmaschine ist auf diesem
2:12:32–2:12:37
Planeten, der dann eben seine Bahn durch Berechnung und so weiter macht.
2:12:37–2:12:42
Das andere Ding, was dazu kommt, ist, dass dieser Planet ja niemals irgendwie feindselig ist.
2:12:42–2:12:47
Das heißt, in der Konfrontation mit der Station sind ja alle Opfer,
2:12:47–2:12:52
sind ja mehr oder weniger durch Unvorsichtigkeit oder Unfälle, entstehen die.
2:12:52–2:12:56
Also es ist ja nicht so, dass der Planet dann anfängt, irgendwie dann so da
2:12:56–2:12:58
böswillige Absichten zu zeigen.
2:12:59–2:13:06
Und auch dieses Erscheinen der Gäste ist ja so, dass die Gäste...
2:13:07–2:13:10
Und es wird ja auch in dem Buch gesagt, dass die dann nicht,
2:13:10–2:13:13
um die Besatzung dann irgendwie zu
2:13:13–2:13:17
verwirren oder sowas, sondern es wird angenommen, dass die was Gutes tun.
2:13:17–2:13:21
Und wenn du aus der Perspektive dieser Korrekturmaschine dann da so drauf guckst,
2:13:21–2:13:23
auf so eine Besatzung, und du siehst dann halt irgendwie so,
2:13:23–2:13:25
und das wird ja auch gesagt,
2:13:25–2:13:27
ich glaube, das haben wir in der Explizität noch nicht gesagt,
2:13:27–2:13:33
dass alle Erscheinungen sind ja immer so tiefe Traumata von den Personen.
2:13:33–2:13:40
Also das heißt, Harvey ist quasi das größte Trauma von Chris und dann gibt es
2:13:40–2:13:45
die anderen Figuren, bei der Frau von Liberian wird es auch nochmal gesagt,
2:13:45–2:13:46
das hat irgendwas mit ihm zu tun.
2:13:46–2:13:52
Also das heißt, aus dieser Sicht der Korrekturmaschine guckst du auf diese Besatzung,
2:13:52–2:13:55
auf die Station und wenn du dann halt wirklich so die Kraft von Reverse Engine
2:13:55–2:13:59
siehst, dann siehst du irgendwie so Felder, die so Hotspots sind.
2:13:59–2:14:05
Und dann gehst du da rein und siehst auf einmal so, okay, da ist diese Figur drin in diesem Hotspot.
2:14:05–2:14:09
Und dann fängt das halt an auch so, wie kann ich denn das korrigieren?
2:14:09–2:14:16
Und dann fängt das halt an so, das ganze Ding, okay, dann mache ich jetzt mal hier eine Figur rein.
2:14:16–2:14:21
Und dann wird es vielleicht wieder gut. Und dann schickt er diese Figur.
2:14:21–2:14:25
Und das ist halt so eigentlich eine total positive Ansatz.
2:14:25–2:14:29
Als dieses irgendwie, ich will mein Umfeld immer so korrigieren,
2:14:29–2:14:31
dass alles gerade läuft, im geraden Wahn.
Micz Flor
2:14:31–2:14:32
Das ist ein bisschen so Wall-E dann wirklich.
Florian Clauß
2:14:33–2:14:37
Ja, so dieses Aufräumen und dann okay, das hier läuft schief und dann kann ich das da hinschicken.
2:14:37–2:14:42
Und dann, also das heißt, dadurch entwickeln sich ja auch die Figuren weiter.
2:14:42–2:14:47
Das heißt, das Trauma von Chris ist ja auch damit irgendwie auch bearbeitet.
2:14:47–2:14:50
Oder zumindest jetzt nicht abgearbeitet, aber zumindest irgendwie so,
2:14:50–2:14:54
es ist jetzt nicht mehr so als Trauma dann so eingeschrieben in seinem Kopf,
2:14:54–2:14:56
sondern es ist herausgekommen.
2:14:57–2:15:00
Und das ist halt so die Korrektur. Und jetzt noch einen Schritt weiter,
2:15:01–2:15:06
wenn man das halt so meint, ist die überhaupt die Idee von dieser,
2:15:07–2:15:09
also wir haben ein lernendes Modell.
2:15:09–2:15:15
Ein lernendes Modell, das irgendwo dann bestimmte Missstände sieht und darauf
2:15:15–2:15:17
reagiert und das dann versucht wieder auszugleichen.
2:15:17–2:15:21
Und das hast du nämlich vorhin in so einem Seitensatz gesagt,
2:15:21–2:15:23
da habe ich mich ein bisschen geärgert.
2:15:23–2:15:28
Da habe ich die Spitze von dem. Nämlich, was wäre das, wenn das überhaupt gar
2:15:28–2:15:30
keine Intelligenz ist, sondern tatsächlich nur so ein Werkzeug,
2:15:30–2:15:35
was dann von Aliens als Technologie da mal so hingeworfen wurde.
2:15:35–2:15:39
Und die haben gesagt, okay, unser, also dann bin ich wieder ein bisschen bei
2:15:39–2:15:43
drei Sonnen, wo die halt auch ihren, wir haben hier irgendeine Technologie entwickelt,
2:15:44–2:15:47
da war ich eher so ein bisschen bei Gebrüder Strudgatzki, wo dann halt auch
2:15:47–2:15:51
dieses Picknick am Wegesrand, diese Artefakte aus der Zone, die dann halt auch
2:15:51–2:15:54
so komische Wirkung haben, ja, dass es halt einfach nur eine Technologie ist
2:15:54–2:15:57
von irgendwelchen Aliens, die dann halt gesagt haben, okay, wir gucken,
2:15:57–2:16:00
wir erproben jetzt einfach mal hier so eine Warnkorrektur.
2:16:01–2:16:04
Technik, die brauchen wir für unseren Planeten. Das ist unser Testplanet.
2:16:04–2:16:08
Wir werfen das mal drauf und dann beobachten und dann, okay,
2:16:08–2:16:11
es funktioniert und ziehen halt weiter, weil sie das Ding nicht mehr mitnehmen wollen.
2:16:12–2:16:16
Das ist Müll. Das ist einfach nur eine große, klumpen Elchentechnologie,
2:16:16–2:16:20
der dann halt einfach so eine riesen Korrekturmaschine ist, die dann halt so
2:16:20–2:16:25
die ganzen Umläufe und alles, was in seine Nähe kommt, dann halt anfängt zu korrigieren.
2:16:25–2:16:28
Aber dann halt auch wie so eine generative KI.
2:16:28–2:16:33
Kein Bewusstsein hat, sondern immer nur quasi spiegelt oder in dem Sinne irgendwelche
2:16:33–2:16:36
Sachen sieht und dann halt die korrigiert.
Micz Flor
2:16:36–2:16:41
Ja, stimmt, Spiegel ist das falsche Wort, weil die KI ja dann quasi schon erstellt.
Florian Clauß
2:16:41–2:16:45
Ja, simuliert dann halt quasi, aber es ist eine reine Simulation.
2:16:46–2:16:48
Also das ist meine Theorie.
Micz Flor
2:16:48–2:16:51
Cool, also ich meine, was natürlich auch interessant ist, wenn wir jetzt da gehen,
2:16:52–2:16:55
dass halt bestimmte Werkzeuge für bestimmte Probleme geschaffen wurden,
2:16:55–2:16:58
dann kann man sich natürlich vorstellen dass
2:16:58–2:17:00
die also ich bleibe jetzt
2:17:00–2:17:04
mal bei dir wir schreiben jetzt mal von außen noch mal ein kapitel
2:17:04–2:17:08
dazu dass wir sagen ja das gab diese raumschiff station und dann war halt irgendwie
2:17:08–2:17:13
waren 80 leute drauf und höhe riesen forschungsprojekt und sowas und und dann
2:17:13–2:17:16
irgendwann sind die halt abgezogen
2:17:16–2:17:21
worden und dann war nur noch snout wie sartorius und Ghibarian drauf.
2:17:21–2:17:25
Und dann guckt die Korrekturmaschine auf einmal so, drei Körperprobleme,
2:17:25–2:17:28
drei Körperprobleme. Also er kennt diesen Hotspot so.
2:17:28–2:17:32
Das ist, ich bin das Werkzeug dafür. Ich löse euch, ich mache euch das.
2:17:32–2:17:33
Also wir brauchen jetzt hier einen, hier einen.
2:17:34–2:17:37
Und in dem Moment, wo Ghibarian sich dann umbricht, kommt dann Calvin dazu und
2:17:37–2:17:40
wird dann quasi gleich wieder auch in diesen Lösungsprozess.
2:17:40–2:17:46
Aber dass genau diese drei Menschen dann auch nochmal das als Trigger für,
2:17:46–2:17:51
dass die Maschine dann wirklich halt anfängt zu handeln, weil das ist hier jedes
2:17:51–2:17:54
mal mit den drei körperproblem hast auch wenn du teil davon bist oder wenn das was ist.
Florian Clauß
2:17:54–2:17:58
Ja na ja
2:17:58–2:18:01
gut na das ist jetzt sehr zusammengefaltet sind ja
2:18:01–2:18:04
auch ich würde es jetzt auch nicht als einzelne körper sondern es ist wahrscheinlich
2:18:04–2:18:08
so ein geflecht was in der wahrnehmung der diese maschine ist einfach nur geflecht
2:18:08–2:18:13
wo es dann halt so bestimmte hotspots gibt so punkte und da geht es ja rein
2:18:13–2:18:17
da fängt es an zu korrigieren also es muss irgendwie aber ich Ich finde dieses
2:18:17–2:18:22
Bild sehr gut für unsere Geschichte.
Micz Flor
2:18:23–2:18:23
Okay.
Florian Clauß
2:18:23–2:18:29
Ja, ich glaube, wir haben das jetzt erschöpfend, aber nicht ausgiebig und zumindest
2:18:29–2:18:32
für uns erschöpfend erzählt.
2:18:34–2:18:34
Solaris.
Micz Flor
2:18:34–2:18:38
Also ich denke, dies ist eine richtig satte Folge geworden. Für die nächste
2:18:38–2:18:43
Folge wäre es ja dann Cliffhanger, wenn wir jetzt sagen, es geht um Solaris
2:18:43–2:18:44
und es geht um Tarkowski.
2:18:45–2:18:50
Und es geht natürlich um die Interpretation des Stoffes durch den Regisseur Tarkovsky.
2:18:50–2:18:54
Und jetzt greifen wir mal ganz zurück auch noch, weil du hast ja schon was über
2:18:54–2:18:55
Tarkovsky gemacht, nämlich...
Florian Clauß
2:18:56–2:18:57
Über Stalker.
Micz Flor
2:18:57–2:19:02
Stalker, genau. Und Slavoj Žižek hat so einen ganz schönen Vergleich von Stalker
2:19:02–2:19:06
und Solaris gemacht, von den beiden Tarkovsky-Filmen, in dem er gesagt hat,
2:19:07–2:19:11
in Solaris hat Lem etwas erschaffen.
2:19:11–2:19:15
Er sagt halt, it's an id machine, as an object which realizes your nightmares,
2:19:16–2:19:18
desires, fears, even before you ask for it.
2:19:18–2:19:24
Also diese Solaris erkennt all dein, also bevor du überhaupt danach fragen kannst,
2:19:24–2:19:29
erkennt es deine Ängste, deine Sorgen, deine Wünsche, das erkennt es alles und reagiert darauf.
2:19:30–2:19:32
Das war der eine Film, den Tarkovsky gemacht hat.
2:19:32–2:19:35
Und der andere Film war das genaue Gegenteil, nämlich Stalker.
2:19:45–2:19:50
Also diese Idee, dass in Stalker eben genau so eine Wunsch-Erfüllungsmaschine gemacht wird.
2:19:50–2:19:55
Und die Menschen von Intakovskys Film sind entweder auf der Solaris-Seite,
2:19:55–2:20:00
in dem ihre Ängste, Wünsche, wie auch immer wir es beschreiben,
2:20:00–2:20:03
Desires irgendwie realisiert werden von Solaris.
2:20:03–2:20:06
Solaris und in der Zone, die auch ja ein mystischer Raum ist,
2:20:06–2:20:10
in dem man nicht genau weiß, wie die Logik da funktioniert, der ja nicht von
2:20:10–2:20:14
dieser Welt zu sein scheint, da ist genau das Gegenteil der Fall.
2:20:14–2:20:17
Wenn du deine Wünsche genau formulieren kannst, dann werden sie auch wahr.
2:20:18–2:20:21
Aber die Sorge ist, dass man das einfach eben nie genau kann.
2:20:22–2:20:27
Das fand ich so ganz schön, um Tarkovsky und Solaris in den Mix zu schmeißen.
Florian Clauß
2:20:27–2:20:31
Ja, vielen Dank. Wir werden hören. Das war Episode,
2:20:33–2:20:40
53 Solaris und wir haben schon angekündigt, es geht in zwei Wochen weiter mit Tarkovsky und Solaris.
2:20:40–2:20:44
Und dann in vier Wochen hören wir Söderberg und Solaris.
2:20:44–2:20:48
Wenn ihr noch mehr Infos haben wollt, dann guckt auf unsere Seite,
2:20:48–2:20:51
auf eigentlich-podcast.de und da
2:20:51–2:20:54
findet ihr auch den Track, den wir heute gegangen sind. Ich fand's toll.
2:20:55–2:20:57
Ich kenne viele Sachen hier nicht.
Micz Flor
2:20:57–2:21:00
Geht noch weiter. Wir sind wirklich in so einem Tarkovsky-Film, oder?
Florian Clauß
2:21:01–2:21:04
Wir sind schon wieder in der Zone. Ja, aber wir sind auch im Osten.
Micz Flor
2:21:04–2:21:07
Ich mache die letzte Fußnote noch, falls ihr euch wundert.
2:21:07–2:21:13
Nein, wir wissen doch, dass es diesen russischen Fernsehfilm Solaris gibt aus dem Jahre 1968,
2:21:14–2:21:18
den man auch komplett auf YouTube sehen kann mit englischen Untertiteln und
2:21:18–2:21:23
der wirklich auch sehr, sehr nah an der Originalgeschichte dran ist und der
2:21:23–2:21:26
auch mit, ich glaube, hat 144 Minuten oder sowas.
2:21:26–2:21:29
Das ist gar nicht so kurz für einen Fernsehfilm, aber ich glaube,
2:21:29–2:21:32
das sind zwei Teile, die dann zusammengeschnitten wurden in einem Film.
2:21:32–2:21:35
Ist auch sehr sehenswert, aber wir haben uns hier einfach auf die.
Florian Clauß
2:21:37–2:21:42
Blockbuster wir haben uns auf die Blockbuster konzentriert. Also macht's gut und bis bald.
Micz Flor
2:21:42–2:21:43
Bis dann, tschüss.
2:21:46–2:21:48
Das war echt ne Flohfolge.
Florian Clauß
2:21:50–2:21:52
Ich kann jetzt auch nicht mehr viel erzählen.

Mehr

"Wir fassen den Trieb als den Grenzbegriff des Somatischen gegen das Seelische"

Wir rotieren um das Engelbecken in Kreuzberg, während unsere Gedanken kreisen. Im Zentrum des Gedankenwirbels steht zum vierten Mal in Serie die Künstliche Intelligenz. Drumherum weben wir einen Strudel, dessen Zubereitung -- wie es sich für einen Strudel gehört -- in Wien vor über 100 Jahren begann. Die Füllung im Zentrum ist eine Melange aus KI-Bewusstsein, der Entwicklung des Selbst und neusten neurologischen Erkenntnissen. Oder konkret formuliert: muss eine KI sich selbst simulieren, damit sie sich selbst bewusst werden kann? Micz beginnt mit dem Konzept des Selbst, das in der psychodynamischen Theorie als Hilfskonstrukt des freudianischen Instanzen-Modells seinen Ursprung hatte. Das Selbst war anfangs wenig mehr als eine regulierende Schnittstelle zwischen Es, Umwelt und somatischem Erleben. Mit der Ich-Psychologie wurde dem Selbst immer mehr Platz eingeräumt, es entstand zum ersten Mal das Konzept des Selbst als einer Abstraktion als Konstrukt. Wir bleiben lange in der Psychodynamik und klinischen Psychologie verhaftet, bis wir schließlich wieder über das Thema Identität und Bias zurück zur KI kommen. Und dann ist schon Schluss. Danke für's zuhören!

Shownotes

Mitwirkende

avatar
Micz Flor
Erzähler
avatar
Florian Clauß

Transcript

Micz Flor
0:00:02–0:00:06
Hm. Hallo. Was? Du nicht.
Florian Clauß
0:00:04–0:00:05
So?
0:00:07–0:00:14
Ähm. Ich meine, wir müssen nochmal klatschen, weil ich gerade auf Freestylen gekommen bin.
Micz Flor
0:00:14–0:00:16
Klatschen. Männlichkeit auf der Bühne. Willkommen. Okay.
Florian Clauß
0:00:19–0:00:28
Hallo und herzlich willkommen! Eigentlich Podcast Podcast Episode 21 Wir laufen
0:00:28–0:00:29
beim Reden und Reden laufend.
0:00:29–0:00:37
Heute laufen wir in einem Jahr im Chor Kids rum oder kann man so sagen.
Micz Flor
0:00:36–0:00:41
Ja konkret. Wir sind mitten in Kreuzberg und laufen jetzt um Erkelenz.
0:00:41–0:00:44
Ist das auch der Kleinstadt? Hier nördlich Richtung Engelbecken? Auf jeden Fall.
0:00:44–0:00:50
Wo inzwischen ein Park ist, wo früher ein Kanal war. Auf dem glaube ich auch.
0:00:52–0:00:55
Kohlen und was weiß ich transportiert wurden, aber der dann irgendwann zugeschüttet
0:00:55–0:01:00
wurde, weil der voller Fäkalien war und als stehendes Gewässer wohl nicht sehr.
Florian Clauß
0:01:01–0:01:07
Wann war das? Im 18. Jahrhundert oder so.. Okay. Ja.
Micz Flor
0:01:03–0:01:06
Nee, das war, glaube ich nach dem ersten Weltkrieg irgendwann genau,
0:01:06–0:01:08
weiß es nicht. Aber vielleicht es gibt drüben.
0:01:09–0:01:12
Falls wir denn heute abschließend noch was essen gehen,
0:01:13–0:01:17
dann können wir das vielleicht sogar noch nachschauen, weil es gibt hier ein
0:01:17–0:01:20
kleines Restaurant Stiege und da hängt oben noch so eine,
0:01:20–0:01:24
groß aufgezogene Schwarz Weiß Postkarte als Bild und da steht glaub ich die
0:01:24–0:01:28
Jahreszahl drauf und da sieht man noch, dass Wasser drin war.
Florian Clauß
0:01:29–0:01:35
Ja eigentlich Podcast D. Daher könnt ihr auch die Tracks finden,
0:01:36–0:01:39
die wir während unserer Aufnahme laufen.
0:01:40–0:01:50
Heute ist der vierte Teil unserer Episode unserer Serie über künstliche Intelligenz und den.
0:01:51–0:01:53
Also du hattest ja quasi die ganze.
0:01:53–0:01:57
Die ganze Serie dann ins Leben gerufen und das hat sich dann entwickelt.
0:01:58–0:02:08
Und zuletzt habe ich über bioelektrische Organsysteme und Künstliche Intelligenz
0:02:08–0:02:11
Vergleich von Deep Learning und Biologie.
0:02:11–0:02:14
Heute 12:00. Heute bist du mit einem Thema dabei.
Micz Flor
0:02:13–0:02:20
Heute bin ich dran. Genau. Also ja. Der vierte Teil von der Miniserie Künstliche Intelligenz.
0:02:22–0:02:25
Da möchte ich über das Selbst sprechen.
0:02:26–0:02:30
Wie bin ich darauf gekommen? Was ja immer noch in dieser künstlichen Intelligenz
0:02:30–0:02:37
Forschung dann so schreckhaft befürchtet wird oder von anderen einfach sehr
0:02:37–0:02:39
gesucht wird und schwer zu realisieren ist.
0:02:39–0:02:44
Diese Frage von Bewusstsein Consciousness, also dieses Thema,
0:02:44–0:02:48
dass man sich selbst bewusst ist.
0:02:49–0:02:57
Und da ist es so, dass das es einen Bereich gibt, in dem vermutet wird,
0:02:58–0:03:03
dass Bewusstsein nur dann entstehen kann, wenn man sich selbst simuliert.
0:03:03–0:03:06
So, und genau dieses Thema möchte ich eigentlich besprechen.
0:03:06–0:03:11
Und zwar, dass selbst die Entstehung, die Entwicklung des Selbst,
0:03:11–0:03:12
wie werden wir das Selbst?
0:03:14–0:03:19
Und das ist dann wieder so vor einem entwicklungspsychologischen Hintergrund,
0:03:20–0:03:25
und in meinem Fall auch so ein bisschen mit einem psychodynamischen Anstrich.
0:03:25–0:03:29
Jetzt kein verhaltenstherapeutischer, sondern eher ein psychodynamischer Hintergrund.
Florian Clauß
0:03:30–0:03:37
Und das Selbst. Wir reden jetzt vom Menschen. Jetzt also.
Micz Flor
0:03:36–0:03:40
Genau. Ja, wir sind. Wir sind eine Biologie. Und ich bin ja generell so ein
0:03:40–0:03:42
bisschen dafür, dass es geht.
0:03:42–0:03:45
Manchmal bei der künstlichen Intelligenz Forschung so ein bisschen unter.
0:03:45–0:03:47
Ich habe so das Gefühl, dass Wissenschaftler so gerne unter sich ist,
0:03:47–0:03:52
dass alles irgendwie so ein bisschen außen vor gelassen wird.
0:03:52–0:03:55
Man geht halt schon irgendwie in die Neurologie, in die Biologie,
0:03:56–0:03:58
in die Informationstechnologie sowieso.
0:03:59–0:04:03
Also jetzt ist es natürlich so, dass man auch argumentieren könnte,
0:04:04–0:04:07
wenn man wirklich am Bewusstsein rumschrauben möchte,
0:04:08–0:04:12
wäre es nämlich auch sinnvoll, so was wie eine klinische Psychologie Psychotherapie
0:04:12–0:04:17
Psychiatrie da wirklich mit hinein zu lassen, weil.
0:04:19–0:04:26
Es ist ja zu erwarten, wie wir es ihm nach vielen, vielen Generationen Evolution
0:04:26–0:04:30
auch wissen. Es ist ja zu erwarten, dass nicht alles immer gleich genau so aus
0:04:30–0:04:32
der Dose kommt, wie man das gerne hätte.
Florian Clauß
0:04:32–0:04:36
Endlich meint man, man kann gleich die erste Hilfe implementieren.
Micz Flor
0:04:37–0:04:40
Nicht unbedingt Erste Hilfe. Aber vielleicht ist es ja nicht falsch.
0:04:40–0:04:46
Wir hatten doch diese Folge mit den Ameisen, wo ich meinte, dieser eine Dialogmoment,
0:04:46–0:04:52
wo der Linguist in dem Film von Phase 4567 welche Phase war es nun mal?
0:04:53–0:04:59
Der meinte, dass sie mit den Orcas sprechen können, aber nur mit denen, die Psychosen haben.
Florian Clauß
0:05:00–0:05:06
Das ist so ein bisschen Sonia Cosa, die von dir vor zwei folgen mit deinem Bild,
0:05:06–0:05:11
dass die außerirdische Lebensform kommt auf die Erde, und sie kann nur mit Fröschen
0:05:11–0:05:13
reden. Und die verstehen nicht.
0:05:14–0:05:15
Das sind Gary Larson.
Micz Flor
0:05:16–0:05:19
Stimmt. Ja. Ja, stimmt. Jetzt, wo du es gerade sagst, fällt mir ein,
0:05:19–0:05:25
dass sogar ein Star Trek Motiv Nobody die Wale bei im Star Trek Film sieht. Doch dann Kinofilm.
Florian Clauß
0:05:24–0:05:25
Ich glaube, wir.
Micz Flor
0:05:26–0:05:29
Das Gespräch mit Walen, die inzwischen ausgestorben sind.
0:05:30–0:05:33
Das heißt, gehen wir hier durch. Das ist auch weniger Wind.
0:05:34–0:05:38
So wie deine ewig lange Einleitung. Also mir geht es darum, um die Entwicklung
0:05:38–0:05:41
des Selbst zu sprechen, von psychodynamischen Hintergrund.
0:05:42–0:05:44
Ich werde da auch wieder Freud zu Wort kommen lassen, aber nicht,
0:05:44–0:05:49
weil ich mich als Freudianer verstehe. Da gibt es sicherlich vieles, was aufzuarbeiten ist.
0:05:50–0:05:54
Und gleichzeitig finde ich, dass wenn man die Originaltexte liest,
0:05:54–0:06:00
auch vieles an den Vorwürfen finde ich schon nicht in der Brisanz,
0:06:01–0:06:03
in der Freud manchmal kritisiert wird,
0:06:05–0:06:09
zu finden ist. So und vor allen Dingen in den deutschen Texten.
0:06:09–0:06:11
In den Amerikanern, also in der englischen Version ist es nun mal anders.
0:06:11–0:06:12
Vielleicht komme ich da noch.
Florian Clauß
0:06:13–0:06:16
Ähm, wo ist der Kontext zur künstlichen Intelligenz?
Micz Flor
0:06:16–0:06:21
Der Kontext der künstlichen Intelligenz ist, dass man vermutet,
0:06:21–0:06:24
dass so eine Form wie Bewusstsein oder Selbstbewusstsein nur dann entstehen
0:06:24–0:06:29
kann, wenn ein neuronales Netz in der Lage ist. In einer bestimmten Abstraktionsform
0:06:29–0:06:30
ist das eh schon geschehen.
0:06:31–0:06:36
Aber dann sich selbst noch mal zu simulieren, also dass man noch einen Abstraktionslayer einbaut.
0:06:38–0:06:42
Der noch was obendrauf, also Abstraktion bedeutet. Eine Programmiersprache in
0:06:42–0:06:48
der Regel, dass man versucht, sich nicht mit dem Bread und Butter Business von
0:06:48–0:06:49
irgendwelchen Niederungen zu,
0:06:50–0:06:53
beschäftigen, sondern nur auf das zu konzentrieren, was man wirklich machen will.
0:06:54–0:06:56
Ich kann ein gutes Beispiel geben. Noch als ich in die Schule gegangen bin,
0:06:56–0:07:00
hatten wir einen PC Lab. Da durfte man nur mitmachen, wenn man auch programmieren
0:07:00–0:07:04
konnte und ich konnte das nicht gut genug. Ich durfte eigentlich nicht mitmachen,
0:07:04–0:07:08
aber ein Freund von mir, der saß da drin und hat dann so den Witz gemacht.
0:07:08–0:07:13
Er konnte programmieren und hat dann am Terminal vom C64 rein getippt Make me
0:07:13–0:07:17
a game of Space Invaders, Enter und dann stand Command, Not,
0:07:17–0:07:20
FH und oder sowas. Und der guckt mich dann so an und meinte,
0:07:20–0:07:22
das kennt der Space Invaders nicht.
0:07:22–0:07:25
Und das war so ein Witz. Aber in Wahrheit sind wir da ja heute angekommen.
0:07:25–0:07:31
Also du kannst ja relativ bald einfach so sagen Please make me gamers,
0:07:31–0:07:35
bacon, Waters und schon geht's los. Und das ist Abstraktion.
0:07:35–0:07:38
Man muss dann also genau das ist dann quasi eine Abstraktion der künstlichen
0:07:38–0:07:40
Intelligenz, was obendrauf sitzt.
0:07:40–0:07:47
Sprache versteht, Intention, versteht, seinen Nutzer auch oder Nutzerinnen immer
0:07:47–0:07:52
besser kennenlernt und dementsprechend dann wirklich auch reagieren kann.
0:07:53–0:08:02
Und diese Abstraktion für Bewusstsein ist die Simulation.
0:08:03–0:08:08
Seiner selbst. So, also das ist quasi die Königsdisziplin. Das ist auch nichts,
0:08:08–0:08:10
was irgendwie gerade passiert.
0:08:10–0:08:14
Aber als ich das gelesen habe, hatte ich irgendwie gedacht, das ist ja wirklich
0:08:14–0:08:20
die Entwicklung des Selbst und das Selbst ist ein interessantes Konstrukt.
0:08:24–0:08:26
Fang erst mal!
0:08:28–0:08:31
Es ist eigentlich ein Konstrukt, das sowieso in der Philosophie,
0:08:31–0:08:36
aber eben auch in der Psychologie der psychotherapeutischen Psychodynamik irgendwie
0:08:36–0:08:38
mit gefunden werden kann.
0:08:38–0:08:44
Ich fang gleich mal irgendwie mit Freud an und in den Dingen,
0:08:45–0:08:47
die eigentlich alle über Freud kennen,
0:08:48–0:08:53
das sind diese beiden, wie sie heißen, topischen Modelle, also wirklich örtliche
0:08:53–0:08:55
Modelle von einer psychischen Struktur.
0:08:55–0:09:00
Der hat also etwas aufgezeichnet und versucht zu erklären, was eigentlich,
0:09:01–0:09:03
würde man heute sagen, schon eine Form von Abstraktion ist.
0:09:03–0:09:06
Aber er hatte wirklich versucht, das als Bild so darzustellen,
0:09:07–0:09:12
dass er ein Körper zeichnet und da ist unten ein Esel und obendrüber ist ein
0:09:12–0:09:17
Ich und das Ganze, das möchte ich auch dann noch in unsere Galerie reinnehmen.
0:09:17–0:09:22
Das erste topische Modell. Das Ganze ist auch so ein bisschen wie so eine einfache
0:09:22–0:09:27
Eizelle gezeichnet und er hat dann oben dran noch so ein kleines Quadrat Würfelchen gemacht.
0:09:27–0:09:32
Das ist, glaube ich, das akustische Interface zur Welt.
0:09:33–0:09:37
Akustisches Interview hat. Er hatte wirklich so die Akustik dann noch mal draufgeschrieben,
0:09:37–0:09:46
und die Theorie von Freud besagt ja, dass das Es ist der eigentliche Herr im Haus.
0:09:46–0:09:51
Da sind wir natürlich wieder bei einer Sprache, die heute auch gerne kritisiert wird. Das ist sehr.
Florian Clauß
0:09:51–0:09:55
Er sagte wortwörtlich. Also Herr im Haus.
Micz Flor
0:09:53–0:09:58
Ähm, wir sind nicht Herr im eigenen Haus. Es ist, glaube ich der wörtliche.
0:09:59–0:10:02
Also, das ist es, was uns bestimmt.
Florian Clauß
0:10:02–0:10:04
Ich frage jetzt. Freud setzt aber ab, merkst du?
Micz Flor
0:10:04–0:10:09
Ja, genau. Ich habe noch ein paar Sachen auswendig gelernt, dann reinwerfen kann.
Florian Clauß
0:10:09–0:10:10
Es ist immer gut als.
Micz Flor
0:10:11–0:10:16
Der Hintergrund, der Hintergrund ist zweierlei.
0:10:17–0:10:21
Das eine ist natürlich, da geht es um dieses Thema Freier Wille im weiteren Sinne.
0:10:22–0:10:29
Wenn wir wirklich nur in Anführungszeichen getrieben werden,
0:10:29–0:10:32
buchstäblich, weil das Wort Trieb kommt ja auch bei Freud vor.
0:10:34–0:10:37
Wie viel freien Willen haben wir überhaupt, Dinge zu entscheiden?
0:10:38–0:10:41
Es gibt sicherlich zum Beispiel ein Moment auf so einer somatischen Embryo so
0:10:41–0:10:44
viel Hunger haben, dass wir einfach nicht mehr gerade denken können.
0:10:44–0:10:47
Und da ist es sehr spürbar. Kann sich jeder vorstellen.
0:10:48–0:10:52
Aber wenn es schon beim Hunger so ist, was ist es denn noch, was uns alles,
0:10:54–0:10:59
was, was unser Verhalten, unsere Emotionen, unser in der Welt Sein so stark bestimmen kann?
0:11:00–0:11:02
Und das sind eben bei ihm die Triebe.
0:11:04–0:11:10
Und neben dem freien Willen ging es Freud aber vor allen Dingen auch um was Zweites.
0:11:11–0:11:14
Und zwar hat er versucht.
0:11:16–0:11:20
Ähm. So ein ganz großes Problem zu lösen, was wir jetzt auch wieder lösen wollen, nämlich dieses.
0:11:23–0:11:29
Leib Seele Dualismus. Also wo berühren sich Körper und Geist oder Leib und Seele,
0:11:29–0:11:31
wie man es nennen möchte?
0:11:31–0:11:36
Das hatte ich ja auch in der Folge mit Roger Penrose und Quantenphysik und so,
0:11:36–0:11:44
wo man jetzt wieder versucht herauszufinden, ob nicht Teil unserer Neuronen über Quanten,
0:11:45–0:11:51
wie auch immer quantenmechanische Worte mit ja mit etwas anderem verbunden sind.
Florian Clauß
0:11:48–0:11:49
Ein Fehler.
Micz Flor
0:11:51–0:11:57
Also man versucht da auch wieder so eine Schnittstelle zu finden zwischen Leib und Seele.
0:11:57–0:12:01
Und Freud wollte das auch. Also dieses Problem wollte er lösen.
0:12:01–0:12:05
Und er hat dann auch buchstäblich mal geschrieben wir fassen den Trieb als den
0:12:06–0:12:09
Grenzbegriff des Somatischen gegen das Seelische.
0:12:10–0:12:12
Was hat er damit gemeint?
Florian Clauß
0:12:12–0:12:16
Es wird, aber ich muss quasi das Körperliche gegen das Seelische ist der.
Micz Flor
0:12:17–0:12:18
Und dass der Grenzbegriff der.
Florian Clauß
0:12:18–0:12:23
Das ist eine Grenze. Es ist eine Abgrenzungsaktion, oder?
Micz Flor
0:12:25–0:12:29
Also der Grenzbegriff des Somatischen gegen das Seelische.
Florian Clauß
0:12:29–0:12:34
Und das heißt, der Trieb ist dann eher semantisch zuzuordnen, oder?
Micz Flor
0:12:36–0:12:40
Der Trieb, also das Seelische und das Körperliche oder physikalisch und Geistige,
0:12:40–0:12:44
wie man es nennen möchte, hat ja dieses große philosophische Problem.
0:12:45–0:12:48
Das Geistige nimmt keinen Platz ein oder hat keinen Ort.
0:12:48–0:12:53
Das Physikalische ist halt ortsgebunden. Wie kann was, was nicht örtlich ist,
0:12:53–0:12:56
ein örtliches irgendwie miteinander interagieren? Wie können die sich berühren?
0:12:57–0:13:02
Ungelöst. Und Freud hat gesagt Ich hab's.
0:13:05–0:13:10
Im Körper. In diesem saftigen, lebendigen Saft, den wir da sind.
0:13:11–0:13:14
Da gibt es diese Triebe und diese Triebe entstehen im Körper.
0:13:16–0:13:18
Ich habe vorhin Hunger genannt. Nehmen wir einfach mal Hunger als Beispiel.
0:13:18–0:13:20
Und das entsteht im Körper.
0:13:20–0:13:24
Und es wirkt aber auf das Seelische. Das ist wie so ein Interface zwischen diesen
0:13:24–0:13:27
beiden Elementen. Das verbindet die beiden zusammen.
0:13:27–0:13:32
Es entsteht im Körper und es wirkt ins Seelische hinein, ins Gemüt, in die Emotion.
0:13:32–0:13:36
Und das ist dann aber auch der Sexualtrieb.
0:13:36–0:13:40
Das ist ja ein ganz wichtiges Thema, dass Sexualität sehr, sehr bestimmend ist,
0:13:41–0:13:46
auch schon, was ganz verpönt war damals auch schon im Kindesalter,
0:13:46–0:13:52
im frühen Kindesalter eben die sexuelle Entwicklung auch ein wichtiger Teil der,
0:13:53–0:13:56
Entwicklung allgemein ist. Das wollte man damals gar nicht hören.
0:13:57–0:14:02
Und dieser Trieb ist also laut Freud.
0:14:04–0:14:12
Die Verbindung zwischen Leib und Seele oder Körper und Geist und.
Florian Clauß
0:14:09–0:14:10
Okay.
Micz Flor
0:14:15–0:14:21
Jetzt gibt es in diesem ersten utopischen Modell, also in diesem Oval,
0:14:21–0:14:28
was da unten, das ist oben, das Ich und obendrauf noch diesen kleinen Höcker mit dem Akustik.
Florian Clauß
0:14:28–0:14:30
Ich muss die Bilder dann auf jeden Fall.
Micz Flor
0:14:30–0:14:34
Dem muss ich da reinmachen, weil dieses für mich ist das total wichtig.
0:14:34–0:14:37
Wir reden jetzt über eine Form der Simulation, über eine Abstraktion.
0:14:37–0:14:42
Aber du merkst, Freud war ja ursprünglich Arzt, ausgebildeter Arzt,
0:14:42–0:14:45
hat sich später aber dann irgendwie in seiner Entwicklung.
0:14:47–0:14:51
Das ist psycho dynamischen Modelle davon auch ein bisschen distanziert und hat
0:14:51–0:14:57
eigentlich gesagt, dass die die Ausbildung zum Arzt, die ja wirklich immer sehr stark auf,
0:14:58–0:15:03
somatische Sachen reagiert, dass das nicht unbedingt hilfreich ist für,
0:15:04–0:15:06
das Verständnis psychischer Prozesse.
0:15:07–0:15:13
Und trotzdem war natürlich im Körperlichen, also so im Sinne Herkunft war halt
0:15:13–0:15:17
dieser Körper der Ort, an dem der Trieb entsteht.
0:15:17–0:15:21
Und dann muss der aber natürlich irgendwie reguliert werden,
0:15:21–0:15:25
weil wir leben ja als soziale Wesen miteinander. Es gibt ein Interface nach
0:15:25–0:15:27
außen, wie zum Beispiel dieses kleine dörfliche mit Akustik,
0:15:28–0:15:30
aber wir sind mit anderen Menschen in Kontakt.
0:15:30–0:15:34
Das war für Freud anfangs gar nicht so ein großes Thema, weil er sehr stark
0:15:34–0:15:37
auf die intrapsychischen Prozesse fokussiert
0:15:37–0:15:43
war. Aber das Ich bildet die Schnittstelle zwischen Umwelt und Es.
0:15:44–0:15:53
Das Ich war für Freud eigentlich permanent unter Druck und musste die ganze
0:15:53–0:15:55
Zeit dieses Es in Schach halten,
0:15:56–0:16:01
damit der komplette Organismus in der Welt gut navigieren kann, gut sein kann.
0:16:05–0:16:06
An uns vorbei.
0:16:12–0:16:15
Es ist wieder so windig. Das Lustige nördlich vom Engelberg.
Florian Clauß
0:16:15–0:16:21
Ich mache mal so eine Compilation von dir mit allen Folgen, wo du sagst Ich
0:16:21–0:16:24
weiß gar nicht, wo wir sind, ich habe keine Ahnung.
0:16:24–0:16:29
Wo sind wir eigentlich? Nicht jede Folge. Ich kenn es nicht.
Micz Flor
0:16:25–0:16:30
Naja, hier weiß ich, wo wir sind. Ich weiß genau, wo wir sind.
Florian Clauß
0:16:30–0:16:33
Ich weiß überhaupt nicht, wo wir sind. Du bist doch hier zu Hause.
Micz Flor
0:16:31–0:16:34
Na gut, dann nehme ich mal die Führung. Genau.
Florian Clauß
0:16:36–0:16:40
Also das ich das ist und das und der Trieb dazwischen.
Micz Flor
0:16:41–0:16:46
Der Trieb, aus dem es drängt auf das Ich. Das Ich ist quasi der regulierende Faktor.
0:16:46–0:16:52
Und dann hat Freud später im zweiten topischen Modell auch das über Ich eingeführt,
0:16:52–0:16:55
dann ist das Ich wirklich unter Beschuss.
Florian Clauß
0:16:54–0:16:55
Der Höcker.
Micz Flor
0:16:55–0:16:59
Das war dann oben drüber noch das ist auch das werde ich dann unten zeigen das
0:16:59–0:17:01
heißt das überich ist in.
0:17:02–0:17:07
Es ist vereinfacht gesagt so, das was man so mitbekommt, auf welche Art auch
0:17:07–0:17:10
immer über Bindung, Beziehung, Kultur an Regeln.
0:17:10–0:17:17
Also so von oben wird nochmal reguliert, von unten drängt es es, was es alles will.
0:17:17–0:17:22
In der Gestalttherapie heißt es auch der Underdog, der von unten versucht irgendwie
0:17:22–0:17:26
sein Zeug durchzusetzen, von oben der Topdog, also das über ich drückt halt
0:17:26–0:17:28
runter, sagt das geht so nicht
0:17:28–0:17:32
und das ich in der Mitte muss zwischen diesen Instanzen moderieren,
0:17:32–0:17:35
damit man überhaupt einigermaßen gerade durch die Welt kommen kann.
0:17:37–0:17:41
Freud hat dann auch das selbst eingeführt. Das kam so als kleines,
0:17:41–0:17:43
als kleine Hilfesituation, weil,
0:17:45–0:17:49
es gibt halt bestimmte Dinge in seinem Konstrukt und du weißt,
0:17:49–0:17:54
dass es jetzt eine andere Form der Wissenschaft, es ist jetzt keine Neurologie,
0:17:54–0:17:59
es ist auch keine IT, sondern das ist eine Wissenschaft, in der man Hypothesen,
0:17:59–0:18:03
Plausibilitäten und so was dann erst mal in Theorien packt und guckt,
0:18:03–0:18:04
ob man nicht später irgendwie.
0:18:07–0:18:12
Belegen kann. So, aber er hat halt in seinem logischen Denken gemerkt Moment
0:18:12–0:18:16
mal, ich muss noch eine Instanz einführen, weil nicht alles,
0:18:16–0:18:23
was das Ich bedrängt, kommt entweder von außen als in Form des Überichs, als irgendwelche
0:18:23–0:18:27
kontrollierenden Elemente von oben oder von unten drängt aus dem Eis,
0:18:27–0:18:32
sondern es gibt auch so ganz banale Sachen wie zum Beispiel somatische Bedürfnisse, Pinkeln,
0:18:33–0:18:36
Essen, so Sachen, die hat er natürlich nicht im es gegeben.
0:18:36–0:18:41
Die Triebe des Ichs sind zum Beispiel eben der Sexualtrieb.
0:18:41–0:18:45
Dann später hat er noch den Todestrieb gefunden, hat sich dann aber auch selber
0:18:45–0:18:49
ein bisschen dagegen ausgesprochen, dass alle Menschen auf einmal irgendwelche
0:18:49–0:18:53
Triebe erfinden, den Innovationstrieb, den.
Florian Clauß
0:18:54–0:18:59
Sie hätte es schon so versucht in so eine Taxonomie zu bringen, oder?
Micz Flor
0:18:59–0:19:02
Ja, ja und vor allen Dingen, das ist auch noch wichtig zu betonen,
0:19:02–0:19:04
ist nämlich in der englischen Übersetzung ganz verloren gegangen.
0:19:04–0:19:09
Er wollte exklusiv eine Sprache finden, die einfach ist mit Worten,
0:19:09–0:19:12
die auch alle irgendwie kennen. Das heißt es und ich.
0:19:13–0:19:18
Und in der englischen Übersetzung, weil Amerika so damals schon sehr wissenschaftsgläubig
0:19:18–0:19:22
war und alles musste wissenschaftlich gefasst sein, wurde das dann.
0:19:22–0:19:28
Es wurde mit IT und ich mit Ego übersetzt und Superego.
0:19:28–0:19:32
Also da wurden Begriffe gefunden, die halt dann irgendwie so einen wissenschaftlicheren
0:19:32–0:19:37
Anstrich hatten und Fehlhandlungen zum Beispiel die Freudschen Fehlleistungen
0:19:37–0:19:41
kennst du ja, wo man diese Versprecher macht, wo die wahren Anführungszeichen
0:19:41–0:19:42
Intentionen zum Vorschein kommen,
0:19:43–0:19:46
angeblich das,
0:19:48–0:19:48
was.
Florian Clauß
0:19:49–0:19:54
Nee, sorry, das ist jetzt keine rauswerfen, aber hier ist eine Eckkneipe,
0:19:54–0:19:59
die sieht so aus, als ob man hier Skat spielen kann. Berliner Wappen.
Micz Flor
0:19:58–0:20:00
Ja, es steht, ist sogar preisgekrönt.
Florian Clauß
0:20:00–0:20:02
Und ich finde ja solche Eckkneipen immer sehr.
Micz Flor
0:20:02–0:20:05
Es gibt nicht hier Skaturnier. Das ist 18..
Florian Clauß
0:20:05–0:20:10
Schwach Skat ohne Eier. Doch habe ich richtig am 18. zweite mit Fasching.
Micz Flor
0:20:08–0:20:09
Und Faschings.
0:20:13–0:20:18
Herr. Gut. Auf jeden Fall. Danke. Du hast mich jetzt unterbrochen,
0:20:18–0:20:19
also kann ich wieder zurückkommen.
0:20:20–0:20:26
Hat Freud diesen Begriff des Selbst schon eingeführt? Hat aber irgendwie sehr
0:20:26–0:20:31
an seinem biologischen System sozusagen so ein bisschen festgehalten, finde ich.
0:20:31–0:20:35
Sieht man auch in diesen Zeichnungen von Freud. Gibt es eigentlich keine Diagramme,
0:20:35–0:20:38
wie man die heute kennt. Pfeile oben, unten, rechts, links und so?
0:20:39–0:20:43
So, aber dieses Wort selbst, das war dann schon in der Welt.
0:20:43–0:20:45
Jetzt überlegt man Was ist denn das Selbst?
Florian Clauß
0:20:46–0:20:46
Hey, Julian.
Micz Flor
0:20:47–0:20:51
Es ist ja, überlegst du, Kannst du.
Florian Clauß
0:20:49–0:20:52
Überlegst du? Nee. Soll ich?
Micz Flor
0:20:53–0:20:56
Wie würdest du denn in diesem. Wenn das selbst der Ort des.
Florian Clauß
0:20:56–0:21:01
Also in diesem, in diesem, in diesem Gespann. Also das heißt eigentlich.
Micz Flor
0:20:59–0:21:00
Wir haben also die Triebe von unten.
Florian Clauß
0:21:01–0:21:04
Eigentlich möchte man doch meinen, das Selbst wäre doch das Ich.
0:21:05–0:21:08
Aber irgendwie scheint ja dann selbst wieder so eine Reflexion zu sein.
0:21:08–0:21:10
Das heißt, es muss ja durch so einen Filterprozess gehen.
Micz Flor
0:21:12–0:21:17
Das ist nämlich genau der Punkt. Der Punkt ist nämlich, dass in diesem Selbst
0:21:17–0:21:22
anfangs für Freud nur so was wie somatische Bedürfnisse so ein bisschen drin waren.
0:21:23–0:21:28
Und dann kam aber zunehmend auch auf in der Forschung, in der kleinen Säuglingsforschung,
0:21:28–0:21:33
so später, hieß es ja auch der kompetente Säugling, das war deutlich später
0:21:33–0:21:37
und man hat schon früh gemerkt, na ja, also diese Kompetenzen des Ichs,
0:21:38–0:21:44
das ist schon ein bisschen mehr als irgendwie Hunger haben oder ähm, aufs Klo müssen.
0:21:45–0:21:50
Das ich kann schon ganz schön viel. Da sind Dinge angelegt, da sind Kompetenzen da das es gibt.
0:21:50–0:21:56
Und das ist der Punkt, den hat ein Herr Hartmann später so formuliert Es gibt
0:21:56–0:21:59
eine konfliktfreie Zone. Das ist nicht nur einfach getrieben,
0:21:59–0:22:01
sondern es ist kompetent.
0:22:01–0:22:03
Das Ich kann sich in der Welt orientieren.
0:22:03–0:22:06
Entschuldigung, das Selbst kann sich in der Welt orientieren.
0:22:06–0:22:12
Das Selbst kann eben der Ort, wo, wo wir zum Beispiel auch Modelle über die
0:22:12–0:22:15
Welt später fassen können, das ist alles in einem selbst.
0:22:18–0:22:24
Gehalten. Und dieses Selbst, das ist es.
0:22:24–0:22:26
Lustig. Ich glaube heute, die Folge wird vielleicht ganz kurz,
0:22:26–0:22:27
wenn du mich nicht unterbrichst.
0:22:27–0:22:36
Dieses Selbst ist der Ort, in dem wir genau das tun, was jetzt in dir,
0:22:36–0:22:42
in der neuronalen Netz Überlegungen, Forschung, so was reflektiert wird.
0:22:42–0:22:48
Da entsteht in gewisser Weise eine Simulation von uns, das Ich und diese ganzen
0:22:48–0:22:51
Ich Prozesse, das ist eher wirklich auf diese somatischen Ebene.
0:22:52–0:22:57
Das Selbst ist ein Bild von uns, was wir von uns haben und dieses Bild von uns,
0:22:57–0:23:05
das wir generieren, das wird über die Zeit auch immer, wie soll ich sagen, immer abstrakter.
0:23:05–0:23:11
Es gibt in diesen Entwicklungen aus psychosozialen Entwicklungstheorien,
0:23:11–0:23:15
gibt es so bestimmte Phasen, dann gibt es halt die, die Phasen,
0:23:15–0:23:19
die jeder kennt von Freud, oral, anal, ödipale Phasen.
0:23:19–0:23:22
Aber es wurde dann später von anderen noch weiter ausgebaut,
0:23:22–0:23:24
von Erikson so was wie Lebensaufgaben.
0:23:24–0:23:28
Und wenn man dann mal so genau hinguckt, wenn man auch selber mal Kinder hatte,
0:23:28–0:23:32
da sieht man das besser, als wenn man an seine eigene Biografie denkt.
0:23:33–0:23:38
Dann gibt es immer so Formen von Abstraktion,
0:23:38–0:23:43
also wo du merkst, das heißt dann immer Entwicklungsschübe in solchen Kindern,
0:23:43–0:23:48
Entwicklungsbüchern, wo du merkst, da kommt eine Form von Erkenntnis,
0:23:48–0:23:53
die natürlich ganz früh immer so noch verbal ist, da kann sich auch keiner mehr dran erinnern.
0:23:53–0:23:57
Aber wo man selber merkt, gerade hat irgendwas Klick gemacht.
0:23:57–0:24:01
Man denkt da auch oft als Eltern somatisch, jetzt kommen die Zähne oder so.
0:24:01–0:24:07
Aber es gibt eben auch so kognitive Schübe, wo auch ganz früh am Anfang auf
0:24:07–0:24:12
einer organischen Ebene zum Beispiel die Augen auf einmal scharfstellen können
0:24:12–0:24:14
und die Welt dadurch natürlich anders wahrgenommen wird.
0:24:14–0:24:18
Das sind so organische Ebene, aber es entstehen auch kognitive Ebenen.
0:24:18–0:24:25
Irgendwann kommt diese Sprachkompetenz, es entwickelt sich ja alles in vergleichbaren Zeitabständen.
0:24:25–0:24:32
Also man merkt auch, dass das in diesem Selbst immer mehr Kompetenzen heranwachsen,
0:24:33–0:24:36
die alle auch sozial entstehen und die dann.
0:24:39–0:24:45
Ja die Kompetenz des Organismus, sag ich mal, erhöhen. Das ist der eine Teil. Und Freud würde,
0:24:47–0:24:51
intra psychisch eben so Entwicklungsphasen auch natürlich sowieso annehmen.
0:24:51–0:24:54
Das hat man ja irgendwie oral anal schon erlebt.
0:24:54–0:24:57
Aber was ganz wichtig ist, ist.
0:25:00–0:25:07
In dieser Entwicklung das soziale Element. Die Frage ist Wie entsteht dieses
0:25:07–0:25:09
Selbst in der menschlichen Entwicklung?
0:25:10–0:25:12
Da ist es so, dass.
0:25:16–0:25:18
Wenn man noch mal einen Schritt zurückgeht, der auf einer rein somatischen.
0:25:19–0:25:25
Das aufgrund der Anatomie des menschlichen Lebens, aufgrund des großen Gehirns.
0:25:25–0:25:28
Und so ist es ja so, dass wir inzwischen davon ausgehen können,
0:25:28–0:25:35
dass Kinder im Vergleich zu anderen Säugetieren irgendwie fast ein Jahr zu früh geboren werden.
0:25:35–0:25:39
Also sie sind auf der Welt völlig.
0:25:41–0:25:45
Erst mal angewiesen auf Versorgung. Die.
Florian Clauß
0:25:45–0:25:48
Glaube ich kein anderes Tier,
0:25:50–0:26:00
wo quasi die nach der Geburt das das Kind so wenig kann.
0:26:01–0:26:04
Oder fällt ihr da noch irgendwie anders ein? Ich meine die meisten stehen dann
0:26:04–0:26:08
ja gleich auf und fangen an zu laufen. Irgendwelche Gnus oder so?
Micz Flor
0:26:09–0:26:12
Ja, es ist auch krass, wenn du dann bestimmt nicht meins gibt,
0:26:13–0:26:16
weil ich das gesehen. Also ein Video von einem Chamäleon Baby,
0:26:16–0:26:22
das aus dem Ei schlüpft und was dann sofort losläuft und von einem Blatt aufs andere kletterten und.
Florian Clauß
0:26:22–0:26:23
Also die haben schon voll das Programm.
Micz Flor
0:26:24–0:26:29
Ja, und es wird eben. Da kann ich dir jetzt ganz gut diese Übersetzungsproblematik
0:26:29–0:26:31
zwischen Deutsch und Englisch schon mal so,
0:26:33–0:26:40
aufzeigen. Der Mensch ist eigentlich ein ein Lebewesen,
0:26:41–0:26:49
was im Vergleich oder wo der Anteil der Instinkte relativ gering ist zu anderen
0:26:49–0:26:51
Tieren, also so was wie Instinkt.
0:26:52–0:26:57
Wir können unglaublich viel regulieren. Wir sind da unglaublich anpassungsfähig,
0:26:57–0:27:00
können uns zurückhalten, wir können höchsten.
0:27:00–0:27:07
Wir können also diese Instinkte zum Beispiel würde man habe ich mal irgendwo gelesen, würde man ein,
0:27:08–0:27:13
Flugzeug, ne Boeing 747 mit Schimpansen besetzen und versuchen über den Atlantik
0:27:13–0:27:15
zu fliegen, würden sie sich gegenseitig einfach umbringen.
0:27:15–0:27:19
ZEIT Während Menschen dann irgendwie so geduldig und dann Gut,
0:27:19–0:27:22
die kriegen dann wahrscheinlich psychosomatische Leiden irgendwann.
0:27:22–0:27:26
Und trotzdem ist es so, dass der Mensch in der Lage ist, das,
0:27:26–0:27:30
was bei anderen Tieren instinktgeladen ist oder instinktgetrieben ist.
0:27:33–0:27:40
Zu regulieren, innerlich zu regulieren. Und das hat auch mit diesem Wort des Triebes zu tun.
0:27:40–0:27:44
Der Trieb ist etwas, was regulierbar ist.
0:27:44–0:27:48
Du kannst den Hunger irgendwie hinauszögern, irgendwann, jetzt nicht mehr.
0:27:48–0:27:51
Aber du kannst mit mit diesen Dingen, die von unten drängen,
0:27:51–0:27:53
Sexualtrieb. Und so kannst du.
0:27:59–0:28:05
Nicht instinkthaft, sondern eben du kannst das beeinflussen.
0:28:05–0:28:08
Und der Instinkt, da geht es halt nicht. Wenn du halt mit einer Katze mit dem
0:28:08–0:28:10
Laserpointer von einem Teppich, die kann nicht anders.
0:28:11–0:28:14
Das sieht man manchmal sogar bei Katzen, dass die dann aussteigen wollen,
0:28:14–0:28:17
indem sie weggucken, weil sie merken, solange dieses Ding vor mir hin flackert.
0:28:17–0:28:19
Ich muss, ich muss, ich muss.
0:28:19–0:28:24
Das heißt, wir haben als Menschen relativ wenig Instinkte. Und wie du sagtest,
0:28:24–0:28:29
wenn wir geboren werden, haben wir deshalb auch ziemlich viel zu lernen,
0:28:29–0:28:32
weil unglaublich wenig von automatisch irgendwie rein kickt.
0:28:32–0:28:36
Da gibt es so ein paar Vitalzeichen, dazu gehören auch Greifreflexe und so.
0:28:37–0:28:40
Aber die verlernen wir dann schnell. Dann kann man irgendwie auch automatisch,
0:28:40–0:28:43
wenn man fällt, die Luft anhalten als ganz kleines Kind.
0:28:44–0:28:48
Aber das verlernen wir alles wieder. Und dann sind wir angewiesen auf Versorgung.
0:28:49–0:28:51
Die kurze Fußnote zu diesem Übersetzungsthema.
0:28:52–0:28:59
Im Englischen wird nicht Trip mit Drive übersetzt und Trip ist ja auch im Deutschen
0:28:59–0:29:02
erst mal wieder auch so ein Wort, wo jeder was intuitiv mit anfangen kann.
0:29:03–0:29:10
Sondern statt Drive wurde da Instinkt verwendet, was, was natürlich ein völlig
0:29:10–0:29:15
falsches Bild aufmacht. Auch was Diese Rolle des Triebes im Sinne von Instinkt
0:29:15–0:29:17
kann man nicht regulieren.
0:29:17–0:29:23
Ein Instinkt ist halt eine Reaktion auf einen Reiz oder auf einen Kontext, auf eine Situation.
0:29:23–0:29:25
Ein Trieb hingegen, der ist regulierbar.
0:29:26–0:29:32
Und ja, das noch mal zu dieser Übersetzung sthematik, weil im Englischen die
0:29:32–0:29:36
Psychoanalyse oft eben sofort auch in diese medizinische Wissenschaft gepackt
0:29:36–0:29:40
wurde, während die Psychologie ursprünglich in,
0:29:41–0:29:44
Europa eher mit der Philosophie noch verbandelt war.
0:29:49–0:29:53
Das heißt, wir sind jetzt da. Wir sagen, es gibt so was wie den Begriff des Selbst.
0:29:54–0:29:58
Und jetzt ist natürlich die Frage, wie komme ich dazu, den zu entwickeln?
0:29:58–0:30:01
Wie kann ich. Als kleines Kind komme ich auf die Welt. Ich habe ein paar Instinkte,
0:30:01–0:30:06
die meisten davon verlerne ich. Dann bin ich auf Hilfe angewiesen.
0:30:07–0:30:13
Diese Hilfe bekomme ich natürlich, weil ich auch extrem süß bin und gleichzeitig ja.
0:30:13–0:30:19
Und das entsteht aber auch in dieser Beziehungsdynamik eine Form von,
0:30:21–0:30:25
von in Anführungszeichen Kontrolle, wo das Kind es scheinbar herstellen kann,
0:30:26–0:30:29
einerseits süß zu sein, andererseits aber so nervtötend auch mal zu schreien
0:30:29–0:30:33
oder aber einfach auch seine Wünsche zu vermitteln.
0:30:34–0:30:39
Das ist schon irgendwie angelegt. Wir sind eben nicht nur intrapsychische Einzelkämpfer
0:30:39–0:30:45
und Kämpferinnen, sondern wir sind soziale Wesen, die im Kontakt hauptsächlich
0:30:45–0:30:49
in der Regel mit der Mutter in ganz jungen Zeiten.
0:30:52–0:30:59
Lernen wir lernen und das erste, was wir lernen, ist, dass wir in der Welt sein
0:30:59–0:31:05
dürfen, dass wir getragen werden, dass wir gestillt werden, dass wir meistens auch gewickelt werden.
0:31:09–0:31:15
Und diese Begleitung ist etwas.
0:31:16–0:31:21
Was? Und jetzt mach ich einen kleinen Sprung. Ähm.
0:31:22–0:31:29
Ein Herr Kohout aus, äh, in Amerika hat den Begriff der Selbstpsychologie,
0:31:29–0:31:33
der Selfsychologie entwickelt und hat,
0:31:34–0:31:39
fand ich so ganz schön beschrieben, was so ein Kind durchlebt,
0:31:39–0:31:40
wenn man es vereinfacht darstellt.
0:31:40–0:31:42
Das erste ist, dass das Kind.
0:31:45–0:31:49
Omnipotenz Phantasien entwickelt, vielleicht in der Form, weil es wird überall
0:31:49–0:31:51
hingetragen und muss sich um nichts kümmern. Es wird gefüttert.
0:31:51–0:31:52
Es ist quasi einfach sehr,
0:31:55–0:31:58
sehr es wird, es wird einfach die ganze Zeit versorgt.
0:31:58–0:32:02
Das zweite ist dann, das ist natürlich mit zunehmendem Wachsen,
0:32:02–0:32:07
zunehmenden, auch körperlichen Kompetenzen, die dazukommen, immer wieder natürlich
0:32:07–0:32:09
auch bestimmte Frustrationen erlebt.
0:32:09–0:32:15
Es wird nicht immer nur rechtzeitig gestillt und getragen und es gibt dann irgendwann
0:32:15–0:32:20
auch zunehmend Frustration, die auch teilweise einfach im eigenen Fähigkeiten angelegt sind.
0:32:20–0:32:24
Zum Beispiel kann es nicht von vornherein krabbeln, das muss es halt alles irgendwie
0:32:24–0:32:26
lernen. Das kann man ihm auch nicht abnehmen.
0:32:26–0:32:31
Irgendwann will es das ja auch lernen. Du hast ja auch kleine Kinder schon um,
0:32:31–0:32:34
die hält das die am Boden auch schon versuchen quasi sich so abzudrücken.
0:32:34–0:32:39
Da sind schon Sachen angelegt, die zu entwickeln ist harte Arbeit und es ist
0:32:39–0:32:44
frustrierend und gut meint so das in ganz natürlich in dem Ablauf,
0:32:45–0:32:50
von der Geburt so über die ersten ein zwei Jahre hinweg das Kind zunehmend durch
0:32:50–0:32:53
die Frustration und Herausforderung, aber auch Dinge lernt,
0:32:54–0:33:00
sich in der Form dann auch autonomer von der Mutter wieder trennt und.
0:33:02–0:33:06
Die Rolle der Eltern, wenn sie als solche erkannt werden.
0:33:07–0:33:11
Anfangs eine Rolle ist von so Gottähnlichen. Da könnte man auch sagen,
0:33:11–0:33:15
dass die Titanen und die Zeus und die griechischen Götter, dass das so Bilder
0:33:15–0:33:18
sind von sehr frühen Eltern, die alles können, die einen Ruhm tragen,
0:33:18–0:33:20
die Essen an den Tisch bringen, die eigentlich immer so.
Florian Clauß
0:33:20–0:33:21
Und bestrafen.
Micz Flor
0:33:21–0:33:22
Und auch bestrafen,
0:33:24–0:33:25
und aber auch fördern und lieben.
0:33:25–0:33:28
Also das ist alles auch angelegt und.
0:33:30–0:33:30
Und.
0:33:33–0:33:36
Auch da ist es so, dass mit zunehmendem Wachsen dann diese Eltern,
0:33:36–0:33:42
natürlich diese, diese gottgleichen Fähigkeiten ein bisschen verlieren und aus,
0:33:43–0:33:47
wie er sagt, ist halt das aus diesem Eltern. Imago nennt er das.
0:33:47–0:33:54
Also diese überhöhte Darstellung, das das zieht sich dann zusammen in so eine Art von Wertesystem.
0:33:54–0:33:58
Also was bleibt von den Eltern, von der Beziehung? Beziehungserfahrungen ist
0:33:58–0:34:01
halt, dass man so ein Wertesystem mitbekommt.
0:34:02–0:34:05
Und das ist dann auch ein bisschen wieder an die ein Kind of Age.
0:34:05–0:34:07
Diese transgenerational Weitergabe von.
Florian Clauß
0:34:06–0:34:11
Aber wir gehen auch jetzt so in der Nähe. Nur hier sind wir auch langgegangen.
Micz Flor
0:34:11–0:34:13
War das hier? Nee, das war doch da unten, oder?
Florian Clauß
0:34:11–0:34:12
Weil ich ihn kannte. Er hätte.
0:34:13–0:34:16
Naja, du bist nicht weit, aber es ist schön auf den Pfaden.
Micz Flor
0:34:16–0:34:19
Auf den gleichen Plan. Dann erinnere ich mich vielleicht einfach.
Florian Clauß
0:34:19–0:34:27
Na, wir sind ja auch da hinten geendet. Mit ihnen kannst du also um die Ecke aber okay fahren.
Micz Flor
0:34:24–0:34:24
Ja.
0:34:27–0:34:29
Mein Faden, Herr.
Florian Clauß
0:34:29–0:34:34
Also was mich jetzt total interessiert oder was ich jetzt interessant finde,
0:34:35–0:34:37
ist wie kriegen wir dass wir auf das Modell der KI zurück?
Micz Flor
0:34:38–0:34:45
Ja, also das Modell der KI ist, wenn wir in die Neurologie hineinschauen,
0:34:45–0:34:51
dann kann man sagen okay, Freud und Winnicott und dieser Code,
0:34:51–0:34:52
die können ja alle viel erzählen.
0:34:54–0:35:00
Ist das denn so, oder ist das nicht so? Und da fand ich, dass also der aktuelle
0:35:00–0:35:08
Wissensstand dazu ist auch auf einer neurologischen Ebene, dass es in der Tat so ein Areal gibt.
0:35:08–0:35:13
Also man hat dann so bildgebende Verfahren, wie funktioniert da die Technik, Das heißt,
0:35:14–0:35:24
man kann Aktivitäten, nicht einzelne ruhen, aber so Bereiche im Gehirn sichtbar machen.
0:35:24–0:35:30
Man kann also zum Beispiel einen optischen Reiz geben und gleichzeitig ins Gehirn kurz reinschauen.
0:35:30–0:35:35
Und wenn man das bei einer Person oder bei vielen Personen und dann auch oft
0:35:35–0:35:40
macht, dann entsteht Folgendes In der kompletten Gehirnaktivität,
0:35:41–0:35:46
gibt es immer wieder irgendwo irgendwas an Aktivitäten, aber bei sage ich mal
0:35:46–0:35:48
1000 2000 einzelnen Bildern,
0:35:49–0:35:52
die immer eine Sekunde nach einem bestimmten Stimulus folgen,
0:35:53–0:35:59
kann man dann davon ausgehen, dass dieses Zufällige wie ein Rauschen sich gegenseitig aufhebt.
0:36:00–0:36:03
Aber die Dinge, die wirklich ursächlich mit diesem Stimulus verbunden sind,
0:36:04–0:36:10
die bleiben dann weiterhin sichtbar, wenn man diese Bilder alle übereinanderlegt. Also ich meine.
Florian Clauß
0:36:10–0:36:14
Also ein bisschen wie vor zwei Folgen hattest du ja.
0:36:14–0:36:22
Dann deine ersten Gehversuche in Lisp mit den acht Bit, also mit den acht Pixel acht mal acht.
Micz Flor
0:36:18–0:36:20
Ja, genau. Ja.
Florian Clauß
0:36:22–0:36:28
Wenn man alle Buchstaben quasi übereinander legen würde und man hätte dann quasi
0:36:28–0:36:34
so ein Durchleuchtungsfeld und da, wo es am dunkelsten ist, ist quasi der Stimulanz.
0:36:34–0:36:36
Das ist die größte Deckungssumme.
Micz Flor
0:36:36–0:36:39
Ja, dass wir genau da wieder zu bleiben, dass wir in einen Punkt,
0:36:39–0:36:43
der wenig Aussagekraft hätte der dunkelste in dem Fall, weil der gilt quasi
0:36:43–0:36:45
für ganz viele Buchstaben.
0:36:45–0:36:49
Aber in diesem Modell, was ich jetzt gerade gesagt habe, man legt diese ganzen
0:36:49–0:36:51
Bilder des Gehirns übereinander und sieht dann ach guck mal,
0:36:51–0:36:56
genau eine Sekunde, nachdem wir diesen Reiz gegeben haben, ist in diesem Bereich
0:36:56–0:36:59
des Gehirns immer eine Aktivität zu sehen.
0:37:00–0:37:01
Und da hat man.
0:37:04–0:37:09
Also Neurowissenschaftler und Wissenschaftlerinnen sind ja auch smarte Menschen
0:37:09–0:37:12
viele Experimente gemacht und hat eine ganze Reihe von Dingen gefunden,
0:37:13–0:37:18
zum Beispiel da kann man es am besten finde ich darstellen. Hat man.
0:37:19–0:37:21
Ich komme jetzt über einen Umweg, ich komme jetzt über die Schmerzforschung,
0:37:21–0:37:28
hat halt gemerkt, dass wenn wir als soziale Wesen mit Menschen empathisch sind.
0:37:30–0:37:36
Dann ist es so, dass wenn wir, vereinfacht gesagt, wenn wir jemanden sehen im
0:37:36–0:37:41
Video oder so was, der einen Unfall hat, der auf den Kopf fällt oder wo irgendwas passiert,
0:37:41–0:37:46
wo wir so zusammenzucken, wo wir einfach so wir fühlen fast selber.
0:37:46–0:37:52
Wir können es uns vorstellen, dass man da merkt, dass bestimmte Bereiche im
0:37:52–0:37:54
Schmerzzentrum, im Gehirn aktiv
0:37:54–0:37:58
sind, die identisch sind, wenn wir den Schmerz wirklich selber haben.
Florian Clauß
0:37:58–0:37:59
Also diese Spiegelneuronen.
Micz Flor
0:38:00–0:38:04
Nee, das nicht. Das ist nun mal was anderes. Und da ist es auch so.
Florian Clauß
0:38:04–0:38:07
Aber es ist eine empathisch, quasi eine empathische Reaktion,
0:38:07–0:38:09
die einen neuronalen Nachweis.
Micz Flor
0:38:10–0:38:14
Es gibt eine Resonanz, also eine Spiegelung oder Resonanz, die da entsteht,
0:38:14–0:38:19
die besagt, wenn wir wieder in diesen Abstraktion Layers von KI oder wie auch immer reden,
0:38:20–0:38:26
es gibt einen Layer für die Darstellung von Schmerz in unserem Gehirn, den kann man verorten.
0:38:26–0:38:31
Und wenn wir jemanden sehen, der eine bestimmte Form von Schmerz erlebt und
0:38:31–0:38:35
wir oder wir erleben die selbst, dann ist das fast identisch.
0:38:36–0:38:40
Diese Darstellung, diese dieser Fingerabdruck sozusagen, ist fast identisch
0:38:40–0:38:41
an dieser Stelle im Gehirn.
0:38:41–0:38:46
Der einzige Unterschied ist, dass Menschen, die den Schmerz selber erleben.
0:38:47–0:38:54
Da entsteht eine Brücke zwischen dem sensorischen und dem Schmerzzentrum.
0:38:55–0:39:01
Das heißt, wir fühlen dann den Schmerz, während bei anderen Menschen oder wenn
0:39:01–0:39:04
wir etwas sehen, wenn wir etwas sehen, wie jemand Schmerz hat,
0:39:04–0:39:05
dann entsteht dieses Modell.
0:39:05–0:39:09
Wir können das quasi mitfühlen, aber wir fühlen es nicht wirklich selber.
0:39:09–0:39:13
Und das hat man wiederum dann auch feststellen können, dass es eben Menschen
0:39:13–0:39:15
gibt, die dann eine Störung haben,
0:39:16–0:39:21
auf neurologischer Ebene, die, wenn die einen Menschen Schmerz sehen,
0:39:21–0:39:25
dem Schmerz zugefügt wird, auch im Video, dann erleben die das wirklich.
0:39:25–0:39:29
Die haben diese Inhibition nicht, das heißt, die erleben den Schmerz wirklich.
0:39:30–0:39:33
Es ist nicht nur Schmerz, es sind auch andere Dinge, es ist auch Streicheln.
0:39:34–0:39:39
Das ist auch Essen im Mund. Das sind auch andere körperliche Sachen,
0:39:39–0:39:45
die wir wahrnehmen können, die wir in uns dann auch als Modell erkennen und
0:39:45–0:39:48
im Gehirn, in einer bestimmten Region für Empfindungen,
0:39:50–0:39:53
wie eben ein Modell oder eine Simulation herstellen können.
0:39:54–0:39:59
Und bei diesen Menschen ist diese Brücke nicht an oder aus, die ist immer an.
0:39:59–0:40:01
Das heißt, die erleben das wirklich, die erleben.
0:40:04–0:40:07
Wenn sie sehen, wie jemand gestreichelt wird, dann spüren sie das auch.
0:40:07–0:40:08
Eine Schuld zum Beispiel.
0:40:10–0:40:12
Und das Gleiche gibt es auch.
0:40:16–0:40:19
Zum Selbst. Das ist im Frontal Cortex.
0:40:19–0:40:25
Das heißt, es gibt da einen Bereich des Gehirns, wenn wir im Gespräch zum Beispiel
0:40:25–0:40:31
auf unsere Meinung oder irgendwelche Dinge angesprochen werden.
0:40:35–0:40:38
Was ist denn deine Meinung dazu? Oder geht es dir gerade gut oder bist du traurig?
0:40:39–0:40:44
Dann ist es nicht so, dass wir da direkt eine Antwort daraus formulieren aus
0:40:44–0:40:49
dem ganzen Fundus unseres Geld, sondern das geht über einen Bereich,
0:40:49–0:40:52
der für dieses Bild des Selbst zuständig ist.
0:40:52–0:40:56
Das ist im frontalen Frontal Cortex.
0:40:57–0:41:02
Und das lässt sich auch über diese bildgebenden Verfahren zeigen.
0:41:03–0:41:08
Das heißt, es gibt diese Abstraktion, diese Simulation.
0:41:09–0:41:17
Die, mit der wir in Kontakt treten, wenn wir eine Aussage über uns selbst fällen müssen.
0:41:18–0:41:24
Und das ist im Prinzip der Mechanismus, von dem manche ausgehen.
0:41:24–0:41:28
Wenn ich Bewusstsein herstellen möchte, eine neuronale Netz oder künstliche
0:41:28–0:41:32
Intelligenz, dann muss ich eben genau das schaffen. Ich muss noch mal eine Simulation
0:41:32–0:41:36
und noch mal ein Modell davon schaffen, auf die ich gucken kann,
0:41:36–0:41:38
um dort nachzufragen, sozusagen.
Florian Clauß
0:41:39–0:41:40
Jetzt haben wir einen Bogen. Sehr gut.
Micz Flor
0:41:40–0:41:42
Ja, du hast Hunger.
Florian Clauß
0:41:43–0:41:46
Nein, nein, nein, nein, nein. Nein. Ich habe die ganze Zeit darauf gewartet.
0:41:46–0:41:49
Wo kommt er her? Jetzt wird es total rund.
Micz Flor
0:41:47–0:41:53
Das ist jetzt zurück zum Anfang. Ja, und? Das heißt, ähm.
0:41:55–0:41:59
Und dann gibt es dazu noch zwei Dinge. Das eine ist, es gibt auch Karl Jaspers
0:41:59–0:42:03
zum Beispiel im Existenzialismus Existenzielle Philosophie.
0:42:03–0:42:06
Jaspers war früher auch Psychiater. Und der hat.
0:42:07–0:42:10
Der hat mal so was. Ich paraphrasiere. Ich habe das Zitat nicht gefunden,
0:42:10–0:42:15
aber der hat mal so was gesagt, wie das ist, dass es immer wieder existenzielle
0:42:15–0:42:21
Ereignisse geben kann, also ganz grundlegende Ereignisse geben kann, in denen wir.
0:42:22–0:42:28
Diesen Vorhang, in dem wir uns wirklich selbst sehen, ein bisschen öffnen können.
0:42:28–0:42:29
Aber dann ist er wieder zu.
0:42:29–0:42:33
Also diese Form ist, wir haben nicht wirklich einen Bezug zu uns und ich finde,
0:42:33–0:42:35
das kann man auch gut nachempfinden.
Florian Clauß
0:42:34–0:42:35
M na.
Micz Flor
0:42:35–0:42:39
Wenn ich dich jetzt fragen würde, so angenommen du wärst als Corona positiv,
0:42:39–0:42:41
wirst du trotzdem Restaurant gehen oder nicht?
0:42:42–0:42:46
Dann würdest du mir jetzt sagen, was du denkst von dir selbst.
0:42:46–0:42:50
Du würdest dich quasi abfragen über dieses Konstrukt und würdest mir dann sagen,
0:42:51–0:42:56
entweder ach, Corona ist eine Lüge oder würdest du sagen auf keinen Fall, ich würd.
0:42:56–0:42:59
Ich würde jetzt Abstand halten, eine Maske tragen, wie auch immer.
0:43:01–0:43:04
Aber es gibt Situationen, in denen wir das erst wissen, wenn es wirklich passiert.
0:43:05–0:43:08
Wenn ich jetzt angegriffen werde mit dem Messer, würdest du dazwischen gehen oder nicht?
0:43:09–0:43:11
Da hast du auch ein Bild von dir, wie du denkst, wie du handelst,
0:43:12–0:43:17
aber in ganz existenziellen Situationen, in dem man auch nicht üben kann,
0:43:17–0:43:18
wo man auch nicht viel überlegen kann.
0:43:19–0:43:22
Da sagt Jaspers, da lernen wir uns dann noch mal kennen.
0:43:22–0:43:26
Und das ist, glaube ich, wirklich was, was, was man auch manchmal in seinem
0:43:26–0:43:29
eigenen Leben als einschneidende Elemente erlebt, wo man sagt.
Florian Clauß
0:43:28–0:43:29
Ja klar.
Micz Flor
0:43:30–0:43:31
Das hätte ich selber von mir nicht.
Florian Clauß
0:43:32–0:43:37
Na ja, oder so was wie Bungeejumping oder so, wo du also in solche Zustände
0:43:37–0:43:40
kommst, du halt nicht so.
0:43:41–0:43:45
Nicht so normal einordnet, dann löst ja auch was auf.
Micz Flor
0:43:45–0:43:48
Ja genau. Und da werde ich überlegt, gerade um das so einzuordnen.
0:43:48–0:43:53
Da wird dann die Frage so also zum Beispiel, wenn du dann merkst,
0:43:54–0:43:57
ich habe gar keinen Schiss gehabt zu springen, das hätte ich nie gedacht.
0:43:57–0:43:59
Oder andersherum Du denkst ja, ich habe mich so darauf gefreut,
0:43:59–0:44:02
Ich habe das Geld gespart und dann bin ich nicht gesprungen.
0:44:03–0:44:05
Hätte ich nicht gedacht. Also es sind dann immer so Momente,
0:44:05–0:44:13
wo man sein, sein simuliertes Selbst noch mal gegenchecken kann mit einer Realität,
0:44:13–0:44:14
die sonst nicht zur Verfügung steht.
0:44:15–0:44:20
Und das können wir in der Psychologie tun. So, also da wird eben,
0:44:20–0:44:21
da geht es ja auch genau darum.
0:44:22–0:44:27
Und das Gleiche ist natürlich dann interessant, wenn man das auf die KI überträgt.
0:44:28–0:44:33
Wenn es eine Simulation gibt. Wir haben halt über so Bias und so was gesprochen auch schon,
0:44:33–0:44:37
dass halt die neuronalen Netzwerke manchmal so Baisse haben,
0:44:37–0:44:40
die halt reinkommen, weil die einfach schlechte Daten gefüttert werden oder
0:44:40–0:44:44
nicht nicht die richtigen Incentives bekommen haben oder sonst was.
0:44:45–0:44:49
Aber wenn man mit diesem Modell geht, dann könnte man natürlich diesen Spiegel
0:44:49–0:44:55
des Selbst, der hat man ein bisschen mehr Kontrolle drüber als über das,
0:44:55–0:44:57
was das Gehirn wirklich lernt.
0:44:58–0:45:01
Und vielleicht ist das dann eben auch so diese Brücke zu diesem übrig Konzept
0:45:01–0:45:04
von Freud, was irgendwie vorformuliert war.
0:45:04–0:45:07
Und ich sage jetzt überhaupt nicht, dass es über Ich einen Ort im Gehirn hat,
0:45:08–0:45:14
aber in der in der Art und Weise der Wirksamkeit von diesem Konzept könnte man
0:45:14–0:45:16
sich ja vorstellen, wenn es so ein,
0:45:17–0:45:19
Ort gibt, der aktiviert wird,
0:45:20–0:45:24
der immer mit Dingen zusammenhängt, wenn wir Aussagen über uns selber treffen sollen.
0:45:26–0:45:31
Dann ist es in der Wirkungsweise ähnlich wie dieses Konzept des überechne soziale Erwünschtheit.
Florian Clauß
0:45:31–0:45:39
Kann man sagen, das ist auch so ein Zentrum des des, der Individualität ist.
Micz Flor
0:45:42–0:45:46
Es ist interessant, weil natürlich, wenn man jetzt diese sozialen Aspekt den
0:45:46–0:45:50
gesellschaftlichen Aspekt mit rein nimmt, ist Individualität natürlich auch
0:45:50–0:45:55
was, was bei uns kulturell vielleicht manchmal zu sehr unterstützt wird.
0:45:55–0:45:57
Also wir sind hier,
0:46:00–0:46:03
ein Held ist, wenn man ein einzelner Mensch, der alles irgendwie alleine schafft.
0:46:04–0:46:08
Die Wissenschaft auch jetzt Klimaforschung, aber auch in der Biologie und so.
0:46:08–0:46:11
Wir wissen inzwischen, wir sind alles Interdependenz Systeme,
0:46:11–0:46:14
die sich gleichzeitig evolutionär entwickeln.
0:46:15–0:46:18
Also das ist wirklich so, dass wir mit allem mehr irgendwie verbunden sind.
0:46:19–0:46:26
Und trotzdem haben wir hier vielleicht noch ein anderes Gefühl für die eigene
0:46:26–0:46:31
Autonomie, die eigene Unabhängigkeit wie vielleicht in anderen Gesellschaften.
0:46:31–0:46:33
Das muss ich jetzt irgendwie spekulieren, das weiß ich nicht.
0:46:34–0:46:38
Insofern würde ich nicht sagen, dass es der Ort ist für für.
0:46:39–0:46:42
Es ist ein Ort für Identität, Das würde ich sagen.
Florian Clauß
0:46:41–0:46:48
Identity. Ich ich vielleicht nochmal anders ausgeholt um den Gedanken auf die KI um.
0:46:48–0:46:52
Es geht ja darum, quasi andere Modelle zu finden. Und wir hatten ja auch in
0:46:52–0:46:54
den Folgen davor gesagt, dass,
0:46:57–0:47:05
das ja quasi in neuronalen Netzen gesucht wird nach der absoluten.
0:47:06–0:47:09
Also nach dieser 100 %, dann nach dieser.
0:47:09–0:47:14
Je mehr Daten, desto besser und eindeutiger wird das ganze System.
0:47:15–0:47:19
Wenn man jetzt aber so eine quasi so eine Instanz hätte, in so einem,
0:47:20–0:47:25
in so einem Netzwerk, in so einem künstlichen, wo meinetwegen jetzt schon so
0:47:25–0:47:28
ein BIOS drin ist mit irgendwie.
0:47:30–0:47:35
Dass bestimmte Bilder da zu bevorzugten Ergebnissen kommt,
0:47:36–0:47:40
und dann gibt es gab es ja gibt es ja die eher die Bemühung wir wollen diesen
0:47:40–0:47:46
Bias dann wieder rausrechnen und wir lernen dagegen ja ein anderes Modell wäre zu sagen okay,
0:47:47–0:47:50
ich gebe dir diese Information, dass du das hast.
0:47:50–0:47:54
Man würde ja dann quasi so ein Selbst implementieren und sagen so,
0:47:54–0:47:59
dann ist es halt so ein so ein, so ein weiß ich nicht, so ein Old White Men,
0:47:59–0:48:05
Network, was dann halt diesen BIOS drin hat und dann aber auch eine gewisse Individualität. Oder,
0:48:07–0:48:14
was meintest du jetzt? Identität? Ja, also dass man da quasi so eher so versucht, statt mit viel,
0:48:15–0:48:19
Ressourcen dagegen zu arbeiten, das dann halt auszuprägen und das dann einfach
0:48:19–0:48:22
so stehen zu lassen und dann halt ein anderes Netzwerk, was ja auch eine gewisse
0:48:22–0:48:28
Identität hat, dass man solche eher so Cluster bildet und die dann wieder zusammenschalten.
0:48:28–0:48:32
Dann kriegt man dann vielleicht nochmal irgendwie ein besseres Ergebnis in der Summe.
0:48:32–0:48:36
Weißt du, was ich meine? Also, dass man so was vielleicht dann aufbauen könnte.
Micz Flor
0:48:36–0:48:40
Ja, ist interessant, weil wenn man jetzt diesen Begriff des über aus diesem
0:48:40–0:48:41
freudianischen Universum heranzieht,
0:48:41–0:48:47
dann würde man sagen, man könnte dann eventuell einen Layer einbauen,
0:48:47–0:48:52
der so eine Form von diesen Asimov schen Gesetzen zum Beispiel dass wir zum
0:48:52–0:48:57
Beispiel dass würde man diese Asimov Gesetze würde man dann auf einer Abstraktionsebene
0:48:57–0:49:02
rein geben in der dann dagegen irgendwie noch mal,
0:49:03–0:49:09
getestet werden kann und in in einem gewissen Konzept könnte das vielleicht sogar,
0:49:11–0:49:15
parallel entwickelt werden zu dem, was dann also unabhängig von dem,
0:49:15–0:49:21
was die Deep Learning neuronalen Netze dann irgendwie spezielles Anwendung machen, gibt es das oben drüber.
Florian Clauß
0:49:21–0:49:26
Ja okay, das wäre dann nochmal eine andere Schicht quasi. Es wäre ja die Identität.
Micz Flor
0:49:24–0:49:25
Ja, und das.
Florian Clauß
0:49:26–0:49:30
Würde ich hier nicht oben drüber, die würde ich hier dann eher so mittendrin sehen.
Micz Flor
0:49:30–0:49:34
Na ja, es wäre ja schon. Wenn du jetzt diese Asimov schen Gesetze nimmst.
0:49:34–0:49:39
Dann ist ja die Frage an welchem Punkt würden die fassen? Würden die erst fassen,
0:49:39–0:49:44
nachdem das Netz eine Aktion entschieden hat oder würden die vor der Aktion
0:49:44–0:49:45
schon irgendwie eingreifen?
Florian Clauß
0:49:46–0:49:50
Wenn die müssten, die müssten ganz tief drin sein.
0:49:50–0:49:56
Die Asimov Gesetze, weil die ja quasi so blocker sind für bestimmte Aktionen.
Micz Flor
0:49:56–0:49:58
Ja, aber auf welcher Ebene denn?
Florian Clauß
0:49:58–0:50:01
Ich meine, die müssten eigentlich. Also das müsste wirklich so auf der untersten
0:50:01–0:50:06
Ebene sein, weil es darf sich ja nicht erst mal eine Aktion in irgendeiner Form
0:50:06–0:50:11
vorbereiten, die dann blockiert wird, sondern es müsste ja in dem Moment schon auf der untersten Ebene,
0:50:13–0:50:14
verhindert werden.
Micz Flor
0:50:14–0:50:20
Ja, das ist interessant, weil ich glaube, dass das auf der technischen Seite
0:50:20–0:50:22
so nicht implementiert werden könnte, weil,
0:50:23–0:50:26
dadurch, dass diese ganzen Bias und so was, das ist unglaublich schwer,
0:50:26–0:50:33
so ein neuronales Netz, das irgendwas gelernt hat, dann wieder zu diagnostizieren, wo das Problem ist.
0:50:33–0:50:36
Das ist das ist wirklich total schwierig.
0:50:36–0:50:41
Wenn du dann unglaublich viel Geld und Zeit reingesteckt hast in so ein neuronales
0:50:41–0:50:43
Netz, um das zu erstellen und dann merkst,
0:50:45–0:50:49
was, hatte ich neulich das Beispiel mit dem, mit dem Lineal und das Lineal,
0:50:49–0:50:54
was halt bei diesen Hautkrebs Dingern drauflegen hat und dann guckt sich das
0:50:54–0:50:56
Lineal und dann stehst du da und hast das Ding irgendwie so
0:50:56–0:51:00
vollgepumpt, Geld reingepumpt, Zeit reingepumpt und denkst halt okay,
0:51:00–0:51:04
können wir das jetzt wegschmeißen oder kann ich irgendwie mit so einem Lasotool
0:51:04–0:51:06
dieses Lineal rausschneiden?
Florian Clauß
0:51:06–0:51:13
Ich habe ein Netzwerk entwickelt, was Lineal findet, was Lineale in Hautpraxen findet.
Micz Flor
0:51:09–0:51:14
Ja, genau. Wer braucht das? Daher wurde auch das gemacht.
Florian Clauß
0:51:16–0:51:17
Das gibt besonders wichtig.
0:51:19–0:51:24
Genau. Wie viel hast du dafür ausgegeben? Wie viel hast du dafür ausgegeben?
Micz Flor
0:51:26–0:51:32
Ähm, aber was ich damit sagen will ist halt, dass die Form der Kontrolle die muss dann eher,
0:51:34–0:51:38
die muss dann eher vor der Ausgabe sein, denke ich. Weil du kannst im Netz selber
0:51:38–0:51:40
kannst du es nicht wirklich einziehen.
0:51:40–0:51:45
Es gibt ich weiß gar nicht, hatte ich irgendwo mal gesehen. Auch da gab es halt diese diese,
0:51:47–0:51:52
Idee. Was ist denn eigentlich ein Gedanke und ein Gedanke? Hat dann jemand gesagt,
0:51:52–0:51:56
sozusagen wie so ein Snapshot in einem?
0:51:57–0:52:02
Layer eines neuronalen Netzes kurz vor der Aktion oder kurz vor der Ausgabe.
0:52:03–0:52:04
Das ist quasi ein Gedanke.
0:52:05–0:52:09
Und auf der Ebene, bevor der Gedanke dann Ausgabe wird.
0:52:09–0:52:13
Ich denke, dass da dann dieses Selbst eingezogen wird und dann wird noch mal
0:52:13–0:52:19
geprüft und dann würde da vielleicht Asimov sche Regeln als Roboter über.
0:52:19–0:52:23
Ich würde dann halt da in dem Moment sagen ich würde gerne, aber stopp!
Florian Clauß
0:52:25–0:52:27
Nein, ich glaube, das ist eine rein,
0:52:30–0:52:34
theoretische Diskussion, an welcher Stelle wir die Sachen implementieren.
0:52:34–0:52:37
Aber müsste man mal so ein Architekturmodell durchgehen?
0:52:38–0:52:42
Da wäre es interessant, ob das tatsächlich in einer Eingabe irgendwie erfasst werden kann.
0:52:44–0:52:50
Aber du kannst natürlich nicht die Eingabe danach filtern, weil du weißt ja
0:52:50–0:52:51
nicht, wie die Reaktion darauf ist.
Micz Flor
0:52:52–0:52:56
Vor allen Dingen wird es einfach erst mal im übertragenen Sinne die Reize zur
0:52:56–0:53:00
Verfügung stellen. Und dann fängt das neuronale Netz an. Anhand dessen,
0:53:00–0:53:03
was das alles gelernt hat, diese Reize zu interpretieren.
0:53:04–0:53:08
Und es ist aber noch nicht konkret. Das ist einfach noch in diesem Gewusel,
0:53:08–0:53:09
Das ist einfach eine Aktivität.
0:53:09–0:53:12
Wahrscheinlichkeiten hin und her fließen, Spikes oder was auch immer,
0:53:13–0:53:16
aber erst in dem Moment, wenn es wirklich auf diesem,
0:53:17–0:53:21
wenn man es örtlich machen will, auf diesem letzten Layer, vor Ausgabe oder
0:53:21–0:53:24
vor Action erst da könnte dann
0:53:24–0:53:28
irgendwie dieses, dieser Abgleich mit einer Form von selbst passieren.
0:53:29–0:53:31
Aber ich fand es halt einfach erst einmal interessant, dass es halt.
0:53:32–0:53:36
Es gibt so verschiedene Sachen, wo ich dann denke, okay, das ist jetzt auch
0:53:36–0:53:41
nicht weiter überraschend, aber in neuronalen Netzen wird es dann halt so hochgehalten
0:53:41–0:53:44
als eine große Erkenntnis.
0:53:44–0:53:50
Zum Beispiel hat man gemerkt, dass neuronale Netze. Manche Problemlösungsnetze
0:53:50–0:53:58
können besser lernen, wenn sie einen hohen Reward bekommen, wenn sie das erste
0:53:58–0:53:59
Mal eine neue Lösung gefunden haben.
0:54:01–0:54:04
Wie kannst du diesen Knopf drücken Mit dem Daumen? Okay, super.
0:54:05–0:54:10
Geht ja. Kriegste keine Ahnung, kriegst du zehn Punkte und dann nächstes Mal Daumen.
0:54:11–0:54:13
Nimmst du wieder, kriegst du noch acht Punkte, Dann kriegst du noch sechs Punkte
0:54:13–0:54:15
und dann kriegst 0,5 Punkte.
0:54:15–0:54:21
Und du denkst dann eben in der denkst nicht aber, dass das Netz denkt dann okay,
0:54:21–0:54:24
vielleicht kann ich mir was anderes probieren, weil diese zehn Punkte haben
0:54:24–0:54:25
sich echt gut angefühlt.
0:54:25–0:54:28
Ich bleibe jetzt in der menschlichen Sprache und dann drückt es den Zeigefinger,
0:54:28–0:54:32
kriegt zehn Punkte und dann Akku 10.7 irgendwas der Zeigefinger an.
0:54:33–0:54:37
Das heißt, es gibt so einen höheren Read für eine neue Lösung des gleichen Problems,
0:54:38–0:54:41
um mehrere alternative Lösungen überhaupt brauchen.
Florian Clauß
0:54:40–0:54:45
Macht. Zeit gibt es auch. Ja, ich habe den mehrmals die gleiche Frage gestellt
0:54:45–0:54:47
und es kommen immer andere Antworten.
Micz Flor
0:54:48–0:54:56
Okay. Und? Und das zum Beispiel ist halt bei Menschenaffen, bei,
0:54:56–0:54:59
bei, bei vielen Säugetieren auch so. Oder auch Echsen.
0:55:00–0:55:04
Du hast. Im menschlichen Gehirn ist es Dopamin. Du hast und Dopamin.
0:55:04–0:55:05
Spike. Wenn du das erste Mal.
0:55:07–0:55:12
Du hast mir dieses Video gezeigt von diesem Mädchen. Was? Diesen Flipper.
0:55:12–0:55:15
Wie heißt das nochmal mit dem Skateboard? Diesen Flipper macht.
Florian Clauß
0:55:15–0:55:17
Er. Oli.
Micz Flor
0:55:15–0:55:19
Wie heißt denn der Schritt noch mal? Olli Genau. Macht einen Olli zum Ersten
0:55:19–0:55:23
Mal. Klappt. Und du siehst halt die Freude, die da drin ist.
0:55:23–0:55:27
Das ist halt so ein Dopamin Rush, so ein Glücksgefühl und nach 20 Ollis ist
0:55:27–0:55:29
der halt nicht mehr so groß. Dann kommt der nächste Trick.
0:55:30–0:55:34
Das heißt, es gibt im Lernen, im Lernprozess gibt es das schon.
0:55:34–0:55:38
Das weiß man auch schon lange und jetzt hat man herausgefunden,
0:55:38–0:55:43
dass man das Lernen optimieren kann, wenn man so was auch so ein neuronalen Netz einbaut.
0:55:45–0:55:48
Und das ist ja nicht weiter verwunderlich, weil es halt einfach so ist.
0:55:49–0:55:54
Und da bin ich oft so ein bisschen, wie soll ich sagen, ich bin.
0:55:54–0:55:58
Ich bin viel im total positiv gegenüber eingestellt, weil es in der Tat so ist,
0:55:58–0:56:03
das halt gerade im diagnostischen Bereich mit Bildmaterial diese neuronalen
0:56:03–0:56:06
Netze einfach unglaublich überlegen sind.
0:56:06–0:56:11
Die können ja einfach unglaublich viel unermüdlich einfach lernen und Dinge erkennen.
0:56:12–0:56:19
Und in anderen Bereichen ist es so, dass ich denke, dass zum Beispiel eben dieses
0:56:19–0:56:22
Konzept des Selbstentwickeln dasselbe ist, auch die kindliche Entwicklung,
0:56:22–0:56:26
dass selbst, dass das gar nicht falsch wäre,
0:56:27–0:56:34
so was dann im IT Bereich auch mal mit zu vermitteln, weil das sicherlich inspirierend
0:56:34–0:56:38
ist für bestimmte Prozesse, die man sonst einfach nur.
0:56:41–0:56:46
Noch mal neu erfinden müsste bei uns dazu ja auch schon. Viel Literatur gibt,
0:56:46–0:56:48
es ja. Das war's für heute.
Florian Clauß
0:56:48–0:56:56
Wow. Wow. Wow. Wow. Mensch, du hast echt also wirklich aus dem Stand monologisiert.
0:56:57–0:57:02
Aber sehr spannend. Also, was ich auch wirklich immer wieder faszinierend,
0:57:03–0:57:08
wenn es um Freud geht. Finde es diese Begriffe, diese Sachen die er entwickelt
0:57:08–0:57:11
hat damals, dass die immer noch so zur Anwendung kommen.
0:57:11–0:57:15
Und es gibt ja auch so eine Wissenschaftstradition mittlerweile.
0:57:15–0:57:18
Das scheint ja irgendwo auch so.
0:57:20–0:57:24
Hatte er dann auch da Punkte getroffen, die funktionieren?
Micz Flor
0:57:25–0:57:30
Ja, also das ist vielleicht eine andere Frage, weil die Psychodynamik oder Psychoanalyse
0:57:30–0:57:32
vor allen Dingen Amerika wird gerade so,
0:57:33–0:57:38
also hat geradezu keinen guten Stand, weil aber das ist ein völlig anderes Thema,
0:57:38–0:57:43
indirekt, aber damit vielleicht sogar verwoben weil die wissenschaftliche Erfassung
0:57:44–0:57:47
die funktioniert mit so einem medizinischen Denken, da müssen die Dinge eben
0:57:47–0:57:49
operationalisiert und gemessen werden,
0:57:49–0:57:54
und du kannst halt so was wie Trieb und übrig und so nicht messen.
0:57:54–0:58:00
Die Leute tun sich schon schwer genug in der Neurologie, so was wie die,
0:58:01–0:58:04
die Zeiten zu messen zwischen einer Entscheidung und einer Bewegung.
0:58:04–0:58:08
Also wie kannst du so was operationalisieren, dass du messbare Daten bekommst?
0:58:09–0:58:17
Und es gibt immer ein großes Problem, wenn ein sage ich in dem Fall ein statistisch
0:58:17–0:58:22
mathematisches Modell was sagt hier kann nicht die Wahrheit der Wirksamkeit finden.
0:58:23–0:58:32
Wenn das als wertfrei hingestellt wird, während in Wahrheit da drinnen genauso Bias sind.
0:58:32–0:58:36
Man könnte ja auch anders sagen, man kann sagen ja. Ich fragte ihn einfach zwei
0:58:36–0:58:39
Jahre nach der Therapie, wie es ihm geht, aber es geht gar nicht.
0:58:40–0:58:41
Also man kann zum Beispiel sich
0:58:41–0:58:44
nicht darauf verlassen, dass die Patienten dann lügen, die vielleicht.
0:58:45–0:58:47
Das heißt, du möchtest das alles rausrechnen, aber es ist doch menschlich.
0:58:47–0:58:49
Es geht doch um menschliche Interaktion.
0:58:50–0:58:56
Also das ist immer so der Punkt. Und deshalb wollte ich nur sagen Freud hat gerade, ich bin ja auch.
0:58:56–0:59:01
Es ist jetzt auch wirklich nicht so, dass ich so ein, so ein Freudianer bin.
0:59:01–0:59:04
Das ist gar nicht. Aber ich finde schon, dass in den Texten,
0:59:04–0:59:09
wenn man sie liest, wirklich einfach auch Sachen drin stecken,
0:59:09–0:59:12
die deutlich tiefer gehen als das, was man noch so kalendersprüche man.
0:59:14–0:59:17
Das finde ich schon. Da denke ich.
0:59:18–0:59:20
Tut man gut, den Originaltext zu lesen.
Florian Clauß
0:59:20–0:59:25
Aber vielleicht kann man ja dann wirklich solche Konzepte in neuronalen Netzwerken
0:59:25–0:59:28
einfach implementieren und trainieren. Aber das ist.
0:59:28–0:59:32
Und gucken, wie wirksam die sind und dann wieder operationalisieren.
0:59:33–0:59:34
Also das wäre ein.
Micz Flor
0:59:35–0:59:40
Die genau den Mensch erforschen. Über. Über Chips, die dem Menschen nachempfunden
0:59:40–0:59:43
sind. Mit neuronalen Netzen, die dem Menschen offen sind.
0:59:44–0:59:49
Da gibt es ein sehr schönes Buch von Alan Watts. Ich weiß gar nicht mehr genau, wie das heißt.
0:59:49–0:59:53
So ein kurzer Text ist als Buch aufgearbeitet, der halt irgendwie so die Geschichte
0:59:53–0:59:57
erzählt, wie jemand so eine Tänzerin mal gesehen hat und gedacht hat,
0:59:57–0:59:59
Ach, das würde er sich gerne öfter anschauen.
0:59:59–1:00:03
Und dann malt er so ein Bild von der Tänzerin und dann ist er erst mal glücklich
1:00:03–1:00:07
und denkt Ach super, so, ein bisschen Dopamin wieder und dann sehr bald aber denkt Ach!
1:00:08–1:00:11
Vielleicht mache ich es noch bunt, weil die Farben fehlen mir und dann auch
1:00:11–1:00:14
wieder kurz Dopamin und dann irgendwann so ach nee, vielleicht sollte sich bewegen.
1:00:14–1:00:17
Er macht halt einen Film oder eine Skulptur usw. immer weiter.
1:00:18–1:00:24
Und dann geht es ja im Endeffekt wieder dahin, das eigentlich herzustellen,
1:00:24–1:00:26
was die Wahrheit und Realität ist.
1:00:27–1:00:30
Aber man fängt zuerst an, das Ganze wieder von hinten aufzurollen.
1:00:31–1:00:34
Und manchmal ist es, glaube ich leider auch in der Forschung so,
1:00:34–1:00:37
dass man versucht, die Sachen alle nochmal zu entwickeln.
1:00:38–1:00:43
Ich stelle mir vor, Zuse hätte auf seinen mechanische Z1 obendrauf noch so eine
1:00:43–1:00:47
Abstraktion Layer für neuronale Netze gebaut, was sicherlich mechanisch möglich
1:00:47–1:00:51
wäre für einfache Sachen wie Würmer, aber.
1:00:54–1:01:03
Ja, insofern manchmal glaube ich, ist die Beobachtung und Interpretation no sorry, no smoking.
Florian Clauß
1:01:06–1:01:11
Mit. Vielen Dank für. Für die Ausführung.
Micz Flor
1:01:12–1:01:13
Nichts zu danken.
Florian Clauß
1:01:13–1:01:17
A. Und auch dann wieder.
1:01:18–1:01:23
Ich glaube, wir sind mit dieser Figur, mit unserer Miniserie von künstlicher
1:01:23–1:01:25
Intelligenz sicher nicht am Ende.
1:01:25–1:01:33
Aber jetzt erst mal. Also am Thema Ende, sondern jetzt wenden wir erst mal diese Serie.
Micz Flor
1:01:33–1:01:33
Der.
Florian Clauß
1:01:34–1:01:40
Und nächstes Mal haben wir dann ein anderes Thema wieder. Dann bin ich an der Reihe.
Micz Flor
1:01:39–1:01:42
Bin ich an der Reihe. Ich muss eine Reihe. Ich bin auch gespannt.
Florian Clauß
1:01:40–1:01:43
Mal gucken, was dann kommt. Ich bin schon gespannt.
1:01:45–1:01:46
Ja, dann würde ich sagen,
1:01:49–1:01:56
Danke auch fürs Zuhören. Ihr könnt mehr Informationen auf Podcast D finden,
1:01:56–1:02:00
dann seht ihr auch die Route, die wir heute hier gelaufen sind.
1:02:00–1:02:04
Im Kreis, im weiten Kreis. Und ich finde auch, wir haben gute Straßen.
1:02:04–1:02:08
Wir müssen immer gucken, wie wir. Wie wir mit den Straßen umgehen. Weil der Ort.
Micz Flor
1:02:08–1:02:12
Ich bin heute so ein bisschen rum rumgewusel, zum Schluss hin und her.
1:02:13–1:02:21
Ich bin gespannt auf die Route. Okay, vielen Dank. Und wir sehen uns. Zu Folge 22 wieder.
1:02:21–1:02:24
Ja, Bis dahin macht's gut. Tschüss.

Mehr

"Die Evolution hat nicht Lösungen zu spezifischen Problemen entwickelt, sondern generelle Problemlösungs-Maschinen" Michael Levin

Intelligenz kann in der Biologie überall angetroffen werden, wo Zellen sind. Zellen sind nichts weiter als kleine Automaten, die gegen die Entropie arbeiten. Leben ist Ordnung und die Intelligenz das Programm dazu. Diese Sichtweise leiten wir uns aus den Vorträgen und Interviews von Josha Bach und Michael Levin ab. Josha Bach liefert uns die Definition von Intelligenz als Fähigkeit Modelle zu entwerfen und daraus Handlungen abzuleiten, die auf Kausalität geprüft werden. Michael Levin hat Plattwürmer so weit bioelektrisch modifiziert, dass sie in der Mitte durchgeschnitten statt eines Schwanzes einen zweiten Kopf regenerieren. Er und sein Team entwickeln ein Framework, um diverse Intelligenzformen zu entdecken, zu untersuchen und auch künstlich herzustellen: Biologie stellt ein tief verschachteltes System dar und jede Ebene ist dabei sehr kompetent Probleme zu lösen.

Shownotes

Mitwirkende

avatar
Florian Clauß
Erzähler
avatar
Micz Flor

Transcript

Florian Clauß
0:00:01–0:00:05
Danke. Deins läuft 20?
Micz Flor
0:00:04–0:00:07
Am 20.. Die.
0:00:12–0:00:16
Wir sind alarmiert. Wie man im Hintergrund hört, ist ein wichtiges Thema.
0:00:18–0:00:22
Flo hat es ja in der letzten Folge schon ein bisschen anmoderiert.
0:00:23–0:00:27
Das überlasse ich dir dann gleich. Wir sind Flo.
0:00:27–0:00:32
Links neben mir. Ich bin Matze vom eigentlich Podcast, in dem wir.
0:00:33–0:00:39
Eigentlich wandern, aber meistens in der Stadt rumgurken, zu Fuß reden,
0:00:39–0:00:42
beim Laufen und laufend reden und,
0:00:43–0:00:48
immer abwechselnd ein Thema vorbereiten und dann trotzdem heimlich wünschen,
0:00:48–0:00:49
dass daraus ein Gespräch wird.
0:00:50–0:00:55
Und mit diesen einleitenden Worten übergebe ich an dich, Flo.
Florian Clauß
0:00:55–0:01:02
Ja hallo auch von meiner Seite ja heute Episode eigentlich Podcast 20.
0:01:03–0:01:10
Und der dritte Teil unserer Serie Serie zu künstlicher Intelligenz.
0:01:11–0:01:18
Und mit ähnlich wie es ihr das letzte Mal gegangen ist, nämlich ein Seminar
0:01:18–0:01:20
vorzubereiten. So ging es mir auch.
0:01:20–0:01:28
Ich hatte dir auch in der Vorbereitung zu der Sendung kam mir einen Vortrag unter.
0:01:30–0:01:36
Der abgehalten wurde im Panel von Intel Labs dagegen ist um.
0:01:39–0:01:45
Tina Ristic. Es ging um Vertreter der AI und Deep Learning. Und.
Micz Flor
0:01:45–0:01:48
Also Artificial Intelligence, die englische KI.
Florian Clauß
0:01:47–0:01:51
Genau genau dieses Mal war Joscha Bach eingeladen.
0:01:51–0:01:58
Es war noch Michael Levin als weiterer Gast eingeladen.
0:01:59–0:02:03
Und dieser Vortrag hat mich dann so fasziniert, dass ich dann halt,
0:02:05–0:02:09
mich hingesetzt habe und den halt auch nochmal durchgehört und dann würde ich
0:02:09–0:02:10
gerne nochmal so referieren.
0:02:11–0:02:16
Und ich habe auch ein bisschen mehr von den beiden gehört.
0:02:16–0:02:22
Die treten häufig in einigen Podcasts zusammen auf, haben aber auch einzelne,
0:02:23–0:02:27
Episoden mit anderen Interviewern, wo sie interviewt werden.
0:02:27–0:02:32
Und Joscha Bach ist uns ja auch schon oft untergekommen.
0:02:32–0:02:38
Er war auch quasi so mit ein Initiationserlebnis für den Podcast,
0:02:39–0:02:43
nämlich als wir damals alternativlos die Folge gehört.
Micz Flor
0:02:42–0:02:43
42.
Florian Clauß
0:02:44–0:02:48
Genau, Alternativlos war, dass die Folge 42. Ja, stimmt.
Micz Flor
0:02:46–0:02:49
Ja, das war ja der Witz. Die haben ja ewig drauf gewartet wegen die Antwort
0:02:49–0:02:53
auf alle Fragen. Und dann hatten sie ja schon Bach eingeladen.
Florian Clauß
0:02:54–0:03:00
Genau wo dann halt in der Alternativloses der Podcast von Felix von Leitner
0:03:00–0:03:04
und Frank Rieger und die hätten Joscha Bach das Ganze.
0:03:04–0:03:10
Die kommen alle aus dem Chaos Computer Club, das heißt die kennen sich dann,
0:03:10–0:03:18
untereinander und wir hatten damals diese Folge beim Begehen der Bürgerspitze. Genau.
Micz Flor
0:03:16–0:03:17
Biker Spitze.
Florian Clauß
0:03:19–0:03:24
Ja, ein langer, mühsamer Weg und wir mussten uns irgendwie ablenken.
Micz Flor
0:03:20–0:03:21
Ein mühsamer.
Florian Clauß
0:03:24–0:03:28
Um halt durch über diese Schotterfeld, was dann wirklich drei Stunden gedauert hat.
0:03:28–0:03:33
Und das war echt sehr zermürbend, aber faszinierend zugleich.
0:03:33–0:03:39
Und ich meine, Joscha Bach, du kennst seine Art es ist der ist auf auf,
0:03:39–0:03:46
auf uns also sehr schnell und sehr komprimiert was er sagt.
0:03:46–0:03:51
Also er hat sehr viele Referenzen und man muss da in jedem Satz ist da schon,
0:03:51–0:03:54
ganz viel Informationen reingefaltet deswegen.
Micz Flor
0:03:54–0:03:57
Ja, ich bin da so ein bisschen hin und hergerissen. Ich magister das und ich
0:03:57–0:04:02
habe gleichzeitig oft das Gefühl, das muss alles irgendwie computing sein.
0:04:02–0:04:05
Also es wird alles. Es geht immer nur um Informationsflüsse,
0:04:05–0:04:07
alles wird auf Information runtergebrochen.
0:04:07–0:04:13
Und das ist ja in meiner letzten Folge, meiner kommenden Folge immer so, diese Grenze.
0:04:13–0:04:18
Du bist halt bei diesem einen Body Problem ganz viel, wenn es um um lebendige Systeme geht.
0:04:20–0:04:25
Und da ist es mir dann manchmal ein bisschen zu schnell, weil ich habe,
0:04:26–0:04:30
Ich finde es immer total toll, auch was er auf Twitter so schreibt und manchmal
0:04:30–0:04:34
hat man so das Gefühl, das ist zu 99,7 % wahr,
0:04:35–0:04:37
aber diese 0,3 %,
0:04:37–0:04:39
da wird es halt wirklich spannend.
0:04:40–0:04:43
Aber wie gesagt, ich bin ja auch nicht auf der auf der Ebene.
Florian Clauß
0:04:44–0:04:50
Also Joscha Bach ist Kognitionswissenschaftler, ist jetzt glaube ich auch tatsächlich
0:04:50–0:04:57
in diesem Intel Lab mit als beteiligt und kann da seine Untersuchung seine Forschung treiben.
0:04:57–0:05:04
In dem Rahmen hat hat glaube ich auch in der Humboldt Uni in 2009 hat er glaube
0:05:04–0:05:10
ich auch sein sein, seine Arbeit geschrieben.
0:05:10–0:05:14
Ich weiß nicht, ich bin mir nicht sicher, ob er ein PhD gemacht hat oder bei Master.
0:05:15–0:05:23
Er hat im Bereich der ganzen Computer Sciences da auch Vorreiter.
0:05:23–0:05:27
Also er ist dann halt genau dieses in Kognitionswissenschaften.
0:05:27–0:05:29
Er bringt dann halt das.
0:05:31–0:05:36
Also im Prinzip in so einem interdisziplinären Feld, wo er viel auch biologische,
0:05:36–0:05:44
Systeme mit vergleicht, aber auch in diesem Eiki und Learning Umfeld aktiv ist.
0:05:45–0:05:51
Michael Lewin stell ich auch kurz vor, ist Biologe, hat viele Untersuchungen
0:05:51–0:05:52
im Bereich Morphologie.
0:05:53–0:05:58
Ist wird so ein bisschen gehandelt als der neue Nobelpreisträger, weil der hat schon sehr,
0:06:00–0:06:04
sehr weitgehende Experimente gemacht und seine Ansätze die er da vorstellt Ich,
0:06:04–0:06:07
ich gehe, ich, ich mache viele plastische Beispiele und,
0:06:08–0:06:14
was er da so was er da so halt so erforscht und das ist extrem spannend und
0:06:14–0:06:18
die beiden zusammen, die haben sich in den Vorträgen auch immer so die Bälle
0:06:18–0:06:21
zugeworfen, das heißt, die haben, glaube ich auch zusammen eine Firma gegründet,
0:06:22–0:06:24
wo die dann teilweise ihre.
0:06:26–0:06:31
Ihre Erkenntnisse und auch dann auch entsprechend dann umsetzen können im Rahmen der Firma.
0:06:33–0:06:39
Genau. Also es ging eben so ein bisschen um Beyond Artificial Intelligence bei
0:06:39–0:06:43
dem Vortrag, das heißt Beyond ist jetzt von mir eingebracht, also so ein bisschen,
0:06:45–0:06:50
wo steckt dann halt die künstliche Intelligenz mit diesem Machine Learning Modell,
0:06:50–0:06:55
mit neuronalen Netzen, wo steckt die fest und was gibt es in der Biologie quasi
0:06:55–0:06:58
für Modelle, die da eventuell,
0:06:58–0:07:02
einfach so auch neue Wege zeigen können, die man dann adaptieren könnte,
0:07:03–0:07:06
in diese Bereiche rein und.
0:07:08–0:07:12
Die Frage ist natürlich Und da bist du der Mensch?
0:07:12–0:07:17
Nein, genau was du zu Joscha Bach gesagt hast. Was ist denn jetzt eigentlich Intelligenz?
0:07:17–0:07:20
Wie würdest du Intelligenz beschreiben? Und so wie er es beschreibt,
0:07:20–0:07:28
ist Intelligenz die Möglichkeit, ein Modell von der Welt.
0:07:31–0:07:38
Also so berechenbar zu machen, um so quasi die nächsten Schritte einzuleiten.
0:07:38–0:07:42
Also du machst dir ein Bild von dem, von dir, von deinem Universum,
0:07:42–0:07:46
von deinem Environment und diese.
0:07:46–0:07:50
Also wie auch immer, eine Virtualisierung und du kannst quasi mit.
0:07:50–0:07:55
Aufgrund dessen kannst du dann quasi die nächsten Schritte berechnen und dann
0:07:55–0:08:00
wieder als Handlung die Welt in eine Umgebung wieder zurücktragen.
0:08:00–0:08:05
Nee, also das ist, das ist jetzt mal ganz grob gesprochen eine Definition von Intelligenz.
Micz Flor
0:08:06–0:08:11
Genau. Also, dass man kurz gesagt, man kann Probleme lösen, indem man die Dinge
0:08:11–0:08:15
erfasst, die das Problem sind bzw.
0:08:15–0:08:20
Herstellen und dass man dann auf eine Form kreativ nicht nur eine und immer
0:08:20–0:08:25
gleiche, sondern auch unterschiedliche Lösungen für dieses Problem.
Florian Clauß
0:08:25–0:08:30
Es ist die Fähigkeit, Modelle zu entwerfen.
Micz Flor
0:08:28–0:08:30
Ja, Ja, ja.
Florian Clauß
0:08:33–0:08:38
Und die Modelle sind dann nichts weiter als berechenbare Funktion, die dann halt wieder.
0:08:39–0:08:43
Also es gibt da eine gewisse Simulalität, das heißt kann es so und so viele
0:08:43–0:08:47
Modelle dann halt in einem Kopf vorhalten oder so und so viele Aktionen daraus
0:08:47–0:08:49
ableiten. Das ist eine gewisse Parallelisierung.
0:08:50–0:08:53
Und wenn ich das mache, dann passiert das. Und wenn ich das mache, dann passiert das.
0:08:54–0:08:57
Und dann daraufhin eine Entscheidung treffen, wie gehst du dann,
0:08:57–0:08:58
wie machst du es dann halt.
0:08:59–0:09:04
Das ist so die Möglichkeit und damit ist es halt wieder so. Abstrakter ausgedrückt,
0:09:04–0:09:08
im Prinzip ist es dann halt auch Intelligenz wieder berechenbar.
0:09:08–0:09:11
Und da sind wir wieder bei der Turingmaschine.
Micz Flor
0:09:11–0:09:14
Ja, genau. Ja, genau.
0:09:14–0:09:20
Die Turingmaschine, die ja nur dann Intelligenz bezeugt bekommt,
0:09:20–0:09:24
wenn ein wie auch immer gearteter Beobachter, der scheinbar ein bisschen höher
0:09:24–0:09:29
steht als Turing, Intelligenz in der Lage ist zu sagen, es sei nicht unterscheidbar.
0:09:29–0:09:32
Und das finde ich halt immer genau diesen Sprung zwischen dem,
0:09:33–0:09:40
zwischen dem deskriptiven und dann diesem metaphysischen Ansatz. Aber.
Florian Clauß
0:09:40–0:09:46
Oje. Dann ist auch die Frage von der Anwendung von eben.
0:09:47–0:09:51
Also wie wirksam das ist. Wenn du deine Umgebung beeinflusst,
0:09:51–0:09:56
dann, wenn du halt irgendwie handelst in irgendeiner Form, also rein zufällig,
0:09:57–0:09:58
dann passiert was. Aber du?
0:09:58–0:10:01
Die Frage ist natürlich, wie du zielgerichtet handeln kannst,
0:10:01–0:10:03
um dann letztendlich dein Ziel zu erreichen.
0:10:04–0:10:07
Das ist ja so immer dieses. Also dieses Goal driven.
Micz Flor
0:10:08–0:10:12
Ja nicht nur Gold und das ist das Prozedurale auch das halt.
0:10:12–0:10:15
Das wird oft eben bei diesem Deep Learning auch nicht wirklich.
0:10:16–0:10:19
Wie du in der letzten Folge gesagt hast. Gibt halt so einen Trigger,
0:10:19–0:10:21
man fragt was und dann kriegt man auch eine Antwort drauf.
0:10:22–0:10:27
Aber diese Idee, dass man vorausschauend prozedural etwas entwickelt oder auch auf,
0:10:28–0:10:34
auf was sie angeht, gibt so ein bisschen ist aber eben auf Dinge reagiert und
0:10:34–0:10:40
die Mittel to take into account, also dass die mit in einem Prozess mit berücksichtigt werden.
0:10:41–0:10:47
Das ist natürlich noch mal eine ganz andere Hausnummer, dass man eben vorausschauend
0:10:47–0:10:51
Modelle irgendwie auf die Welt anwendet und dann Ziele, Motivation und diese
0:10:51–0:10:53
Sachen alles reinbringt.
Florian Clauß
0:10:53–0:10:59
Also hier vielleicht. Du hast schon referenziert, was jetzt so gibt der Unterschied
0:10:59–0:11:06
zu dem anderen was, was jetzt Deep Learning eigentlich ist, Deep Learning oder Learning.
0:11:07–0:11:10
Das ist im Prinzip, das skaliert.
0:11:11–0:11:15
Je mehr Daten ich habe, desto besser wird mein Modell.
0:11:16–0:11:19
Und das ist ja genau dieser Ressourcenverbrauch, den du auch angemerkt hast.
0:11:20–0:11:24
Es ist genau diese Sache. Ich muss unglaublich viele Ressourcen in das System
0:11:24–0:11:28
stecken und je mehr ich da reinpumpe, desto besser wird es.
0:11:29–0:11:39
Das ist ja. Also Beispiel Bildverarbeitung oder Bilderkennung und Bildgenerierung ist ja so, je mehr,
0:11:39–0:11:45
Bilder ich dann in dieses System gebe, desto besser wird dann halt auch der Output von dem System.
0:11:45–0:11:51
Und es ist im Prinzip also so, so wie es momentan funktioniert.
0:11:51–0:11:53
Es ist ja so, dass du das das,
0:11:56–0:11:59
du kannst, du Kleiner also du kannst. Wenn du ein Ergebnis hast,
0:11:59–0:12:03
dann kannst du sagen ja, mache ein bisschen das und das und dann kriegt es ein
0:12:03–0:12:05
anderes Ergebnis. Also du kannst so kleine.
0:12:07–0:12:12
Kleine. Direktiven ändern und kriegst dann halt ein anderes Ergebnis.
0:12:12–0:12:17
Es wird so, weil es eben aufgrund dieser Masse dann halt genau diese ganzen,
0:12:17–0:12:18
Ergebnisse liefern kann.
0:12:19–0:12:26
Gleichzeitig ist es extremst ressourcenaufwendig, weil es immer so eine Einzelbild Betrachtung hat.
0:12:27–0:12:34
Das heißt wenn du auf dem Bild, wenn du halt so keine 51.000 Bilder von Stühlen hast,
0:12:34–0:12:39
dann fängst du an und trainierst das System und sagst hier so der Umriss,
0:12:39–0:12:42
so sieht ein Stuhl aus in einer anderen Ebene.
0:12:42–0:12:47
Von dem neuronalen Netz sagst du halt so der Stuhl kann schwarz oder braun sein,
0:12:47–0:12:49
also oder der Stuhl kann.
0:12:49–0:12:52
Du hast ja dann so verschiedene Verknüpfungen sebene, um nur halt irgendwie,
0:12:52–0:12:57
so eine Gestaltswahrnehmung auf unterschiedlichsten Ebenen miteinander zu verknüpfen.
0:12:57–0:13:01
Aber du bist die ganze Zeit dabei, diesem System zu sagen das ist ein Stuhl,
0:13:01–0:13:04
das ist ein Stuhl, das ist ein Stuhl und dann kriegt es halt irgendwie.
0:13:04–0:13:07
Das System sagt dann halt nach dem ersten Trainingsrunde ah,
0:13:07–0:13:10
zu 80 % bin ich mir sicher, dass das ein Stuhl ist.
0:13:10–0:13:14
Und dann sagst du Nein. Doch, und dann und dann halt irgendwie trainiert das,
0:13:14–0:13:20
dann doch irgendwie. Zu 99,7 % bin ich mir sicher, dass es ein Stuhl ist. Und das ist.
Micz Flor
0:13:20–0:13:22
Wer und das ist aber nochmal wichtig festzuhalten, was du da beschreibst,
0:13:22–0:13:26
ist glaube ich in der Tat gerade das Ziel, dass man das halt so perfekt schafft,
0:13:27–0:13:31
weil natürlich momentan am meisten durch die Presse geht, Wenn irgendwie eine
0:13:31–0:13:35
künstliche Intelligenz, die ein Auto lenkt, für Unfälle und Tode sorgt.
0:13:35–0:13:42
Das ist halt wirklich angsteinflößend und deshalb ist es halt gerade so ein
0:13:42–0:13:45
Incentives, das Ding perfekt zu machen.
0:13:45–0:13:50
Und das wird eben dann aber wiederum auch auf einer sozialen Ebene durch Publikationen
0:13:50–0:13:52
gefördert. Das heißt, es werden halt mehr Sachen publiziert,
0:13:52–0:13:54
wo es halt noch besser wird. Noch besser wird noch.
0:13:54–0:13:59
Wenn allerdings irgendwann das Ganze kippt und man merkt, man kann das einfach
0:13:59–0:14:01
mit der bestehenden Energie nicht mehr,
0:14:03–0:14:07
weder moralisch noch finanziell irgendwie durch pushen, dann kann es gut sein,
0:14:07–0:14:11
dass auf einmal das Ziel wird zu sagen energieeffizient.
0:14:11–0:14:12
Das gleiche Ergebnis.
0:14:13–0:14:17
Sagen wir mal, das Ergebnis ist uns jetzt gut genug und jetzt gewinnt immer
0:14:17–0:14:21
die Publikation, die energieeffizient Algorithmen entwickelt oder Hardware entwickelt,
0:14:21–0:14:22
die das Gleiche herstellen kann.
0:14:23–0:14:26
Also ich glaube diese Idee, dass dass es.
0:14:27–0:14:33
Dass es immer darum geht, das System noch zu verbessern. Das ist angelegt auch,
0:14:33–0:14:38
in Einladungen, auf Konferenzen, in Publikationen, im Magazin. Das.
Florian Clauß
0:14:39–0:14:43
Ja, ich meine aber, wie du sagst. Du wirst dann irgendwann in diesem in diesem
0:14:43–0:14:48
exponentiellen Bereich, wo du für eine Verbesserung des Systems,
0:14:48–0:14:52
wie bei Bitcoin dann halt so viel mehr Aufwand reinstecken musst,
0:14:52–0:14:56
dass sich das dann halt in der Energiebilanz gar nicht mehr lohnt.
Micz Flor
0:14:56–0:15:01
Ja und das spannende ist ja auch das, dass es sich eben nicht mehr lohnt, Dinge auszusitzen.
0:15:01–0:15:04
Das war früher so, dass man oft zum Beispiel Patente angemeldet hat für bestimmte,
0:15:05–0:15:07
Algorithmen, um Datenbanken zu durchsuchen.
0:15:07–0:15:12
Nicht weil die gut sind, sondern weil man wusste okay, spätestens in fünf Jahren,
0:15:13–0:15:15
ist die Hardware gut genug, das zu rechnen.
0:15:15–0:15:18
Jetzt gerade geht es dann nicht. Aber der Algorithmus, den kann ich schon mal patentieren lassen.
0:15:18–0:15:23
Und diese, dieses Warten auf bessere, schnellere Hardware, das kommt gerade
0:15:23–0:15:24
ein bisschen ins Stocken.
0:15:25–0:15:30
Wird neue Hardware entwickelt und deshalb ist es auf einmal noch ein ganz anderes
0:15:30–0:15:35
Incentives, auch energiesparend zu arbeiten, weil man nicht mehr davon ausgehen
0:15:35–0:15:39
kann, dass es halt bis die Doktorarbeit publiziert ist. Der wird schon gehen.
Florian Clauß
0:15:39–0:15:42
Ja, ja, ja, ja, genau.
0:15:42–0:15:46
Also auch die Frage, wie kriegt man da jetzt eine neue Ära oder andere Modelle
0:15:46–0:15:51
rein? Und da ist jetzt auch den Ansatz, den jetzt dann Joscha Bach und Michael
0:15:51–0:15:55
Lewin liefern ist halt ähm das eben.
0:15:56–0:16:03
Also und dann aus der Biologie angelehnt, dass man quasi die einzelnen Teile,
0:16:04–0:16:09
in einem neuronalen Netz dass die dann halt quasi,
0:16:10–0:16:13
viel berechnender sind also,
0:16:15–0:16:17
jetzt wie so kleine Turingmaschine,
0:16:18–0:16:23
die dann halt auch eben auf dieser Ebene Entscheidungen treffen können,
0:16:23–0:16:28
die dann nicht mehr dieses Ganze den Kontext brauchen, sondern halt eine eigene.
0:16:28–0:16:32
Ich sag mal so eine eigene Logik mitbringen, eigenes Programm,
0:16:32–0:16:37
was sie dann halt abfahren können und was dann halt quasi auf die eine,
0:16:37–0:16:39
auf die Umwelt dann wieder wirkt.
0:16:40–0:16:44
Das heißt, das ist genau dieser, dieser Ansatz, das, dass es halt,
0:16:46–0:16:51
an der Stelle effektiver und energieeffizienter wird und da kommst du halt in
0:16:51–0:16:57
diesem Bereich der zellulären Turingmaschine, weil Zellen sind halt Turingmaschine.
0:16:57–0:17:00
Das ist halt so, das kann man halt einfach so sagen.
0:17:01–0:17:05
Ich hab auch Cherrypity gefragt und er hat gesagt ja geht.
Micz Flor
0:17:03–0:17:04
Was soll ich sagen?
Florian Clauß
0:17:06–0:17:12
Darf ich sagen, Zellen sind einzelne Turingmaschinen, weil es gibt dann halt.
Micz Flor
0:17:06–0:17:07
Die Wirtschaft.
Florian Clauß
0:17:12–0:17:17
111 Reiz, ein Einwirken, es gibt ein Programm, was abläuft und es gibt dann
0:17:17–0:17:22
halt ein eine Reaktion oder eine Aktion, die daraus folgt.
0:17:22–0:17:25
Es ist ja im Prinzip und jetzt ist es halt rein deterministisch,
0:17:26–0:17:28
es läuft halt durch den Zellkern, wie auch immer.
0:17:29–0:17:32
Aber es ist ja sehr programmatisch, das ist eine Turingmaschine,
0:17:32–0:17:35
die kann dann halt bestimmte Antworten formulieren.
Micz Flor
0:17:35–0:17:39
Aber dann springe ich nur ganz kurz in die Konrad Zuse Folge. Ich finde es.
Florian Clauß
0:17:38–0:17:40
Ja, ja, genau das will ich. Sehr gut.
Micz Flor
0:17:40–0:17:46
Nein, da gab es ja diese, diese Grenzen, diese kleinen Maschinenbauwerks Werkbank
0:17:46–0:17:48
oder ich weiß gar nicht mehr genau, wie es hieß,
0:17:49–0:17:57
der ja die Überlegung hatte also der Erfinder des ersten Computers mechanisch
0:17:57–0:18:01
und dann später mit Relais und dann später mit Transistoren.
0:18:01–0:18:05
Der hatte dann irgendwie schon in den 60er Jahren die Idee, man könnte eben,
0:18:05–0:18:08
eine Werkbank bauen, die vollautomatisch sich selbst replizieren kann.
0:18:09–0:18:13
Und nicht nur das, sondern sie könne sich dann auch selbst replizieren und immer kleiner machen.
0:18:13–0:18:16
Also eine Art Universalmaschine. Nicht als Computer in der digitalen,
0:18:16–0:18:19
symbolisierten Welt, sondern in einer materiellen Welt.
0:18:20–0:18:25
Und das war wirklich auch so inspiriert von der Biologie ist damals natürlich,
0:18:25–0:18:30
das haben wir ja dann irgendwie im Moment im Technikmuseum erlebt,
0:18:30–0:18:32
an dem Energiethema gescheitert.
0:18:34–0:18:38
Aber genau da ging es auch darum, Zellen zu bauen.
0:18:39–0:18:44
Die Zellen, die, wie wir vermuten, trans episodenhaft vermuten,
0:18:44–0:18:49
mit Quantenmechanik Dinge stemmen können, die Newtonsche Materie einfach nicht kann.
0:18:50–0:18:53
Und ja, zu Punkt.
Florian Clauß
0:18:53–0:18:57
Ja ne, genau. Dann muss ich auch daran denken, dass es im Prinzip also dieser
0:18:57–0:19:02
Ansatz, den auch Suse dann halt gemacht hat, eben diese, diese sich immer verkleinerten
0:19:02–0:19:05
Maschinen, die dann aber auch immer ein Programm fahren.
0:19:06–0:19:10
Also genau das ist immer so aus der aus der Biologie ist es so,
0:19:10–0:19:14
dass die Ressource die quasi teuer ist.
0:19:16–0:19:21
Wenn du jetzt auf biologische Systeme guckst, ist die Zeit ne.
0:19:21–0:19:26
Während du bei so einem Machine Learning, bei so einem ist Zeit kein nicht teuer.
0:19:26–0:19:32
Zeit ist fast unbegrenzt verfügbar, weil du hast diese extreme hohe Taktfrequenz
0:19:32–0:19:36
hast, während du biologische Systeme live laufen, einen ganz anderen Takt.
Micz Flor
0:19:37–0:19:40
Wenn die schneller Attacken würden, würden sie verbrennen.
Florian Clauß
0:19:40–0:19:45
Ja, genau. Nein, die laufen halt in Millisekunden.
0:19:45–0:19:49
Diese weiß, wie viel Rechenleistung einfach durch diese extrem hohe Taktfrequenz
0:19:49–0:19:52
und die Parallelisierung dadurch ist, zeigt keinen.
0:19:52–0:19:56
Deswegen kann man diese ganzen Millionen Bilder überhaupt prozessieren,
0:19:56–0:19:59
weil Zeit dann halt irgendwie keine Rolle spielt.
0:19:59–0:20:06
Wenn im Gehirn oder im biologischen System ist das halt eine sehr rare Ressource.
0:20:06–0:20:14
Das heißt, hier gibt es dann eben diese Notwendigkeit, dass man halt operationalisiert,
0:20:14–0:20:18
indem man halt diese Berechnung, also das heißt,
0:20:18–0:20:23
es werden durch diese, wenn man diese kleinen Turing Dinger da die Zellen dann
0:20:23–0:20:28
sieht, dass die halt quasi parallel alle möglichen Zustandsformen berechnen können.
0:20:29–0:20:34
Das ist halt so das, was ein biologisches System wieder schneller macht oder effektiver.
0:20:35–0:20:39
Das heißt, diese, ich sage jetzt mal, diese Intelligenz ist dann halt viel mehr
0:20:39–0:20:44
in diesen einzelnen Knoten aufgehoben, die dann halt aber autark für sich dann
0:20:44–0:20:46
halt bestimmte Berechnungen ausführen können.
0:20:48–0:20:50
Und dass dadurch das effektiver wird.
0:20:50–0:20:55
Gleichzeitig gibt es dann halt auch diese, diese Möglichkeit.
0:20:56–0:20:59
Was jetzt gemacht wird, ist dann halt eine Parallelisierung.
0:20:59–0:21:07
Da kommt wieder dieser Begriff von ah, das ist so aus dem Darwinismus entlehnt.
0:21:07–0:21:11
Das ist dann halt quasi die Wirklichkeit,
0:21:12–0:21:17
also die Idee, dass das Gehirn quasi,
0:21:17–0:21:23
ein sowieso ein Multiversum ist, weil alle möglichen Realitäten schon irgendwo
0:21:23–0:21:27
als Modelle in diesem Gehirn zeitgleich ablaufen, bis dann halt tatsächlich
0:21:27–0:21:30
das reale Handeln dann einfach ein Modell Wirklichkeit werden lässt.
0:21:30–0:21:34
Aber es ist halt eigentlich das Gehirn funktioniert wie ein Multiversum,
0:21:35–0:21:39
weil halt genau diese ganzen Zustände schon irgendwo vorhanden und berechnet werden.
0:21:39–0:21:42
Und das ist halt so, diese Effektivität von biologischen Systemen.
0:21:43–0:21:45
Also es ist sehr abstrakt, aber so?
Micz Flor
0:21:45–0:21:49
Ja, ja, es geht. Da glaube ich auch darum, dass du natürlich in dem Multiversum
0:21:49–0:21:54
hast du halt immer dieses, dieses Bild, dass alles, was möglich ist,
0:21:54–0:21:56
parallel auch schon irgendwie ist oder so.
0:21:57–0:22:00
Während in biologischen Systemen, glaube ich, ist über die Zeitkomponente,
0:22:00–0:22:04
was du gerade gesagt hast, das auch immer ein bisschen eingeschränkt.
0:22:05–0:22:10
Wir haben ja natürlich jedes Mal Ende des Jahres gibt es die besten Wünsche
0:22:10–0:22:14
für das nächste Jahr und dann irgendwelche Kalendersprüche oder so Bilder, die uns aufzeigen.
0:22:15–0:22:18
Die Reise ging jetzt bis hier. Das heißt aber nicht, dass sie in die Richtung
0:22:18–0:22:21
weitergehen musst Du bist frei, dich immer wieder irgendwohin zu drehen,
0:22:21–0:22:27
was Neues anzufangen, während in Wahrheit biologische Systeme natürlich nicht determiniert sind.
0:22:27–0:22:32
Allerdings der Möglichkeitsraum ist eingeschränkt, Es sind nicht alle möglichen
0:22:32–0:22:38
Universen parallel existent, aber von allen Möglichkeiten, die es gibt,
0:22:38–0:22:40
was ein begrenzter Raum ist,
0:22:41–0:22:45
wird dann eine gewählt und das determiniert dann eben den nächsten Schritt.
Florian Clauß
0:22:47–0:22:52
Genau. Ähm, also die. Die machen auch so ein bisschen.
0:22:52–0:22:56
Also die jetzt Joscha Bach und Michael Lewin, die bashen auch so ein bisschen
0:22:56–0:23:00
gegen die bestehenden Biologieansichten.
0:23:01–0:23:07
Was jetzt in der Neurowissenschaft usw. jetzt so dafür Modelle eben vorherrschen. Also ein.
0:23:07–0:23:10
Ein Beispiel ist halt das ähm.
0:23:12–0:23:16
Dass die Neurowissenschaftler eigentlich keine geeigneten Tools haben,
0:23:16–0:23:22
die versuchen, das Gehirn zu verstehen, indem sie halt draufgucken und dann halt beobachten.
0:23:22–0:23:26
Aber jetzt zum einen Ein,
0:23:27–0:23:30
Experiment hat gezeigt, dass sie zum Beispiel auch Neurowissenschaftler mit
0:23:30–0:23:36
ihren Tools wenn die dann zum Beispiel nur so einen Mikroprozessor Reverse Engineering
0:23:36–0:23:38
sollen, dass die das nicht hinbekommen haben.
0:23:38–0:23:41
Also du guckst dann auch und ich meine, das Gehirn ist noch viel komplexer.
0:23:42–0:23:45
Also wenn du noch nicht mal das schaffst, ein Mikroprozessor,
0:23:45–0:23:50
dann halt so, um zu wissen, wie der funktioniert, weil das halt nicht auflösbar.
Micz Flor
0:23:50–0:23:55
Die Nummer, das heißt die, die, weil die Neurologen nicht Computer bauen können.
Florian Clauß
0:23:55–0:23:58
Wenn nicht Computer, dann reverse engineering, also immer quasi ein.
0:23:59–0:24:02
Also wenn du jetzt ein Mikroprozessor von außen drauf guckst,
0:24:02–0:24:06
den beobachten kannst, du kannst den dann halt nicht mit deren Tools head kann
0:24:06–0:24:09
man den jetzt nicht Reverse Engineering und wissen wie der funktioniert?
Micz Flor
0:24:09–0:24:14
Zu mir. Okay, gut. Das weiß ich. Was ist? Ich müsste mal. Ich.
Florian Clauß
0:24:11–0:24:15
Also es war jetzt so ist es, glaube ich, so ein bisschen, ein bisschen anekdotisch.
Micz Flor
0:24:15–0:24:16
Anekdotisch. Ja, ja, ja.
Florian Clauß
0:24:15–0:24:21
Ich weiß nicht, ob das jetzt nur so ein Bashing ist und dann halt irgendwie so und und und.
Micz Flor
0:24:16–0:24:19
So ein Bashing ist dann halt irgendwie so und.
Florian Clauß
0:24:21–0:24:27
Eine interessante Erkenntnis ist auch das ist also wo wo ich dann ja klar also,
0:24:28–0:24:32
also die Zellen sind ja alle irgendwo gleich aufgebaut.
0:24:32–0:24:37
Sie kriegen ja dann halt je nach Entwicklung des des Individuums kriegen die
0:24:37–0:24:39
dann halt entsprechende Interna.
0:24:39–0:24:43
In so einer Entwicklungsphase kriegen die ja dann die Aufgaben zugewiesen.
0:24:43–0:24:49
Und die Frage ist halt, was unterscheidet jetzt die Neuronen von anderen Zellen?
0:24:50–0:24:58
Und die Neuronen sind ja auch dann nur so in tierischen Lebensformen, so sind die quasi drin.
0:24:59–0:25:04
Das ist ja nicht in Pflanzen, da gibt es ja keine Neuronen in dem Sinne Neuronen.
0:25:04–0:25:08
Das was die unterscheidet, ist halt diese extrem langen Arme,
0:25:08–0:25:12
die Axiome, die dann mit denen, denen dann halt quasi diese, ähm,
0:25:13–0:25:18
diese, diese elektrischen Impulse übertragen werden können und was den das jetzt
0:25:18–0:25:23
bringt, ist ein extremer Zeitvorteil und deswegen kam dann auch nochmal so ein
0:25:23–0:25:25
Schluss daraus ist halt, dass,
0:25:26–0:25:34
quasi mit der Entwicklung der Neuronen dann auch eine andere Taktfrequenz bei
0:25:34–0:25:39
dem jeweiligen Organismus und deswegen konnten halt zum Beispiel die Tiere dann,
0:25:39–0:25:41
sich schneller bewegen als Pflanzen,
0:25:42–0:25:43
und dann wird auch gesagt, dass.
Micz Flor
0:25:43–0:25:45
Bei den meisten Fans sind wirklich schnell.
Florian Clauß
0:25:45–0:25:51
Äh, nein. Aber es ist auch die Frage, wo entsteht dann halt Intelligenz?
0:25:51–0:25:56
Und wenn du dann dieses Modell von Intelligenz das ist, dann ist auch eine Pflanze
0:25:56–0:25:58
intelligent, nur auf einer anderen Zeitachse.
0:25:58–0:26:03
Also das ist dann hier auch so, dass es halt dann so ein bisschen wie bei Herr
0:26:03–0:26:07
der Ringe, die sind die, die wir essen hier abends oder wie heißen diese Bäume,
0:26:08–0:26:11
die dann halt auch mehr extrem lange und jetzt müssen sie auf einmal in so einer
0:26:11–0:26:13
Echtzeit anfangen zu reagieren.
0:26:13–0:26:18
Das können die gar nicht, weil die überhaupt nicht auf diese Zeit Taktung eingestellt sind.
0:26:18–0:26:23
Und das finde ich halt total auch so okay. Also ich meine, das ist ja so, man sucht dann halt.
0:26:23–0:26:26
Er versucht dann immer so, man hat dieses und das ist meine ich halt so dieses,
0:26:27–0:26:32
was wir in der Folge davor besprochen haben, dieses sehr menschenfixierte Idee
0:26:32–0:26:34
von Intelligenz, Bewusstsein usw.
0:26:34–0:26:39
Aber wenn du das halt man dann siehst, halt irgendwie ist überall Intelligenz im System drin.
0:26:40–0:26:44
Nur so funktioniert das, dass halt irgendwelche Orchideen den Hinterleib von
0:26:44–0:26:48
einer weiblichen Wespe mit den Duftstoffen nachbauen kann, um sich dann halt,
0:26:48–0:26:51
irgendwie quasi von der männlichen Wespe bestäuben zu lassen.
0:26:52–0:26:57
Also nur wie funktioniert das? Aber irgendwie ist es ja auch dann,
0:26:57–0:27:02
wenn man halt sagt okay, da ist irgendwie Information drin, die kann prozessiert
0:27:02–0:27:05
werden und die kann zu bestimmten Aktionen führen.
0:27:05–0:27:08
Dann finde ich das wieder so gar nicht so erstaunlich.
Micz Flor
0:27:09–0:27:14
Nein, das ist denn auch so. Intelligenz ist also eher im Rahmen von Kognition.
0:27:14–0:27:18
Wird dann so von basaler Kognition auch unterschieden, was Pflanzen auch irgendwie
0:27:18–0:27:24
schon haben könnten, wo man, wie du sagst, einfach mit der Zeitachse auch viel tun kann.
0:27:24–0:27:28
Wenn du den Efeu in Zeitrafferfilms wie einen Baum hochklettert,
0:27:28–0:27:33
dann hast du das Gefühl und das ist dann auch wieder eine menschliche Interpretation.
0:27:33–0:27:37
Auf einmal hast du das Gefühl, dieser Efeu, der guckt dann hier ein bisschen rechts, links.
Florian Clauß
0:27:36–0:27:39
Nein, das ist keine Dementi. Ich habe nämlich jetzt auch diese von Attenborough,
0:27:39–0:27:41
diese Pflanze hier geguckt.
0:27:41–0:27:45
Und die haben das wirklich mit so einem ganz neuen Technologien von Kamera.
Micz Flor
0:27:41–0:27:41
Okay.
Florian Clauß
0:27:45–0:27:48
Wo die dann halt im Zeitraffer dann gleichzeitig noch einen Schwenk gemacht habe.
0:27:48–0:27:51
Und es ist tatsächlich so in dieser Dynamik, wie die das gefilmt haben,
0:27:52–0:27:56
dann waren das halt einfach Verhaltensweisen, die man normalerweise aus der Tierwelt kennt.
0:27:56–0:28:01
Und das war wirklich so ein zielgerichteter Efeu schwingt sich rum über und,
0:28:01–0:28:04
und dann findet er halt irgendwie so einen Griff und geht da rein.
0:28:04–0:28:08
Also das ist halt gar nicht mehr so, dass es rein interpretiert ist,
0:28:08–0:28:11
sondern die funktionieren tatsächlich so, das ist total mein Blowing.
Micz Flor
0:28:11–0:28:15
Und ja, lustig, dass sie mit EFA war, weil normalerweise wird das immer mit
0:28:15–0:28:17
Erbsen über Erbsen gesprochen.
0:28:17–0:28:20
Ich habe jetzt gedacht, ich sage mal EHF, weil wir gerade sehr sympathisch sind.
Florian Clauß
0:28:20–0:28:23
Nein, es war Kletterpflanze. Nicht, ob das jetzt die Efeu Art war.
Micz Flor
0:28:21–0:28:29
Also okay, aber das genau Und dann ist es aber trotzdem so, dass die wie soll,
0:28:29–0:28:30
ich sagen? Also diese Frage.
0:28:32–0:28:36
Ähm, na es geht halt wieder zurück. Aber diese Frage, was du schon so gesagt hast, dieses,
0:28:37–0:28:42
Antroposophische, eben dieses Menschen Mensch ist der Mittelpunkt und vom Menschen
0:28:42–0:28:45
ist es alles gemessen in Distanz und so, dass man halt guckt,
0:28:45–0:28:50
sobald der Efeu schnell genug ist, dass wir ihn als Mensch sich bewegen sehen, dann,
0:28:50–0:28:53
gönnen wir ihm auf einmal, dass er auch mehr kann.
0:28:54–0:28:57
Dann haben wir ihn auch immer mehr lieb und sind ehrfürchtig.
Florian Clauß
0:28:59–0:29:05
Also mir ist jetzt grade nochmal eingefallen, dieses Modell von neuronaler Darwinismus,
0:29:05–0:29:06
was ich eben angesprochen habe.
0:29:06–0:29:12
Es ist die Theorie von Gary Edelman. Ganz viele Theorien sind auch so in den 40er,
0:29:13–0:29:23
50er, 60er und 80er und jetzt sind wir also auf so einer Materialreife und auch,
0:29:23–0:29:25
dass man halt so Sachen dann halt wirklich machen kann.
0:29:25–0:29:29
Das ist auch ganz interessant, weil die Theorie, Ansätze gibt es schon vorher
0:29:29–0:29:31
und darauf wird er sich berufen.
0:29:32–0:29:35
Aber jetzt ist es in so einer Reife, dass man es halt auch wirklich praktizieren kann.
0:29:36–0:29:40
Also einfach durch die Rechenkapazität und durch die ganzen Versuchsanordnungen.
0:29:41–0:29:47
Ja genau. Also unser Gehirn ist jetzt, funktioniert dann auch.
0:29:47–0:29:51
Es kommt auch immer wieder vor in so in vielen, in so Loops.
0:29:51–0:29:53
Ganz viel wird immer so durch gelobt.
0:29:54–0:29:58
Das ist dann halt wieder hoch kommt und wieder runter. Also das heißt es ist,
0:29:58–0:30:04
diese Parallelisierung und diese Lupen das gleichzeitige setzt weicht dann eben,
0:30:04–0:30:07
ab von so meinetwegen so Bild Stabilisierungsverfahren in so einer.
0:30:08–0:30:12
In so einem neuronalen Netzen, wo dann halt wirklich jedes einzelnen Bild betrachtet wird.
0:30:12–0:30:18
Also im Gehirn werden ja, so teile er dann Teil Probleme dann halt quasi behandelt.
0:30:18–0:30:22
Und dadurch bist du halt viel kleiner unterwegs. Das ist auch so!
0:30:23–0:30:27
Es gibt dann halt auch so ein Untersuchungsobjekt, so ein, so ein Wurm.
0:30:27–0:30:33
Der hat dann halt nur 309 Neuronen und der kann sich aber sinnvoll bewegen.
0:30:33–0:30:39
Aber kein kein Modell aus dem ganzen ML Bereich oder aus dem hat es geschafft
0:30:39–0:30:43
mit so einer Neuronenmenge überhaupt ein Bewegungsmuster zustande zu bekommen.
0:30:43–0:30:47
Das ist halt genau dieser Punkt, wo sich dann halt das wieder in so einer gewissen,
0:30:47–0:30:51
Quantität versus Qualität dann wieder zeigt.
0:30:51–0:30:55
Das heißt, der Ansatz funktioniert da nicht und das ist halt so und generell
0:30:55–0:30:59
kann man sagen, so mit dem Ansatz gibt es bestimmte Probleme,
0:30:59–0:31:03
also mit dem traditionellen Machine Learning Ansatz, aber es kann halt bestimmte,
0:31:03–0:31:06
biologische Patterns nicht abbilden, Da muss man.
Micz Flor
0:31:06–0:31:09
Da wäre ich jetzt also. Es würde mich interessieren, da nochmal genau rein zu
0:31:09–0:31:10
gucken. Natürlich ist ein.
0:31:11–0:31:18
Ähm also der Begriff Neuron auf biologischer Ebene oder der Begriff Neuron auf,
0:31:18–0:31:21
Machine Learning Ebene ist ja auch sehr unterschiedlich.
0:31:21–0:31:23
Also es ist ja so, dass du.
0:31:23–0:31:26
Du hast ja bei Neuronen im biologischen Raum, hast ja,
0:31:29–0:31:35
eine Kombination aus chemischen, also biochemischen und elektrischen Impulsen
0:31:35–0:31:37
oder Informationen, wenn man es so sagen möchte.
0:31:38–0:31:42
Und in den neuronalen Netzen, die sind ja sehr simplifiziert.
0:31:42–0:31:47
Oftmals gibt es dann schon so was wie Interneuron, also dass ein aktives Neuron
0:31:47–0:31:51
auch Neuronen hemmen kann. Muss nicht sein.
0:31:51–0:31:55
Die nebenan liegen, und zwar über die Anzahl der Synapsen. Die ist ja bei echten
0:31:55–0:31:57
Neuronen nicht festgelegt.
0:31:57–0:32:00
Es ist halt die Synapsenbildung. Die passiert ja dann irgendwie im.
Florian Clauß
0:32:00–0:32:03
Ja, das stimmt. Da muss man immer mal gucken, ob das jetzt so übertragbar ist.
0:32:03–0:32:07
War nur ein Beispiel dafür, dass es halt mit einer beschränkten Verknüpfungsanzahl,
0:32:08–0:32:14
also da brauche ich halt eine gewisse Menge wieder, um sinnvolle Patterns abbilden zu können.
Micz Flor
0:32:14–0:32:17
Und das ist auch so. Ich finde es total interessant, dass das,
0:32:17–0:32:20
was du sagst, eben wieder auf diese Menschenzentrierung,
0:32:21–0:32:25
es wird ja immer wieder auch im Dialog dann versucht zu schauen,
0:32:25–0:32:30
was könnte man denn von menschlichem Denken oder tierischen denken?
0:32:30–0:32:33
Was könnte man denn da noch lernen, um das zu verbessern? Und zum Beispiel diese
0:32:33–0:32:35
Schleifen, die im Gehirn passiert.
0:32:35–0:32:40
Das gibt es inzwischen auch in Deep Learning neuronalen Netzen zwischen einzelnen
0:32:40–0:32:43
Layern, die halt bestimmte Dinge machen und man merkt das halt.
0:32:44–0:32:50
Mit Schleife ist es sehr viel Energie aufwendiger, aber in manchen Aufgabenbereichen
0:32:50–0:32:54
dann sehr viel effektiver und man fängt es dann irgendwie an, so zu kombinieren.
0:32:55–0:32:59
Wenn du jetzt zum Beispiel vorstellst, du hast halt irgendwie ein Eichhörnchen,
0:32:59–0:33:03
das hört was, das Eichhörnchen schreckt auf und guckt dann hin und was ist das?
0:33:03–0:33:07
Und das ist ja, dann sind wir so zwei Systeme am Laufen, Das Hören alarmiert,
0:33:07–0:33:13
das Sehen, versucht dann zu erkennen und und ähnlich ist es dann auch in neuronalen
0:33:13–0:33:16
Netzen, dass du dann auf einmal so einen Trigger kriegst und sagst okay,
0:33:16–0:33:18
kuck hier noch mal hin, ist das das?
0:33:18–0:33:25
Ich kann dir quasi nur eine Warnung geben und das energieintensive System wird
0:33:25–0:33:30
erst angeworfen, wenn quasi so ein basales System eine Warnung gibt.
0:33:30–0:33:33
Ja, verstehst du? Ich meine, das heißt, diese diese Art und Weise,
0:33:33–0:33:39
wie Biologie funktioniert, das färbt auch immer wieder in das Machine Learning
0:33:39–0:33:43
natürlich hinein, was natürlich aber dann auch immer noch in sich trägt,
0:33:43–0:33:45
dass es darum geht, so eine Art.
0:33:47–0:33:50
Menschliches Sein zu entwickeln. Also das ist ja irgendwie das,
0:33:51–0:33:52
wo ich da manchmal denke,
0:33:52–0:33:55
vielleicht muss es ja nicht sein wie wir, sondern es muss einfach nur besser
0:33:55–0:34:02
sein als wir Und dadurch kann es dann wirklich spezialisiert auf bestimmte Bereiche perfektionieren.
0:34:03–0:34:08
Weil Taschenrechner kann schneller rechnen als wir, aber ist insgesamt wirklich
0:34:08–0:34:10
ein dummes Objekt, aber er kann bestimmte Sachen, die wir nicht.
Florian Clauß
0:34:11–0:34:14
Also zum Beispiel ist es so, dass es auch sehr aufwendig ist,
0:34:14–0:34:18
in so einem neuronalen Netz dann quasi eine gewisse Arithmetik beizubringen.
0:34:18–0:34:22
Nein, die Rechenoperationen, weil du hast für jedes einzelne Ding dann halt,
0:34:23–0:34:27
durchexerzieren musst wären da kann ich auch wieder nur aus auf Aussagen mich
0:34:27–0:34:29
beziehen die ich da in dem Vortrag gehört habe.
0:34:29–0:34:34
Es ist so, dass du halt in so einem biologischen System dann halt quasi,
0:34:34–0:34:40
wenn du da eine Arithmetik installiert hast, dass das dann halt quasi weitergegeben
0:34:40–0:34:43
wird von Neuronen zu Neuronen, ohne dass die neu trainiert werden müssen.
0:34:44–0:34:48
Also das heißt, da gibt es halt so einen Fluss von Information,
0:34:48–0:34:52
der dann halt nicht wieder so alles aufbereiten und so.
0:34:52–0:34:58
Und die andere Sache ist auch wie. Also das, was man halt.
0:34:59–0:35:04
Generell, wie sich die Welt quasi abbildet in biologischen Systemen,
0:35:04–0:35:08
so dass du auf Veränderungen reagierst. Also es geht darum, dass du halt.
0:35:09–0:35:15
Also dass Veränderung dieses Lernen in so einem neuronalen Netz ist dann halt
0:35:15–0:35:17
wirklich wieder so Frame basiert.
0:35:17–0:35:22
Einzelbilder ja, aber es wird nicht so sehr diese Veränderung über diese Frames,
0:35:22–0:35:25
gemacht, sondern es ist dann halt in so biologischen Systemen.
0:35:25–0:35:29
Beispiel Katze in die Katze kann halt einen Ball nicht erkennen.
0:35:29–0:35:32
Erst wenn er in Bewegung ist, erkennt er den und und das, was dann halt wieder
0:35:32–0:35:36
Joscha Bach dann wieder so auffaltet wir diese Berechenbarkeit.
0:35:36–0:35:42
Das heißt in dem Moment, wenn er jetzt in einem in einem Raum Sachen sich dann
0:35:42–0:35:45
halt nur ganz wenig bewegen.
0:35:45–0:35:50
Es geht immer um diese Degree nicht abweichen und das hat dann der Michael Lewin
0:35:50–0:35:53
hat mir mal bestätigt, dass mit Neuronen dass die halt auch nicht an so einer,
0:35:54–0:35:58
an so einem Grundimpuls die braucht halt halt die müssen nicht so sondern die
0:35:58–0:36:00
reagieren also das ist auch so die neuere Forschung,
0:36:01–0:36:06
die in Neuronen also neuronale Zellen jetzt reagieren dann quasi nur auf so
0:36:06–0:36:11
minimale Spannungsdifferenzen das sind die eigentlichen Trigger für bestimmte
0:36:11–0:36:14
Sachen und nicht mehr diese expliziten Spannungsdifferenzen.
0:36:15–0:36:20
Und da wo dann halt so ein, wo sich dann halt dass quasi die Veränderung in
0:36:20–0:36:27
einem in einem wahrgenommenen in einer wahrgenommenen Umgebung dann fängst du an halt zu.
0:36:27–0:36:32
Sehen das ist ein Objekt und das hat diese Feature und und diese Feature kannst
0:36:32–0:36:37
du quasi aus dem Zusammenhang erschließen und die werden dann halt quasi in
0:36:37–0:36:41
dem Moment, wenn sich das bewegt, ohne dass jetzt jemand quasi der trainiert,
0:36:41–0:36:46
Netzwerk wo dann sagst du das ist ein Stuhl, sondern das ist jetzt es wird auf
0:36:46–0:36:48
einmal zum Stuhl, weil es in der Bewegung,
0:36:49–0:36:52
die genau diese Features eines Stuhls dann zeigt,
0:36:53–0:36:57
und das ist halt auch so so funktionieren lernende biologische Systeme und das
0:36:57–0:37:01
ist mal auch so ein fundamentaler Unterschied, dass wir also dass mehr auf diese
0:37:01–0:37:05
Veränderung und alles, was sich nicht bewegt und nicht verändert,
0:37:05–0:37:06
ist erstmal uninteressant.
Micz Flor
0:37:06–0:37:13
Ja, das ist ja sogar so, das kennt man ja, diese ganzen Grundschulen,
0:37:13–0:37:18
da kennt man ja diese ganzen Grundschulsachen, wo man halt lange auf dem Bild
0:37:18–0:37:20
draufguckt und dann verschwindet der Punkt.
0:37:20–0:37:25
Das heißt, unsere auch auf einer biologischen Ebene, gar nicht auf einer kognitiven,
0:37:25–0:37:27
sondern eine wirklich in den Zellen im Auge. Es ist ja so angelegt,
0:37:27–0:37:32
wenn wir lange auf einen Punkt gucken, dann wird alles andere gleich.
0:37:33–0:37:36
Das heißt, wir sehen dann wir. Im Prinzip tendieren wir dazu,
0:37:36–0:37:37
daraus ein weißes Feld zu machen.
0:37:37–0:37:43
Das sind nur die Unterschiede, die wir wirklich wahrnehmen. Und das haben wir
0:37:43–0:37:48
ja dann auch eben gesehen bei MP3 oder bei MPEGVideokodierung.
0:37:48–0:37:53
Das halt große Flächen werden halt irgendwie nicht so detailliert ausgerechnet,
0:37:53–0:37:57
sondern die werden halt versucht im Sinne der Datenübertragung flach zu halten,
0:37:57–0:38:00
während so was wie ein Gesicht oder wo viele Kontraste sind.
0:38:01–0:38:05
Da gehen wir halt rein und das ist wiederum was, was jetzt nicht neu ist,
0:38:05–0:38:10
sondern es war früher schon immer so, dass bei berühmten Malern,
0:38:10–0:38:14
hauptsächlich Malern, Maler innen, später aber dass man da.
0:38:15–0:38:20
Auch das so gemacht hat, dass das Bild wurde gemalt von irgendeinem Gesellen
0:38:20–0:38:24
oder so, und dann wurden halt die Hände und das Gesicht. Da hat der Meister
0:38:24–0:38:25
dann auch Hand angelegt.
0:38:25–0:38:30
Und das ist ja nicht viel anders als das, was man heute mit Algorithmen macht,
0:38:30–0:38:34
um halt die Daten besser durch das Internet zu schieben, dass man halt auf das,
0:38:34–0:38:37
was früher der Meister der Malschule,
0:38:38–0:38:40
betont hat, das ist auch das, was heute die Algorithmen tun.
Florian Clauß
0:38:43–0:38:50
Die Frage ist. Diese einzelnen Zellen, die oder auch im Verband,
0:38:51–0:38:54
die reagieren auf Umwelt, auf Umwelt ein.
0:38:54–0:38:57
Und die Frage ist wie? Also wie?
0:38:58–0:39:03
Woher kommt quasi die Information, dass das, wie sie reagiert haben, auch sinnvoll war?
0:39:03–0:39:07
Also da geht es so ein bisschen dieses übergeordnete Ziel wurde erreicht.
0:39:08–0:39:12
Ist es dann als quasi fulfilling ja oder nicht?
0:39:12–0:39:15
Also das heißt es muss hier ein System irgendwo implementiert sein,
0:39:15–0:39:20
das einen gewissen Feedbackschleife erlaubt und diese und und dann kommt man wieder zu diesem.
Micz Flor
0:39:18–0:39:18
Hm.
Florian Clauß
0:39:21–0:39:28
Quasi belohnungsgetriebenen System, das heißt, es gibt tatsächlich im biologischen,
0:39:28–0:39:33
Organismen dann halt so, so eine Sprache der Belohnung und die Belohnung sieht
0:39:33–0:39:36
dann nicht so aus, dass einer von oben sagt Ey, das hast du super gemacht,
0:39:36–0:39:37
du kriegst jetzt irgendwie so,
0:39:38–0:39:43
weil ich ein paar Glukose Glukose Moleküle mehr,
0:39:44–0:39:50
sondern es wird auch dann hier wieder in so einer in so ne in so ein quasi so,
0:39:50–0:39:54
ein Verband reagiert das heißt die benachbarten Zellen,
0:39:55–0:40:01
geben dann Feedback, das heißt, da wird wieder auch so quasi in so einem von
0:40:01–0:40:04
unten dann halt belohnt, dass die dann sagen ja.
0:40:04–0:40:09
Hast du gut gemacht, also das ist halt so dieses Ding, das ist halt auch wieder
0:40:09–0:40:15
so embedded, ist so ein bisschen wie bei dem Ameisenstaat, wo dann halt eine Ameise dann halt quasi,
0:40:16–0:40:21
schaffen kann, ein komplettes Volk umzuerziehen, indem sie andere überzeugt.
0:40:21–0:40:25
So, das ist halt so, dieses, das ist halt auch so diese kollektive Intelligenz,
0:40:26–0:40:29
wo fängt, wo fängt denn die einzelne,
0:40:30–0:40:38
Einzelne, die einzelne Entität in einem System dann quasi das ganze System quasi mit beeinflussen kann?
0:40:38–0:40:42
Das ist halt so ganz spannend einfach an dieser Stelle.
Micz Flor
0:40:42–0:40:47
Ja, ja, ja, das ist ja auch dieses es ist, glaube ich, auch ein großes Thema
0:40:47–0:40:50
in der Biologie. Was nicht ganz geklärt ist, ist halt, wenn zum Beispiel ein
0:40:50–0:40:55
großer Organismus stirbt, dass kleine Zellen dann auch sterben.
0:40:56–0:41:01
Also das muss ja nicht unbedingt sein, aber dass es da nicht ganz klar ist,
0:41:01–0:41:05
wie der Zusammenhang zwischen Einzellern in unserem.
0:41:05–0:41:08
Also ich meine, dass keine Bakterien im Magen Darm Trakt, sondern wirklich Teil,
0:41:08–0:41:13
unserer Körperzellen, dass die dann auch ein Signal bekommen.
0:41:13–0:41:15
Oder warum müssen die dann alle sterben?
Florian Clauß
0:41:15–0:41:21
Ja, ja, das ist. Genau. Das ist, wie Informationsübertragung läuft.
0:41:22–0:41:27
Und das dann in so einer ganz zellulären Ebene.
0:41:27–0:41:34
Ich glaube, das ist so soweit zu dem Teil, den Joscha Bach in diesem Vortrag dann ausgebreitet hat.
0:41:34–0:41:42
Ich würde jetzt gerne ein zweites im zweiten Teil dann über eigentlich ja na.
Micz Flor
0:41:39–0:41:41
Das ist der eigentliche Teil, oder im.
Florian Clauß
0:41:42–0:41:48
Ja, mal gucken was eigentlich zweiten Teil über Michael Lewines Präsentation.
0:41:49–0:41:56
Also was Michael Lewin da auch eben so als als so ein so ein Paradigmenwechsel
0:41:56–0:41:58
dann auch in seinem Vortrag vorangestellt hat.
0:41:58–0:42:01
Das ist einfach die Frage wie. Wie man jetzt auch so eine,
0:42:04–0:42:07
typisch menschliche Sichtweise dann so ein bisschen verliert und dann guckt,
0:42:08–0:42:13
eben, was ich schon gesagt habe, wo Intelligenz überall quasi verankert ist
0:42:13–0:42:15
und wie andere Systeme auch funktionieren.
0:42:16–0:42:20
Ein Beispiel. Das fand ich also ganz interessant. Wir sind halt total auf so,
0:42:20–0:42:27
sehen und Erleben im dreidimensionalen Raum da ausgelegt,
0:42:28–0:42:32
aber können entsprechend halt unglaublich visuell gut auflösen.
0:42:33–0:42:35
Aber wenn wir jetzt zum Beispiel,
0:42:37–0:42:42
das Vermögen hätten, die chemische Zusammensetzung unseres Blutes wahrzunehmen,
0:42:43–0:42:47
also wenn wir das als Wahrnehmungsorgan hätten, na denn, dann wären wir halt eine Leber,
0:42:49–0:42:55
mit ner Leber oder ein Märchen.
Micz Flor
0:42:50–0:42:51
Ein Lebewesen,
0:42:54–0:42:54
oder?
Florian Clauß
0:42:56–0:43:01
Also das wäre also. Also das heißt, es gibt, es gibt diese zellulären,
0:43:03–0:43:09
Organismen, Ja, sie sind, aber sie sind quasi da, aber es ist. Sie sind vorhanden.
Micz Flor
0:43:03–0:43:05
Es gibt die Rezeptoren, sie sind uns aber nicht.
Florian Clauß
0:43:10–0:43:14
Ja, aber das finde ich auch so einen ganz guten Gedanken Kniff.
0:43:14–0:43:21
Wenn man jetzt wirklich so, dass man sich überlegt, das ist schon echt interessant
0:43:21–0:43:26
und dann erschließen sich dann halt auch quasi neue Felder und ich glaube, das ist halt so das, was,
0:43:27–0:43:30
das Team von Michael Lewin und die wollen,
0:43:31–0:43:37